Kecerdasan Buatan Sebagai Teroris: Ancaman Keamanan Baru - Pandangan Alternatif

Daftar Isi:

Kecerdasan Buatan Sebagai Teroris: Ancaman Keamanan Baru - Pandangan Alternatif
Kecerdasan Buatan Sebagai Teroris: Ancaman Keamanan Baru - Pandangan Alternatif

Video: Kecerdasan Buatan Sebagai Teroris: Ancaman Keamanan Baru - Pandangan Alternatif

Video: Kecerdasan Buatan Sebagai Teroris: Ancaman Keamanan Baru - Pandangan Alternatif
Video: Artificial Intelligence: Inilah Hebatnya Kecerdasan Buatan 2024, Oktober
Anonim

Ilmuwan Rusia telah memeriksa dan mengklasifikasikan ancaman penggunaan kecerdasan buatan (AI) dari sudut pandang informasi internasional dan keamanan psikologis. Perhatian khusus diberikan untuk melawan penggunaan berbahaya AI oleh teroris. Hasil penelitiannya dipublikasikan di jurnal Russia in Global Affairs.

Bahaya Penggunaan Berbahaya AI

Bahaya potensial kecerdasan buatan bagi umat manusia telah berulang kali menjadi topik karya seni dan saat ini menjadi salah satu isu perkembangan ilmu pengetahuan dan teknologi yang paling banyak dibicarakan. Meskipun Strong AI, yang mampu berpikir sistemik independen, dan mungkin memiliki kesadaran dan kemauan diri, masih jauh dari tercipta, berbagai versi lanjutan dari Weak AI melakukan tugas-tugas khusus yang tampak seperti fiksi ilmiah 10 tahun lalu. Penggunaan AI untuk tujuan yang baik (misalnya, dalam pengobatan) sudah membawa manfaat yang tidak diragukan lagi. Namun, di tangan teroris dan organisasi kriminal lainnya, teknologi AI yang secara bertahap lebih murah dan lebih maju dapat menjadi senjata yang lebih mengerikan daripada nuklir.

Para peneliti dari berbagai negara secara aktif mempelajari ancaman yang ditimbulkan oleh penggunaan AI yang jahat terhadap masyarakat secara keseluruhan dan bidang aktivitas manusia tertentu, baik itu politik, ekonomi, urusan militer, dll. Namun, ancaman langsung terhadap informasi internasional dan keamanan psikologis belum diidentifikasi sebagai ancaman independen. ruang lingkup pertimbangan. Sementara itu, penggunaan AI untuk mengacaukan hubungan internasional melalui informasi berteknologi tinggi yang ditargetkan dan dampak psikologis pada manusia jelas merupakan bahaya besar.

Penulis studi tersebut mengusulkan klasifikasi ancaman terhadap penggunaan berbahaya kecerdasan buatan berdasarkan sejumlah kriteria, termasuk cakupan wilayah, kecepatan, dan bentuk penyebaran. Menerapkan klasifikasi akan membantu Anda menemukan cara untuk melawan dan mengembangkan alat respons.

“Pengurangan biaya teknologi AI di masa depan dapat menciptakan ancaman serangan teroris yang pada dasarnya baru. Ada kemungkinan bahwa chatbot dapat digunakan untuk membuat pesan tentang acara palsu dan meyakinkan calon korban untuk mengunjunginya. Untuk menangkal, disarankan untuk membiasakan masyarakat dengan ancaman baru, menginstruksikan warga untuk waspada terhadap kontak jarak jauh dengan orang yang tidak mereka kenal secara pribadi. Jalan keluarnya bisa berupa sertifikasi acara publik, yang menegaskan realitas informasi yang diposting tentang acara tersebut. Tentu saja, tugas spesialis teknis dalam hal ini adalah perlindungan database pada peristiwa dan mekanisme sertifikasi mereka, - kata Profesor RIA Novosti dari Departemen Keamanan Internasional dan Kebijakan Luar Negeri Rusia, RANEPA Daria Bazarkina.

Tingkat teknologi dan kemampuan AI yang modern memungkinkan kami untuk mengidentifikasi sejumlah ancaman baru yang fundamental terhadap informasi dan keamanan psikologis seseorang.

Video promosi:

Menggunakan teknologi "orang palsu" dan "deepfake" untuk provokasi internasional

Perusahaan teknologi Amerika NVIDIA baru-baru ini membagikan hasil dari jaringan kompetitif generatif yang dilatih untuk menghasilkan gambar orangnya sendiri ("orang palsu"). Dalam hitungan detik, jaringan saraf membuat gambar resolusi tinggi dari wajah orang yang tidak ada, dapat menambahkan fitur budaya dan etnis, emosi, suasana hati, dan didasarkan pada koleksi gambar wajah asli yang tak ada habisnya. Di masa mendatang, kemungkinan pengalaman ini akan diulangi oleh developer lain. Pada saat yang sama, citra tersebut dapat digunakan oleh penjahat untuk segala macam provokasi, yang hanya dapat dikenali oleh masyarakat yang memiliki pengetahuan politeknik sistemik.

“Teknologi deepfake dapat mensintesis gambar dan suara seseorang. Ini sudah mulai digunakan untuk membuat gambar video para pemimpin dunia, termasuk Presiden AS Donald Trump dan Presiden Rusia Vladimir Putin. Video deepfake mampu memanipulasi perilaku kelompok sasaran besar dan dapat digunakan dalam konfrontasi informasi dan psikologis (IPP) untuk memancing kepanikan finansial atau perang, kata Evgeny Pashentsev, peneliti terkemuka di Institute of Contemporary International Issues of the Russian Foreign Ministry's Diplomatic Academy, professor di Moscow State University, kepada RIA Novosti.

Analisis sentimen adalah kelas metode analisis isi dalam linguistik komputasi yang dirancang untuk deteksi otomatis kosakata berwarna emosional dan penilaian emosional penulis dalam teks. Analisis sentimen disediakan oleh berbagai sumber, seperti blog, artikel, forum, jajak pendapat, dll. Ini bisa menjadi alat yang sangat efektif dalam API, yang, misalnya, dikonfirmasi oleh minat yang tinggi terhadap perkembangan seperti itu yang saat ini berada di bagian kepemimpinan Komando Operasi Khusus AS. (Komando Operasi Khusus Amerika Serikat (SOCOM).

“Senjata Prediktif”: Memprediksi Perilaku Manusia Berdasarkan Data Media Sosial

Pada tahun 2012, Badan Penelitian Intelijen Lanjutan (IARPA) Amerika Serikat meluncurkan program Pengenalan Peristiwa Berbasis Model Awal (EMBERS). Tujuan pembangunan disebut peramalan kerusuhan sipil berdasarkan penggunaan AI dengan penentuan tanggal, tempat, kelompok penduduk yang berunjuk rasa.

Sistem memproses data dari media dan jejaring sosial, serta sumber yang lebih berkualitas, misalnya indikator ekonomi. Jatuhnya program semacam itu ke tangan teroris, tentu saja, juga sangat berbahaya. Dalam kasus ini, serangan teroris besar-besaran selama demonstrasi sosial berskala paling besar mungkin menjadi ancaman. Kriteria tambahan untuk memilih sasaran serangan teroris dapat berupa tingkat ketegangan sosial dan psikologis di wilayah tertentu.

Menurut penulis studi, sebagai tindakan balasan, analitik prediktif dapat digunakan oleh negara dan otoritas supranasional sendiri untuk mencegah ketegangan sosial (adopsi tindakan sosial, ekonomi dan politik yang bertujuan untuk mencapai stabilitas dalam jangka panjang).

Selain itu, kelompok teroris dapat menyebabkan kerusakan reputasi melalui penggunaan bot selama kampanye politik, serta untuk menarik pendukung baru atau mengatur pembunuhan politisi.

Menangkap drone dan infrastruktur robotik

Sistem transportasi belajar mandiri dengan kontrol AI dapat menjadi target yang nyaman untuk serangan teroris berteknologi tinggi. Perebutan kendali atas sistem kendali transportasi di kota besar oleh teroris dapat mengakibatkan banyak korban jiwa, menimbulkan kepanikan dan menciptakan iklim psikologis yang akan memfasilitasi kegiatan kriminal lainnya.

Sistem komersial dapat digunakan untuk mengerahkan kendaraan udara tak berawak atau kendaraan otonom untuk mengirimkan bahan peledak dan menimbulkan kecelakaan. Serangkaian bencana besar dapat menimbulkan kegemparan di media internasional dan menyebabkan kerusakan signifikan pada informasi dan keamanan psikologis.

Para peneliti dari Akademi Kepresidenan Rusia untuk Ekonomi Nasional dan Administrasi Publik dan Akademi Diplomatik Kementerian Luar Negeri Federasi Rusia mendasarkan penelitian mereka pada analisis sistematis tentang peran AI di bidang keamanan, metode analisis skenario, analogi sejarah, dan analisis kasus. Bersama dengan seorang kolega dari Universitas Uppsala (Swedia) Greg Simons, penulis studi ini menjadi editor bersama dari buku yang akan datang "Terrorism and Advanced Technologies in Information and Psychological Confrontation: New Risks, New Opportunities to Counter the Terrorist Threat" dengan partisipasi peneliti dari 11 negara.

Atas inisiatif para peneliti Rusia, masalah peran AI dalam konteks ancaman terhadap informasi internasional dan keamanan psikologis sedang aktif dibahas dan akan dibahas pada konferensi internasional dan seminar penelitian internasional otonom. Diantaranya adalah konferensi yang diadakan di bawah naungan Komisi Federasi Rusia untuk UNESCO dan sejumlah struktur Rusia dan internasional lainnya di Khanty-Mansiysk pada 9-12 Juni. Gubernur Okrug Otonom Khanty-Mansiysk Natalya Vladimirovna Komarova mengambil bagian aktif dalam sesi bagian tentang masalah penggunaan berbahaya AI, yang dibentuk dengan dukungan Jaringan Ahli Eropa-Rusia untuk Manajemen Komunikasi (ERESKM). Ke depannya, inilah IV Ibero-American Forum di St. Petersburg pada 1-3 Oktober 2019,Konferensi Eropa tentang Dampak Kecerdasan Buatan dan Robotika 31 Oktober - 1 November 2019. Penulis penelitian telah mempresentasikan laporan ilmiah di Argentina, Uruguay, Brazil, Afrika Selatan dan Italia.

Menurut spesialis dari RANEPA dan Akademi Diplomatik, sangat penting dalam skala Rusia untuk menetapkan pembentukan program bertarget jangka panjang, karena masalah AI dan informasi internasional serta keamanan psikologis adalah masalah dalam waktu dekat.

Direkomendasikan: