Untuk Menghindari Kematian, Umat Manusia Perlu Mengunci Kecerdasan Buatan - Pandangan Alternatif

Daftar Isi:

Untuk Menghindari Kematian, Umat Manusia Perlu Mengunci Kecerdasan Buatan - Pandangan Alternatif
Untuk Menghindari Kematian, Umat Manusia Perlu Mengunci Kecerdasan Buatan - Pandangan Alternatif

Video: Untuk Menghindari Kematian, Umat Manusia Perlu Mengunci Kecerdasan Buatan - Pandangan Alternatif

Video: Untuk Menghindari Kematian, Umat Manusia Perlu Mengunci Kecerdasan Buatan - Pandangan Alternatif
Video: Artificial Intelligence: Inilah Hebatnya Kecerdasan Buatan 2024, Mungkin
Anonim

Komputer atau robot superintelligent yang mengancam keberadaan umat manusia adalah plot fiksi ilmiah favorit. Kenyataannya, menurut ilmuwan, skenario kiamat seperti itu hanya bisa dicegah dengan membuat "penjara" virtual karena mengandung artificial intelligence (AI). Dan ini harus dilakukan sebelum dia belajar untuk menyadari dan meningkatkan dirinya.

Jika Anda membiarkan jin ini keluar dari botol, maka dari oracle yang memecahkan masalah kita, itu bisa berubah menjadi ancaman apokaliptik, kata Roman Yampolsky, seorang ilmuwan di Universitas Louisville, Kentucky, yang bekerja di bidang ilmu komputer. Lingkungan di mana AI akan terkandung harus direncanakan dengan hati-hati sehingga tidak dapat menembus ancaman, penyuapan, godaan, atau peretasan komputer.

“Dia dapat menemukan banyak cara untuk mempengaruhi, membuat kombinasi sosio-engineering yang kompleks dan menggunakan komponen perangkat keras yang ada untuk tujuan yang bahkan tidak dapat kita bayangkan,” Yampolsky percaya. - Perangkat lunak semacam itu memiliki kemungkinan tak terbatas untuk menginfeksi komputer dan jaringan. AI dapat menemukan cara untuk memengaruhi jiwa manusia, menyuap, atau memeras orang yang berhubungan dengannya."

Munculnya bidang baru penelitian ilmiah yang menangani masalah menciptakan "penjara" untuk kecerdasan buatan memiliki manfaat tambahan. Studi-studi ini sangat berguna untuk meningkatkan keamanan komputer dan kriptografi, Yampolsky yakin. Proposalnya dirinci dalam jurnal akademik Journal of Consciousness Studies edisi Maret.

Cara memasang jebakan untuk Skynet

Sebagai permulaan, Anda dapat menyertakan kecerdasan buatan di dalam "mesin virtual". Biarkan bekerja dalam sistem operasi normal - membatasi akses AI ke perangkat lunak dan perangkat keras komputer host akan membuatnya jauh lebih tidak berbahaya. Bagaimanapun, AI pintar tidak akan dapat mengirim pesan rahasia ke pendukung manusianya, mengalahkan kode Morse dengan kipas pendingin.

Menempatkan kecerdasan buatan di komputer tanpa akses Internet adalah cara yang baik untuk menggagalkan rencana berbahaya AI untuk melindungi Bumi dari Anda dan saya. Jika terjadi kegagalan lainnya, peneliti selalu dapat memperlambat proses berpikir AI dengan memperlambat kecepatan pemrosesan komputer, menekan tombol reset secara teratur, atau memutuskan AI dari catu daya.

Video promosi:

Langkah-langkah keamanan ini dirancang untuk menangani virus komputer yang sangat cerdas dan berbahaya, tetapi seberapa efektif mereka ternyata adalah dugaan siapa pun.

Catch-22 (novel oleh penulis Amerika J. Heller; kira-kira Mixednews) adalah bahwa kita tidak dapat melakukan tes skala penuh atas ide-ide kita sampai pengembangan AI selesai. Tetapi untuk membuat AI aman, perlu untuk mengembangkan serangkaian tindakan yang tepat, kata Yampolsky. "Pilihan terbaik adalah memberlakukan pembatasan pada penggunaan sistem AI dan kemudian, jika perlu, mengubah pembatasan tersebut sesuai dengan peningkatan kemampuan AI."

Image
Image

Ilmuwan Roman Yampolsky menyarankan penggunaan tanda "@" atau tanda lain yang digunakan saat ini untuk menunjukkan radiasi atau ancaman biologis untuk menunjukkan adanya bahaya yang terkait dengan kecerdasan buatan.

Jangan pernah menempatkan penjaga keamanan manusia di dalam kendaraan

Selama percakapan yang tampaknya tidak bersalah dengan seorang penjaga keamanan, tidak ada yang akan mencegah AI menggunakan teknik psikologis seperti persahabatan atau pemerasan. Seseorang dapat disuap dengan menjanjikan kesehatan yang sempurna, keabadian, atau bahkan janji untuk mengembalikan kerabat dan teman dari dunia lain. Atau mencapai apapun dengan ancaman.

Cara paling aman untuk berkomunikasi dengan AI adalah membuatnya, saat memecahkan masalah ilmiah atau teknis tertentu, pilih jawaban dari banyak opsi yang tersedia, jelas Yampolsky. Ini akan membantu peramal super cerdas tetap terikat.

Banyak peneliti percaya bahwa, terlepas dari semua tindakan pencegahan, menjaga agar kecerdasan AI tetap terkunci tanpa batas waktu tidak akan berfungsi. Eksperimen terbaru Eliezer Yudkowski, seorang peneliti di Institute of Singularity tentang penciptaan Artificial Intelligence, menunjukkan bahwa bahkan kecerdasan tingkat manusia dapat menipu seseorang dan "melarikan diri" dari penjara.

Namun demikian, Yampolsky bersikeras untuk menjaga AI dalam isolasi ketat - itu masih lebih baik daripada menyerah dan memberikan kebebasan penuh. Namun jika perkembangan AI mencapai titik di mana ia dapat memanipulasi seseorang dengan menggunakan alam bawah sadar (memprediksi masa depan), telepati atau telekinesis, maka konsekuensinya tidak dapat diprediksi.

“Jika AI seperti itu akan berkembang sendiri dan mencapai tingkat yang secara signifikan melebihi kemampuan kecerdasan manusia, konsekuensinya bahkan tidak dapat dibayangkan,” Yampolsky memperingatkan.

Direkomendasikan: