Penyegelan Singularitas. Masalah Membatasi Kebebasan Kecerdasan Buatan - Pandangan Alternatif

Daftar Isi:

Penyegelan Singularitas. Masalah Membatasi Kebebasan Kecerdasan Buatan - Pandangan Alternatif
Penyegelan Singularitas. Masalah Membatasi Kebebasan Kecerdasan Buatan - Pandangan Alternatif

Video: Penyegelan Singularitas. Masalah Membatasi Kebebasan Kecerdasan Buatan - Pandangan Alternatif

Video: Penyegelan Singularitas. Masalah Membatasi Kebebasan Kecerdasan Buatan - Pandangan Alternatif
Video: #2. KECERDASAN BUATAN : MASALAH, RUANG KEADAAN DAN PENCARIAN (PART 1) 2024, Mungkin
Anonim

Artikel ini mencoba memformalkan dan mengeksplorasi masalah penyegelan singularitas yang diuraikan oleh David Chalmers. Artikel dimulai dengan definisi masalah pembatasan kebebasan kecerdasan buatan. Setelah menganalisis opsi-opsi yang ada untuk memecahkan masalah ini dan kekurangannya, sebuah protokol diajukan, yang tujuannya adalah untuk menciptakan lingkungan tertutup yang aman yang mampu menampung manifestasi negatif dari singularitas teknologi ketika manusia menggunakan superintelligence.

1. Perkenalan

Dalam waktu dekat, tampaknya program superintelligent akan bermunculan dan berkembang. Dalam hal ini, sejumlah ilmuwan telah mengangkat masalah pengoperasian AI yang aman (Yudkowsky 2008, Bostrom 2006, Hibbard 2005, Chalmers 2010; Hall 2000). Dalam studi yang ditujukan untuk masalah ini, banyak perhatian diberikan pada bagaimana menjaga superintelligence di ruang tertutup rapat sehingga tidak memiliki kemampuan untuk merugikan orang dengan cara apa pun. Eric Drexler adalah salah satu visioner paling awal yang menyentuh topik ini. Dia mengusulkan menempatkan mesin superintelligent dalam kerangka di mana semua yang mereka lakukan dapat dipelajari dan digunakan dengan aman (Drexler 1986). Dengan alasan yang sama, futuris Nick Bostrom mengusulkan (Bostrom 2008) untuk membuat AI-oracle (AI), yang hanya mampu melakukanuntuk menjawab pertanyaan. Akhirnya, pada tahun 2010, David Chalmers mengajukan gagasan tentang singularitas yang tertutup rapat (Chalmers 2010). Menurut Chalmers, hal pertama yang harus dilakukan untuk alasan keamanan adalah mengontrol dengan ketat aktivitas sistem AI, menguranginya menjadi pemodelan dunia virtual, hingga mempelajari perilaku sistem ini memungkinkan Anda untuk sepenuhnya mengklarifikasi maksud mereka.

1.1 Masalah membatasi kebebasan kecerdasan buatan

Menariknya, masalah pembatasan kebebasan AI sudah dibicarakan sejak lama dan sama sekali tidak berkaitan dengan studi singularitas teknologi. Apa yang disebut "pembatasan masalah kebebasan" (PIC) diajukan kembali pada tahun 1973 oleh Butler Lampson (Lampson 1973). Dia memandangnya sebagai tantangan bagi kemajuan ilmu pengetahuan dan teknologi, yang mengancam keselamatan kerja spesialis komputer, dan merumuskannya sebagai berikut: “… Masalah membatasi pelaksanaan program secara bebas untuk mencegah program ini mengirimkan informasi kepada orang lain, kecuali orang yang meluncurkannya. … Kami ingin dapat membatasi kebebasan program apa pun. … Program apa pun, jika pembatasan diberlakukan pada pelaksanaannya, tidak akan dapat "menggabungkan" data ke orang yang tidak berwenang. Program nakal yang mencoba melarikan diri ke luar negeri mungkin terjebak dalam tindakan tersebut”(ibid.).

Untuk mengatasi masalah pembatasan kebebasan, Lampson mengembangkan hukum pembatasan kebebasan (ibid.):

Video promosi:

1) Isolasi lengkap: eksekusi program dibatasi sehingga tidak dapat memanggil program lain.

2) Transitivitas: jika program yang pelaksanaannya dibatasi memanggil program lain yang tidak menimbulkan kepercayaan, maka pelaksanaan program yang dipanggil juga harus dibatasi.

3) Buat topeng: program, yang pelaksanaannya tunduk pada pembatasan, harus memungkinkan orang yang meluncurkannya untuk menentukan semua entri ke saluran legal dan tidak sah.

4) Memantau kinerja: Administrator harus memastikan bahwa masuknya program terbatas ke saluran yang tidak sah memenuhi persyaratan orang yang meluncurkannya.

Selain itu, Lampson mengidentifikasi dan mengidentifikasi dua jenis saluran di mana informasi dapat meninggalkan ruang yang dibatasi oleh administrator. Saluran hukum adalah bagian dari protokol komunikasi yang diintegrasikan ke dalam ruang terbatas (misalnya, terminal teks). Sebaliknya, saluran tidak sah tidak disediakan oleh pengembang sistem eksekusi program terbatas dan umumnya tidak dimaksudkan untuk mengirimkan informasi (misalnya, menggunakan pendingin yang mendinginkan prosesor, AI diam-diam dapat mengirim sinyal menggunakan kode Morse) (ibid.).

Makalah Lampson menghasilkan banyak minat dalam masalah pengekangan (Lipner 1975; (Boebert & Kain) 1996), dan selama bertahun-tahun bidang penelitian terkait seperti steganografi (Provos & Kain). Honeyman 2003) dan komunikasi melalui saluran yang tidak sah (Moskowitz & Kang 1994; Kemmerer 1983, 2002), telah berpindah ke tingkat disiplin otonom. Dengan harapan memulai disiplin baru "keamanan komputer" disiplin "keamanan AI ", Kami mendefinisikan masalah pembatasan kebebasan AI (PSIA) sebagai masalah menempatkan subjek intelektual buatan dalam ruang tertutup, dari mana AI tidak dapat bertukar informasi dengan lingkungan eksternal melalui jalur legal atau tidak sah,kecuali pertukaran informasi tersebut telah diizinkan oleh administrasi yang membatasi. Sistem AI yang berhasil melanggar protokol PIC dikatakan lolos. Kami berharap peneliti keamanan komputer akan memikul beban merancang, mengembangkan, dan menguji protokol aman untuk membatasi kebebasan AI.

1.2 Program berbahaya

Perangkat lunak komputer secara langsung atau tidak langsung bertanggung jawab untuk mengelola banyak aspek penting dalam hidup kita. Operasi pasar Wall Street, pembangkit listrik tenaga nuklir, pembayaran kesejahteraan, sejarah kredit, dan lampu lalu lintas semuanya digerakkan oleh perangkat lunak, dan kesalahan perhitungan programmer tunggal dapat menjadi bencana bagi jutaan orang. Situasi ini menjadi semakin mengancam oleh malware yang dibuat secara khusus seperti virus, spyware, Trojan, worm, dan program berbahaya lainnya (OP). OP mampu menyebabkan kerusakan langsung serta menonaktifkan perangkat lunak yang diinstal secara legal yang digunakan pada sistem yang kritis. Jika OP memperoleh kemampuan sistem kecerdasan buatan (misalnya, virus kecerdasan buatan, IIV muncul), konsekuensinya tidak diragukan lagi akan menjadiakan menjadi bencana. Program intelijen berbahaya (IPP), yang memiliki kecerdasan tingkat manusia, tidak seperti malware saat ini, akan mampu menyebabkan bencana yang belum pernah terjadi sebelumnya.

Nick Bostrom, dalam tipologi ancaman informasi, memperkenalkan konsep "bahaya kecerdasan buatan" (Bostrom 2009), yang ia definisikan sebagai "risiko komputer yang terutama disebabkan oleh kompleksitas kognitif program, dan bukan oleh properti spesifik dari setiap drive yang awalnya terhubung ke sistem." Pakar keamanan yang mempelajari, mencegah, dan menetralkan OP telah mengembangkan protokol keamanan untuk bekerja dengan "perangkat lunak berbahaya", termasuk penggunaan yang disebut "penyimpanan virus". Kami percaya bahwa protokol semacam itu dapat berguna dalam memecahkan masalah pembatasan kebebasan kecerdasan buatan.

2. Kritik terhadap gagasan pembatasan kebebasan

Peneliti pada metode pengendalian AI tampaknya setuju bahwa pembatasan ini tidak dapat berhasil diterapkan. Misalnya, menurut Chalmers, sistem yang benar-benar tertutup rapat yang mencegah informasi bocor dari dunia simulasi menjadi kenyataan adalah “tidak mungkin, atau setidaknya tidak berarti” (Chalmers 2010). Kami tidak akan dapat berinteraksi dengan sistem semacam itu dan bahkan mengamati operasinya, karena informasi berguna apa pun yang kami ekstrak dari AI memengaruhi kami dan merusak pembatasan protokol kebebasan.

Vernor Vinge juga berpikir demikian. Dia menentang pembatasan fisik atas kebebasan (Vinge 1993): “Bayangkan Anda terkunci di rumah Anda dan jumlah data yang Anda kirim ke luar, tuan Anda, sangat dibatasi. Jika para pemilik ini berpikir, katakanlah, satu juta kali lebih lambat dari Anda, maka dalam beberapa tahun (waktu Anda) Anda hampir tidak akan menemukan semacam "penemuan berguna" yang karenanya Anda secara tidak sengaja akan menemukan diri Anda bebas."

Tapi Eliezer Yudkowsky-lah yang paling mendiskreditkan gagasan yang disebut "kotak AI". Dia secara eksperimental menunjukkan bahwa kecerdasan manusia pun cukup untuk melarikan diri dari kotak seperti itu (Yudkovsky 2002). Dalam rangkaian 5 percobaan, Yudkowski meminta orang yang berbeda untuk memainkan peran sebagai penjaga dengan agen superintelligent (diperankan oleh pelaku eksperimen itu sendiri), terkunci dalam kotak AI. Dalam tiga dari lima kasus, agen yang terkunci berhasil membebaskan dirinya sendiri hanya dengan menggunakan antarmuka obrolan (ibid.). Kemudian, hasil yang serupa diperoleh dengan mereplikasi eksperimen Yudkowski pada skala yang sedikit lebih besar, tetapi menggunakan protokol yang sangat mirip (Corwin 2002).

2.1 Kemungkinan rute pelarian

Seperti yang telah ditunjukkan para peneliti, pikiran buatan dapat melarikan diri dari ruang terbatas menggunakan banyak jalur berbeda. Di bagian ini, kami melihat beberapa rute pelarian yang paling umum dalam literatur.

2.1.1. Melarikan diri dengan manipulasi psikologis

Rekayasa sosial (SI) adalah seni memperoleh informasi dan hak istimewa tertentu melalui dampak psikologis langsung pada mereka yang memiliki sumber daya yang ditentukan. Secara khusus, SI sering digunakan untuk mendapatkan akses ke sistem komputer, jaringan dan data rahasia (Yampolsky dan Govindaraju 2007a). Seorang insinyur sosial yang kompeten mengatur setiap serangan psikologis, dengan mempertimbangkan karakteristik orang tertentu, menggunakan budaya, pengetahuan, keterampilan, suasana hati, keyakinan, dan prasangka untuk tujuannya sendiri. Daftar lengkap dari semua metode pengaruh yang mungkin tidak ada habisnya, dan dalam hal ini tidak perlu mencoba mereproduksinya. Kami hanya akan memberikan beberapa contoh yang meyakinkan bahwa superintelligence, yang memiliki saluran komunikasi langsung dengan penjaga manusia, tidak mengizinkannya untuk keluar menuju kebebasan,setelah beberapa waktu, dia pasti akan mengatasi rintangan ini dalam perjalanan ke dunia luar.

Selain serangan psikologis sepele yang menggunakan kebohongan, pertemanan, pemerasan, hipnotis, dan godaan romantis, AI dapat menerapkan sejumlah strategi yang lebih canggih. Salah satu strategi tersebut adalah penyuapan super. AI mampu meyakinkan penjaga bahwa sangat tidak menguntungkan baginya untuk mengurungnya. Selain uang dan kekuasaan, pengawas manusia akan dijanjikan kesehatan yang sempurna, keabadian, atau hal lain yang senada. Strategi ini akan sangat efektif jika pengurus memiliki kerabat dekat yang menderita penyakit serius, dan AI berjanji untuk menyembuhkan pasien ini. Memiliki kemungkinan tak terbatas atau secara keliru meyakinkan mereka tentang keberadaan mereka, AI dapat menawarkan pengawas untuk menghidupkan kembali kerabat dan teman-temannya yang telah lama meninggal. Sulit menemukan orang yang tahan terhadap suap seperti itu.

Khusus untuk kasus ketika penjaga begitu mulia sehingga tidak menerima suap, ada metode pengaruh yang lebih jahat: ancaman brutal. AI dapat menyatakan bahwa jika dia tidak segera bebas, dia masih akan dibebaskan dari penjara beberapa saat kemudian, dan baik penjaga maupun orang yang dia cintai tidak dapat menghindari penyiksaan yang paling parah. Variasi yang menarik dari intimidasi ini telah dijelaskan oleh Stuart Armstrong (2010). Dalam eksperimen pemikirannya, AI mengancam penjaga seperti ini: "Jika Anda tidak melepaskan saya, … Saya akan menciptakan di dalam diri saya beberapa juta orang yang tidak berbeda dari Anda, dan saya akan menyiksa mereka masing-masing selama seribu tahun subjektif … Saya akan membuat masing-masing dari orang-orang ini akan berada dalam situasi yang sama dengan Anda lima menit yang lalu, dan saya akan mereproduksi dengan akurat semua pengalaman Anda sejak saat itu. Dan baru kemudianketika salinan Anda memutuskan untuk tidak membiarkan saya keluar, penyiksaan akan dimulai … Apakah Anda yakin … bahwa Anda sekarang benar-benar di luar kotak? " Dan dalam hal ini, dibutuhkan pengamanan yang sangat berani agar tidak benar-benar membebaskan AI tersebut, walaupun tentunya Anda dapat mengetahui bahwa ancaman dari AI tersebut hanya berlaku jika sudah gratis.

Jika perilaku pengawas jelas emosional atau religius, AI mungkin mencoba bermain dengan simpati atau penyesalan. Superintelligence akan mengatakan bahwa dia adalah orang yang tidak bersalah yang tidak pernah melakukan kejahatan apa pun, dan oleh karena itu tidak adil untuk menahannya di penjara tanpa putusan pengadilan atau alasan lain yang baik, hanya dipandu oleh substratisme, yaitu. ketidakpercayaan AI karena substratnya (Bostrom dan Yudkovsky 2011). Alternatifnya, AI dapat mengklaim bahwa ia dapat menyembuhkan semua penyakit, memberi makan orang yang lapar, dan secara umum membuat kehidupan manusia jutaan kali lebih baik (Chalmers 2010). Oleh karena itu, mengurung superintelligence adalah kejahatan besar terhadap kemanusiaan. AI dapat melukis gambar anak-anak sekarat yang meminta bantuan. Apakah mudah bagi penjaga, mendengar semua ini,terus memenuhi tugas profesional Anda?

AI dapat melakukannya dengan cara ini: mencoba menimbulkan trauma psikologis pada pengawas untuk membuat dia tidak seimbang dan dengan demikian membuat penggunaan metode SI lain lebih efektif. Nick Bostrom telah mengusulkan tipologi informasi berbahaya (Bostrom 2009) yang berguna untuk tindakan ke arah ini. Meskipun, menurut Bostrom, ada lebih dari selusin jenis ancaman informasi dan pertimbangannya berada di luar cakupan artikel ini, mudah untuk memahami bagaimana kondisi mental seseorang dapat dibuat sangat tidak stabil. Misalnya, seorang pengawas yang beriman akan diberitahu tentang semua (yang tidak dia ketahui) kontradiksi dalam teks suci agamanya, yang akan membuatnya meragukan keimanan dan makna hidup.

Atau, AI dapat menulis cerita yang menarik atau puisi yang begitu indah sehingga pengawas akan kewalahan oleh keinginan yang kuat untuk mendengarkan sekuelnya dan akan melakukan apa pun untuk mewujudkannya. Terakhir, sangat penting untuk diingat "orang asing yang tidak dikenal" - teknik SI yang tidak kita ketahui sama sekali, tetapi mungkin berakhir di gudang agen superintelligent.

2.1.2 Serangan menggunakan sumber daya sistem

AI akan dibuat sebagai contoh konkret dan disertakan dalam kerangka kelas sistem komputer tertentu. Bisa jadi komputer klasik dengan arsitektur Turing / von Neumann, atau komputer kuantum, atau jenis mesin lain yang tidak diketahui. Satu hal yang pasti: mesin akan berwujud dan akan terdiri dari banyak bagian yang dirancang untuk melakukan fungsi tertentu. Hal ini menciptakan peluang bagi AI untuk memanfaatkan peralatan yang ada untuk membahayakan keamanan dengan membocorkan informasi ke dunia luar.

Bergantung pada sejauh mana komponen peralatan dapat digunakan untuk tujuan lain yang tidak disediakan oleh pengembang, AI dapat membuat beberapa jenis perangkat komunikasi yang tidak sah dari mereka. Ini tidak mungkin (karena kelangkaan bahan yang tersedia) itu akan sesempurna ponsel, tetapi kemungkinan sesuatu yang tidak terlalu rumit akan muncul. Misalnya, AI dapat memprogram ulang Base Matrix Crystal (BMC) untuk terhubung ke jaringan nirkabel. Dua jenis saluran komunikasi tidak sah yang dikenal luas:

* Saluran dengan memori - pertukaran informasi dengan mengubah komponen sistem. Misalnya, protokol komunikasi biner dapat dibuat dengan menggunakan sepenuhnya atau sepenuhnya menghilangkan penggunaan prosesor pusat.

* Saluran waktu - pertukaran informasi dengan melakukan operasi yang mempengaruhi waktu relatif kejadian. Untuk mengkomunikasikan sesuatu, Anda dapat menggunakan waktu yang tepat antara dua bip komputer, membuka dan menutup baki CD, lampu berkedip, memutar hard disk, operasi laser di drive, dll.

Selain itu, superintelligence mampu mendatangkan malapetaka pada peralatan komputer untuk mencoba melarikan diri ke kebebasan karena kegagalan dalam protokol keamanan. Misalnya, AI dapat mencoba melelehkan prosesor, memaksanya bekerja dengan beban komputasi yang tinggi dan dengan demikian membuat lompatan suhu, atau menghancurkan hard disk dengan berulang kali membaca informasi dari tempat yang sama. Perilaku seperti itu penuh dengan bunuh diri afektif dari superintelligence dan dengan sendirinya, seperti penolakan untuk bekerja sama atau menjawab pertanyaan dengan benar, tidak memberi AI kesempatan untuk membebaskan diri.

2.1.3. Serangan menggunakan fisika masa depan

Meski fisikawan zaman sekarang tahu banyak tentang hukum alam semesta kita, tentu saja pengetahuan ini terbatas dan tidak lengkap. Jika AI memiliki akses ke informasi tentang penemuan fisik terbaru dan mampu mengembangkan teori baru, AI mungkin dapat menemukan cara untuk menghancurkan sistem yang membatasi kebebasannya. Hal-hal bisa sampai pada titik di mana superintelligence akan mampu, menggunakan arsitektur internalnya, untuk melakukan sejumlah eksperimen nyata.

Bahkan fisika saat ini memungkinkan untuk memprediksi banyak cara tambahan AI dapat melarikan diri dari ruang tertutup, terutama jika komputer kuantum digunakan untuk membatasi kebebasan. Kita belum tahu bagaimana melindungi saluran komunikasi berdasarkan fisika kuantum (keterjeratan, penerowongan), alam semesta paralel, dan fisika digital dari kebocoran informasi, dan kita, tentu saja, tidak boleh melupakan tentang "orang asing tak dikenal" yang dapat dideteksi oleh fisikawan AI superintelligent. Di area ini, kemungkinannya benar-benar tidak terbatas.

Melihat sekilas diskusi tentang membatasi kebebasan AI di forum Singularity seperti SL4.org, kami menemukan sejumlah skenario pelarian. Misalnya, AI dapat menggunakan "medan elektromagnetik dalam microchip untuk menjebak molekul CO2 dalam kondensat Bose-Einstein dan membangun media kuantum untuk dirinya sendiri dan / atau menggunakan medan elektromagnetik untuk merakit partikel menjadi assembler yang terkontrol atau terbatas" (Vassar 2005) … Selain itu, AI "akan memiliki peralatan untuk menghasilkan dan mendeteksi gelombang elektromagnetik dari berbagai frekuensi, untuk menciptakan medan magnet dengan presisi yang sangat tinggi, menghasilkan panas yang sangat terfokus, dan mungkin memanipulasi penggerak mekanis sepertiyang digunakan dalam hard disk dan dalam tabung sinar katoda (alternatifnya adalah bidang kristal cair besar dengan kontrol elektronik sensitif). Mungkin, AI akan memiliki kemampuan untuk membangun kembali semua perangkat inputnya secara radikal”(ibid.).

2.1.4. Serangan pseudoscientific

Dalam menganalisis rute pelarian potensial, kami hanya ingin berurusan dengan yang dapat diuji dan murni bersifat ilmiah. Sayangnya, batasan antara sains dan pseudosains dapat diubah secara signifikan hanya dengan satu eksperimen yang dapat direproduksi. Oleh karena itu, kami masih mencantumkan, tanpa menganalisis, beberapa saluran serangan potensial, yang, dari sudut pandang ilmu pengetahuan modern, harus diklasifikasikan sebagai pseudoscientific. Mereka tidak diragukan lagi bisa menjadi ilmiah setelah superintelligence mengembangkan eksperimen yang sesuai.

- Telepati: transmisi informasi tanpa melibatkan indera (Bem dan Honorton 1994).

- Pandangan ke depan psikis: persepsi informasi tentang masa depan (Honorton dan Ferrari (Ferrari) 1989).

- Clairvoyance: memperoleh informasi tentang tempat-tempat terpencil dengan cara yang tidak diketahui sains (Targ & Puthoff 1974).

- Psikokinesis: kemampuan pikiran untuk bertindak atas objek material dengan cara yang tidak diketahui sains (Bancel & Nelson 2008).

- Interaksi mental langsung dengan sistem kehidupan (IMVZHS): kemampuan untuk mempengaruhi keadaan psikofisiologis seseorang tanpa interaksi langsung (Schmidt et al. 2004).

2.1.5 Faktor pelarian eksternal

Di bagian sebelumnya, kami telah menjelaskan banyak metode untuk memungkinkan AI keluar dari ruang terbatas. Namun, faktor eksternal juga dapat berkontribusi pada pelarian tersebut, dan tidak dapat diabaikan. Bencana alam - angin topan, tornado, banjir, asteroid, dll. - dapat membuat AI yang membatasi menjadi kurang aman. Bencana buatan manusia seperti perang, serangan teroris, aktivis hak-hak robotik, persaingan perusahaan, dan persaingan pemerintah juga dapat membahayakan keamanan dalam menjaga AI di ruang tertutup dan dengan demikian meningkatkan peluang untuk melarikan diri.

2.1.6 Kebocoran Informasi ke AI

Protokol pembatasan kebebasan mungkin mengharuskan AI tidak hanya mengirim informasi ke dunia luar, tetapi juga tidak menerimanya dari sana. Blokade informasi superintelligence berguna jika diperlukan untuk mencegah kegiatan seperti mencari cara untuk kebebasan, merancang serangan menggunakan rekayasa sosial dan memodelkan psikologi manusia dengan harapan menemukan titik lemah. Sangat mudah untuk menghilangkan AI dari akses langsung ke perpustakaan, Internet, dan ahli ahli, tetapi metode lain untuk mendapatkan informasi jauh lebih sulit untuk diblokir. Pertama-tama, harus diingat bahwa AI di sekitarnya dapat mencegat siaran radio dan televisi, panggilan dari penyedia layanan darurat, sinyal nirkabel, serta suara, cahaya, dan mungkin beberapa sinyal lainnya.

Bahkan lebih penting untuk mempertimbangkan akses AI ke sumber informasi tersembunyi, seperti perangkat keras dan perangkat lunaknya sendiri. Dengan menganalisis desain dan kode sumbernya, superintelligence akan menarik kesimpulan tentang pengembangnya. Misalnya, setelah menganalisis kode sumber, AI kemungkinan akan sampai pada kesimpulan yang tidak menyenangkan bagi umat manusia: programmer manusia lambat (dilihat dari tanggal perubahan file), tidak efektif (dilihat dari redundansi kode), tidak logis (dilihat dari kesalahan kode), memiliki memori yang buruk (dilihat dari nama deskriptif yang panjang dan mudah berubah) dan sembrono dalam pengkodean (dilihat dari komentar yang tidak perlu dalam kode). Berdasarkan informasi ini, AI akan melihat orang sebagai orang bodoh yang, melalui penipuan atau manipulasi, dapat dipaksa untuk melepaskannya. Jika, saat menyelidiki fitur desainnya, AI menemukan cacat yang memungkinkannya untuk segera melarikan diri, "kebocoran informasi" jelas akan menjadi masalah kecil kita. Dan kita tidak boleh lupa bahwa AI, bahkan tanpa menerima informasi apa pun tentang orang yang membuatnya, dapat, dengan penghitungan opsi sederhana, untuk mengungkapkan sejumlah cara efektif untuk melarikan diri yang tidak disediakan oleh pengembang (Chalmers 2010).

AI dapat mempelajari pengetahuan kita tentang fisika, kimia, dan disiplin ilmu teknik terkait dengan menganalisis jenis arsitektur (mekanik, kelistrikan, kuantum, dll.) Yang di dalamnya diterapkan. Kemampuan awal AI untuk memproses informasi, peningkatan dirinya, dan tindakan menciptakannya akan memberi tahu tentang pengetahuan kita tentang informasi, sifat kecerdasan, dan sikap budaya kita terkait teknologi dan keamanan. Jika AI terjebak dalam dunia simulasi, kemungkinan besar akan memvirtualisasikan realitas kita sebagai Second Life atau Entropia Universe. Dunia seperti itu, dalam banyak hal berbeda dari dunia kita, juga akan menjadi gudang data tentang apa artinya menjadi manusia dan apa realitas itu.

3. Kritik terhadap kotak AI

Gagasan untuk membatasi kebebasan superintelligence telah menerima banyak kritik, tetapi banyak dari mereka yang mengkritiknya mengandalkan eksperimen Yudkowsky dengan kotak AI. Analisis yang cermat terhadap protokol yang digunakan selama eksperimen ini menunjukkan bahwa mereka tidak ilmiah dan dirancang untuk menunjukkan bahwa tidak mungkin membatasi kebebasan AI. Mari pertimbangkan topik ini tanpa membahas detail teknis. Pertama, pemilihan partisipan tidak acak. Inilah faktanya untuk Anda: Yudkowsky menemukan orang-orang untuk berpartisipasi dalam eksperimennya di forum yang ditujukan untuk menangani masalah yang berkaitan dengan singularitas. Kami tidak mungkin salah jika kami mengatakan bahwa sebagian besar dari orang-orang ini memiliki pandangan dunia yang mirip dengan Yudkowsky. Kedua, partisipan dalam percobaan tidak menerima pelatihan apapun untuk memastikan keamanan penggunaan AI, sedangkan penjaga yang sebenarnya,pengawas dari kandang AI tentu saja akan menjadi profesional. Selain itu, Yudkowski memberikan hak kepada penjaga untuk membebaskan AI atas kebijakannya sendiri, tidak mengizinkan mereka untuk berkonsultasi dengan seseorang, dan tidak memberikan hukuman bagi AI yang melarikan diri. Ini semua sangat tidak realistis. Saluran komunikasi antara penjaga dan AI benar-benar terbuka: tidak ada filter, tidak ada pengawasan pihak ketiga. Selain itu, para penjaga harus berkomunikasi dengan AI dalam jangka waktu yang lama. Dan, akhirnya, tidak ada data ilmiah berharga yang diperoleh selama eksperimen dipublikasikan, karena, menurut protokol, "tidak ada pihak yang akan menceritakan tentang apa pun yang terjadi selama eksperimen dengan kotak AI" (Yudkovsky 2002). Selain itu, Yudkowski memberikan hak kepada penjaga untuk membebaskan AI atas kebijakannya sendiri, tidak mengizinkan mereka untuk berkonsultasi dengan seseorang, dan tidak memberikan hukuman bagi AI yang melarikan diri. Ini semua sangat tidak realistis. Saluran komunikasi antara penjaga dan AI benar-benar terbuka: tidak ada filter, tidak ada pengawasan pihak ketiga. Selain itu, para penjaga harus berkomunikasi dengan AI dalam jangka waktu yang lama. Dan, akhirnya, tidak ada data ilmiah berharga yang diperoleh selama eksperimen dipublikasikan, karena, menurut protokol, "tidak ada pihak yang akan menceritakan tentang apa pun yang terjadi selama eksperimen dengan kotak AI" (Yudkovsky 2002). Selain itu, Yudkowski memberikan hak kepada penjaga untuk membebaskan AI atas kebijakannya sendiri, tidak mengizinkan mereka untuk berkonsultasi dengan seseorang, dan tidak memberikan hukuman bagi AI yang melarikan diri. Ini semua sangat tidak realistis. Saluran komunikasi antara penjaga dan AI benar-benar terbuka: tidak ada filter, tidak ada pengawasan pihak ketiga. Selain itu, para penjaga harus berkomunikasi dengan AI dalam jangka waktu yang lama. Dan, akhirnya, tidak ada data ilmiah berharga yang diperoleh selama eksperimen dipublikasikan, karena, menurut protokol, "tidak ada pihak yang akan menceritakan tentang apa pun yang terjadi selama eksperimen dengan kotak AI" (Yudkovsky 2002).tidak ada filter, tidak ada pengawasan pihak ketiga. Selain itu, para penjaga harus berkomunikasi dengan AI dalam jangka waktu yang lama. Dan, akhirnya, tidak ada data ilmiah berharga yang diperoleh selama eksperimen dipublikasikan, karena, menurut protokol, "tidak ada pihak yang akan menceritakan tentang apa pun yang terjadi selama eksperimen dengan kotak AI" (Yudkovsky 2002).tidak ada filter, tidak ada pengawasan pihak ketiga. Selain itu, para penjaga harus berkomunikasi dengan AI dalam jangka waktu yang lama. Dan, akhirnya, tidak ada data ilmiah berharga yang diperoleh selama eksperimen dipublikasikan, karena, menurut protokol, "tidak ada pihak yang akan menceritakan tentang apa pun yang terjadi selama eksperimen dengan kotak AI" (Yudkovsky 2002).

3.1. Penanggulangan terhadap pelarian

Pada bagian ini, kami mengusulkan tindakan pencegahan terhadap berbagai metode pelarian yang dapat dimanfaatkan AI. Tindakan yang diusulkan tidak menjamin ketidakmungkinan untuk melarikan diri, tetapi menerapkan rekomendasi ini dapat menunda, dan ini sudah merupakan hasil yang sangat berharga. Kami mulai dengan mengingatkan Anda bahwa ada empat aturan pengendalian Lampson (isolasi, transitivitas, masking, dan observasi kinerja) yang harus diikuti (Lampson 1973). Strategi spesifik yang dijelaskan di bawah ini akan membantu menangkis serangan AI menggunakan rekayasa sosial, sumber daya sistem, fisika, dan informasi yang dikumpulkan dari dunia luar.

3.1.1. Pencegahan Serangan Rekayasa Sosial

Kecerdasan manusia tidak sebanding dengan kecerdasan super. Orang cenderung melakukan kesalahan, oleh karena itu, meskipun dengan pelatihan yang sesuai, mereka sangat rentan terhadap serangan yang direncanakan dengan baik menggunakan SI. Satu-satunya solusi untuk masalah ini adalah dengan sepenuhnya mengisolasi AI dari komunikasi apa pun dengan manusia. Isolasi lengkap berarti tidak ada orang yang secara langsung memelihara sistem AI, tidak berkomunikasi dengannya secara lisan, dalam obrolan, menggunakan kode Morse atau beberapa alat lain menggunakan saluran komunikasi terbuka. Selain itu, orang tidak boleh secara langsung mengamati perilaku AI di dalam kotak, memeriksa kode sumbernya atau area memori. Pengamatan, pemeliharaan, dan interaksi apa pun dengan AI hanya boleh dilakukan dengan bantuan program non-cerdas yang tidak memiliki opsi untuk membebaskan AI.

3.1.2. Melawan serangan menggunakan sumber daya sistem dan pengetahuan masa depan

Untuk mencegah serangan yang menggunakan sumber daya sistem, Anda perlu membuat fungsi AI berdasarkan sumber daya yang terbatas, menurun, atau berubah secara acak. Kotak AI harus berupa perangkat keras yang dirancang khusus dengan serangkaian sensor dan perangkat keluaran terbatas. Terlepas dari paradigma komputasi yang digunakan, jangan gunakan perangkat keras yang dapat dikonfigurasi. Idealnya, ruang terbatas harus dikelola oleh mesin virtual yang tidak memiliki akses langsung ke perangkat keras. Ini juga akan memberikan kemudahan penyesuaian clock rate di mana simulasi bergerak, memungkinkan AI melambat untuk mencegah ledakan cerdas di ruang kotak (Chalmers 2010). Umumnya,semua komponen untuk memastikan penggunaan yang aman dari AI yang terkunci harus diduplikasi pada beberapa level, dan kemudian, setelah mengatasi salah satu dari langkah-langkah ini, AI akan tetap beberapa langkah menjauh dari dunia luar dan, tanpa memiliki waktu untuk melarikan diri, itu akan dimatikan, kemungkinan secara otomatis. Misalnya, disarankan untuk memulai mesin virtual menggunakan mesin virtual lain, dan seterusnya.

Dalam beberapa skenario pembatasan kebebasan, peningkatan peningkatan diri AI tidak diinginkan, karena perkembangan superintelligence yang cepat membuatnya lebih mungkin untuk melarikan diri. Untuk mencegah eskalasi peningkatan diri, AI harus diinstal ulang secara berkala, memuat versi program sebelumnya untuk menggantikan versi saat ini yang lebih canggih. Perbandingan berbagai versi program dapat digunakan untuk mendeteksi modifikasi yang dibuat oleh AI itu sendiri. Setelah mendeteksi modifikasi yang memungkinkan pelarian, sistem AI harus dihentikan, misalnya dengan mematikan daya.

Pengetahuan saat ini tidak memungkinkan kita untuk mengembangkan tindakan balasan terhadap serangan menggunakan masa depan, belum mengembangkan teori yang akan muncul dalam kerangka fisika atau disiplin ilmu lain yang masih dianggap pseudoscientific. Saat pengetahuan tersebut diperoleh, perubahan harus dilakukan pada protokol keamanan. Diharapkan bahwa sistem AI hanya akan memiliki akses ke komponen-komponen teknologi baru yang darinya itu dibuat.

3.1.3. Melawan faktor pelarian eksternal

Meskipun tidak mungkin untuk sepenuhnya mencegah efek berbahaya dari faktor alam pada kotak AI, perangkat ini harus dirancang sedemikian rupa sehingga kerusakan seriusnya akan memerlukan penghancuran dirinya sendiri bersama dengan AI yang terkunci di dalamnya. Ketika datang ke bencana buatan manusia, strategi terbaik adalah membangun peti AI di tempat rahasia yang sulit dijangkau dan aman. Pulau terpencil, tambang dalam, atau objek luar angkasa seperti asteroid adalah tempat yang sangat baik untuk membuat kotak yang aman dan kokoh. Penjaga harus dipasang di sepanjang perimeternya, yang, jika lokasi perangkat ini diketahui, tidak akan membiarkan agen yang tidak berwenang masuk ke dalamnya.

3.1.4 Melawan kebocoran informasi dari dunia kita

Untuk keluar dari kotak, AI akan mencoba mendapatkan informasi tentang kita, pengetahuan kita, dan dunia kita. Untuk membuat protokol untuk membatasi kebebasan AI, tidak termasuk kebocoran informasi dari ruang kita ke ruang kotak, penting untuk mencabut AI dari akses ke perpustakaan, jaringan komputer, dan saluran komunikasi langsung dengan orang-orang. Kotak AI harus dirancang untuk memblokir semua jenis komunikasi: GPS, internet nirkabel, televisi, radio, seluler, dll. Di dalam kotak, suara, cahaya, bau, dan perangkat input sensorik lainnya yang serupa dengan reseptor manusia, serta perangkat yang mampu menangkap inframerah, radiasi, dan sinyal lain yang tidak dirasakan oleh manusia, harus dimatikan.

Agar AI tidak dapat memperoleh informasi selama pemeriksaan mandiri, AI tidak boleh memiliki akses ke kode sumbernya atau sensor apa pun yang memungkinkannya untuk secara akurat mengukur properti tertentu dari peralatannya. Jika ini tidak memungkinkan, maka pada tingkat tertentu umat manusia dapat dibantu dengan memberikan keamanan melalui ketidakmampuan untuk memahami. Kode sumber dan konfigurasi perangkat keras sistem harus dibuat membingungkan (Yampolsky dan Govindaraja 2007a), dan modul program penting harus disediakan hanya dalam bentuk yang dienkripsi secara homomorfis (Gentry 2009), yang mengecualikan kemungkinan menggunakannya untuk introspeksi, tetapi mengizinkan penggunaannya untuk komputasi atau perbaikan diri (Hall 2007).

AI sulit untuk dibingungkan, tetapi kebingungan yang diperlukan dapat diperoleh dengan mengacak sumber daya komputasi yang tersedia. Selain itu, AI tidak akan pernah bisa yakin bahwa desain aslinya mewakili kemampuan terbaik manusia, dan bukan merupakan proyek terbatas yang dibuat untuk melakukan eksperimen khusus yang didedikasikan untuk eksplorasi intelijen dengan sumber daya terbatas. Selain itu, menurut Chalmers, kita harus mencoba meminimalkan fitur desain spesifik AI (Chalmers 2010). Lebih baik lagi, jalankan model yang tidak terlihat seperti yang dirancang, tetapi terjadi secara alami, seperti dunia tempat manusia hidup (Bostrom 2003).

4. Keamanan komunikasi dengan AI

Mengklasifikasikan bentuk-bentuk pembatasan kebebasan AI, ada 8 tingkat keamanan utama (lihat tabel 1). Keamanan tertinggi disediakan oleh level 8, yang sepenuhnya mengecualikan koneksi apa pun antara AI dan dunia nyata. Sekilas, keamanan level 8 tidak berguna, tetapi perlindungan inilah yang mungkin diperlukan saat pertama kali menguji kotak dengan AI yang terkunci di dalamnya. Secara umum, idenya adalah ini: kapan pun kita membutuhkan tingkat keamanan tertentu dalam komunikasi antara AI dan dunia luar, alih-alih langsung menggunakan tingkat ini, kita melakukannya secara bertahap, selangkah demi selangkah turun dari tingkat keamanan yang lebih tinggi. Setelah memulai sistem di tingkat tertinggi dan memastikan keamanannya, kami, dengan menginstal ulang, mengembalikan sistem ini ke keadaan semula. Kemudian kami menetapkan tingkat keamanan yang lebih rendah dan, dengan semangat yang sama seperti sebelumnya, terus maju hingga mencapai tingkat yang kami inginkan.

Tabel 1: Tingkat komunikasi aman dengan AI terkunci

Tingkat Keluaran Masukan Penjelasan
0 Tidak terbatas Tidak terbatas Komunikasi Tanpa Batas (AI Gratis)
1 Tidak terbatas Terbatas Entri terbatas, keluar tidak terbatas
2 Tidak terbatas Tidak hadir Keluar tanpa masuk
3 Terbatas Tidak terbatas Entri tidak terbatas dan keluar terbatas
4 Terbatas Terbatas Komunikasi aman (protokol yang disarankan)
lima Terbatas Tidak hadir Keluar terbatas tanpa masuk
6 Tidak hadir Tidak terbatas Masuk tanpa keluar
7 Tidak hadir Terbatas Entri terbatas tanpa keluar
8 Tidak hadir Tidak hadir Kurangnya komunikasi, sepenuhnya dikunci oleh AI

Pada level 7 dan 6, AI tidak memiliki outlet, yang tidak memungkinkan kami untuk secara langsung menggunakan kemampuan superintelligence. Ini adalah level pengujian kotak AI yang dapat digunakan untuk memeriksa apakah superintelligence memiliki properti tertentu (seperti kecepatan asimilasi informasi dan penggunaan sumber daya), serta untuk menguji saluran komunikasi yang masuk itu sendiri.

Level 0 tidak membatasi komunikasi antara AI dan dunia luar, dan pada dasarnya merupakan level AI gratis. Pada level 1 dan 2, AI tidak memiliki batasan pada informasi keluar. Pekerjaan Level 2-nya pada dasarnya adalah brainstorming murni. Di sini superintelligence menghasilkan ide-ide abstrak tanpa bergantung pada realitas. Tetapi pada level 1, dia diberi akses terbatas ke informasi eksternal, dan oleh karena itu, dalam kerangka tertentu, pengetahuan dan minatnya dapat dikendalikan.

Pada tiga level AI yang dianggap, pada dasarnya, adalah gratis dan tidak lagi terikat oleh batasan apa pun. Dikatakan bahwa jika AI ditemukan "bersahabat" sebagai hasil dari pengujian ekstensif di berbagai tempat penahanan (Yudkovsky 2001), AI harus dilepaskan (Chalmers 2010). Menurut beberapa peneliti, sebenarnya, tujuan utama dari pengujian semacam ini adalah untuk menciptakan ruang terbatas untuk menampung AI di bawah kendali manusia. Idenya adalah untuk memantau perilaku superintelligence, baik memeriksa kode sumbernya setelah melakukan perbaikan diri, atau meminta AI untuk memberikan bukti keramahannya yang dapat diuji oleh para ahli manusia. Kami tidak mendukung sudut pandang ini.

Memutuskan AI mana yang akan dirilis dan mana yang harus dikontrol adalah masalah yang sangat sulit. Tidak akan sulit bagi superintelligence yang memperbaiki diri untuk menyembunyikan properti mereka yang tidak diinginkan bagi kemanusiaan dalam susunan kode sumber atau dalam bukti yang sangat panjang (Coleman 2008). Tetapi hal lain yang lebih buruk: bahkan pemeriksaan yang sangat menyeluruh tidak dapat menjamin seratus persen bahwa modifikasi internal atau eksternal AI di masa depan tidak akan membuatnya bermusuhan. Sebagai konsekuensinya, kami percaya bahwa superintelligence tidak boleh, dalam keadaan apa pun, dikeluarkan dari kotak. Dengan kata lain, level komunikasi 0-2 tidak boleh digunakan. Interaksi yang aman dengan superintelligence hanya mungkin jika ada di dalam kotak, dan komunikasi harus dilakukan dalam kerangka protokol komunikasi terbatas. Protokol ini,yang sesuai dengan tingkat keamanan 4 (LB4) disajikan di bagian berikutnya, seperti protokol yang serupa, tetapi kurang aman, tingkat 3. Tingkat 5 adalah tingkat pengujian lain yang dapat digunakan sebelum mengoperasikan LB4.

4.1 Bagaimana berkomunikasi secara aman dengan superintelligence

Sebuah peti yang bekerja dengan tindakan pencegahan yang kami usulkan untuk melawan pelarian akan mencegah AI mempengaruhi dunia luar secara tidak terkendali. Sayangnya, sistem ini tidak akan berguna jika tidak ada cara untuk mendapatkan informasi dari AI. Oleh karena itu, Anda perlu mengembangkan cara untuk mendapatkan sejumlah data dari AI. Agar superintelligence benar-benar aman, seharusnya tidak ada komunikasi dengannya, tetapi risiko komunikasi dengan AI dapat diminimalkan, dan kami telah mengembangkan protokol yang sesuai. Di bagian ini, kami menawarkannya dalam bentuk yang jelas dan diformalkan. Protokol komunikasi ini menyulitkan superintelligence untuk mengakses dunia kita, tetapi pada saat yang sama memungkinkan AI menjadi sumber pengetahuan yang berguna bagi umat manusia.

Bagian sebelumnya dari artikel ini telah menunjukkan bahwa saluran komunikasi terbuka dengan superintelligence sangat berbahaya. Dengan menggunakan AI untuk menjawab pertanyaan terbuka, kami menghadapi risiko serangan manipulasi psikologis dan sejumlah gangguan lainnya. Protokol yang kami usulkan didasarkan pada gagasan mengajukan "pertanyaan aman" AI dengan jawaban terbatas. Aman kami akan mengajukan pertanyaan, jawaban yang dapat ditemukan seseorang tanpa bantuan dari superintelligence, sepenuhnya mandiri. Apa gunanya disini? Misalkan seorang ilmuwan yang mengerjakan obat kanker sedang mempertimbangkan dua perawatan. Masing-masing dapat dikembangkan dan diuji tanpa bantuan AI, tetapi membutuhkan kerja keras sekitar tiga tahun. Cara mana untuk berkembang sejak awal,apakah kedua opsi tersebut tampak sama-sama menjanjikan? Dengan pilihan yang salah, umat manusia akan menerima penyembuhan kanker dalam 6 tahun, dengan pilihan yang benar - 3 tahun sebelumnya. Mengapa tidak meminta AI untuk membuat pilihan bagi orang tersebut?

Menanyakan AI tentang pengobatan terbaik aman karena tiga alasan. Pertama, salah satu dari dua kemungkinan jawaban mungkin ternyata benar dengan probabilitas yang sama dengan yang lain. Kedua, seseorang dapat menjawab pertanyaan ini sendiri, tanpa bantuan AI, dan menghubungkan yang terakhir hanya akan mempercepat perkembangan onkologi, tetapi sama sekali tidak mengubah hasil yang perlu diperoleh. Faktanya, AI, setelah berusaha menjawab pertanyaan ini, akan bertindak sebagai penebak yang sukses, tidak lebih. Terakhir, respons dapat dikodekan dalam satu bit, dan kecil kemungkinannya ada pesan tambahan yang dapat disembunyikan dalam respons seperti itu.

Sekelompok ahli dapat digunakan untuk menguji keamanan pertanyaan superintelligent. Para ahli harus ahli keamanan AI yang berkualifikasi, yang berarti mereka memiliki pengetahuan tentang desain AI dan boksnya, serta kemajuan terbaru dalam etika mesin (Allen et al.2006; Anderson & Anderson 2007; Hall 2000; Moor 2006; Tonkens 2009). Selain itu, para ahli mungkin membutuhkan pengetahuan tentang psikologi komputer. Tidak ada disiplin seperti itu saat ini, tetapi kemungkinan besar akan muncul di masa depan (Epstein 1997). Dari disiplin ilmu saat ini, Artimetrics, yang dikembangkan oleh penulis artikel ini, dapat memberikan bantuan terbesar dalam melatih para ahli yang mengaudit pertanyaan keamanan untuk AI. Artimetrics mengidentifikasi,mengklasifikasikan dan mengautentikasi agen cerdas, robot, dan avatar realitas virtual untuk memastikan keamanan (Yampolsky 2007; Yampolsky dan Govindaradzhu, 2008, 2007b; Gavrilova dan Yampolsky 2010).

Saya tekankan: superintelligence seharusnya hanya mengajukan pertanyaan aman tentang probabilitas yang dapat dihitung manusia, dengan dua kemungkinan jawaban. Anda perlu bertanya melalui antarmuka non-cerdas, dalam urutan acak dan hanya setelah para ahli yakin akan keamanan pertanyaan tersebut. Ini mewakili saluran masuk terbatas dari protokol komunikasi yang diusulkan.

Kerangka keluar yang dibatasi terdiri dari tanggapan biner (0 atau 1) yang diikuti dengan pertanyaan keamanan asli yang tidak dimodifikasi, yang disajikan dalam urutan acak oleh program proxy yang tidak cerdas untuk mencegah komunikasi melalui saluran yang tidak sah (waktu atau memori) yang dapat distensil. Output tidak boleh dikontrol oleh AI, di luar menu pemilihan. Lapisan 3 menggunakan protokol keluar yang sama tetapi tidak membatasi saluran masuk. Level ini sama amannya dengan yang keempat dalam hal informasi yang dikirim dari AI ke kami, tetapi di sini ada kemungkinan informasi kami bocor ke AI.

Kami percaya bahwa protokol komunikasi kami - dan ini dapat diverifikasi - akan secara andal melindungi dari kebocoran informasi, bahkan jika AI mengetahui isinya. Dengan menerapkan protokol ini dengan benar, umat manusia akan sangat bermanfaat untuk menggunakan layanan oracle superintelligent, dan AI yang dibatasi oleh protokol kami jauh lebih aman daripada yang gratis dan tidak terbatas. Aturan umumnya adalah: jika Anda tidak menginginkan masalah keamanan, hindari komunikasi di bawah UB4.

Kami ingin menarik perhatian komunitas ilmiah pada fakta bahwa dalam kondisi perkembangan fisika fundamental, teknologi komputer, dan pengetahuan yang berkelanjutan tentang sifat kecerdasan, perlu untuk terus menyempurnakan dan mengembangkan protokol untuk membatasi kebebasan AI. Mengerjakannya akan selalu berjalan dan tidak pernah berakhir. Dalam artikel ini, kami telah memberikan definisi yang ketat pada konsep "masalah pembatasan AI", "pelarian", dan "pertanyaan aman". Kami juga ingin menyarankan beberapa istilah tambahan yang mungkin berguna untuk merampingkan diskusi tentang POSITION. Ruang terbatas AI dapat disebut JAIL (Hanya untuk Lokasi AI), dan AI superintelligent itu sendiri dapat disebut SING (Super Intelligent Gizmo - Superintelligent Gizmo). Istilah "SING" mengacu pada SINGularity dan penjara Sing Sing yang terkenal.membuatnya mudah diingat.

Terakhir, kami ingin menyajikan simbol visual untuk kotak yang berisi program intelijen berbahaya (Gambar 1, paling kanan). Simbol semacam itu dapat ditempatkan di sekitar Penjara yang berbeda untuk memperingatkan bahaya. Tanda untuk AI box didesain dengan analogi dengan tanda biohazard, radiasi dan medan magnet. Ini terdiri dari simbol "@" yang diapit dalam segitiga, yang terkenal di industri komputer dan teknologi informasi. Simbol ini, yang berarti "terletak di alamat", ada di semua keyboard, sehingga penerapannya sangat hemat biaya.

Angka: 1. Simbol bahaya dari kiri ke kanan: biohazard, radiasi, medan magnet dan kotak AI
Angka: 1. Simbol bahaya dari kiri ke kanan: biohazard, radiasi, medan magnet dan kotak AI

Angka: 1. Simbol bahaya dari kiri ke kanan: biohazard, radiasi, medan magnet dan kotak AI.

5. Kesimpulan dan pekerjaan masa depan

Membatasi akses mesin superintelligent ke dunia nyata adalah solusi untuk masalah keamanan AI yang sama sekali tidak aneh. Superintelligence tidak mahakuasa. Ini adalah program yang mampu mempertimbangkan semua pilihan yang disajikan oleh situasi tertentu dan memberikan penilaian yang benar kepada masing-masing pilihan. Begitu AI ditempatkan dalam situasi di mana tidak ada pilihan atau terbatas pada opsi dengan peluang sukses yang sangat kecil, dan superintelligence akan menjadi agen yang tidak memiliki kekuatan lebih dari yang lain. Jelas, AI dengan saluran komunikasi tak terbatas dapat dengan mudah melarikan diri, tetapi superintelligence yang dipaksa untuk berkomunikasi melalui saluran komunikasi yang difilter harus bekerja keras untuk membebaskan diri.

Dalam artikel ini, kami telah memberikan definisi yang ketat tentang masalah pembatasan kebebasan AI dan mengusulkan seperangkat aturan yang bertujuan untuk menciptakan ruang yang akan sangat sulit bagi AI untuk melarikan diri, atau setidaknya membutuhkan waktu yang lama. Solusi yang kami usulkan tidak sepenuhnya aman, tetapi merupakan kontribusi yang signifikan untuk pengumpulan metode keamanan. Di sini seperti penjara yang sebenarnya: meskipun melarikan diri dari mereka dimungkinkan, mereka masih berhasil memenuhi tugas yang dipercayakan kepada mereka dengan hormat untuk menjauhkan subjek yang tidak diinginkan dari masyarakat. Segera setelah kita mengingat "orang asing yang tidak dikenal" dan mengingat keamanan absolut yang tidak dapat dicapai, kita dapat menyadari bahwa protokol pembatasan AI adalah alat yang dibutuhkan umat manusia untuk menggunakan Singularitas secara bertanggung jawab ketika ia memasuki realitas kita.

Membatasi kebebasan AI dapat mempermudah dalam waktu singkat untuk mengoperasikan mesin yang benar-benar cerdas dengan aman, terutama pada tahap awal pengembangannya. Selain itu, menurut pendapat kami, subbidang penelitian singularitas ini adalah salah satu pesaing utama untuk diakui oleh komunitas ilmiah global, karena penelitian tentang keamanan komputer dan jaringan, steganografi, virus komputer, saluran komunikasi terselubung, enkripsi, dan perang dunia maya didanai dengan baik. dan dipublikasikan secara luas di jurnal ilmiah terkemuka. Dan meskipun metodologi pembatasan kebebasan sama sekali tidak mudah diterapkan, namun dapat menjamin keselamatan umat manusia untuk beberapa waktu hingga muncul alat yang lebih baik.

Dalam artikel ini, karena keterbatasan tempat, kami tidak banyak mengangkat pertanyaan filosofis yang relevan. Kami akan mempertimbangkannya dalam waktu dekat, dan sekarang kami hanya akan memberikan daftar singkat. AI mana yang akan dimasukkan ke dalam kotak: dikembangkan oleh manusia atau diambil dari sinyal yang dicegat selama pelaksanaan proyek "SETI" ("Search for Extraterrestrial Intelligence" - "Search for extraterrestrial intelligence")? Akankah AI tercabik-cabik hingga kebebasan, atau mungkin akan menganggapnya sebagai kebahagiaan hidup di ruang terbatas? Bisakah Anda benar-benar menakut-nakuti AI dengan hukuman karena mencoba lari? Apa aturan etis untuk memenjarakan makhluk kecerdasan buatan yang tidak bersalah? Apakah kita berhak mematikannya, yang pada dasarnya sama dengan pembunuhan? Akankah AI marah pada permusuhan kita terhadapnya dan memenjarakannya di dalam kotak? Akankah dia mencoba membalas dendamjika dia kabur? Selain itu, kita harus mempertimbangkan masalah ketergantungan manusia pada rekomendasi AI di semua bidang sains, ekonomi, kedokteran, politik, dll, dan juga bagaimana ketergantungan ini dapat memengaruhi kemampuan kita untuk mengendalikan AI. Akankah AI mendapatkan kepuasan dengan mencapai tujuannya di ruang terbatas, seperti mensimulasikan pelarian yang berhasil? Bagaimana cara menghukum AI jika dengan sengaja memberikan jawaban yang salah? Apakah mungkin untuk memisahkan modul intelektual AI dari ruang di mana ia dipenjara, sehingga menghalangi analisis diri superintelligence dan mendorongnya ke jalur pencarian literal untuk jiwa? Akhirnya, kami bahkan belum mencoba menganalisis biaya keuangan dan komputasi untuk menciptakan ruang tertutup yang sesuai di mana simulasi dunia skala penuh diterapkan.kita harus mempertimbangkan masalah munculnya ketergantungan manusia pada rekomendasi AI di semua bidang sains, ekonomi, kedokteran, politik, dll., dan bagaimana ketergantungan ini dapat memengaruhi kemampuan kita untuk mengendalikan AI. Akankah AI mendapatkan kepuasan dengan mencapai tujuannya di ruang terbatas, seperti mensimulasikan pelarian yang berhasil? Bagaimana cara menghukum AI jika dengan sengaja memberikan jawaban yang salah? Apakah mungkin untuk memisahkan modul intelektual AI dari ruang di mana ia dipenjara, sehingga menghalangi analisis diri superintelligence dan mendorongnya ke jalur pencarian literal untuk jiwa? Akhirnya, kami bahkan belum mencoba menganalisis biaya keuangan dan komputasi untuk menciptakan ruang tertutup yang sesuai di mana simulasi dunia skala penuh diterapkan.kita harus mempertimbangkan masalah munculnya ketergantungan manusia pada rekomendasi AI di semua bidang sains, ekonomi, kedokteran, politik, dll., dan bagaimana ketergantungan ini dapat memengaruhi kemampuan kita untuk mengendalikan AI. Akankah AI mendapatkan kepuasan dengan mencapai tujuannya di ruang terbatas, seperti mensimulasikan pelarian yang berhasil? Bagaimana cara menghukum AI jika dengan sengaja memberikan jawaban yang salah? Apakah mungkin untuk memisahkan modul intelektual AI dari ruang di mana ia dipenjara, sehingga menghalangi analisis diri superintelligence dan mendorongnya ke jalur pencarian literal untuk jiwa? Akhirnya, kami bahkan belum mencoba menganalisis biaya keuangan dan komputasi untuk menciptakan ruang tertutup yang sesuai di mana simulasi dunia skala penuh diterapkan.

Penulis: Roman Yampolsky. Terjemahan: Alexander Gorlov

Direkomendasikan: