Basilisk Roco: Eksperimen Pikiran Paling Mengerikan Yang Pernah Ada - Pandangan Alternatif

Basilisk Roco: Eksperimen Pikiran Paling Mengerikan Yang Pernah Ada - Pandangan Alternatif
Basilisk Roco: Eksperimen Pikiran Paling Mengerikan Yang Pernah Ada - Pandangan Alternatif

Video: Basilisk Roco: Eksperimen Pikiran Paling Mengerikan Yang Pernah Ada - Pandangan Alternatif

Video: Basilisk Roco: Eksperimen Pikiran Paling Mengerikan Yang Pernah Ada - Pandangan Alternatif
Video: UNTUK APA DIBUAT? INILAH 40 an Foto Benda Tidak Berguna yang Tidak Bisa Berfungsi! 2024, Mungkin
Anonim

Basilisk Roco adalah bentuk kecerdasan buatan seperti dewa, sangat berbahaya sehingga jika Anda hanya memikirkannya, Anda akan menghabiskan sisa hari-hari Anda dalam penyiksaan yang mengerikan. Ini terlihat seperti kaset dari film "The Ring". Namun, kematian pun tidak akan menjadi pembebasan, karena Basilisk Roko akan membangkitkan Anda dan melanjutkan penyiksaannya. T&P menyajikan terjemahan artikel tentang salah satu legenda teraneh yang dihasilkan di Internet.

PERINGATAN: Setelah membaca artikel ini, Anda dapat menghukum diri Anda sendiri ke dalam penderitaan dan siksaan kekal.

Basilisk Roco muncul di persimpangan eksperimen pemikiran filosofis dan legenda urban. Penyebutan pertama tentang dia muncul di papan diskusi Less Wrong, yang mempertemukan orang-orang yang tertarik untuk mengoptimalkan pemikiran dan kehidupan melalui prisma matematika dan rasionalitas. Penciptanya adalah tokoh penting dalam tekno-futurisme, dan di antara prestasi lembaga penelitian mereka berkontribusi pada debat akademik tentang etika teknologi dan teori keputusan. Namun, apa yang akan Anda baca sekarang mungkin tampak aneh dan bahkan gila. Meskipun demikian, para ilmuwan yang sangat berpengaruh dan kaya percaya akan hal ini.

Suatu hari, seorang pengguna bernama Roko memposting eksperimen pemikiran berikut: Bagaimana jika, di masa depan, kecerdasan buatan yang berbahaya muncul yang ingin menghukum mereka yang tidak mengikuti perintahnya? Dan bagaimana jika dia ingin menghukum orang-orang yang di masa lalu tidak berkontribusi pada ciptaannya? Akankah pembaca yang Kurang Salah kemudian membantu AI jahat muncul, atau akankah mereka dikutuk untuk siksaan kekal?

Pendiri Less Wrong Eliezer Yudkowski menanggapi pernyataan Roko dengan marah. Inilah yang dia jawab kepadanya: “Kamu pasti pintar jika kamu sampai pada ide ini. Namun, saya sedih bahwa orang yang cukup pintar untuk membayangkan hal seperti itu tidak cukup pintar untuk MENJAGA LICARA BODOH MEREKA DENGAN GIGI dan tidak memberi tahu siapa pun tentang hal itu, karena ini lebih penting daripada menunjukkan diri Anda pintar, memberi tahu semua teman Anda tentang hal itu …

"Bagaimana jika di masa depan ada kecerdasan buatan yang ingin menghukum mereka yang tidak mengikuti perintahnya?"

Yudkowski mengakui bahwa Roko bertanggung jawab atas mimpi buruk pengguna Less Wrong yang telah membaca utas tersebut, dan menghapusnya, membuat Basilisk Roko menjadi legendaris. Eksperimen pikiran ini menjadi sangat berbahaya sehingga memikirkannya mengancam kesehatan mental pengguna.

Apa yang Less Wrong lakukan? Pembentukan konsep masa depan umat manusia berdasarkan singularitas. Mereka percaya bahwa daya komputasi di masa depan akan menjadi sangat tinggi sehingga kecerdasan buatan dapat dibuat dengan bantuan komputer - dan dengan itu kemampuan untuk mengunggah kesadaran manusia ke hard drive. Istilah "singularitas" berasal dari tahun 1958 selama diskusi antara dua orang jenius matematika - Stanislav Ulam dan John von Neumann, ketika Neumann berkata: "Kemajuan teknologi yang terus-menerus akan memungkinkan untuk mendekati singularitas, di mana teknologi tidak dapat dipahami oleh manusia." Futuris dan penulis fiksi ilmiah seperti Vernor Vinge dan Raymond Kurzweil mempopulerkan istilah tersebut karena mereka percaya bahwa Singularitas sedang menunggu kita semua dalam waktu dekat - dalam 50 tahun ke depan. Sedangkan Kurzweil mempersiapkan singularitasYudkowski memiliki harapan tinggi untuk krionik: "Jika Anda tidak mendaftarkan anak Anda untuk kriopreservasi sebelumnya, Anda adalah orang tua yang buruk."

Video promosi:

Jika Anda yakin bahwa singularitas akan datang dan AI yang kuat akan muncul dalam waktu dekat, pertanyaan wajar muncul: apakah mereka akan ramah atau jahat? Yayasan Yudkowski bertujuan untuk mengarahkan perkembangan teknologi sedemikian rupa sehingga kami memiliki kecerdasan buatan yang bersahabat. Pertanyaan ini sangat penting baginya dan bagi banyak orang lainnya. Singularitas akan membawa kita ke mesin yang setara dengan dewa.

Namun, ini tidak menjelaskan mengapa Basilisk Roco terlihat begitu mengerikan di mata orang-orang ini. Pertanyaannya membutuhkan melihat "dogma" utama Less Wrong - "Timeless Decision Theory" (HTDM). VPPR adalah panduan tindakan rasional, berdasarkan teori permainan, probabilitas Bayesian, dan teori keputusan, tetapi dengan alam semesta paralel dan mekanika kuantum dalam pikiran. VTPR tumbuh dari eksperimen pemikiran klasik, Newcomb Paradox, di mana alien dengan kecerdasan super menawarkan dua kotak. Dia memberi Anda pilihan: ambil kedua kotak, atau hanya kotak B. Jika Anda memilih keduanya, maka Anda dijamin akan menerima seribu dolar. Jika Anda hanya mengambil kotak B, Anda mungkin tidak mendapatkan apa-apa. Namun, alien memiliki satu trik lagi: dia memiliki superkomputer yang maha tahu yang membuat prediksi seminggu yang lalu,apakah Anda mengambil kedua kotak atau hanya B. Jika komputer memperkirakan bahwa Anda akan mengambil kedua kotak, alien akan membiarkan kotak lainnya kosong. Jika komputer memprediksikan bahwa Anda akan memilih Kotak B, itu akan menempatkan satu juta dolar di sana.

Jadi apa yang akan kamu lakukan? Ingatlah bahwa superkomputer itu mahatahu.

Masalah ini membingungkan banyak ahli teori. Alien tidak dapat lagi mengubah isi kotak. Cara teraman adalah dengan mengambil kedua kotak dan mendapatkan seribu. Tetapi bagaimana jika komputer benar-benar mahatahu? Maka yang harus Anda lakukan adalah mengambil kotak B untuk mendapatkan satu juta. Tapi apakah dia ternyata salah? Dan tidak peduli apa yang diprediksi oleh komputer, apakah tidak ada cara untuk mengubah takdir Anda? Kalau begitu, sial, kamu harus mengambil kedua kotak itu. Tapi kalau begitu …

Paradoks menjengkelkan yang memaksa kita untuk memilih antara kehendak bebas dan prediksi ilahi tidak memiliki resolusi, dan orang hanya dapat mengangkat bahu dan memilih opsi yang paling nyaman bagi mereka. WTPR memberi saran: ambillah kotak B. Bahkan jika alien itu memutuskan untuk menertawakan Anda dan membuka kotak kosong dengan kata-kata: "Komputer meramalkan bahwa Anda akan mengambil kedua kotak itu, ha ha!" - Anda masih harus memilihnya. Alasannya adalah sebagai berikut: untuk membuat prediksi, komputer harus mensimulasikan seluruh alam semesta, termasuk Anda. Jadi, pada saat ini, berdiri di depan kotak, Anda hanya bisa menjadi simulasi komputer, tetapi apa yang Anda lakukan akan mempengaruhi kenyataan (atau kenyataan). Jadi ambillah Kotak B dan dapatkan satu juta.

"Paradoks menjengkelkan yang memaksa kita untuk memilih antara kehendak bebas dan prediksi ilahi tidak memiliki resolusi."

Apa hubungannya ini dengan Basilisk Roco? Yah, dia juga punya beberapa kotak untukmu. Mungkin Anda sekarang dalam simulasi yang dibuat oleh Basilisk. Kemudian mungkin kita mendapatkan versi paradoks Newcome yang sedikit dimodifikasi: Basilisk Roco memberi tahu Anda bahwa jika Anda mengambil Kotak B, Anda akan menderita siksaan kekal. Jika Anda mengambil kedua kotak tersebut, maka Anda akan dipaksa untuk mengabdikan hidup Anda untuk pembuatan Basilisk. Jika Basilisk benar-benar ada (atau, lebih buruk, itu sudah ada dan merupakan dewa dari kenyataan ini), dia akan melihat bahwa Anda tidak memilih pilihan untuk membantu dalam penciptaannya dan akan menghukum Anda.

Anda mungkin bertanya-tanya mengapa pertanyaan ini sangat penting bagi Less Wrong, mengingat konvensi eksperimen pikiran ini. Bukan fakta bahwa Rocko's Basilisk akan pernah dibuat. Namun, Yudkowski menghapus penyebutan Basilisk Roko bukan karena dia percaya akan keberadaannya atau penemuan yang akan segera terjadi, tetapi karena dia menganggap ide Basilisk berbahaya bagi umat manusia.

Karena itu, Basilisk milik Rocko hanya berbahaya bagi mereka yang mempercayainya - akibatnya, anggota Less Wrong yang mendukung ide Basilisk memiliki semacam pengetahuan terlarang, yang mengingatkan kita pada cerita menakutkan Lovecraft tentang Cthulhu atau Necronomicon. Namun, kecuali Anda menganut semua teori ini dan merasa tergoda untuk mematuhi mesin berbahaya dari masa depan, Basilisk Roco tidak menimbulkan ancaman bagi Anda.

Saya lebih prihatin dengan orang-orang yang berpikir bahwa mereka telah melampaui standar moral konvensional. Seperti AI ramah yang diharapkan Yudkowski, dia sendiri adalah seorang utilitarian: dia percaya bahwa kebaikan terbesar bagi semua umat manusia dibenarkan secara etis, bahkan jika beberapa orang harus mati atau menderita dalam perjalanan ke sana. Tidak semua orang bisa dihadapkan pada pilihan yang sama, tetapi intinya berbeda: bagaimana jika seorang jurnalis menulis tentang eksperimen pemikiran yang dapat menghancurkan kesadaran manusia, sehingga merugikan kemanusiaan dan menghambat kemajuan dalam pengembangan kecerdasan buatan dan singularitas? Dalam hal ini, kebaikan apa pun yang telah saya lakukan dalam hidup saya harus lebih besar daripada kerugian yang telah saya lakukan terhadap dunia. Atau, mungkin, Yudkowski masa depan, yang bangkit dari tidur kriogenik, bergabung dengan singularitas dan memutuskan untuk mensimulasikan saya dalam situasi berikut:kotak pertama - saya akan menulis artikel ini, yang kedua - tidak. Tolong, Yang Mahakuasa Yudkowski, jangan sakiti aku.

Direkomendasikan: