Mengapa Anda Salah Memahami Robo-apocalypse - Pandangan Alternatif

Daftar Isi:

Mengapa Anda Salah Memahami Robo-apocalypse - Pandangan Alternatif
Mengapa Anda Salah Memahami Robo-apocalypse - Pandangan Alternatif

Video: Mengapa Anda Salah Memahami Robo-apocalypse - Pandangan Alternatif

Video: Mengapa Anda Salah Memahami Robo-apocalypse - Pandangan Alternatif
Video: Why We Shouldn’t Fear a Robot Uprising 2024, April
Anonim

Ketakutan akan kecerdasan buatan telah lama mendarah daging dalam budaya populer. Pemikir terbaik umat manusia, dari Stephen Hawking hingga Elon Musk, telah berbicara tentang ancaman eksistensial pikiran digital bagi umat manusia.

Profesor di Universitas California di Berkeley Stuart Russell juga membicarakannya, tetapi dalam visinya tentang masa depan tidak ada robot jahat yang memberontak melawan dominasi manusia.

Menurut Russell, pada titik tertentu, mesin akan menjadi begitu efektif sehingga mereka akan menghancurkan kita, melakukan tugas yang kita berikan kepada mereka.

Russell adalah pakar pembelajaran mesin dan penulis Human Compatible: AI and the Problem of Control.

"Alur cerita tradisional Hollywood adalah bahwa mesin secara spontan menjadi sadar dan kemudian memutuskan bahwa mereka membenci orang dan ingin membunuh semua orang," kata Profesor Russell.

Tapi ini, menurutnya, adalah visi yang salah tentang robo-apocalypse, karena mesin tidak memiliki emosi manusia.

“Kita tidak perlu khawatir tentang kesadaran diri mesin jahat, tetapi tentang kompetensi mesin yang melakukan tugas yang telah kita tetapkan,” ilmuwan itu yakin.

Video promosi:

Terlalu Kompeten

Dalam wawancara dengan BBC Today, Profesor Russell menggambarkan situasi hipotetis di mana keberadaan umat manusia dapat terancam oleh kecerdasan buatan.

Bayangkan ada kecerdasan buatan yang sangat kuat yang dapat mengontrol iklim di planet ini. Dia bertugas membawa tingkat karbon dioksida di atmosfer kembali ke tingkat pra-industri.

Image
Image

“Sistem akan mempertimbangkan bahwa cara paling efektif untuk melakukan ini adalah dengan menghancurkan orang. Mereka menghasilkan karbon dioksida,”kata profesor itu.

“Ini bisa dielakkan, misalnya dengan menjadikannya syarat untuk tidak menyingkirkan orang. Apa yang akan dilakukan sistem? Dia akan memastikan bahwa semakin sedikit anak yang lahir sampai orang-orang menghilang sama sekali."

Ini adalah contoh dari apa yang dapat menyebabkan kecerdasan buatan di bawah instruksi manusia yang salah dipahami.

Superintelligence

Sistem AI yang ada saat ini memiliki aplikasi yang ditargetkan secara sempit. Mereka dirancang untuk memecahkan masalah yang didefinisikan dengan jelas di satu bidang, kata para ilmuwan di Pusat Studi Risiko Eksistensial di Universitas Cambridge.

Momen kemenangan untuk filosofi AI ini adalah kemenangan komputer Deep Blue atas juara catur dunia Garry Kasparov pada tahun 1997.

* Kemenangan Deep Blue atas Kasparov pada tahun 1997 adalah kemenangan AI
* Kemenangan Deep Blue atas Kasparov pada tahun 1997 adalah kemenangan AI

* Kemenangan Deep Blue atas Kasparov pada tahun 1997 adalah kemenangan AI.

Tapi Deep Blue dibuat khusus untuk permainan catur. Di catur, dia akan kalah dari siswa kelas lima.

Kemajuan terbaru dalam kecerdasan buatan telah menghadirkan program yang sangat berbeda bagi kami.

Misalnya, program AlphaGo Zero belajar memainkan Go sendiri, tanpa menggunakan data pada game sebelumnya yang dimainkan oleh orang-orang, dan hanya dalam tiga hari bermain dengan dirinya sendiri, itu mencapai tingkat yang tidak dapat dicapai oleh orang biasa.

Algoritma pembelajaran mendalam digunakan untuk membuat AlphaGo Zero. Ini berarti relatif sedikit pekerjaan manusia yang dibutuhkan untuk mengembangkan program.

Di saat yang sama, AlphaGo Zero tahu cara bermain catur dan shogi dengan baik.

Ingatlah bahwa program ini sepenuhnya belajar mandiri. Ini mungkin menimbulkan kekhawatiran bagi beberapa orang.

"Saat AI menjadi lebih kuat dan lebih fleksibel, ada risiko AI akan menjadi superintelligent, yaitu akan melampaui manusia di banyak atau semua area," kata Pusat Studi Risiko Eksistensial.

Kami tidak tahu apa yang kami inginkan

Profesor Russell percaya bahwa memberikan AI tugas yang sangat spesifik bukanlah jalan keluar, karena manusia sendiri tidak mampu merumuskannya dengan cukup baik.

Image
Image

“Kami tidak menyadari bahwa kami tidak menyukai sesuatu sampai itu terjadi,” katanya.

“Kami perlu mengubah pendekatan yang paling dasar untuk membuat sistem AI,” tambah profesor tersebut. Dia percaya bahwa memberi tugas pada robot, yang kemudian mereka lakukan, pada dasarnya salah.

“Sistem harus memahami bahwa tujuannya tidak jelas. dia berkata. - Ketika sistem seperti itu dibuat, mereka sangat bergantung pada orangnya. Mereka mulai meminta izin sebelum melakukan sesuatu karena mereka tidak yakin apakah Anda menginginkannya."

Yang terpenting, kata profesor, mereka tidak akan menolak jika Anda memutuskan untuk mematikannya, karena mereka dirancang untuk tidak melakukan apa yang tidak Anda sukai.

Lampu Aladdin

AI saat ini diciptakan seolah-olah jin dari lampu, kata Profesor Russell. Anda menggosok lampu dan berkata, "Saya ingin ini dan itu terjadi."

Dalam 2001 * A Space Odyssey * karya Stanley Kubrick, komputer superintelligent memberontak terhadap manusia yang memutuskan untuk mematikannya
Dalam 2001 * A Space Odyssey * karya Stanley Kubrick, komputer superintelligent memberontak terhadap manusia yang memutuskan untuk mematikannya

Dalam 2001 * A Space Odyssey * karya Stanley Kubrick, komputer superintelligent memberontak terhadap manusia yang memutuskan untuk mematikannya.

Dan jika kecerdasan buatan cukup kuat, ia akan melakukan apa yang Anda minta.

"Masalah dengan gin adalah bahwa keinginan ketiga selalu membatalkan dua yang pertama karena orang tersebut salah mengucapkannya."

"Sebuah mesin yang mengejar tujuan yang salah secara de facto menjadi musuh umat manusia, dan musuh ini jauh lebih kuat dari kita," ilmuwan menyimpulkan.

Direkomendasikan: