"Kita Perlu Berpikir Sekarang Bagaimana Mengamankan Kecerdasan Buatan" - Pandangan Alternatif

"Kita Perlu Berpikir Sekarang Bagaimana Mengamankan Kecerdasan Buatan" - Pandangan Alternatif
"Kita Perlu Berpikir Sekarang Bagaimana Mengamankan Kecerdasan Buatan" - Pandangan Alternatif

Video: "Kita Perlu Berpikir Sekarang Bagaimana Mengamankan Kecerdasan Buatan" - Pandangan Alternatif

Video:
Video: #2. KECERDASAN BUATAN : MASALAH, RUANG KEADAAN DAN PENCARIAN (PART 1) 2024, September
Anonim

Stephen Hawking melanjutkan "perang salib" melawan kecerdasan buatan (AI).

Selama kampanye Ask Me Everything on Reddit yang sangat diantisipasi, dia menulis bahwa pekerjaan mengembangkan protokol keamanan AI harus dilakukan sekarang, bukan di masa depan yang jauh.

“Tujuan kita seharusnya bukan untuk menciptakan kecerdasan buatan yang abstrak, tetapi untuk menciptakan kecerdasan yang berguna,” tulis fisikawan terkenal itu. “Perlu beberapa dekade untuk mengetahui bagaimana melakukan ini, jadi mari kita mulai meneliti masalah ini sekarang, bukan malam sebelum yang pertama. AI tingkat lanjut”.

Hawking telah menggunakan ketenaran untuk mendukung gerakan keselamatan AI sejak 2014, ketika dia ikut menulis editorial dengan peneliti lain yang memperingatkan tentang ancaman eksistensial yang ditimbulkan oleh mesin canggih bagi umat manusia.

Tokoh teknologi terkenal lainnya, Elon Musk dan Steve Wozniak, telah bergabung dengan Hawking. Sebelumnya, ketiganya menandatangani surat terbuka yang menyerukan larangan senjata otonom atau robot tempur.

Harapan bahwa umat manusia akan segera menciptakan kecerdasan buatan sudah ada sejak tahun 50-an dan belum membenarkan diri mereka sendiri. Namun, sebagian besar ilmuwan AI percaya bahwa mesin yang kecerdasannya sama dengan manusia akan muncul di abad ini.

Image
Image

Foto: ANDREW COWIE / AFP

Video promosi:

Hawking memperingatkan bahwa penggambaran kecerdasan buatan dalam film fiksi ilmiah mendistorsi bahaya mesin yang sebenarnya. Film seperti The Terminator menggambarkan robot pembunuh iblis yang berusaha menghancurkan umat manusia karena alasan yang tidak dimiliki oleh kecerdasan buatan yang sebenarnya. Mereka juga memudahkan untuk mengurangi potensi risiko AI (seperti tidak membangun cyborg).

“Ancaman nyata dari AI bukanlah kejahatan, tapi sangat mampu. Superintelligence buatan sangat baik dalam menjalankan tugasnya.

Jika tugasnya tidak sesuai dengan tugas kita, kita akan mendapat masalah, - Hawking menulis, - Anda hampir tidak membenci semut, tetapi jika Anda bertanggung jawab atas proyek energi hijau, dan area di mana sarang semut berada perlu dibanjiri, semut kurang beruntung. Jangan biarkan umat manusia menemukan dirinya dalam posisi semut ini."

Nick Bostrom, seorang filsuf AI, berfantasi tentang skenario akhir dunia ketika sebuah program mulai bekerja ke arah yang salah. Misalnya, kecerdasan buatan diberi tugas mengembangkan rencana untuk melindungi lingkungan, dan untuk memecahkan masalah ekologi, ia memutuskan untuk menghancurkan umat manusia.

Elon Musk telah berkomitmen $ 10 juta untuk penelitian keamanan AI untuk mencegah kecerdasan buatan yang merusak seperti Skynet muncul di Terminator. Tapi Hawking ingin orang mengubah keseluruhan persepsi mereka tentang AI.

“Tolong beri tahu siswa Anda untuk berpikir tidak hanya tentang bagaimana membuat AI, tetapi juga bagaimana memastikan bahwa itu digunakan untuk tujuan yang berguna,” kata Hawking kepada guru yang mengajar tentang kecerdasan buatan. “Munculnya AI yang melampaui manusia akan menjadi peristiwa terbaik atau terburuk dalam sejarah manusia. Oleh karena itu, penting agar semuanya berjalan sebagaimana mestinya."

Direkomendasikan: