Hawking Dan Musk Membela Orang-orang Dari Superintelligence - Pandangan Alternatif

Hawking Dan Musk Membela Orang-orang Dari Superintelligence - Pandangan Alternatif
Hawking Dan Musk Membela Orang-orang Dari Superintelligence - Pandangan Alternatif

Video: Hawking Dan Musk Membela Orang-orang Dari Superintelligence - Pandangan Alternatif

Video: Hawking Dan Musk Membela Orang-orang Dari Superintelligence - Pandangan Alternatif
Video: Elon Musk, Stephen Hawking Warn of Killer Robot Wars 2024, Juli
Anonim

Fisikawan teoretis Stephen Hawking dan pendiri Tesla Motors Elon Musk telah mendukung sejumlah prinsip yang seharusnya memastikan bahwa kecerdasan buatan (AI) tidak membahayakan manusia dan hanya melayani kebaikan. Laporan Jurnal Bisnis Silicon Valley.

Pakta ini diperlukan untuk menjamin keselamatan masyarakat, sekaligus menjawab berbagai pertanyaan terkait AI. Musk yakin bahwa AI berpotensi lebih berbahaya daripada senjata nuklir. Hawking juga memiliki pendapat serupa dan mengklaim bahwa AI dapat menghancurkan umat manusia. Namun, keduanya menyadari bahwa AI akan membantu manusia menyelesaikan banyak masalah - misalnya menyembuhkan kanker atau memperlambat pemanasan global.

Kepatuhan pada 23 prinsip harus memastikan bahwa AI hanya melayani tujuan yang baik. Mereka dibagi menjadi tiga kategori: Pertanyaan Penelitian, Masalah Etika dan Nilai, dan Masalah Jangka Panjang. Kategori pertama mencakup jawaban atas pertanyaan yang dihadapi pembuat AI, termasuk bagaimana pendanaan harus dilanjutkan. Kategori kedua menyinggung masalah keamanan dan cara-cara menetralkan ancaman. Yang ketiga menjelaskan kemungkinan risiko yang mungkin dihadapi umat manusia ketika AI mencapai puncaknya dan yang disebut superintelligence muncul.

Prinsip-prinsip ini dikembangkan pada konferensi tentang diskusi AI pada awal Januari 2017. CEO DeepMind Demis Hassabis berkontribusi pada penulisan.

Direkomendasikan: