Google Tidak Ingin Membuat Skynet Suatu Hari Nanti, Jadi Google Membuat Pengalih Untuk AI - Pandangan Alternatif

Google Tidak Ingin Membuat Skynet Suatu Hari Nanti, Jadi Google Membuat Pengalih Untuk AI - Pandangan Alternatif
Google Tidak Ingin Membuat Skynet Suatu Hari Nanti, Jadi Google Membuat Pengalih Untuk AI - Pandangan Alternatif

Video: Google Tidak Ingin Membuat Skynet Suatu Hari Nanti, Jadi Google Membuat Pengalih Untuk AI - Pandangan Alternatif

Video: Google Tidak Ingin Membuat Skynet Suatu Hari Nanti, Jadi Google Membuat Pengalih Untuk AI - Pandangan Alternatif
Video: Terminator stars’ warning over modern A.I. 2024, Juli
Anonim

Ada dua sisi berlawanan utama dalam pertanyaan dan diskusi tentang masa depan kecerdasan buatan. Di satu sudut ada perusahaan seperti Google, Facebook, Amazon, dan Microsoft berinvestasi secara agresif dalam teknologi untuk membuat sistem AI lebih pintar; di sisi lain adalah pemikir hebat di zaman kita seperti Elon Musk dan Stephen Hawking yang percaya bahwa pengembangan AI mirip dengan "mantra iblis".

Salah satu perusahaan AI paling maju, DeepMind, yang dimiliki oleh Google, telah membuat langkah-langkah keamanan jika seseorang perlu "mengambil alih kendali robot yang kegagalannya dapat menyebabkan konsekuensi yang tidak dapat diperbaiki." Kita dapat berasumsi bahwa kita sedang berbicara tentang … "bunuh semua orang." Tentu saja, pada kenyataannya, langkah yang diambil bukanlah isyarat kemungkinan kiamat, melainkan tentang langkah-langkah keamanan yang terkait dengan robot pintar yang bekerja dan akan bekerja di masa depan di berbagai pabrik dan pabrik.

Dokumen yang diterbitkan dengan resep ini merupakan hasil kerja sama DeepMind dan Oxford Institute for the Future of Humanity, yang, seperti tersirat dari namanya, menangani masalah-masalah yang akan memungkinkan umat manusia ini memasuki masa depan. Selama beberapa dekade, direktur pendiri lembaga tersebut Nick Bostrom telah berbicara dengan sangat jelas tentang kemungkinan bahaya pengembangan kecerdasan buatan dan menulis lebih dari satu buku tentang masalah ini, di mana ia membahas konsekuensi dari pembuatan robot superintelligent.

Panduan yang kita bicarakan hari ini, dijuluki "Agen yang Dinonaktifkan dengan Aman," membahas cara menonaktifkan AI jika AI mulai melakukan hal-hal yang tidak ingin dilakukan oleh manusia operator. Pekerjaan itu terdiri dari berbagai kalkulasi dan rumus yang 99 persen dari kita kemungkinan besar tidak akan mengerti. Oleh karena itu, sederhananya, kita berbicara tentang "tombol merah" yang dapat menonaktifkan AI.

Anda mungkin tertawa dan bertanya-tanya, tetapi pelopor robotika dan AI sedang menonton film sci-fi yang sama dengan yang kami lakukan. Orang-orang di mana robot pernah menemukan cara mengabaikan perintah shutdown. Jadi sekarang kami akan siap untuk ini. Dokumen yang dipublikasikan menjelaskan metode dan solusi untuk memastikan bahwa "agen yang dapat dilatih" (baca AI) tidak dapat belajar mengabaikan atau mencegah dampak lingkungan eksternal atau operator manusia.

Ini mungkin tampak seperti berlebihan, terutama jika Anda menganggap bahwa AI paling canggih saat ini hanya bagus dalam permainan papan. Namun, Bostrom percaya bahwa sebelum kita mulai membuat AI setingkat otak manusia, tindakan yang tepat harus diambil:

“Begitu kecerdasan buatan mencapai tingkat manusia, lompatan tajam dalam perkembangan diharapkan terjadi di banyak bidang. Juga, segera setelah itu, AI itu sendiri akan membuat AI baru. Nilai saja prospek ini dan pada saat yang sama kemungkinan bahayanya. Oleh karena itu, lebih baik berlebihan daripada melewatkannya."

NIKOLAY KHIZHNYAK

Video promosi:

Direkomendasikan: