Robot Pembunuh? Hentikan, Bahkan Robot Yang Bagus Pun Sangat Tidak Dapat Diprediksi - Pandangan Alternatif

Daftar Isi:

Robot Pembunuh? Hentikan, Bahkan Robot Yang Bagus Pun Sangat Tidak Dapat Diprediksi - Pandangan Alternatif
Robot Pembunuh? Hentikan, Bahkan Robot Yang Bagus Pun Sangat Tidak Dapat Diprediksi - Pandangan Alternatif

Video: Robot Pembunuh? Hentikan, Bahkan Robot Yang Bagus Pun Sangat Tidak Dapat Diprediksi - Pandangan Alternatif

Video: Robot Pembunuh? Hentikan, Bahkan Robot Yang Bagus Pun Sangat Tidak Dapat Diprediksi - Pandangan Alternatif
Video: Di Ciptakannya Robot Pembunuh Paling Cerdas Pengganti Manusia - ALUR CERITA FILM Kill Command 2024, Oktober
Anonim

Para pemimpin lebih dari seratus perusahaan kecerdasan buatan terkemuka di dunia sangat prihatin tentang pengembangan "robot pembunuh". Dalam surat terbuka kepada PBB, para pemimpin bisnis ini, termasuk Elon Musk dari Tesla dan pendiri Google DeepMind, memperingatkan bahwa penggunaan teknologi senjata otonom dapat diadopsi oleh teroris dan lalim, atau diretas sampai taraf tertentu.

Namun ancaman sebenarnya jauh lebih serius - dan ini bukan hanya kesalahan manusia, tetapi juga kesalahan mesin. Pemeriksaan sistem yang kompleks menunjukkan bahwa mereka dapat berperilaku jauh lebih tidak terduga daripada yang dapat disimpulkan dari jumlah tindakan individu. Di satu sisi, ini berarti bahwa masyarakat manusia dapat berperilaku sangat berbeda dari yang Anda harapkan dengan mempelajari perilaku individu. Di sisi lain, hal yang sama berlaku untuk teknologi. Bahkan ekosistem program kecerdasan buatan sederhana - yang kami sebut bodoh, bot bagus - dapat mengejutkan kami. Bahkan bot individu dapat berperilaku buruk.

Unsur-unsur individu yang membentuk sistem kompleks, seperti pasar ekonomi atau cuaca global, cenderung tidak berinteraksi secara linier sederhana. Hal ini membuat sistem ini sangat sulit untuk dimodelkan dan dipahami. Misalnya, bahkan setelah bertahun-tahun penelitian iklim, tidak mungkin untuk memprediksi perilaku cuaca dalam jangka panjang. Sistem ini sensitif terhadap perubahan terkecil saat bereaksi secara eksplosif. Sangat sulit untuk mengetahui keadaan pasti dari sistem seperti itu pada saat tertentu. Semua ini membuat sistem ini secara internal tidak dapat diprediksi.

Semua prinsip ini berlaku untuk sekelompok besar orang yang bertindak dengan caranya sendiri, baik itu masyarakat manusia atau kelompok bot AI. Para ilmuwan baru-baru ini mempelajari jenis sistem kompleks yang menggunakan bot bagus untuk mengedit artikel Wikipedia secara otomatis. Bot yang beragam ini dirancang, ditulis, dan digunakan oleh editor Wikipedia tepercaya, dan perangkat lunak dasarnya adalah sumber terbuka dan tersedia untuk semua orang. Secara individu, mereka memiliki tujuan yang sama yaitu memperbaiki ensiklopedia. Namun, perilaku kolektif mereka ternyata ternyata tidak efektif.

Aturan dan konvensi yang mapan adalah inti dari cara kerja bot ini di Wikipedia, tetapi karena situs web tidak memiliki sistem kontrol pusat, tidak ada koordinasi yang efektif antara orang-orang yang menjalankan bot yang berbeda. Hasilnya mengungkapkan beberapa bot yang membatalkan pengeditan satu sama lain selama beberapa tahun dan tidak ada yang memperhatikan. Dan tentu saja, karena bot ini tidak belajar sama sekali, mereka juga tidak menyadarinya.

Bot ini dirancang untuk mempercepat proses pengeditan. Tetapi perbedaan kecil dalam desain bot, atau antara orang-orang yang menggunakannya, dapat menyebabkan pemborosan sumber daya yang sangat besar dalam "perang edit" yang berkelanjutan yang dapat diselesaikan lebih cepat oleh editor.

Para peneliti juga menemukan bahwa bot berperilaku berbeda dalam versi bahasa yang berbeda di Wikipedia. Aturannya, sepertinya, hampir sama, tujuannya identik, teknologinya serupa. Tetapi di Wikipedia bahasa Jerman, kerja sama bot jauh lebih efisien dan produktif daripada, misalnya, dalam bahasa Portugis. Ini hanya dapat dijelaskan oleh perbedaan antara editor manusia yang menjalankan bot ini di lingkungan yang berbeda.

Video promosi:

Kebingungan eksponensial

Bot dari Wikipedia tidak memiliki otonomi luas dan sistem tidak lagi berfungsi sesuai dengan tujuan bot individu. Tetapi Wikimedia Foundation berencana menggunakan AI yang akan memberikan lebih banyak otonomi kepada bot ini. Dan ini cenderung mengarah pada perilaku yang lebih tidak terduga.

Contoh bagus tentang apa yang bisa terjadi ditunjukkan oleh bot yang dirancang untuk berbicara dengan orang ketika dipaksa untuk berkomunikasi satu sama lain. Kami tidak lagi terkejut dengan tanggapan asisten pribadi seperti Siri. Tetapi buat mereka berkomunikasi satu sama lain dan mereka akan segera mulai berperilaku dengan cara yang tidak terduga, berdebat, dan bahkan menghina satu sama lain.

Semakin besar sistemnya dan semakin otonom setiap bot, semakin kompleks dan tidak dapat diprediksi perilaku sistem tersebut di masa mendatang. Wikipedia adalah contoh dari sejumlah besar bot yang relatif sederhana di tempat kerja. Contoh chatbot adalah contoh dari sejumlah kecil bot yang relatif kompleks dan inventif - dalam kedua kasus, konflik tak terduga muncul. Kompleksitas, dan karena itu tidak dapat diprediksi, tumbuh secara eksponensial saat kepribadian ditambahkan ke sistem. Oleh karena itu, ketika sistem dengan sejumlah besar robot yang sangat kompleks muncul di masa depan, ketidakpastiannya akan melampaui imajinasi kita.

Kegilaan yang membara

Mobil self-driving, misalnya, menjanjikan terobosan dalam efisiensi dan keselamatan di jalan raya. Tapi kita belum tahu apa yang akan terjadi jika kita memiliki sistem kendaraan otonom besar yang liar. Mereka dapat berperilaku berbeda bahkan dalam armada kecil kendaraan individu dalam lingkungan yang terkendali. Dan bahkan perilaku yang lebih tidak terduga dapat terwujud dengan sendirinya ketika mobil yang mengemudi sendiri, "dilatih" oleh orang yang berbeda di tempat yang berbeda, mulai berinteraksi satu sama lain.

Orang dapat beradaptasi dengan aturan dan konvensi baru dengan relatif cepat, tetapi mereka mengalami kesulitan untuk beralih antar sistem. Agen buatan bisa lebih sulit. Misalnya, jika sebuah mobil yang "dilatih di Jerman" melakukan perjalanan ke Italia, misalnya, kita tidak tahu bagaimana mobil itu akan menguasai konvensi budaya tidak tertulis yang diikuti oleh banyak mobil "terlatih di Italia" lainnya. Sesuatu yang biasa seperti menyeberang persimpangan bisa menjadi sangat berisiko karena kita tidak tahu apakah mobil akan berinteraksi seperti yang diharapkan atau apakah mereka akan berperilaku tidak terduga.

Sekarang pikirkan tentang robot pembunuh yang mengganggu Musk dan rekan-rekannya. Satu robot pembunuh bisa sangat berbahaya di tangan yang salah. Bagaimana dengan sistem robot pembunuh tak terduga? Pikirkan sendiri.

Ilya Khel

Direkomendasikan: