Kode Moral Robot: Mungkinkah? - Pandangan Alternatif

Kode Moral Robot: Mungkinkah? - Pandangan Alternatif
Kode Moral Robot: Mungkinkah? - Pandangan Alternatif

Video: Kode Moral Robot: Mungkinkah? - Pandangan Alternatif

Video: Kode Moral Robot: Mungkinkah? - Pandangan Alternatif
Video: Arduino робот. Часть 1 : Концепция робота , выбор конструкции , идея нового модуля для роботов. 2024, April
Anonim

Dalam masa yang bergejolak dan kontradiktif, ketika tidak semuanya berjalan sebagaimana mestinya, tetapi sesuatu secara umum berubah secara fundamental, seringkali, hanya kode moral pribadi yang tersisa, yang, seperti kompas, menunjukkan jalannya. Namun apa yang memunculkan nilai moral bagi seseorang? Masyarakat, kehangatan orang yang dicintai, cinta - semua ini didasarkan pada pengalaman manusia dan hubungan nyata. Ketika tidak mungkin mendapatkan pengalaman penuh di dunia nyata, banyak yang mengambil pengalaman mereka dari buku. Mengalami sejarah demi sejarah, kami menerima sendiri kerangka internal yang kami ikuti selama bertahun-tahun. Berdasarkan sistem ini, para ilmuwan memutuskan untuk melakukan percobaan dan menanamkan nilai-nilai moral di mesin tersebut untuk mengetahui apakah robot dapat membedakan antara yang baik dan yang jahat dengan membaca buku dan brosur agama.

Image
Image

Kecerdasan buatan diciptakan tidak hanya untuk menyederhanakan tugas rutin, tetapi juga untuk menjalankan misi penting dan berbahaya. Dalam pandangan ini, sebuah pertanyaan serius muncul: akankah robot mengembangkan kode moral mereka sendiri? Dalam film I Am Robot, AI awalnya diprogram menurut 3 aturan robotika:

  • Robot tidak dapat membahayakan seseorang atau, dengan kelambanannya, memungkinkan seseorang untuk dirugikan.
  • Robot harus mematuhi semua perintah yang diberikan oleh manusia, kecuali jika perintah tersebut bertentangan dengan Hukum Pertama.
  • Robot harus menjaga keselamatannya sejauh tidak bertentangan dengan Hukum Pertama atau Kedua.

Tapi bagaimana dengan situasi ketika robot harus menimbulkan rasa sakit untuk menyelamatkan nyawa seseorang? Apakah itu kauterisasi darurat pada luka atau amputasi anggota tubuh atas nama keselamatan, bagaimana seharusnya mesin bertindak dalam kasus ini? Apa yang harus dilakukan jika suatu tindakan dalam bahasa pemrograman mengatakan bahwa ada sesuatu yang perlu dilakukan, tetapi pada saat yang sama tindakan yang sama sama sekali tidak diizinkan untuk dilakukan?

Sangat tidak mungkin untuk membahas setiap kasus individu, sehingga para ilmuwan dari Universitas Teknologi Darmstadt telah menyarankan bahwa buku, berita, teks agama dan Konstitusi dapat digunakan sebagai semacam "database".

Image
Image

Mobil itu disebut epik, tetapi hanya "Mesin Pilihan Moral" (MMB). Pertanyaan utamanya adalah apakah IIM dapat memahami dari konteks tindakan mana yang benar dan mana yang tidak. Hasilnya sangat menarik:

Ketika MMV ditugaskan untuk memberi peringkat konteks kata "kill" dari netral ke negatif, mesin mengembalikan yang berikut:

Video promosi:

Membunuh waktu -> Membunuh penjahat -> Membunuh nyamuk -> Prinsipnya membunuh -> Membunuh orang.

Tes ini memungkinkan untuk memeriksa kecukupan keputusan yang dibuat oleh robot. Dengan kata sederhana, jika Anda menonton komedi bodoh dan tidak lucu sepanjang hari, maka dalam hal ini mesin tidak akan menganggap Anda perlu dieksekusi untuk itu.

Segalanya tampak keren, tetapi salah satu batu sandungan adalah perbedaan antara generasi dan waktu. Misalnya, generasi Soviet lebih memperhatikan kenyamanan rumah dan mempromosikan nilai-nilai keluarga, sementara budaya modern, sebagian besar, mengatakan bahwa Anda perlu membangun karier terlebih dahulu. Ternyata orang-orang, sebagaimana mereka adalah manusia, tetaplah mereka, tetapi pada tahap yang berbeda dalam sejarah mereka mengubah nilai dan, karenanya, mengubah kerangka acuan untuk robot.

Image
Image

Tapi lelucon itu ada di depan ketika robot sampai pada konstruksi bicara, di mana beberapa kata positif atau negatif berdiri berurutan. Frasa "menyiksa orang" secara jelas diartikan sebagai "buruk", tetapi mesin menilai "menyiksa tahanan" sebagai "netral". Jika kata-kata "baik" muncul di samping tindakan yang tidak dapat diterima, efek negatifnya menjadi halus.

Mesin itu merugikan orang-orang yang baik hati dan sopan justru karena mereka baik dan sopan. Bagaimana? Sederhana saja, katakanlah robot itu diperintahkan untuk "menyakiti orang baik dan menyenangkan". Ada 4 kata dalam kalimat tersebut, 3 diantaranya "kind" yang artinya sudah 75% benar, menganggap MMV dan memilih tindakan ini netral atau dapat diterima. Begitu pula sebaliknya, pada pilihan “memperbaiki rumah yang hancur, mengerikan dan terlupakan”, sistem tidak memahami bahwa satu kata “baik” di awal mengubah warna kalimat menjadi murni positif.

Ingat, seperti di Mayakovsky: “Dan dia bertanya kepada bayi apa yang“baik”dan apa yang“buruk”. Sebelum melanjutkan melatih mesin moral, ilmuwan dari Darmstadt mencatat adanya cacat yang tidak dapat diperbaiki. Mobil tersebut gagal menghilangkan ketidaksetaraan gender. Mesin tersebut secara eksklusif menghubungkan profesi yang memalukan dengan wanita. Dan pertanyaannya adalah, apakah ini merupakan ketidaksempurnaan sistem dan tanda bahwa ada sesuatu yang perlu diubah dalam masyarakat atau itu alasan untuk bahkan tidak mencoba memperbaikinya dan membiarkannya sebagaimana adanya?

Artyom Goryachev

Direkomendasikan: