Membangun Mesin Moral: Siapa Yang Akan Bertanggung Jawab Atas Etika Mobil Tanpa Pengemudi? - Pandangan Alternatif

Daftar Isi:

Membangun Mesin Moral: Siapa Yang Akan Bertanggung Jawab Atas Etika Mobil Tanpa Pengemudi? - Pandangan Alternatif
Membangun Mesin Moral: Siapa Yang Akan Bertanggung Jawab Atas Etika Mobil Tanpa Pengemudi? - Pandangan Alternatif

Video: Membangun Mesin Moral: Siapa Yang Akan Bertanggung Jawab Atas Etika Mobil Tanpa Pengemudi? - Pandangan Alternatif

Video: Membangun Mesin Moral: Siapa Yang Akan Bertanggung Jawab Atas Etika Mobil Tanpa Pengemudi? - Pandangan Alternatif
Video: TERNYATA❗ADA YANG HALANGI RI JD NEGARA MAJU❓PANTES SAWIT DITOLAK, RI DIGUGAT GARA"LRANG EKSPOR NIKEL 2024, April
Anonim

Anda sedang mengemudi di sepanjang jalan raya ketika seorang pria berlari ke jalan yang sibuk. Mobil bergerak di sekitar Anda, dan Anda memiliki waktu sepersekian detik untuk membuat keputusan: mencoba menghindari seseorang dan menimbulkan risiko kecelakaan? Terus mengemudi dengan harapan dia punya waktu? Untuk mengerem? Bagaimana Anda menilai kemungkinan memiliki anak yang diikat di kursi belakang? Dalam banyak hal, ini adalah "dilema moral" klasik, masalah troli. Dia memiliki sejuta pilihan berbeda yang memungkinkan Anda mengidentifikasi prasangka manusia, tetapi intinya sama.

Anda berada dalam situasi di mana hidup dan mati dipertaruhkan, tidak ada pilihan sederhana, dan keputusan Anda, pada kenyataannya, akan menentukan siapa yang hidup dan siapa yang mati.

Dilema troli dan kecerdasan buatan

Makalah baru MIT, yang diterbitkan minggu lalu di jurnal Nature, mencoba menemukan solusi yang berfungsi untuk masalah troli dengan merekrut jutaan sukarelawan. Eksperimen tersebut dimulai pada tahun 2014 dan berhasil, menerima lebih dari 40 juta tanggapan dari 233 negara, menjadikannya salah satu studi moral terbesar yang pernah dilakukan.

Seseorang dapat membuat keputusan seperti itu tanpa disadari. Sulit untuk mempertimbangkan semua sistem etika dan prasyarat moral saat mobil Anda melaju di jalan raya. Namun di dunia kita, keputusan semakin banyak dibuat oleh algoritme, dan komputer dapat dengan mudah merespons lebih cepat daripada yang kita lakukan.

Situasi hipotetis dengan mobil self-driving bukan satu-satunya keputusan moral yang harus dibuat algoritme. Algoritme medis akan memilih siapa yang mendapat perawatan dengan sumber daya terbatas. Drone otomatis akan memilih seberapa banyak "kerusakan tambahan" yang dapat diterima dalam keterlibatan militer individu.

Video promosi:

Tidak semua prinsip moral sama

"Solusi" untuk masalah troli beragam seperti masalahnya itu sendiri. Bagaimana mesin membuat keputusan moral ketika dasar moralitas dan etika tidak diterima secara universal dan mungkin tidak memiliki solusi? Siapa yang dapat menentukan apakah suatu algoritme bekerja dengan benar atau salah?

Pendekatan crowdsourcing yang diadopsi oleh para ilmuwan Moral Machine cukup pragmatis. Pada akhirnya, agar masyarakat menerima mobil self-driving, harus menerima landasan moral di balik keputusan mereka. Tidaklah baik jika ahli etika atau pengacara memberikan solusi yang tidak dapat diterima atau tidak dapat diterima oleh pengemudi biasa.

Hasilnya mengarah pada kesimpulan yang aneh bahwa prioritas moral (dan karenanya keputusan algoritmik yang dapat dibuat manusia) bergantung pada di mana Anda berada di dunia ini.

Pertama-tama, para ilmuwan menyadari bahwa tidak mungkin mengetahui frekuensi atau sifat dari situasi ini dalam kehidupan nyata. Orang-orang yang pernah mengalami kecelakaan sangat sering tidak dapat mengatakan apa yang sebenarnya terjadi, dan berbagai kemungkinan situasi menghalangi klasifikasi sederhana. Oleh karena itu, agar masalah menjadi mungkin untuk dilacak, itu harus dipecah menjadi skenario yang disederhanakan, mencari aturan dan prinsip moral universal.

Saat Anda mengikuti survei, Anda disajikan dengan tiga belas pertanyaan yang memerlukan pilihan ya atau tidak sederhana, mencoba mempersempit jawaban untuk sembilan faktor.

Haruskah mobil berbelok ke jalur lain atau terus bergerak? Haruskah Anda menyelamatkan orang muda, bukan orang tua? Wanita atau pria? Hewan atau manusia? Haruskah Anda mencoba menyelamatkan sebanyak mungkin nyawa, atau apakah satu anak "layak" untuk dua orang lanjut usia? Simpan penumpang di dalam mobil, bukan pejalan kaki? Mereka yang tidak mengikuti aturan, atau mereka yang tidak mengikuti aturan? Haruskah Anda menyelamatkan orang yang secara fisik lebih kuat? Bagaimana dengan orang dengan status sosial yang lebih tinggi, seperti dokter atau pengusaha?

Di dunia hipotetis yang keras ini, seseorang harus mati, dan Anda akan menjawab setiap pertanyaan ini - dengan berbagai tingkat antusiasme. Namun, membuat keputusan ini juga mengungkapkan norma dan bias budaya yang tertanam dalam.

Pemrosesan kumpulan data besar yang disurvei oleh para ilmuwan menghasilkan aturan universal serta pengecualian yang aneh. Tiga faktor yang paling dominan, dirata-ratakan di seluruh populasi, adalah bahwa setiap orang lebih suka menyelamatkan lebih banyak nyawa daripada lebih sedikit, orang daripada hewan, dan muda daripada tua.

Perbedaan wilayah

Anda bisa setuju dengan poin-poin ini, tetapi semakin dalam Anda memikirkannya, kesimpulan moral akan semakin mengganggu. Lebih banyak responden memilih untuk menyelamatkan penjahat daripada kucing, tetapi secara umum mereka lebih suka menyelamatkan anjing daripada penjahat. Rata-rata dunia, menjadi tua dinilai lebih tinggi daripada menjadi tunawisma, tetapi tunawisma kurang diselamatkan daripada orang gemuk.

Dan aturan ini tidak universal: responden dari Prancis, Inggris Raya, dan Amerika Serikat lebih memilih yang muda, sedangkan responden dari China dan Taiwan lebih bersedia untuk menyelamatkan orang tua. Responden dari Jepang lebih memilih menyelamatkan pejalan kaki daripada penumpang, sedangkan di China mereka lebih memilih penumpang daripada pejalan kaki.

Para peneliti menemukan bahwa mereka dapat mengelompokkan tanggapan menurut negara ke dalam tiga kategori: "Barat", terutama Amerika Utara dan Eropa, di mana moralitas sebagian besar didasarkan pada doktrin Kristen; "Timur" - Jepang, Taiwan, Timur Tengah, di mana Konfusianisme dan Islam mendominasi; Negara-negara "Selatan", termasuk Amerika Tengah dan Selatan, bersama dengan pengaruh budaya Prancis yang kuat. Ada preferensi yang lebih kuat untuk pengorbanan wanita di segmen Selatan daripada di tempat lain. Di segmen Timur, ada kecenderungan lebih besar untuk menyelamatkan kaum muda.

Memfilter berdasarkan atribut responden yang berbeda memberikan pilihan menarik yang tak ada habisnya. Responden yang “sangat religius” kemungkinannya tidak lebih suka menyelamatkan hewan, tetapi responden yang religius dan non-religius mengungkapkan preferensi yang kira-kira sama untuk menyelamatkan orang dengan status sosial yang tinggi (meskipun hal ini dapat dikatakan bertentangan dengan beberapa doktrin agama). Pria dan wanita lebih suka menyelamatkan wanita, tetapi pria cenderung tidak melakukannya.

Pertanyaan yang belum terjawab

Tidak ada yang mengklaim bahwa penelitian ini entah bagaimana "memecahkan" semua masalah moral yang berat ini. Penulis penelitian mencatat bahwa data online crowdsourcing memang melibatkan bias. Tetapi bahkan dengan ukuran sampel yang besar, jumlah pertanyaan terbatas. Bagaimana jika risiko berubah tergantung pada keputusan yang Anda buat? Bagaimana jika algoritme dapat menghitung bahwa Anda hanya memiliki peluang 50 persen untuk membunuh pejalan kaki, mengingat kecepatan Anda bergerak?

Edmond Awad, salah satu penulis studi tersebut, menyatakan kehati-hatiannya tentang interpretasi hasil yang berlebihan. Pembahasannya, menurutnya, harus mengarah pada analisis risiko - siapa yang sedikit banyak berisiko - daripada memutuskan siapa yang mati dan siapa yang tidak.

Tetapi hasil terpenting dari studi ini adalah diskusi yang berkobar di tanahnya. Saat algoritme mulai membuat semakin banyak keputusan penting yang memengaruhi kehidupan orang, sangat penting bagi kami untuk terus berdiskusi tentang etika AI. Merancang "hati nurani buatan" harus mencakup pendapat semua orang. Meskipun jawabannya mungkin tidak selalu mudah ditemukan, yang terbaik adalah mencoba membentuk kerangka moral untuk algoritme dengan tidak mengizinkan algoritme membentuk dunia mereka sendiri tanpa kendali manusia.

Direkomendasikan: