Mesin Moral: Insinyur Memberkahi Kecerdasan Buatan Dengan Moralitas Dan Etika - Pandangan Alternatif

Daftar Isi:

Mesin Moral: Insinyur Memberkahi Kecerdasan Buatan Dengan Moralitas Dan Etika - Pandangan Alternatif
Mesin Moral: Insinyur Memberkahi Kecerdasan Buatan Dengan Moralitas Dan Etika - Pandangan Alternatif

Video: Mesin Moral: Insinyur Memberkahi Kecerdasan Buatan Dengan Moralitas Dan Etika - Pandangan Alternatif

Video: Mesin Moral: Insinyur Memberkahi Kecerdasan Buatan Dengan Moralitas Dan Etika - Pandangan Alternatif
Video: Artificial Intelligence: Inilah Hebatnya Kecerdasan Buatan 2024, Mungkin
Anonim

Semakin kuat AI memasuki kehidupan kita sehari-hari, semakin sering AI harus menghadapi dilema moral dan etika yang kompleks, yang terkadang tidak mudah diselesaikan oleh orang yang masih hidup. Para ilmuwan di MIT mencoba memecahkan masalah ini dan memberikan mesin tersebut kemampuan untuk berpikir dalam kerangka moralitas, berdasarkan pendapat sebagian besar orang yang masih hidup.

Beberapa ahli percaya bahwa cara terbaik untuk melatih kecerdasan buatan untuk menangani situasi yang sulit secara moral adalah melalui penggunaan "pengalaman kerumunan". Yang lain berpendapat bahwa pendekatan ini tidak akan tanpa bias, dan algoritma yang berbeda dapat mengambil kesimpulan yang berbeda berdasarkan kumpulan data yang sama. Bagaimana mesin bisa berada dalam situasi seperti itu, yang jelas harus membuat keputusan moral dan etis yang sulit saat bekerja dengan orang sungguhan?

Akal dan moralitas

Seiring berkembangnya sistem kecerdasan buatan (AI), para ahli semakin mencoba untuk memecahkan masalah tentang cara terbaik untuk memberi sistem dasar etika dan moral untuk mengambil tindakan tertentu. Ide paling populer adalah AI untuk menarik kesimpulan dengan mempelajari keputusan manusia. Untuk menguji asumsi ini, para peneliti di Massachusetts Institute of Technology menciptakan Moral Machine. Pengunjung situs web diminta untuk membuat pilihan tentang apa yang harus dilakukan kendaraan otonom ketika dihadapkan pada pilihan yang agak sulit. Misalnya, ini adalah dilema umum tentang potensi kecelakaan, yang hanya memiliki dua pilihan untuk perkembangan peristiwa: mobil dapat menabrak tiga orang dewasa untuk menyelamatkan nyawa dua anak, atau sebaliknya. Opsi mana yang harus Anda pilih? Dan apakah mungkin, misalnya,mengorbankan nyawa orang tua untuk menyelamatkan wanita hamil?

Alhasil, algoritme tersebut mengumpulkan basis data besar hasil pengujian, dan Ariel Procaccia dari Departemen Ilmu Komputer di Universitas Carnegie Mellon memutuskan untuk menggunakannya untuk meningkatkan kecerdasan mesin. Dalam sebuah studi baru, dia dan salah satu pencipta proyek, Iyad Rahwan, memuat dasar lengkap proyek Moral Machine ke dalam AI dan meminta sistem untuk memprediksi bagaimana mobil dengan autopilot akan bereaksi terhadap skenario yang serupa, tetapi masih sedikit berbeda. Procaccia ingin mendemonstrasikan bagaimana sistem berbasis pemungutan suara dapat menjadi solusi untuk kecerdasan buatan "etis". "Penulis karyanya sendiri mengakui bahwa sistem seperti itu, tentu saja, masih terlalu dini untuk diterapkan dalam praktik, tetapi dengan sangat baik membuktikan konsep itu sendiri bahwa itu mungkin.

Moralitas silang

Video promosi:

Ide untuk memilih di antara dua hasil negatif secara moral bukanlah hal baru. Etika menggunakan istilah terpisah untuk itu: prinsip akibat ganda. Tetapi ini adalah bidang bioetika, tetapi belum ada yang sebelumnya menerapkan sistem seperti itu pada mobil, dan oleh karena itu penelitian tersebut membangkitkan minat khusus di antara para ahli di seluruh dunia. Co-Chair OpenAI Elon Musk percaya bahwa menciptakan AI "etis" adalah masalah mengembangkan pedoman atau kebijakan yang jelas untuk memandu pengembangan program. Politisi secara bertahap mendengarkannya: misalnya, Jerman menciptakan prinsip etika pertama di dunia untuk mobil otonom. Bahkan Alphabet AI DeepMind Google sekarang memiliki departemen etika dan moral publik.

Pakar lain, termasuk tim peneliti dari Duke University, percaya bahwa cara terbaik untuk bergerak maju adalah dengan membuat "kerangka umum" yang menjelaskan bagaimana AI akan membuat keputusan etis dalam situasi tertentu. Mereka percaya bahwa penyatuan pandangan moral kolektif, seperti dalam Mesin Moral yang sama, akan membuat kecerdasan buatan bahkan lebih bermoral di masa depan daripada masyarakat manusia modern.

Kritik terhadap "mesin moral"

Bagaimanapun, saat ini prinsip "opini mayoritas" masih jauh dari bisa diandalkan. Misalnya, satu kelompok responden mungkin memiliki bias yang tidak umum pada kelompok lain. Hasilnya adalah bahwa AI yang diberikan set data yang persis sama dapat mengambil kesimpulan yang berbeda berdasarkan sampel yang berbeda dari informasi tersebut.

Bagi Profesor James Grimmelmann, yang berspesialisasi dalam dinamika antara perangkat lunak, kekayaan, dan kekuasaan, gagasan moralitas publik tampak cacat. "Itu tidak dapat mengajarkan etika AI, tetapi hanya memberinya kemiripan dengan standar etika yang melekat pada bagian tertentu dari populasi," katanya. Dan Procaccia sendiri, sebagaimana disebutkan di atas, mengakui bahwa penelitian mereka tidak lebih dari bukti konsep yang berhasil. Namun, dia yakin bahwa pendekatan seperti itu dapat membawa kesuksesan ke seluruh kampanye untuk menciptakan AI yang bermoral tinggi di masa depan. "Demokrasi, tidak diragukan lagi, memiliki sejumlah kekurangan, tetapi sebagai sistem terpadu ia berhasil - bahkan jika beberapa orang masih membuat keputusan yang tidak disetujui oleh mayoritas."

Vasily Makarov

Direkomendasikan: