Kecerdasan Buatan Ternyata Rasis - Pandangan Alternatif

Kecerdasan Buatan Ternyata Rasis - Pandangan Alternatif
Kecerdasan Buatan Ternyata Rasis - Pandangan Alternatif

Video: Kecerdasan Buatan Ternyata Rasis - Pandangan Alternatif

Video: Kecerdasan Buatan Ternyata Rasis - Pandangan Alternatif
Video: 5 Potensi Mengerikan Kecerdasan Buatan, ARTIFICIAL INTELLIGENCE 2024, Mungkin
Anonim

Sebuah studi oleh para ilmuwan dari Massachusetts Institute of Technology mengungkapkan detail proses analisis data dengan kecerdasan buatan, yang sering kali dipandu oleh stereotip seksis dan rasis dalam pengambilan keputusan. Beberapa sistem yang berpartisipasi dalam percobaan menunjukkan kerentanan terhadap prasangka manusia.

Surat kabar Inggris "The Daily Mail" menulis bahwa setelah menerima hasil penelitian, tim ilmuwan berupaya memprogram ulang kecerdasan buatan, menghilangkan masalah sebelumnya. Menurut Irene Chen, yang bekerja di Massachusetts Institute of Technology, ilmuwan komputer cenderung terburu-buru pada kesimpulan bahwa satu-satunya cara untuk menghilangkan unsur rasisme dan seksisme dalam algoritma kecerdasan buatan adalah dengan memperbaiki kode perangkat lunak. Kualitas algoritme berbanding lurus dengan data tempat mereka beroperasi. Penelitian Chen dengan David Sontag dan Fredrik D. Johannson menunjukkan bahwa lebih banyak data yang tersedia dapat mengubah banyak hal menjadi lebih baik secara radikal.

Dalam satu percobaan, tim melihat sistem yang memprediksi pendapatan seseorang berdasarkan informasi yang tersedia. Analisis menunjukkan bahwa dalam 50% kasus, algoritme cenderung memprediksi bahwa pendapatan wanita, rata-rata, akan lebih rendah daripada pendapatan pria. Dengan meningkatkan jumlah data yang tersedia 10 kali lipat, para ilmuwan menemukan bahwa faktor kesalahan tersebut menurun hingga 40%.

Selain itu, dalam studi sistem yang digunakan di rumah sakit dan memprediksi kelangsungan hidup pasien yang menjalani operasi parah, akurasi prediksi jauh lebih rendah untuk ras Mongoloid daripada ras Kaukasia dan Negroid. Namun, para ilmuwan berpendapat bahwa penggunaan teknik analisis lanjutan dapat secara signifikan mengurangi keakuratan prediksi untuk pasien yang tidak termasuk ras Mongoloid. Hal ini menunjukkan bahwa lebih banyak data yang tersedia mungkin tidak selalu memperbaiki kesalahan algoritme. Sebaliknya, para ilmuwan harus menerima lebih banyak informasi tentang kelompok yang terdiskriminasi.

Metode baru ini menimbulkan pertanyaan lain bagi peneliti machine learning tentang cara menganalisis data secara efisien tanpa ada diskriminasi.

Bagaimana cara kerja pembelajaran mesin dalam sistem yang didukung AI?

Sistem kecerdasan buatan didasarkan pada jaringan saraf tiruan (JST), yang mengekstrapolasi penyimpanan informasi dan teknik pembelajaran yang digunakan oleh otak manusia ke sistem mekanis. ANN berlatih untuk menemukan pola dalam sumber informasi yang tersedia, termasuk ucapan, teks, dan gambar. Meningkatkan akurasi analisis data adalah salah satu prasyarat mendasar yang mendahului perkembangan terbaru dalam kecerdasan buatan.

Kecerdasan buatan "normal" menggunakan data masukan untuk memberi tahu algoritme tentang subjek analisis, saat beroperasi dengan sejumlah besar informasi.

Video promosi:

Aplikasi praktis pembelajaran mesin termasuk layanan terjemahan Google, pengenalan wajah dari foto Facebook, dan filter di Snapchat yang memindai wajah sebelum menerapkan efek visual online.

Proses entri data seringkali memakan waktu dan biasanya dibatasi oleh aliran informasi tentang satu aspek dari objek yang diteliti. Jenis JST baru - jaringan saraf generatif-adversarial - menentang kemampuan dua robot berbeda dengan kecerdasan buatan sekaligus, memprovokasi sistem yang kurang cerdas untuk belajar dengan mengorbankan yang kedua tanpa partisipasi manusia. Teknik ini secara dramatis meningkatkan efisiensi dan kecepatan pembelajaran mesin sekaligus meningkatkan kualitas analisis data.

Oliy Kurilov

Direkomendasikan: