AI Dapat Mengubah Hidup Kita Selamanya - Tetapi Saat Ini Kita Berada Di Jalur Yang Gelap - Pandangan Alternatif

AI Dapat Mengubah Hidup Kita Selamanya - Tetapi Saat Ini Kita Berada Di Jalur Yang Gelap - Pandangan Alternatif
AI Dapat Mengubah Hidup Kita Selamanya - Tetapi Saat Ini Kita Berada Di Jalur Yang Gelap - Pandangan Alternatif

Video: AI Dapat Mengubah Hidup Kita Selamanya - Tetapi Saat Ini Kita Berada Di Jalur Yang Gelap - Pandangan Alternatif

Video: AI Dapat Mengubah Hidup Kita Selamanya - Tetapi Saat Ini Kita Berada Di Jalur Yang Gelap - Pandangan Alternatif
Video: 《潮玩人类在哪里 BLK946》完整版第2期:潮流大秀吴亦凡新歌首唱 2024, Mungkin
Anonim

Kecerdasan buatan (AI) sudah membentuk kembali dunia dengan cara yang terlihat. Data menggerakkan ekosistem digital global kami, dan teknologi AI mengungkap pola dalam data.

Ponsel cerdas, rumah pintar, dan kota pintar memengaruhi cara kita hidup dan berinteraksi, dan sistem kecerdasan buatan semakin terlibat dalam keputusan perekrutan, diagnostik medis, dan ajudikasi. Apakah skenario ini utopis atau distopia, terserah kita.

Risiko potensial AI dicantumkan berkali-kali. Robot pembunuh dan pengangguran besar-besaran adalah masalah umum, sementara beberapa orang bahkan takut akan kepunahan. Proyeksi yang lebih optimis mengklaim bahwa AI akan menambah $ 15 triliun ke ekonomi global pada tahun 2030 dan pada akhirnya membawa kita ke semacam nirwana sosial.

Kita tentu perlu mempertimbangkan dampak teknologi semacam itu terhadap masyarakat kita. Salah satu masalah utama adalah bahwa sistem AI memperkuat bias sosial yang ada - dengan efek yang menghancurkan.

Beberapa contoh terkenal dari fenomena ini telah mendapat perhatian luas: sistem terjemahan mesin otomatis modern dan sistem pengenalan gambar.

Masalah ini muncul karena sistem tersebut menggunakan model matematika (seperti jaringan saraf) untuk menentukan pola dalam kumpulan data pelatihan yang besar. Jika data ini sangat terdistorsi dalam berbagai cara, kesalahan yang melekat pasti akan dipelajari dan direproduksi oleh sistem yang terlatih.

Teknologi otonom yang bias bermasalah karena berpotensi mengisolasi kelompok seperti perempuan, etnis minoritas atau orang tua, sehingga memperburuk ketidakseimbangan sosial yang ada.

Jika sistem AI dilatih, misalnya, dari data penangkapan polisi, maka bias sadar atau tidak sadar apa pun yang terwujud dalam skema penangkapan yang ada akan diduplikasi oleh sistem AI "pandangan ke depan polisi" yang dilatih dari data ini.

Video promosi:

Menyadari implikasi serius dari ini, berbagai organisasi terkemuka baru-baru ini merekomendasikan agar semua sistem kecerdasan buatan dilatih pada data yang obyektif. Pedoman etika yang diterbitkan sebelumnya pada tahun 2019 oleh Komisi Eropa menyarankan rekomendasi berikut:

Ketika data dikumpulkan, itu mungkin mengandung kesalahan yang dibangun secara sosial, ketidakakuratan. Ini harus ditangani sebelum melatih AI pada set data apa pun.

Ini semua terdengar cukup masuk akal. Sayangnya, terkadang tidak mungkin untuk memastikan ketidakberpihakan kumpulan data tertentu sebelum pelatihan. Contoh konkret harus menjelaskan hal ini.

Semua sistem terjemahan mesin modern (seperti Google Terjemahan) belajar dari pasangan kalimat.

Sistem Anglo-Prancis menggunakan data yang menghubungkan kalimat bahasa Inggris ("she is tall") dengan kalimat Prancis yang setara ("elle est grande").

Mungkin ada 500 juta pasangan seperti itu dalam kumpulan data pelatihan tertentu, dan karenanya hanya satu miliar kalimat individu. Semua bias gender harus dihapus dari jenis dataset ini jika kita ingin mencegah hasil seperti berikut ini dibuat dalam sistem:

Terjemahan bahasa Prancis dibuat menggunakan Google Terjemahan pada 11 Oktober 2019 dan salah: "Ils" adalah jamak maskulin dalam bahasa Prancis dan muncul di sini meskipun konteksnya secara jelas menunjukkan bahwa itu sedang direferensikan pada wanita.

Ini adalah contoh klasik dari sistem otomatis yang lebih memilih standar laki-laki default karena bias dalam data pelatihan.

Secara keseluruhan, 70 persen dari kata ganti generik dalam kumpulan data terjemahan adalah maskulin dan 30 persen feminin. Hal ini disebabkan oleh fakta bahwa teks yang digunakan untuk tujuan tersebut lebih sering merujuk pada laki-laki daripada perempuan.

Untuk menghindari pengulangan kesalahan yang ada pada sistem terjemahan, pasangan kalimat tertentu harus dikeluarkan dari data sehingga kata ganti laki-laki dan perempuan bertemu dalam rasio 50/50 di kedua sisi bahasa Inggris dan Prancis. Ini akan mencegah sistem menetapkan probabilitas yang lebih tinggi ke kata ganti pria.

Dan bahkan jika subkumpulan data yang dihasilkan benar-benar seimbang berdasarkan jenis kelamin, data tersebut masih akan miring dalam berbagai cara (misalnya, etnis atau usia). Sebenarnya, akan sulit untuk sepenuhnya menghilangkan semua kesalahan ini.

Jika satu orang mencurahkan hanya lima detik untuk membaca masing-masing dari satu miliar kalimat dalam data pelatihan AI, dibutuhkan 159 tahun untuk menguji semuanya - dan itu mengasumsikan kesediaan untuk bekerja sepanjang hari dan malam, tanpa istirahat makan siang.

Alternatif?

Oleh karena itu, tidak realistis untuk meminta semua set data pelatihan tidak memihak sebelum sistem AI dibangun. Persyaratan tingkat tinggi seperti itu biasanya mengasumsikan bahwa "AI" menunjukkan kelompok model matematika dan pendekatan algoritmik yang homogen.

Faktanya, tugas AI yang berbeda membutuhkan jenis sistem yang sangat berbeda. Dan sepenuhnya meremehkan keragaman ini menutupi masalah nyata yang terkait dengan, katakanlah, data yang sangat terdistorsi. Hal ini sangat disayangkan karena ini berarti bahwa solusi lain untuk masalah bias data diabaikan.

Misalnya, bias dalam sistem terjemahan mesin yang terlatih dapat dikurangi secara signifikan jika sistem diadaptasi setelah dilatih pada kumpulan data yang besar dan tidak dapat dihindari.

Ini dapat dilakukan dengan menggunakan kumpulan data yang jauh lebih kecil dan tidak terlalu kacau. Oleh karena itu, sebagian besar data dapat menjadi sangat bias, tetapi sistem yang terlatih tidak diperlukan. Sayangnya, metode ini jarang dibahas oleh mereka yang mengembangkan pedoman dan kerangka hukum untuk penelitian AI.

Jika sistem AI hanya memperburuk ketidakseimbangan sosial yang ada, maka sistem tersebut lebih cenderung untuk mencegah daripada mempromosikan perubahan sosial yang positif. Jika teknologi AI yang semakin sering kita gunakan setiap hari jauh lebih tidak bias daripada kita, teknologi itu dapat membantu kita mengenali dan menghadapi prasangka tersembunyi kita sendiri.

Tentu saja, inilah yang harus kita perjuangkan. Oleh karena itu, desainer AI perlu berpikir lebih hati-hati tentang implikasi sosial dari sistem yang mereka buat, sementara mereka yang menulis tentang AI perlu memahami lebih dalam bagaimana sistem AI sebenarnya dirancang dan dibangun.

Karena jika kita benar-benar mendekati idil teknologi atau kiamat, yang pertama lebih disukai.

Victoria Vetrova

Direkomendasikan: