Mengapa Kecerdasan Buatan Menilai Penjahat Berbahaya? - Pandangan Alternatif

Daftar Isi:

Mengapa Kecerdasan Buatan Menilai Penjahat Berbahaya? - Pandangan Alternatif
Mengapa Kecerdasan Buatan Menilai Penjahat Berbahaya? - Pandangan Alternatif

Video: Mengapa Kecerdasan Buatan Menilai Penjahat Berbahaya? - Pandangan Alternatif

Video: Mengapa Kecerdasan Buatan Menilai Penjahat Berbahaya? - Pandangan Alternatif
Video: PRIA TAK DIKENAL YANG DIANGGAP BUKAN SIAPA-SIAPA TERNYATA ‼️ Alur Cerita Film 2024, Mungkin
Anonim

Kecerdasan buatan sudah membantu menentukan masa depan Anda dengan cara tertentu. Saat mencari sesuatu di mesin pencari, gunakan layanan seperti Netflix, atau bank akan mengevaluasi kelayakan hipotek Anda. Tapi apa yang terjadi jika kecerdasan buatan harus menentukan apakah Anda bersalah atau tidak, di pengadilan? Anehnya, di beberapa negara hal ini mungkin sudah terjadi. Baru-baru ini, Hakim Tinggi AS John Roberts ditanya apakah dia dapat membayangkan suatu hari ketika "mesin pintar, yang dikendalikan oleh kecerdasan buatan, akan membantu menemukan bukti atau bahkan dalam membuat keputusan peradilan." Dia menjawab: "Hari ini telah tiba, dan dia secara signifikan membantu otoritas kehakiman dalam proses persidangan."

Mungkin Roberts merujuk pada kasus Eric Loomis baru-baru ini, yang dijatuhi hukuman enam tahun penjara atas rekomendasi perangkat lunak rahasia milik perusahaan swasta. Loomis, yang sudah memiliki riwayat kriminal dan dijatuhi hukuman karena melarikan diri dari polisi dengan mobil curian, sekarang mengklaim bahwa haknya untuk melakukan prosedur telah dilanggar karena baik dia maupun perwakilannya tidak dapat meninjau atau menantang algoritme rekomendasi.

Laporan tersebut disiapkan oleh perangkat lunak Compas, yang dijual oleh Notrpointe ke kapal. Program ini mewujudkan tren baru dalam penelitian AI: membantu hakim membuat keputusan yang "lebih baik" (atau setidaknya lebih berdasarkan data) di pengadilan.

Sementara detail spesifik dari kasus Loomis tetap tertutup, itu pasti berisi grafik dan angka yang menentukan kehidupan, perilaku, dan kemungkinan Loomis untuk kambuh. Ini termasuk usia, ras, identitas gender, kebiasaan, riwayat browser, dan beberapa pengukuran tengkorak. Tidak ada yang tahu lebih tepatnya.

Diketahui bahwa jaksa penuntut dalam kasus tersebut mengatakan kepada hakim bahwa Loomis menunjukkan "risiko residivisme yang tinggi, kekerasan, proses pra-peradilan." Ini adalah standar dalam hal hukuman. Hakim setuju dan memberi tahu Loomis bahwa "Compas mengidentifikasinya sebagai orang yang berisiko tinggi bagi masyarakat."

Mahkamah Agung Wisconsin menghukum Loomis, menambahkan bahwa laporan Compas menambahkan informasi berharga pada keputusannya, tetapi mencatat bahwa tanpa dia, dia menjatuhkan hukuman yang sama. Tentu saja, Anda tidak dapat memeriksa ini dengan pasti. Jenis bias kognitif apa yang mungkin muncul ketika sistem "pintar" yang mahakuasa seperti Compas terlibat dalam menasihati hakim tentang apa yang harus dilakukan?

Penggunaan tidak diketahui

Video promosi:

Jujur saja, tidak ada yang "ilegal" tentang apa yang dilakukan pengadilan Wisconsin - ini hanya sebuah contoh. Pengadilan lain dapat dan akan melakukan hal yang sama.

Sayangnya, kami tidak tahu sejauh mana AI dan algoritme lain digunakan dalam pemberian hukuman. Diyakini bahwa beberapa pengadilan sedang "menguji" sistem seperti Compas dalam uji coba tertutup, tetapi tidak dapat mengklaim kemitraan. Ada juga persepsi bahwa beberapa startup AI sedang mengembangkan sistem pintar semacam itu.

Image
Image

Namun penggunaan AI dalam perundang-undangan tidak dimulai atau diakhiri dengan kalimat, melainkan dimulai dengan investigasi. Inggris telah mengembangkan sistem VALCRI, yang melakukan pekerjaan analitik yang memakan waktu dalam hitungan detik - menyelinap melalui banyak data seperti teks, laporan laboratorium, dan dokumen polisi untuk menyoroti hal-hal yang mungkin memerlukan penyelidikan lebih lanjut.

Kepolisian West Midlands Inggris akan menguji VALCRI selama tiga tahun ke depan menggunakan data anonim yang berisi lebih dari 6,5 juta catatan. Tes serupa sedang dilakukan oleh polisi Antwerpen di Belgia. Namun, di masa lalu, proyek AI dan pembelajaran mendalam yang melibatkan kumpulan data besar-besaran menjadi masalah.

Manfaat bagi sedikit orang

Teknologi telah memberikan banyak bantuan yang berguna ke ruang sidang, mulai dari mesin fotokopi hingga ekstraksi DNA dari sidik jari hingga teknik pengawasan yang canggih. Tetapi ini tidak berarti bahwa teknologi apa pun merupakan peningkatan.

Meskipun penggunaan AI dalam penyelidikan dan penghukuman berpotensi menghemat waktu dan uang, hal itu menimbulkan masalah akut. Sebuah laporan Compas dari ProPublica memperjelas bahwa orang kulit hitam secara keliru dianggap oleh program tersebut sebagai lebih residivis daripada kulit putih. Bahkan sistem AI yang paling canggih pun dapat mewarisi bias ras dan gender dari mereka yang membuatnya.

Selain itu, apa gunanya mengalihkan pengambilan keputusan (setidaknya sebagian) pada masalah yang unik bagi manusia ke dalam algoritme? Ada kesulitan tertentu di Amerika Serikat ketika juri mengadili rekan-rekan mereka. Standar hukum tidak pernah menjadi patokan, sehingga pengadilan juri dianggap sebagai sistem penghukuman yang paling demokratis dan efektif. Kami membuat kesalahan, tetapi seiring waktu kami mengumpulkan pengetahuan tentang bagaimana tidak membuatnya, menyempurnakan sistem.

Kompas dan sistem serupa mewakili kotak hitam dalam sistem hukum. Seharusnya tidak ada. Sistem hukum bergantung pada kontinuitas, transparansi informasi, dan kemampuan untuk meninjau. Masyarakat tidak menginginkan sistem yang mendorong perlombaan untuk membangun startup AI yang membuat solusi cepat, murah, dan eksklusif. AI yang dibuat dengan tergesa-gesa akan menjadi mengerikan.

Versi open source dari Compas akan menjadi peningkatan. Tapi pertama-tama, standar sistem peradilan harus dinaikkan sebelum kita mulai mengalihkan tanggung jawab demi algoritma.

ILYA KHEL

Direkomendasikan: