Orang Tidak Mempercayai Kecerdasan Buatan. Bagaimana Memperbaikinya? - Pandangan Alternatif

Daftar Isi:

Orang Tidak Mempercayai Kecerdasan Buatan. Bagaimana Memperbaikinya? - Pandangan Alternatif
Orang Tidak Mempercayai Kecerdasan Buatan. Bagaimana Memperbaikinya? - Pandangan Alternatif

Video: Orang Tidak Mempercayai Kecerdasan Buatan. Bagaimana Memperbaikinya? - Pandangan Alternatif

Video: Orang Tidak Mempercayai Kecerdasan Buatan. Bagaimana Memperbaikinya? - Pandangan Alternatif
Video: #2. KECERDASAN BUATAN : MASALAH, RUANG KEADAAN DAN PENCARIAN (PART 1) 2024, Mungkin
Anonim

Kecerdasan buatan sudah bisa memprediksi masa depan. Polisi menggunakannya untuk membuat peta yang menunjukkan kapan dan di mana kejahatan dapat terjadi. Dokter menggunakannya untuk memprediksi kapan pasien mungkin mengalami stroke atau serangan jantung. Ilmuwan bahkan mencoba memberikan imajinasi kepada AI agar bisa mengantisipasi kejadian yang tidak terduga.

Banyak keputusan dalam hidup kita membutuhkan prediksi yang baik, dan agen AI hampir selalu lebih baik daripada manusia. Namun untuk semua kemajuan teknologi ini, kami masih kurang percaya pada prediksi yang diberikan oleh kecerdasan buatan. Orang tidak terbiasa mengandalkan AI dan lebih suka mempercayai pakar manusia, meskipun pakar tersebut salah.

Image
Image

Jika kita ingin kecerdasan buatan bermanfaat bagi manusia, kita perlu belajar mempercayainya. Untuk melakukan ini, kita perlu memahami mengapa manusia begitu gigih menolak mempercayai AI.

Percayai Dr. Robot

Upaya IBM untuk menyajikan program superkomputer kepada ahli onkologi (Watson untuk Onkologi) gagal. AI telah berjanji untuk memberikan rekomendasi pengobatan berkualitas tinggi untuk 12 kanker, terhitung 80% dari kasus dunia. Hingga saat ini, lebih dari 14.000 pasien telah menerima rekomendasi berdasarkan perhitungannya.

Tetapi ketika dokter pertama kali bertemu Watson, mereka mendapati diri mereka dalam situasi yang agak sulit. Di satu sisi, jika Watson memberikan pedoman pengobatan yang sesuai dengan pendapat mereka, profesi medis tidak melihat banyak nilai dalam rekomendasi AI. Superkomputer itu hanya memberi tahu mereka apa yang sudah mereka ketahui, dan rekomendasi ini tidak mengubah pengobatan yang sebenarnya. Ini mungkin membuat para dokter tenang dan percaya diri dalam mengambil keputusan. Tetapi IBM belum membuktikan bahwa Watson benar-benar meningkatkan tingkat kelangsungan hidup penderita kanker.

Video promosi:

Image
Image

Di sisi lain, jika Watson membuat rekomendasi yang bertentangan dengan pendapat ahli, dokter menyimpulkan bahwa Watson tidak kompeten. Dan mesin tersebut tidak dapat menjelaskan mengapa perawatannya berhasil karena algoritme pembelajaran mesinnya terlalu rumit untuk dipahami manusia. Oleh karena itu, hal ini menyebabkan ketidakpercayaan yang lebih besar, dan banyak dokter mengabaikan rekomendasi AI, dengan mengandalkan pengalaman mereka sendiri.

Akibatnya, Kepala Mitra Medis IBM Watson, MD Anderson Cancer Center, baru-baru ini mengumumkan bahwa mereka membatalkan program tersebut. Rumah sakit Denmark juga mengatakan membatalkan program tersebut setelah menemukan bahwa ahli onkologi tidak setuju dengan Watson pada dua dari tiga kesempatan.

Masalah dengan onkologi Watson adalah bahwa para dokter tidak mempercayainya. Kepercayaan orang sering kali bergantung pada pemahaman kita tentang bagaimana orang lain berpikir dan pengalaman kita sendiri, yang membangun kepercayaan pada pendapat mereka. Ini menciptakan rasa aman psikologis. AI, di sisi lain, relatif baru dan tidak bisa dipahami oleh manusia. Itu membuat keputusan berdasarkan sistem analisis yang canggih untuk mengidentifikasi pola tersembunyi potensial dan sinyal lemah dari sejumlah besar data.

Meski bisa dijelaskan secara teknis, proses pengambilan keputusan AI biasanya terlalu rumit untuk dipahami kebanyakan orang. Berinteraksi dengan sesuatu yang tidak kita pahami bisa menimbulkan kecemasan dan menimbulkan rasa kehilangan kendali. Banyak orang tidak mengerti bagaimana dan dengan apa AI bekerja, karena itu terjadi di suatu tempat di belakang layar, di latar belakang.

Untuk alasan yang sama, mereka lebih sadar akan kasus di mana AI salah: pikirkan algoritma Google yang mengklasifikasikan orang kulit berwarna sebagai gorila; chatbot Microsoft yang menjadi Nazi dalam waktu kurang dari sehari; Kendaraan Tesla dalam mode autopilot mengakibatkan kecelakaan fatal. Contoh-contoh yang tidak menguntungkan ini telah mendapat perhatian media yang tidak proporsional, menyoroti agenda bahwa kita tidak dapat mengandalkan teknologi. Pembelajaran mesin tidak 100% dapat diandalkan, sebagian karena manusia yang merancangnya.

Perpecahan dalam masyarakat?

Perasaan yang ditimbulkan oleh kecerdasan buatan masuk jauh ke dalam sifat manusia. Para ilmuwan baru-baru ini melakukan eksperimen di mana mereka mensurvei orang-orang yang menonton film tentang kecerdasan buatan (fantasi) dengan topik otomatisasi dalam kehidupan sehari-hari. Ternyata, terlepas dari apakah AI digambarkan secara positif atau negatif, sekadar menonton representasi sinematik dari masa depan teknologi kita akan mempolarisasikan sikap peserta. Orang optimis menjadi lebih optimis, dan orang yang skeptis semakin dekat.

Ini menunjukkan bahwa orang-orang bias terhadap AI berdasarkan alasan mereka sendiri, kecenderungan bias konfirmasi yang mendalam: kecenderungan untuk mencari atau menafsirkan informasi sedemikian rupa untuk mengkonfirmasi konsep yang sudah ada sebelumnya. Karena AI semakin banyak ditampilkan di media, hal itu dapat berkontribusi pada perpecahan yang mendalam di masyarakat, keretakan antara mereka yang menggunakan AI dan mereka yang menolaknya. Sekelompok orang yang dominan bisa mendapatkan keuntungan besar atau cacat.

Tiga jalan keluar dari krisis kepercayaan AI

Untungnya, kami memiliki beberapa pemikiran tentang cara menangani kepercayaan pada AI. Pengalaman dengan AI saja dapat secara dramatis meningkatkan sikap orang terhadap teknologi ini. Ada juga bukti bahwa semakin sering Anda menggunakan teknologi tertentu (seperti Internet), semakin Anda mempercayainya.

Solusi lain mungkin dengan membuka kotak hitam algoritme pembelajaran mesin dan membuatnya bekerja lebih transparan. Perusahaan seperti Google, Airbnb, dan Twitter sudah menerbitkan laporan transparansi tentang pertanyaan dan pengungkapan pemerintah. Praktik semacam ini dalam sistem AI akan membantu orang mendapatkan pemahaman yang diperlukan tentang bagaimana algoritme membuat keputusan.

Riset menunjukkan bahwa melibatkan orang dalam pengambilan keputusan AI juga akan meningkatkan kepercayaan dan memungkinkan AI belajar dari pengalaman manusia. Studi tersebut menemukan bahwa orang yang diberi kesempatan untuk sedikit memodifikasi algoritme merasa lebih puas dengan hasil kerjanya, kemungkinan besar karena rasa superioritas dan kemampuan untuk memengaruhi hasil di masa mendatang.

Kita tidak perlu memahami cara kerja sistem AI yang rumit, tetapi jika kita memberikan sedikit informasi dan kontrol kepada orang-orang tentang bagaimana sistem ini diterapkan, mereka akan lebih percaya diri dan ingin menggunakan AI dalam kehidupan sehari-hari.

Ilya Khel

Direkomendasikan: