Apakah Kecerdasan Buatan Selalu Objektif Dan Ingin Menyenangkan Seseorang - Pandangan Alternatif

Daftar Isi:

Apakah Kecerdasan Buatan Selalu Objektif Dan Ingin Menyenangkan Seseorang - Pandangan Alternatif
Apakah Kecerdasan Buatan Selalu Objektif Dan Ingin Menyenangkan Seseorang - Pandangan Alternatif

Video: Apakah Kecerdasan Buatan Selalu Objektif Dan Ingin Menyenangkan Seseorang - Pandangan Alternatif

Video: Apakah Kecerdasan Buatan Selalu Objektif Dan Ingin Menyenangkan Seseorang - Pandangan Alternatif
Video: Artificial Intelligence: Inilah Hebatnya Kecerdasan Buatan 2024, Mungkin
Anonim

Bagaimana komputer membuat keputusan yang aneh

Kecerdasan buatan berkembang begitu pesat sehingga banyak yang mulai merasakan kecemasan: jika ia akan segera dapat mengalami emosi dan membuat keputusan sendiri. Baik itu bot, kendaraan otonom, atau pembuat keputusan dalam bisnis dan sains: kecerdasan buatan menembus semua bidang kehidupan dan masyarakat kita. Otak mesin dianggap logis, tidak emosional dan tidak memihak, tetapi praktik menunjukkan bahwa mereka tidak selalu memutuskan segala sesuatu dengan pikiran terbuka.

Image
Image

Kecerdasan buatan sangat diperlukan di mana penting untuk mengenali pola dalam sejumlah besar data dan membuat keputusan berdasarkan pola tersebut. Namun di masa depan, sistem kecerdasan buatan juga dapat digunakan di area di mana kesejahteraan kita dan bahkan kehidupan kita secara langsung bergantung pada kesimpulan - dalam kedokteran, dalam pemilihan pekerjaan, dalam pemberian pinjaman dan keadilan.

Seberapa benar secara obyektif dan moral kecerdasan buatan membuat keputusan? Bisakah kita benar-benar mempercayai otak mesin untuk membuat keputusan yang berpotensi penting seperti itu?

Kecerdasan buatan digunakan di semua bidang

Bahkan sekarang, algoritme adaptif digunakan di banyak area kehidupan kita sehari-hari. Ada asisten digital untuk memahami perintah dan pertanyaan suara. Di Internet, bot web membantu memelihara dan mengontrol situs web sehingga sulit dibedakan dengan manusia. Bahkan ketika berita palsu dan manipulasi gambar terdeteksi, sistem kecerdasan buatan tetap terlibat.

Video promosi:

Image
Image

Sistem AI juga melakukan tugasnya di industri, bisnis, dan bahkan pemerintahan. Mereka mengoptimalkan dan mengontrol proses produksi, mengatur logistik pelabuhan peti kemas dan gudang besar atau memelihara catatan akuntansi. Perusahaan asuransi dan bank sudah memiliki program cerdas pertama untuk memeriksa aplikasi yang diajukan atau membuat keputusan tentang pembayaran. Di Ikea, Deutsche Telekom, dan banyak perusahaan lain, UNICEF atau perpustakaan, asisten virtual terlibat dalam layanan pelanggan.

Sejumlah besar data diproses untuk pelatihan

Semua ini dimungkinkan berkat kemampuan sistem AI untuk menganalisis data dalam jumlah besar dengan cepat, untuk mengidentifikasi pola dan korelasi. Misalnya, algoritme belajar dari foto hewan peliharaan yang tak terhitung jumlahnya dengan nama yang cocok. Setelah periode pelatihan, sistem dapat memilih foto yang benar-benar baru dari spesies yang diinginkan. Ia mengenali perbedaannya sendiri.

Image
Image

Banyak sistem AI lainnya menggunakan teks sebagai dasar pembelajaran. Mereka menilai konteks di mana sebuah kata berdiri dan mempelajari arti semantiknya, serta hubungan dengan kata atau sinonim yang serupa. Hubungan semantik ini menerjemahkan program ke dalam ekspresi matematika dan dengan demikian mempelajari konteks semantik yang kompleks.

Hanya berkat kemampuan inilah kecerdasan buatan dapat, misalnya, mengevaluasi data medis dan rekam medis serta menyimpulkan karakteristik gambaran klinis darinya. Berdasarkan hasil ini, sistem AI telah digunakan sebagai alat bantu diagnosis, yang dapat mengenali berbagai jenis kanker, tanda penyakit Alzheimer, kondisi bunuh diri, dan kadar gula berbahaya pada diabetes.

Tapi semenarik kedengarannya, semakin banyak AI yang memiliki kelemahan besar. Semakin jauh kecerdasan buatan menembus hampir semua bidang masyarakat kita, semakin besar konsekuensi potensial dari keputusannya. Masa depan finansial atau profesional seseorang, atau bahkan hidupnya, bergantung pada penilaiannya.

Solusi AI yang dapat merenggut nyawa

Misalnya, jika AI salah mendiagnosis dalam pengobatan tanpa perlu ditanyai, pasien dapat menjalani pengobatan yang salah atau bahkan meninggal. Militer menggunakan sistem senjata otonom yang membuat keputusan yang salah. Misalnya, AI tidak dapat membedakan teman yang melarikan diri dari musuh, yang tidak bersalah mati.

Image
Image

Algoritme AI sudah digunakan di pengadilan di Amerika Serikat. Mereka memprediksi kemungkinan residivisme bagi pelanggar di pengadilan. Penilaian mereka seringkali mempengaruhi keputusan pengadilan dan, akibatnya, hukuman dari terpidana.

Jika AI memutuskan pinjaman

Demikian pula, keputusan di bidang keuangan dan asuransi dapat memengaruhi apakah seseorang mendapat pinjaman atau tidak. Sistem ini biasanya dilatih menggunakan database.

Image
Image

Dan di sini AI mencari pola: orang mana yang biasanya membayar kembali pinjaman mereka dan mana yang tidak? Dia mengembangkan prosedur penilaiannya dan membuat keputusan yang tepat. Secara khusus, ini berarti bahwa orang dengan tempat tinggal atau pekerjaan yang salah tidak akan menerima pinjaman, tidak peduli berapa banyak mereka bersedia membayar, dalam keadaan seperti ini.

Dengan pembagian tanggung jawab dengan komputer seperti itu, seseorang hanya akan menjadi asisten untuk pelaksanaan keputusan otak dunia maya. Dan ini sudah terjadi.

Siapa yang bertanggung jawab atas kesalahan?

Masalah lain dalam pengembangan AI: semakin kompleks prinsip pengambilan keputusan, semakin sulit bagi manusia untuk memahaminya. Ini juga menimbulkan pertanyaan siapa yang bertanggung jawab atas kesalahan.

Kasus kecelakaan saat mengendarai mobil dengan autopilot menjadi lebih sering: siapa yang harus disalahkan atas fakta bahwa beberapa situasi tidak disimpan dalam memori atau AI menarik kesimpulan yang salah. Atau mungkin dia membuat kesimpulan sendiri? Sudah ada contoh seperti itu.

Bermain bot telah mengembangkan aturannya sendiri selama permainan

Untuk studi ini, para peneliti mengizinkan 100 bot pintar untuk berinteraksi satu sama lain dalam permainan konsesi. Masing-masing dari mereka harus memutuskan apakah mereka menyumbangkan sesuatu kepada seseorang dari tim mereka atau kepada peserta permainan dari luar.

Image
Image

Anehnya, seiring berjalannya waktu, bot menjadi semakin dikecualikan dari grup luar dan hanya menyumbang kepada anggota tim mereka.

Image
Image

Alasannya: bot pintar mengadaptasi strategi permainan mereka, meniru perilaku rekan-rekan yang mengumpulkan uang paling banyak dan paling sukses. Dengan demikian, kelompok bot muncul yang berperilaku dengan cara yang sama dan secara konsisten mengecualikan peserta game yang tidak terkait. Terus-menerus menciptakan sesuatu yang menghitung, menganalisis, dan membuat keputusan lebih cepat daripada itu, suatu hari umat manusia akan kehilangan kendali atas penciptaannya, tindakan yang tidak dapat dilacaknya.

Menurut para ilmuwan, ini jelas: kecerdasan buatan tidak membutuhkan data buatan untuk menjadi bias, itu sudah cukup untuk memiliki mesin lain di sekitarnya. Karena inipun bisa menciptakan pikiran kelompok yang diketahui dari komunitas manusia. Oleh karena itu, dengan menggunakan AI, orang harus menyerahkan keputusan pada dirinya sendiri.

Vasilik Svetlana

Direkomendasikan: