Kecerdasan Buatan: Musuh Berbahaya Atau Penolong Yang Baik Hati - Pandangan Alternatif

Kecerdasan Buatan: Musuh Berbahaya Atau Penolong Yang Baik Hati - Pandangan Alternatif
Kecerdasan Buatan: Musuh Berbahaya Atau Penolong Yang Baik Hati - Pandangan Alternatif

Video: Kecerdasan Buatan: Musuh Berbahaya Atau Penolong Yang Baik Hati - Pandangan Alternatif

Video: Kecerdasan Buatan: Musuh Berbahaya Atau Penolong Yang Baik Hati - Pandangan Alternatif
Video: Artificial Intelligence: Inilah Hebatnya Kecerdasan Buatan 2024, Mungkin
Anonim

Penggunaan kecerdasan buatan (AI) dalam kehidupan sehari-hari dengan cepat mendapatkan momentumnya, namun tren ini semakin menimbulkan kekhawatiran bagi para spesialis. Staf NYU menyiapkan catatan peringatan tentang risiko penggunaan I. I. Sebagian besar, penulis berfokus pada masalah etika dan sosial, serta kurangnya regulasi. Laporan dari grup AI Now mengatakan sedikit hal baru, tetapi dalam praktik dunia, pertanyaan tentang perlunya membatasi kerja pemikiran buatan semakin meningkat.

Hampir semua visioner kemajuan teknologi berbicara tentang potensi ancaman terhadap AI. Stephen Hawking pada November tahun lalu menyuarakan ketakutan utama yang menyertai refleksi tentang perkembangan teknologi. Menurutnya, komputer cepat atau lambat akan belajar menggandakan dirinya sendiri. Makhluk biologis kemungkinan besar akan kalah dengan kecerdasan silikon baik dalam kemampuan mental maupun dalam hal kemampuan beradaptasi terhadap lingkungan, terutama di planet lain. Cepat atau lambat, robot pintar akan menganggap manusia sebagai bentuk usang dan ingin menyingkirkannya.

Kata-kata Hawking masih terdengar seperti cerita horor, diputar puluhan kali di film dan buku, tetapi bahkan mereka yang mengerjakan penerapan sistem pintar menjadi semakin takut akan masa depan dengan AI, meski ada yang menganggap ketakutan tersebut terlalu dini. “Khawatir dengan perkembangan AI saat ini seperti mengkhawatirkan kelebihan populasi Mars,” kata Andrew Ng, kepala Google Brain. Namun, dia tidak meyakinkan semua orang.

Image
Image

Di antara fobia terbesar yang terkait dengan pengenalan komputer ke semua bidang kehidupan, ada tiga yang perlu diperhatikan. Pertama, pikiran komputer akan digunakan sebagai senjata perang, yang secara signifikan akan melampaui bahkan senjata nuklir dalam kekuatan destruktif. Kedua, AI akan memperbudak manusia. Ketiga, seperti ciptaan manusia lainnya, komputer rawan kesalahan. Ketiga poin tersebut dapat dibahas lebih detail.

Pada 21 Agustus 2017, para ahli terkemuka di bidang penelitian dan implementasi kecerdasan buatan, termasuk pimpinan perusahaan seperti SpaceX dan Deep Mind, mengirimkan surat terbuka ke PBB. Dalam teks tersebut, mereka memperingatkan komunitas dunia agar tidak mengembangkan senjata otonom yang mematikan, baik itu robot atau mekanisme lain yang dirancang untuk membunuh musuh. Para penulis dokumen tersebut menyoroti konsekuensi fatal dari penggunaan senjata semacam itu. Dengan keefektifannya yang fenomenal, wajar untuk bertanya kepada siapa ia akan jatuh. Ini dapat digunakan oleh lingkaran sempit elit dan teroris.

Penulis surat itu meminta organisasi pengawas, dan bersama komunitas ilmiah, untuk menguraikan ruang lingkup penggunaan AI yang berbahaya. Tanggung jawab yang dihadapi seseorang atas ciptaannya sendiri mengharuskannya untuk melakukan pekerjaan yang serius untuk mencegah risiko. Selain undang-undang, pencipta mereka juga harus membatasi kekuatan robot, yang harus memikirkan cara mematikan mesin dalam kasus ekstrim.

Image
Image

Video promosi:

Penyalahgunaan politik sistem elektronik telah dibuktikan melalui kerja jaringan sosial dan algoritma analisis data. Pada musim semi tahun ini, skandal Cambridge Analytica bergemuruh di dunia. Spesialisnya melakukan analisis mendalam terhadap data pengguna dan memasang iklan di Facebook, yang disesuaikan secara individual untuk setiap orang.

Karyawan perusahaan tidak hanya melintasi kerangka etika, tetapi juga menerapkan teknologi modern, yang pekerjaannya tidak mungkin dianalisis. Efektivitas pembelajaran mesin adalah tema yang berulang di antara ahli matematika terkemuka. Mereka mengakui secara serempak bahwa mereka kagum pada keberhasilan program komputer yang luar biasa, tetapi mereka sama sekali tidak dapat memahami kerja sistem yang kompleks. Di Myanmar pada bulan April tahun ini, unggahan Facebook juga menyebabkan keresahan di antara massa, tetapi tidak seperti di Amerika Serikat yang melakukan protes, di negara bagian Asia terjadi pembantaian yang menewaskan beberapa ratus orang. Manipulasi sejumlah besar orang adalah kenyataan dan robot di sini dapat memainkan lelucon yang kejam dengan kami.

Image
Image

Perlu diingat Facebook yang sama, tempat chatbot berbasis AI diluncurkan. Asisten virtual dilatih untuk melakukan dialog dengan lawan bicara. Seiring waktu, bot menjadi tidak bisa dibedakan dari manusia sungguhan, dan kemudian penulis memutuskan untuk menyatukan robot. Seiring waktu, bot mulai memperpendek struktur leksikal dan bertukar omong kosong. Media meningkatkan sensasi dari berita, mereka mengatakan "mesin memberontak." Tetapi dengan mengesampingkan pernyataan jurnalis yang berlebihan, cukup adil untuk mengakui bahwa dalam kasus ketika mesin mulai berkomunikasi satu sama lain, seseorang mungkin tidak memperhatikan hal ini. Dan bagaimana mereka akan menjalani kehidupan mereka sendiri di sana - tidak ada yang tahu.

Struktur pikiran komputer yang semakin kompleks setiap hari membuat kita menjauh dari pemahaman prinsip-prinsip kerjanya. Tetapi sementara sebagian besar algoritme melakukan tugasnya, bahkan saat ini mesin yang kompleks masih jauh dari ideal dan membuat kesalahan. Untuk pengembangan AI lebih lanjut, penting untuk memahami bukan tentang kekuatannya, melainkan kerentanannya. Di sinilah sejumlah besar kelompok ilmiah difokuskan, salah satunya ada spesialis dari MIT Anish atali. Beberapa hari yang lalu, dia memberi tahu wartawan tentang kesalahan paling umum dalam sistem pengenalan gambar.

Rekan-rekannya mendemonstrasikan objek ke mesin dan menemukan bahwa seringkali objek individu dipersepsi secara tidak benar oleh penglihatan elektronik. Komputer bisa menyebut bisbol sebagai secangkir kopi, dan kura-kura cetak 3D sebagai mesin tentara. Grup tersebut telah mengumpulkan sekitar 200 item yang merupakan algoritme yang menyesatkan.

Image
Image

Kecerdasan buatan, alih-alih memahami objek secara keseluruhan, berkonsentrasi pada parameter individualnya. AI cenderung belajar dari sampel yang "sempurna". Ketika dihadapkan pada fenomena yang tidak sesuai, dia tidak selalu bisa meninggalkan proses pemrosesan yang biasa. Alih-alih mengakui ketidakmampuannya untuk memproses gambar tersebut, dia terus mencoba membaca gambar dan terkadang hal ini menyebabkan hasil yang lucu. Alih-alih berbentuk kura-kura, otak elektronik mencoba membaca teksturnya, mirip dengan kamuflase. Untuk alasan yang kurang lebih sama, autopilot e-car belum 100% dapat diandalkan. Sulit bagi sebuah mobil untuk melihat siluetnya dan menganggapnya terdiri dari elemen-elemen yang terpisah.

Dan jika di tahun-tahun mendatang beberapa kekurangan dapat diperbaiki, tidak ada jaminan bahwa peretas tidak akan mengeksploitasi kerentanan tersebut. Peretas perangkat elektronik saat ini mewakili hampir penyebab utama ketakutan. Sebuah tim kecil pemrogram tidak hanya dapat memperoleh akses ke informasi pribadi, tetapi juga mengkonfigurasi ulang sistem otonom, mengambil kendali alat-alat berkekuatan besar. Dan kemudian kita semua akan mendapat masalah. Tetapi kesimpulan utama yang bisa ditarik mungkin adalah kesimpulan tradisional - Anda tidak boleh takut pada mobil, tetapi orang.

Alexander Lavrenov

Direkomendasikan: