Kemanusiaan Yang Berbahaya: Mengapa Kita Membutuhkan Kecerdasan Buatan Yang Cerdas? - Pandangan Alternatif

Daftar Isi:

Kemanusiaan Yang Berbahaya: Mengapa Kita Membutuhkan Kecerdasan Buatan Yang Cerdas? - Pandangan Alternatif
Kemanusiaan Yang Berbahaya: Mengapa Kita Membutuhkan Kecerdasan Buatan Yang Cerdas? - Pandangan Alternatif

Video: Kemanusiaan Yang Berbahaya: Mengapa Kita Membutuhkan Kecerdasan Buatan Yang Cerdas? - Pandangan Alternatif

Video: Kemanusiaan Yang Berbahaya: Mengapa Kita Membutuhkan Kecerdasan Buatan Yang Cerdas? - Pandangan Alternatif
Video: Artificial Intelligence: Inilah Hebatnya Kecerdasan Buatan 2024, Mungkin
Anonim

Ketika Norbert Wiener, bapak sibernetika, menulis bukunya The Human Uses of Human Beings pada tahun 1950, tabung vakum masih menjadi bahan penyusun elektronik utama, dan pada kenyataannya, hanya ada beberapa komputer yang bekerja. Namun, dia membayangkan masa depan yang sekarang kita lihat dengan ketepatan yang belum pernah terjadi sebelumnya, salah mengira hanya detail kecil.

Sebelum filsuf kecerdasan buatan lainnya, ia menyadari bahwa AI tidak hanya akan meniru - dan menggantikan - manusia dalam berbagai jenis aktivitas intelektual, tetapi juga akan mengubah orang dalam prosesnya. “Kami hanyalah pusaran air di sungai dengan air yang terus mengalir,” tulisnya. "Kami bukanlah sesuatu yang hanya hidup, kami adalah model yang mengabadikan diri mereka sendiri."

Misalnya, ketika banyak peluang menarik muncul, kami bersedia membayar dan menerima sedikit biaya menjalankan bisnis untuk mengakses peluang baru. Dan segera kita menjadi bergantung pada alat baru, kita kehilangan kemampuan untuk hidup tanpanya. Pilihan menjadi diperlukan.

Ini adalah sejarah evolusi yang sangat tua, dan banyak bab darinya sudah kita ketahui. Kebanyakan mamalia dapat mensintesis vitamin C mereka sendiri, tetapi primata pemakan buah telah kehilangan kemampuan bawaan ini. Pola pengulangan diri yang kita sebut manusia sekarang bergantung pada pakaian, makanan olahan, vitamin, jarum suntik, kartu kredit, telepon pintar, dan internet. Dan besok, jika tidak hari ini, dari kecerdasan buatan.

Wiener meramalkan beberapa masalah dengan keadaan ini yang sebagian besar diabaikan oleh Alan Turing dan optimis AI awal lainnya. Ancaman sebenarnya, katanya, adalah:

… bahwa mesin seperti itu, meskipun tidak berdaya dengan haknya sendiri, dapat digunakan oleh manusia atau menghalangi manusia untuk meningkatkan kendali mereka atas sisa ras, atau para pemimpin politik dapat mencoba untuk mengambil kendali atas populasi mereka menggunakan metode politik daripada mesin itu sendiri, sesempit dan acuh tak acuh terhadap manusia, seolah-olah mereka diciptakan secara mekanis.

Jelas, bahaya ini sekarang sangat relevan.

Di media, misalnya, inovasi dalam audio dan video digital memungkinkan kita membayar dengan harga murah (di mata audiofil dan penonton bioskop) untuk menjauh dari format analog, dan sebagai gantinya menerima cara yang sangat sederhana - terlalu sederhana - untuk memutar rekaman dengan hampir tanpa batasan.

Video promosi:

Image
Image

Tetapi ada biaya tersembunyi yang sangat besar. Pelayanan kebenaran Orwell telah menjadi peluang nyata. Teknik AI untuk membuat "catatan" palsu yang hampir tidak bisa dibedakan membuat alat yang kami gunakan untuk investigasi menjadi usang selama 150 tahun terakhir.

Kita hanya harus meninggalkan era singkat bukti fotografi dan kembali ke dunia lama di mana ingatan dan kepercayaan manusia adalah standar emasnya. Atau kita bisa mengembangkan metode pertahanan dan serangan baru dalam pertempuran untuk kebenaran. Salah satu contoh yang paling menarik baru-baru ini adalah fakta bahwa menghancurkan reputasi jauh lebih murah daripada mendapatkan dan melindungi reputasi yang sama. Wiener melihat fenomena ini sangat luas: "Dalam jangka panjang, tidak akan ada perbedaan antara mempersenjatai diri dan mempersenjatai musuh." Era informasi juga menjadi era disinformasi.

Apa yang bisa kita lakukan? Kuncinya adalah pengamatan yang sama dari Wiener bahwa "mesin-mesin ini" adalah "sendiri tidak berdaya". Kami menciptakan alat, bukan kolega, dan ancaman sebenarnya adalah kami tidak melihat perbedaannya.

Kecerdasan buatan dalam bentuknya saat ini bersifat parasit pada kecerdasan manusia. Dia dengan sangat tanpa basa-basi memiliki segala sesuatu yang telah diciptakan oleh pencipta manusia dan menggambar pola - termasuk kebiasaan kita yang paling rahasia. Mesin ini belum memiliki tujuan atau strategi, tidak mampu melakukan kritik diri dan inovasi, mereka hanya mempelajari database kita, tanpa pemikiran dan tujuan mereka sendiri.

Mereka, seperti yang dikatakan Wiener, tidak berdaya dalam arti bahwa mereka dirantai atau tidak dapat bergerak, tidak, mereka bukanlah agen sama sekali - mereka tidak memiliki kemampuan untuk "bertindak dari sebab," seperti yang dikatakan Kant.

Dalam jangka panjang, "AI yang kuat", atau kecerdasan buatan umum, pada prinsipnya mungkin, tetapi tidak diinginkan. AI yang bahkan lebih terbatas yang dimungkinkan dalam praktik saat ini tidak akan jahat. Tapi itu menimbulkan ancaman - sebagian karena bisa disalahartikan sebagai AI yang kuat.

Seberapa kuat kecerdasan buatan saat ini?

Kesenjangan antara sistem saat ini dan sistem sci-fi yang membanjiri imajinasi populer masih sangat besar, meskipun banyak orang, baik amatir maupun profesional, cenderung meremehkannya. Mari kita lihat Watson IBM, yang mungkin terhormat di zaman kita.

Superkomputer ini adalah hasil dari proses R&D (penelitian dan pengembangan) berskala sangat besar yang melibatkan banyak orang dan kecerdasan desain selama berabad-abad, dan menggunakan energi ribuan kali lebih banyak daripada otak manusia. Kemenangannya di Jeopardy! adalah kemenangan sejati yang dimungkinkan oleh batasan formula dari peraturan Jeopardy !, tetapi bahkan peraturan itu harus direvisi agar dia dapat berpartisipasi. Saya harus melepaskan sedikit keserbagunaan dan menambahkan kemanusiaan untuk membuat pertunjukan.

Watson adalah perusahaan yang buruk, meskipun ada iklan menyesatkan dari IBM yang menjanjikan kemampuan percakapan AI di kedua level, dan mengubah Watson menjadi agen multi-segi yang dapat dipercaya akan seperti mengubah kalkulator menjadi Watson. Watson mungkin adalah kasus komputasi yang baik untuk agen semacam itu, tetapi lebih merupakan otak kecil atau amigdala daripada pikiran - paling banter, subsistem tujuan khusus berfungsi sebagai pendukung, tetapi bukan sistem untuk merencanakan dan merumuskan tujuan berdasarkan pengalaman percakapan yang diperoleh.

Mengapa kami ingin menciptakan agen yang berpikir dan kreatif dari Watson? Mungkin ide brilian Turing - tes Turing yang terkenal - memikat kita ke dalam jebakan: kita menjadi terobsesi untuk menciptakan setidaknya ilusi orang sungguhan yang duduk di depan layar, melewati "lembah yang tidak menyenangkan".

Bahayanya adalah sejak Turing mempresentasikan tugasnya - yang pada dasarnya adalah tugas untuk menipu para juri - pencipta AI telah mencoba menyelesaikannya menggunakan boneka humanoid lucu, versi "kartun" yang akan memesona dan melucuti senjata yang belum tahu. ELIZA oleh Joseph Weisenbaum, chatbot pertama, adalah contoh utama dalam menciptakan ilusi semacam itu, tetapi dengan algoritme yang sangat sederhana yang dapat meyakinkan orang bahwa mereka melakukan percakapan yang tulus dan tulus dengan orang lain.

Dia khawatir tentang kemudahan orang yang mau mempercayai ini. Dan jika kita menemukan sesuatu dari Uji Turing Terbatas Hadiah Lebner tahunan, bahkan orang terpintar yang tidak mahir dalam pemrograman komputer pun mudah tertipu oleh trik sederhana ini.

Sikap orang-orang di AI terhadap teknik semacam itu berkisar dari menghakimi hingga memberi penghargaan, dan konsensusnya adalah bahwa trik ini tidak terlalu dalam, tetapi bisa berguna. Perubahan sikap yang akan sangat disambut adalah pengakuan yang tulus bahwa android yang dilukis dengan boneka adalah iklan palsu yang harus dinilai, bukan didorong.

Bagaimana ini bisa dicapai? Begitu kita memahami bahwa orang mulai membuat keputusan hidup dan mati dengan mengikuti "nasihat" dari sistem AI, yang operasi internalnya hampir tidak bisa dipahami, kita akan melihat alasan yang baik bagi mereka yang mendesak orang untuk mempercayai sistem tersebut, untuk mulai mengandalkan norma moralitas dan hukum.

Sistem kecerdasan buatan adalah alat yang sangat kuat. Begitu kuat sehingga para ahli pun memiliki alasan yang baik untuk tidak mempercayai penilaian mereka sendiri saat ada "penilaian" yang diwakili oleh alat ini. Tetapi jika pengguna alat ini akan mendapatkan keuntungan, secara finansial atau sebaliknya, dari mempopulerkan alat ini, mereka harus memastikan bahwa mereka tahu bagaimana melakukannya dengan tanggung jawab penuh, kendali maksimum dan pembenaran.

Melisensikan dan menyetujui operator sistem semacam itu - sama seperti kita melisensikan apoteker, operator crane, dan profesional lainnya yang kesalahan dan kesalahan penilaiannya dapat menimbulkan konsekuensi yang mengerikan - mungkin, dengan dukungan perusahaan asuransi dan organisasi lain, mewajibkan pencipta sistem AI untuk bekerja keras mencari kelemahan dan kekurangan produk mereka, dan juga melatih mereka yang akan bekerja dengannya.

Bisa dibayangkan semacam tes Turing terbalik di mana juri akan menjadi subjek penilaian; sampai dia menemukan kelemahan, pelanggaran batas, celah dalam sistem, dia tidak akan menerima lisensi. Hakim seperti itu akan membutuhkan pelatihan serius untuk mendapatkan sertifikasi. Dorongan untuk mengaitkan suatu objek dengan kemampuan berpikir manusia, seperti yang biasanya kita lakukan saat bertemu dengan seorang agen cerdas, sangat, sangat kuat.

Padahal, kemampuan menahan keinginan untuk melihat sesuatu yang manusiawi adalah hal yang aneh. Banyak orang akan menganggap mengasuh bakat seperti itu meragukan, karena bahkan pengguna sistem yang paling pragmatis pun terkadang "ramah" tentang alat mereka.

Terlepas dari seberapa hati-hati perancang AI memilih untuk menghilangkan nuansa "manusia" palsu dalam produk mereka, kita harus mengharapkan berkembangnya label, solusi, dan distorsi yang dapat ditoleransi dari "pemahaman" aktual dari kedua sistem dan operator mereka. Dengan cara yang sama seperti obat-obatan dengan daftar panjang efek samping yang diiklankan di TV, atau alkohol diiklankan dengan banyak cetakan kecil dengan semua peringatan yang diwajibkan oleh hukum, jadi pengembang kecerdasan buatan akan mematuhi hukum, tetapi menjadi canggih dalam peringatan.

Mengapa kita membutuhkan kecerdasan buatan?

Kami tidak membutuhkan agen sadar buatan. Ada sejumlah agen sadar alam yang cukup untuk melaksanakan tugas apa pun bagi para profesional dan individu yang memiliki hak istimewa. Kami membutuhkan alat pintar. Alat tidak memiliki hak dan tidak boleh memiliki perasaan yang dapat disakiti atau disalahgunakan.

Salah satu alasan untuk tidak membuat agen sadar artifisial adalah bahwa meskipun mereka dapat menjadi otonom (dan pada prinsipnya mereka dapat menjadi otonom, meningkatkan diri, atau menciptakan diri seperti orang lain), mereka tidak boleh - tanpa izin khusus - berbagi dengan kami. agen sadar alam, kerentanan kita atau kematian kita.

Daniel Dennett, seorang profesor filsafat di Tufts University, pernah menantang mahasiswanya dalam lokakarya tentang agen buatan dan otonomi: Beri saya spesifikasi robot yang dapat menandatangani kontrak dengan Anda - bukan pengganti yang dimiliki oleh orang lain, tetapi oleh dirinya sendiri. Ini bukan tentang memahami alasan atau memanipulasi pena di atas kertas, melainkan tentang kepemilikan dan kepemilikan yang layak atas status hukum dan tanggung jawab moral. Anak-anak kecil tidak dapat menandatangani kontrak tersebut, serta orang-orang cacat, yang status hukumnya mewajibkan mereka untuk berada di bawah perwalian dan membebankan tanggung jawab kepada wali.

Masalah dengan robot yang mungkin ingin mencapai status luhur adalah, seperti Superman, mereka terlalu rentan untuk membuat klaim seperti itu. Jika mereka menolak, apa yang akan terjadi? Apa hukuman karena mengingkari janji? Apakah mereka akan dikurung di dalam sangkar atau dibongkar? Penjara untuk kecerdasan buatan tidak akan merepotkan kecuali kita terlebih dahulu mengisi dahaga akan kebebasan yang tidak dapat diabaikan atau dinonaktifkan oleh AI itu sendiri. Membongkar AI tidak akan mematikan informasi yang disimpan di disk dan perangkat lunaknya.

Kemudahan merekam dan mentransmisikan data secara digital - terobosan yang memungkinkan perangkat lunak dan data mencapai, pada kenyataannya, keabadian - membuat robot menjadi kebal. Jika tidak terlihat jelas, pikirkan tentang bagaimana moralitas orang akan berubah jika kita dapat mendukung orang setiap minggu. Melompat dari jembatan tanpa karet gelang pada hari Minggu setelah cadangan hari Jumat bisa menjadi keputusan yang terburu-buru, lalu Anda dapat menonton rekaman kematian sebelum waktunya nanti.

Itulah sebabnya kami tidak menciptakan kesadaran - kami ingin menciptakan - agen humanoid, melainkan jenis makhluk yang benar-benar baru, beberapa nubuat, tidak sadar, tanpa rasa takut akan kematian, tanpa gangguan oleh cinta dan kebencian, tanpa kepribadian: cermin kebenaran yang hampir pasti akan tertular oleh manusia kebohongan.

Penggunaan manusia oleh manusia akan segera berubah - sekali lagi - selamanya, tetapi jika kita bertanggung jawab atas lintasan evolusi kita, kita dapat menghindari bahaya yang tidak perlu.

Ilya Khel

Direkomendasikan: