Apa Yang Ditakuti Oleh Pengembang Artificial Intelligence Dalam Kreasinya - Pandangan Alternatif

Daftar Isi:

Apa Yang Ditakuti Oleh Pengembang Artificial Intelligence Dalam Kreasinya - Pandangan Alternatif
Apa Yang Ditakuti Oleh Pengembang Artificial Intelligence Dalam Kreasinya - Pandangan Alternatif

Video: Apa Yang Ditakuti Oleh Pengembang Artificial Intelligence Dalam Kreasinya - Pandangan Alternatif

Video: Apa Yang Ditakuti Oleh Pengembang Artificial Intelligence Dalam Kreasinya - Pandangan Alternatif
Video: Artificial Intelligence: Inilah Hebatnya Kecerdasan Buatan 2024, Mungkin
Anonim

Sebagai seorang peneliti AI, saya sering dihadapkan pada pendapat bahwa banyak orang yang takut dengan AI dan bisa menjadi apa. Faktanya, tidak mengherankan jika Anda melihat dari perspektif sejarah manusia, sambil memperhatikan apa yang diberikan industri hiburan kepada kita, bahwa orang mungkin takut akan pemberontakan dunia maya yang akan memaksa kita untuk hidup di daerah terpencil, dan mengubah orang lain menjadi baterai manusia yang "seperti Matrix". …

Namun, bagi saya, melihat semua model komputer evolusioner yang saya gunakan dalam pengembangan AI, sulit untuk berpikir bahwa makhluk saya yang tidak berbahaya, murni seperti air mata bayi, di layar komputer saya suatu hari dapat berubah menjadi monster distopia futuristik. Bisakah saya benar-benar disebut "perusak dunia", seperti yang pernah disesali dan dikatakan oleh Oppenheimer tentang dirinya sendiri setelah dia memimpin program untuk membuat bom nuklir?

Mungkin saya akan menerima ketenaran seperti itu, atau mungkin kritik terhadap pekerjaan saya benar? Mungkin saya benar-benar harus berhenti menghindari pertanyaan tentang ketakutan apa yang saya miliki tentang AI sebagai pakar AI?

Takut akan ketidakpastian

HAL 9000, impian penulis fiksi ilmiah Arthur Charles Clarke dan dihidupkan oleh pembuat film Stanley Kubrick di A Space Odyssey tahun 2001, adalah contoh yang sangat baik dari sistem yang rusak karena keadaan yang tidak terduga.

Dalam banyak sistem yang kompleks - Titanic, pesawat ulang-alik NASA, dan pembangkit listrik tenaga nuklir Chernobyl - para insinyur harus menggabungkan banyak komponen. Mungkin arsitek sistem ini sangat menyadari bagaimana masing-masing elemennya bekerja secara individual, tetapi mereka tidak cukup memahami bagaimana semua komponen ini akan bekerja bersama.

Video promosi:

Hasilnya adalah sistem yang tidak pernah sepenuhnya dipahami oleh pencipta mereka sendiri, yang menyebabkan konsekuensi yang terkenal. Dalam setiap kasus, kapal tenggelam, dua angkutan meledak, dan hampir seluruh Eropa dan sebagian Asia dihadapkan pada masalah kontaminasi radioaktif - serangkaian masalah yang relatif kecil yang terjadi secara bersamaan, menciptakan efek bencana.

Saya bisa membayangkan dengan sempurna bagaimana kita, pencipta AI, bisa sampai pada hasil yang serupa. Kami mengambil perkembangan dan penelitian terbaru dalam ilmu kognitif (ilmu berpikir - red.), Menerjemahkannya ke dalam algoritma komputer dan menambahkan semua ini ke sistem yang ada. Kami mencoba mengembangkan AI tanpa sepenuhnya memahami kecerdasan dan kesadaran kami sendiri.

Sistem seperti IBM's Watson atau Google Alpha adalah jaringan saraf tiruan dengan kekuatan komputasi yang mengesankan dan kemampuan untuk menangani tugas-tugas yang sangat kompleks. Tapi untuk saat ini, satu-satunya hal yang menyebabkan kesalahan dalam pekerjaan mereka adalah akibat dari kerugian dalam permainan intelektual "Jeopardy!" atau kehilangan kesempatan untuk mengalahkan permainan papan logika terbaik dunia lainnya.

Konsekuensi ini tidak bersifat global. Faktanya, hal terburuk yang dapat terjadi pada orang dalam hal ini adalah seseorang kehilangan sejumlah uang dalam taruhan.

Namun, arsitektur AI menjadi lebih kompleks dan proses komputer menjadi lebih cepat. Kemampuan AI hanya akan meningkat seiring waktu. Dan hal ini akan membawa kita pada fakta bahwa kita akan mulai memberikan lebih banyak tanggung jawab kepada AI, meskipun risiko keadaan yang tidak terduga semakin meningkat.

Kami sangat menyadari bahwa "kesalahan adalah bagian dari sifat manusia", oleh karena itu secara fisik tidak mungkin bagi kami untuk menciptakan sistem yang benar-benar aman dalam segala hal.

Takut disalahgunakan

Saya tidak terlalu khawatir tentang ketidakpastian konsekuensi dalam pekerjaan AI, yang saya kembangkan menggunakan apa yang disebut pendekatan neuroevolution. Saya menciptakan lingkungan virtual dan mengisinya dengan makhluk digital, memberikan perintah kepada otak mereka untuk memecahkan masalah yang semakin kompleks.

Seiring waktu, efisiensi pemecahan masalah oleh makhluk ini meningkat dan berkembang. Mereka yang melakukan pekerjaan terbaik dipilih untuk reproduksi, menciptakan generasi baru atas dasar mereka. Selama beberapa generasi, makhluk digital ini mengembangkan kemampuan kognitif.

Misalnya, saat ini kami sedang mengambil langkah pertama dalam mengembangkan mesin ke tingkat melakukan tugas navigasi sederhana, membuat keputusan sederhana, atau menghafal beberapa bit informasi. Tetapi segera kita akan melihat perkembangan mesin yang dapat melakukan tugas yang lebih kompleks dan memiliki tingkat kecerdasan keseluruhan yang jauh lebih efisien. Tujuan utama kami adalah menciptakan kecerdasan setingkat manusia.

Dalam evolusi ini, kami akan mencoba menemukan dan memperbaiki semua bug dan masalah. Dengan setiap generasi baru, mesin akan lebih baik dalam mengatasi kesalahan daripada yang sebelumnya. Ini akan meningkatkan kemungkinan bahwa kami akan dapat mengidentifikasi semua konsekuensi tak terduga dalam simulasi dan menghilangkannya bahkan sebelum mereka dapat terwujud di dunia nyata.

Peluang lain yang diberikan oleh metode evolusi perkembangan adalah memberikan kecerdasan buatan dengan etika. Kemungkinan karakteristik etika dan moral seseorang seperti keandalan dan altruisme adalah hasil dari evolusi kita dan faktor kelanjutannya.

Kami dapat menciptakan lingkungan yang dibangun dan memberdayakan mesin untuk menunjukkan kebaikan, kejujuran, dan empati. Ini bisa menjadi salah satu cara untuk memastikan kita mengembangkan pelayan yang lebih patuh daripada robot pembunuh yang kejam. Namun, meskipun neuroevolution dapat mengurangi tingkat konsekuensi yang tidak diinginkan dalam perilaku AI, ini tidak dapat mencegah penyalahgunaan kecerdasan buatan.

Sebagai seorang ilmuwan, saya harus memenuhi komitmen saya terhadap kebenaran dan melaporkan apa yang saya temukan melalui eksperimen saya, apakah saya suka hasilnya atau tidak. Pekerjaan saya bukanlah menentukan apa yang saya suka dan apa yang tidak. Satu-satunya hal yang penting adalah saya dapat mempublikasikan pekerjaan saya.

Takut pada prioritas sosial yang salah

Menjadi seorang ilmuwan tidak berarti kehilangan rasa kemanusiaan Anda. Saya harus terhubung kembali dengan harapan dan ketakutan saya pada tingkat tertentu. Sebagai individu yang bermotivasi moral dan politik, saya harus mempertimbangkan konsekuensi potensial dari pekerjaan saya dan kemungkinan pengaruhnya terhadap masyarakat.

Sebagai ilmuwan dan sebagai perwakilan masyarakat, kami masih belum mendapatkan gambaran yang jelas tentang apa sebenarnya yang ingin kami dapatkan dari AI dan nantinya akan menjadi apa. Hal ini tentu saja sebagian karena kita masih belum sepenuhnya memahami potensinya. Tapi tetap saja, kita perlu memahami dengan jelas dan memutuskan apa yang ingin kita dapatkan dari kecerdasan buatan yang benar-benar canggih.

Salah satu area terbesar yang diperhatikan orang ketika berbicara tentang AI adalah pekerjaan. Robot sudah melakukan pekerjaan fisik yang kompleks untuk kami, seperti merakit dan mengelas bagian bodi mobil. Tetapi suatu hari nanti akan tiba ketika robot akan ditugaskan untuk melakukan tugas-tugas kognitif, yaitu, mereka akan diberi tugas dengan apa yang sebelumnya dianggap sebagai kemampuan unik khusus dari orang itu sendiri. Mobil tanpa pengemudi dapat menggantikan pengemudi taksi; pesawat tanpa pengemudi tidak membutuhkan pilot.

Alih-alih menerima perawatan medis di ruang gawat darurat yang dipenuhi dengan staf dan dokter yang selalu lelah, pasien akan dapat melakukan pemeriksaan dan mempelajari diagnosis menggunakan sistem pakar dengan akses instan ke semua pengetahuan medis. Operasi bedah akan dilakukan oleh robot yang tidak mudah lelah, dengan "tangan yang terlatih" dengan sempurna.

Nasihat hukum akan tersedia dari kerangka hukum yang komprehensif. Untuk saran investasi, kami akan beralih ke sistem prakiraan pasar ahli. Mungkin suatu saat nanti semua pekerjaan manusia akan dilakukan oleh mesin. Bahkan pekerjaan saya dapat diselesaikan lebih cepat dengan menggunakan sejumlah besar mesin yang tanpa henti meneliti cara membuat mesin menjadi lebih pintar.

Dalam realitas masyarakat kita saat ini, otomatisasi telah memaksa orang untuk meninggalkan pekerjaan mereka, membuat pemilik kaya dari mesin otomatis tersebut semakin kaya, dan sisanya semakin miskin. Tapi ini bukan masalah ilmiah. Ini adalah masalah politik dan sosial ekonomi yang harus diselesaikan oleh masyarakat sendiri.

Penelitian saya tidak akan mengubah itu, tetapi fondasi politik saya, bersama dengan kemanusiaan, dapat mengarah pada keadaan di mana AI dapat menjadi fungsi yang sangat berguna, alih-alih memperlebar kesenjangan antara satu persen elit dunia dan kita semua.

Takut akan skenario bencana

Kita sampai pada ketakutan terakhir yang dibebankan pada kita oleh HAL 9000 yang gila, Terminator dan superintelligence jahat lainnya. Jika AI terus berevolusi hingga melampaui kecerdasan manusia, akankah sistem superintelligent buatan (atau kumpulan sistem semacam itu) menganggap manusia sebagai materi yang tidak berguna? Bagaimana kita bisa membenarkan keberadaan kita di hadapan superintelligence yang mampu melakukan dan menciptakan apa yang tidak bisa dilakukan orang lain? Akankah kita dapat menghindari nasib terhapus dari muka bumi oleh mesin yang kita bantu ciptakan?

Oleh karena itu, pertanyaan terpenting dalam keadaan seperti itu akan terdengar seperti ini: mengapa superintelligence buatan membutuhkan kita?

Jika situasi seperti itu terjadi, saya mungkin akan mengatakan bahwa saya adalah orang baik yang bahkan berkontribusi pada penciptaan superintelligence ini, yang saya hadapi sekarang. Saya akan memohon belas kasih dan empati, sehingga superintelligence akan membuat saya, yang begitu penuh kasih dan empatik, hidup. Saya juga akan menambahkan bahwa keanekaragaman spesies itu sendiri memiliki nilai dan alam semesta begitu besar sehingga keberadaan spesies manusia di dalamnya sebenarnya tidak begitu berarti.

Tetapi saya tidak dapat berbicara untuk semua umat manusia, jadi akan sulit bagi saya untuk menemukan argumen yang valid untuk kita semua. Hanya saja ketika saya melihat kami semua, saya benar-benar melihat bahwa kami telah melakukan banyak hal dan melakukan banyak kesalahan. Kebencian terhadap satu sama lain menguasai dunia. Kami berperang melawan satu sama lain. Kami mendistribusikan makanan, pengetahuan dan perawatan kesehatan secara tidak adil. Kami mencemari planet ini. Di dunia ini tentunya banyak hal yang baik, tetapi jika melihat semua hal buruk yang telah kita ciptakan dan terus ciptakan, akan sangat sulit untuk menemukan argumen yang mendukung keberlangsungan hidup kita.

Untungnya, kita belum harus membenarkan keberadaan kita. Kami masih punya waktu. Dari 50 hingga 250 tahun, tergantung seberapa cepat kecerdasan buatan berkembang. Kita, sebagai spesies, memiliki kemampuan untuk berkumpul dan menemukan jawaban yang bagus untuk pertanyaan mengapa superintelligence tidak seharusnya menghapus kita dari muka planet ini.

Akan sangat sulit untuk menyelesaikan masalah ini. Bagaimanapun, untuk mengatakan bahwa kami mendukung keragaman dan perbedaan etnokultural, dan untuk melakukannya, adalah hal yang sama sekali berbeda. Bagaimana mengatakan bahwa kita ingin menyelamatkan planet ini, dan berhasil mengatasinya.

Kita semua, baik itu setiap individu atau masyarakat secara keseluruhan, harus mempersiapkan skenario bencana yang menggunakan waktu itu untuk siap menunjukkan dan membuktikan mengapa ciptaan kita harus memungkinkan kita untuk terus ada. Atau kita dapat terus percaya membabi buta bahwa perkembangan peristiwa seperti itu tidak mungkin, dan berhenti membicarakan topik ini.

Namun, tidak peduli bahaya fisik apa yang mungkin ditimbulkan superintelligence kepada kita, kita tidak boleh lupa bahwa hal itu juga akan menimbulkan bahaya politik dan ekonomi. Jika kita tidak menemukan cara untuk meningkatkan standar hidup kita, kita pada akhirnya hanya akan mengisi kapitalisme dengan pekerja kecerdasan buatan yang hanya akan melayani beberapa orang terpilih yang memiliki semua alat produksi.

Artikel ini awalnya diterbitkan di theconversation.com oleh Arend Hintze, Profesor Madya di Departemen Biologi Integratif, Ilmu dan Teknik Komputer, Universitas Michigan

Nikolay Khizhnyak

Direkomendasikan: