Berpikir Seperti Manusia: Apa Yang Akan Terjadi Jika Anda Menganugerahi Mesin Dengan Teori Kesadaran - Pandangan Alternatif

Daftar Isi:

Berpikir Seperti Manusia: Apa Yang Akan Terjadi Jika Anda Menganugerahi Mesin Dengan Teori Kesadaran - Pandangan Alternatif
Berpikir Seperti Manusia: Apa Yang Akan Terjadi Jika Anda Menganugerahi Mesin Dengan Teori Kesadaran - Pandangan Alternatif

Video: Berpikir Seperti Manusia: Apa Yang Akan Terjadi Jika Anda Menganugerahi Mesin Dengan Teori Kesadaran - Pandangan Alternatif

Video: Berpikir Seperti Manusia: Apa Yang Akan Terjadi Jika Anda Menganugerahi Mesin Dengan Teori Kesadaran - Pandangan Alternatif
Video: Artificial Intelligence: Inilah Hebatnya Kecerdasan Buatan 2024, Mungkin
Anonim

Bulan lalu, tim pemain AI otodidak mengalami kekalahan spektakuler melawan pemain esports profesional. Pertandingan pertunjukan, yang berlangsung sebagai bagian dari Dota 2 Kejuaraan Dunia Internasional, menunjukkan bahwa pemikiran strategis tim masih memungkinkan seseorang untuk mendapatkan keunggulan atas mobil.

AI yang terlibat adalah beberapa algoritma yang dikembangkan oleh OpenAI, di mana Elon Musk adalah salah satu pendirinya. Sekelompok pemain digital, yang disebut OpenAI Five, belajar bermain Dota 2 sendiri, melalui trial and error, bersaing satu sama lain.

Berbeda dengan game catur atau papan logika yang sama, Go, game multipemain yang populer dan berkembang pesat Dota 2 dianggap sebagai bidang yang jauh lebih serius untuk menguji kecerdasan buatan. Kesulitan keseluruhan permainan hanyalah salah satu faktor. Tidaklah cukup hanya dengan mengklik dengan sangat cepat dengan mouse dan mengeluarkan perintah ke karakter yang Anda kendalikan. Untuk menang, perlu memiliki intuisi dan pemahaman tentang apa yang diharapkan dari lawan pada saat berikutnya, serta bertindak secara memadai sesuai dengan rangkaian pengetahuan ini untuk bersatu dengan upaya bersama menuju tujuan bersama - kemenangan. Komputer tidak memiliki rangkaian kemampuan ini.

Sampai saat ini, bahkan algoritma komputer pembelajaran mendalam yang paling menonjol tidak memiliki pemikiran strategis yang diperlukan untuk memahami tujuan dari tugas lawannya, baik itu AI lain atau manusia.

Menurut Wang, agar AI berhasil, diperlukan keterampilan komunikasi yang mendalam yang bersumber dari fitur kognitif terpenting seseorang - kehadiran kecerdasan.

Model keadaan mental sebagai simulasi

Video promosi:

Pada usia empat tahun, anak-anak biasanya mulai memahami satu sifat sosial yang mendasar: pikiran mereka berbeda dari orang lain. Mereka mulai memahami bahwa setiap orang memiliki apa yang mereka yakini, keinginan, emosi dan niat mereka. Dan, yang paling penting, membayangkan diri mereka di tempat orang lain, mereka dapat mulai memprediksi perilaku lebih lanjut dari orang-orang ini dan menjelaskannya. Di satu sisi, otak mereka mulai menciptakan banyak simulasi tentang diri mereka sendiri di dalam diri mereka sendiri, menggantikan diri mereka sendiri di tempat orang lain dan menempatkan diri mereka di dalam lingkungan yang berbeda.

Model keadaan mental penting dalam memahami diri sendiri sebagai pribadi dan juga berperan penting dalam interaksi sosial. Memahami orang lain adalah kunci komunikasi yang efektif dan mencapai tujuan bersama. Namun, kemampuan ini juga bisa menjadi kekuatan pendorong di balik keyakinan salah - ide yang membawa kita menjauh dari kebenaran objektif. Begitu kemampuan untuk menggunakan model keadaan mental terganggu, misalnya, ini terjadi pada autisme, maka keterampilan "manusia" alami, seperti kemampuan menjelaskan dan berimajinasi, juga menurun.

Menurut Dr. Alan Winfield, profesor robotika di University of the West of England, model kondisi mental atau "teori pikiran" adalah fitur kunci yang suatu hari akan memungkinkan AI untuk "memahami" orang, benda, dan robot lain.

Alih-alih metode pembelajaran mesin, di mana beberapa lapisan jaringan saraf mengekstrak potongan informasi individu dan "mempelajari" database besar, Winston menyarankan untuk mengambil pendekatan yang berbeda. Daripada mengandalkan pembelajaran, Winston menyarankan pra-pemrograman AI dengan model internal itu sendiri dan lingkungan yang akan menjawab pertanyaan sederhana "bagaimana jika?".

Misalnya, bayangkan dua robot bergerak di sepanjang koridor sempit, AI mereka dapat mensimulasikan hasil tindakan lebih lanjut yang akan mencegah tabrakan: belok kiri, kanan, atau terus lurus. Model internal ini pada dasarnya akan bertindak sebagai "mekanisme konsekuensi", bertindak sebagai semacam "akal sehat" yang akan membantu mengarahkan AI ke tindakan yang benar berikutnya dengan memprediksi perkembangan situasi di masa depan.

Dalam sebuah penelitian yang diterbitkan awal tahun ini, Winston mendemonstrasikan robot prototipe yang mampu mencapai hasil seperti itu. Mengantisipasi kelakuan orang lain, robot berhasil melewati koridor tanpa benturan. Faktanya, ini tidak mengherankan, catat penulis, tetapi robot "perhatian", menggunakan pendekatan simulasi untuk memecahkan masalah, membutuhkan waktu 50 persen lebih lama untuk menyelesaikan koridor. Namun demikian, Winston membuktikan bahwa metode simulasi internal bekerja: "Ini adalah titik awal yang sangat kuat dan menarik dalam pengembangan teori kecerdasan buatan," ilmuwan menyimpulkan.

Winston berharap bahwa pada akhirnya AI akan mendapatkan kemampuan untuk menggambarkan, mereproduksi situasi secara mental. Model internal dari dirinya sendiri dan yang lainnya akan memungkinkan AI semacam itu untuk mensimulasikan berbagai skenario, dan, yang lebih penting, untuk menentukan tujuan dan sasaran spesifik untuk masing-masing skenario.

Ini sangat berbeda dari algoritma pembelajaran mendalam, yang pada prinsipnya tidak dapat menjelaskan mengapa mereka sampai pada kesimpulan ini atau itu ketika memecahkan suatu masalah. Model kotak hitam dari pembelajaran mendalam sebenarnya adalah masalah nyata dalam mempercayai sistem semacam itu. Masalah ini bisa menjadi sangat akut, misalnya, saat mengembangkan robot perawat untuk rumah sakit atau untuk orang tua.

AI yang dipersenjatai dengan model kondisi mental dapat menempatkan dirinya pada posisi tuannya dan memahami dengan benar apa yang diinginkan darinya. Kemudian dia dapat mengidentifikasi solusi yang sesuai dan, setelah menjelaskan keputusan ini kepada orang tersebut, dia sudah memenuhi tugas yang diberikan kepadanya. Semakin sedikit ketidakpastian dalam keputusan, semakin besar kepercayaan akan robot semacam itu.

Model keadaan mental di jaringan saraf

DeepMind mengambil pendekatan berbeda. Alih-alih memprogram algoritma untuk mekanisme konsekuensi, mereka telah mengembangkan beberapa jaringan saraf yang menunjukkan kemiripan dengan model perilaku psikologis kolektif.

Algoritma AI "ToMnet" dapat mempelajari tindakan dengan mengamati jaringan neutron lain. ToMNet sendiri merupakan kumpulan dari tiga jaringan neural: yang pertama didasarkan pada keanehan dalam memilih AI lain sesuai dengan tindakan terbaru mereka. Yang kedua membentuk konsep umum dari suasana hati saat ini - keyakinan dan niat mereka pada titik waktu tertentu. Hasil kolektif dari kerja dua jaringan saraf diterima oleh yang ketiga, yang memprediksi tindakan selanjutnya dari AI berdasarkan situasinya. Seperti halnya pembelajaran mendalam, ToMnet menjadi lebih efektif karena memperoleh pengalaman dengan mengikuti orang lain.

Dalam satu percobaan, ToMnet "mengamati" tiga agen AI bermanuver di ruang digital, mengumpulkan kotak warna-warni. Masing-masing AI ini memiliki kekhasannya sendiri: salah satunya "buta" - tidak dapat menentukan bentuk dan penempatan di dalam ruangan. Yang lainnya adalah "sklerotik": dia tidak bisa mengingat langkah terakhirnya. Yang ketiga bisa melihat dan mengingat.

Setelah pelatihan, ToMnet mulai memprediksi preferensi masing-masing AI dengan mengamati tindakannya. Misalnya, "orang buta" terus bergerak hanya di sepanjang dinding. ToMnet mengingat ini. Algoritme tersebut juga dapat memprediksi dengan benar perilaku AI di masa depan dan, yang lebih penting, memahami saat AI menemukan representasi lingkungan yang salah.

Dalam satu tes, tim ilmuwan memprogram satu AI untuk "miopia" dan mengubah tata letak ruangan. Agen dengan penglihatan normal dengan cepat beradaptasi dengan tata letak baru, tetapi pria rabun terus mengikuti rute aslinya, secara keliru percaya bahwa dia masih di lingkungan lama. ToMnet dengan cepat mencatat fitur ini dan secara akurat memprediksi perilaku agen, menempatkan dirinya pada tempatnya.

Menurut Dr. Alison Gopnik, seorang psikolog perkembangan di University of California, Berkeley, yang tidak terlibat dalam penelitian ini, tetapi akrab dengan temuan tersebut, hasil ini menunjukkan bahwa jaringan saraf memiliki kemampuan luar biasa untuk mempelajari berbagai keterampilan sendiri, melalui pengamatan orang lain. Pada saat yang sama, menurut sang ahli, masih sangat dini untuk mengatakan bahwa AI ini telah mengembangkan model keadaan mental buatan.

Menurut Dr. Josh Tenebaum dari Massachusetts Institute of Technology, yang juga tidak terlibat dalam penelitian ini, "pemahaman" ToMnet sangat terkait dengan konteks lingkungan belajar - ruangan yang sama dan agen AI tertentu yang tugasnya adalah mengumpulkan kotak. Batasan dalam kerangka kerja tertentu ini membuat ToMnet kurang efektif dalam memprediksi perilaku dalam lingkungan yang sangat baru, dibandingkan dengan anak-anak yang sama yang dapat beradaptasi dengan situasi baru. Algoritme, menurut ilmuwan, tidak akan menangani pemodelan tindakan AI atau orang yang sama sekali berbeda.

Bagaimanapun, karya Winston dan DeepMind menunjukkan bahwa komputer mulai menunjukkan dasar-dasar "pemahaman" satu sama lain, meskipun pemahaman ini masih belum sempurna. Dan saat mereka terus meningkatkan keterampilan ini, saling memahami dengan lebih baik dan lebih baik, akan tiba saatnya mesin dapat memahami kompleksitas dan kompleksitas kesadaran kita sendiri.

Nikolay Khizhnyak

Direkomendasikan: