Kecerdasan Buatan Yang Nyata Dapat Dibuat Dengan Memecahkan Tiga Masalah Utama - - Pandangan Alternatif

Daftar Isi:

Kecerdasan Buatan Yang Nyata Dapat Dibuat Dengan Memecahkan Tiga Masalah Utama - - Pandangan Alternatif
Kecerdasan Buatan Yang Nyata Dapat Dibuat Dengan Memecahkan Tiga Masalah Utama - - Pandangan Alternatif

Video: Kecerdasan Buatan Yang Nyata Dapat Dibuat Dengan Memecahkan Tiga Masalah Utama - - Pandangan Alternatif

Video: Kecerdasan Buatan Yang Nyata Dapat Dibuat Dengan Memecahkan Tiga Masalah Utama - - Pandangan Alternatif
Video: #2. KECERDASAN BUATAN : MASALAH, RUANG KEADAAN DAN PENCARIAN (PART 1) 2024, Mungkin
Anonim

Pada konferensi tentang pembelajaran mesin mendalam di London bulan lalu, satu topik diangkat beberapa kali: pentingnya memahami apa yang sebenarnya kami lakukan. Sementara perusahaan seperti Google terus mengklaim bahwa kita semua hidup di "abad pertama AI", saat pembelajaran mesin baru saja mulai menemukan bidang aktivitas baru (seperti pengenalan ucapan dan gambar), mereka yang benar-benar mendukung di garis depan penelitian AI, berusaha untuk menekankan bahwa ada lebih banyak tantangan yang harus diatasi sebelum era AI yang sebenarnya tiba. Sekalipun kita sudah memiliki asisten digital yang dapat berbicara seperti komputer dalam film fiksi ilmiah, ini tidak berarti bahwa kita benar-benar hampir menciptakan kecerdasan buatan yang nyata.

Pada akhirnya, semua masalah yang menghalangi pembuatan AI nyata adalah sebagai berikut: dalam jumlah informasi yang perlu diinvestasikan di dalamnya; dalam ketidakmampuan kami untuk membuat AI yang dapat menangani beberapa tugas sekaligus; sebenarnya, kami tidak tahu bagaimana seharusnya sistem seperti itu bekerja. Teknologi pembelajaran mesin sudah mampu melakukan hal-hal luar biasa di tahun 2016, tetapi hal-hal ini terkadang sulit dijelaskan, bahkan oleh pembuatnya sendiri. Belum lagi berapa biaya semua itu. Mari kita lihat lebih dekat kompleksitas yang dihadapi para insinyur AI saat ini.

Informasi dulu, baru AI

Kita semua sangat memahami bahwa AI perlu memiliki akses ke informasi untuk mempelajari dunia di sekitar kita, tetapi kita tidak begitu memahami dengan tepat berapa banyak informasi yang dibutuhkan. Menurut Neil Lawrence, profesor di Departemen Pembelajaran Mesin di Universitas Sheffield dan anggota tim pengembangan teknologi AI di Amazon, sistem ini akan membutuhkan informasi ratusan dan ribuan kali lebih banyak daripada manusia untuk belajar memahami dunia dan mengenali objek tertentu.

"Jika Anda melihat semua industri dan area di mana para insinyur telah mencapai beberapa keberhasilan dalam machine deep learning, Anda dapat langsung melihat berapa banyak informasi yang telah digunakan untuk menyelesaikan semua masalah ini," kata Lawrence, mengutip sebagai contoh teknologi pengenalan suara dan gambar yang sama.

Perusahaan seperti Google dan Facebook memiliki akses ke segunung informasi, yang tentu saja mempermudah pembuatan berbagai alat yang berguna (teknologi pencarian suara yang sama untuk Android, misalnya).

Bagi Lawrence, informasi sekarang adalah batu bara di tahun-tahun awal revolusi industri. Sebagai contoh, Lawrence mengutip Thomas Newcomen, seorang Inggris yang pada tahun 1712 (sebenarnya 60 tahun sebelum mesin tersebut diciptakan oleh James Watt) sebuah versi primitif dari mesin uap bertenaga batu bara. Penemuan Newcomen tidaklah sempurna. Dibandingkan dengan mesin Watt, mesin ini terbukti tidak efisien dan terlalu mahal untuk digunakan. Untuk sebagian besar, itu hanya bisa digunakan di tambang batu bara, di mana jumlah bahan bakar yang dibutuhkan menutupi kekurangan mesin.

Contoh teknologi pengenalan gambar terbuka Facebook

Video promosi:

Image
Image

Lawrence yakin mungkin ada ratusan Pendatang Baru ini di seluruh dunia yang mengembangkan model pembelajaran mesin mereka sendiri. Mungkin, ada ide yang benar-benar revolusioner di antara mereka, tetapi tanpa teknologi mereka yang mengakses basis data informasi yang sangat besar tentang mereka, kemungkinan besar, tidak akan ada yang tahu. Perusahaan besar seperti Google, Facebook dan Microsoft - mereka adalah "penambang batu bara" yang sangat modern. Mereka memiliki akses ke jumlah informasi yang tidak terbatas, sehingga mereka dapat membuat sistem pembelajaran mesin yang tidak efektif dan kemudian memperbaikinya. Perusahaan rintisan kecil mungkin memang memiliki ide-ide hebat, tetapi mereka tidak akan pernah mencapai sesuatu yang berharga tanpa akses ke basis informasi.

Masalah ini menjadi lebih jelas ketika Anda melihat area di mana mendapatkan informasi yang Anda butuhkan menjadi lebih sulit. Ambil contoh, sistem perawatan kesehatan, di mana AI dapat digunakan untuk melakukan tugas-tugas yang berkaitan dengan penglihatan mesin - menemukan dan mengenali tumor ganas pada sinar-X, misalnya. Tetapi akses ke data semacam itu biasanya sangat terbatas. Faktor pembatas utama di sini, menurut Lawrence, adalah persepsi masyarakat saat ini bahwa tidak etis pihak ketiga mengakses informasi semacam ini. Masalah utamanya, menurut Lawrence, tidak terletak pada menemukan cara untuk menyebarkan informasi, tetapi pada bagaimana membuat sistem pembelajaran mesin lebih efisien dan mengajar untuk bekerja dengan lebih sedikit informasi. Dan peningkatan efisiensi ini, menurut ilmuwan, dapat memakan waktu 60 tahun yang sama.seperti halnya dengan mobil Watt.

Spesialisasi adalah jalan buntu. AI harus mampu melakukan banyak tugas

Tantangan utama lainnya yang dihadapi pengembangan model pembelajaran mesin yang benar-benar mendalam adalah kenyataan bahwa semua sistem AI kita saat ini, pada kenyataannya, sangat bodoh. Menurut Rya Hudsell, seorang peneliti di Google DeepMind, sistem ini sebenarnya dapat diajarkan untuk melakukan tugas pengenalan kucing, untuk mengajarkan cara bermain, dan pada saat yang sama membuatnya sangat efektif dalam melakukan tugas ini. Tapi "saat ini di dunia tidak ada satu pun jaringan saraf lengkap dan metode yang akan melatihnya untuk mengenali gambar, memutar Space Invaders, dan merenungkan musik." Pada gilirannya, jaringan saraf itulah yang menjadi dasar utama untuk menciptakan sistem pembelajaran mendalam untuk mesin.

Dan masalah ini jauh lebih signifikan daripada yang terlihat pada pandangan pertama. Ketika DeepMind mengumumkan Februari lalu bahwa mereka telah membangun sistem yang dapat memainkan 49 game Atari, itu benar-benar bisa dilihat sebagai pencapaian besar. Tetapi pada akhirnya ternyata setelah sistem menyelesaikan bagian dari satu permainan, setiap kali perlu dilatih ulang untuk memainkan yang lain. Hudsell mencatat bahwa kami tidak dapat mengajarkan sistem untuk memainkan semua permainan sekaligus, karena aturan masing-masing akan bercampur satu sama lain dan pada akhirnya mengganggu tugas. Setiap kali Anda harus mempelajari ulang mesin tersebut, dan setiap kali sistem "lupa" cara memainkan game sebelumnya.

“Untuk menciptakan kecerdasan buatan umum, kami membutuhkan sesuatu yang akan membantu kami mengajari mesin untuk melakukan beberapa tugas sekaligus. Sekarang kami bahkan tidak bisa melatih mereka untuk bermain game,”kata Hadsell.

Solusinya dapat disembunyikan dalam apa yang disebut jaringan saraf progresif - menggabungkan sistem pembelajaran dalam yang independen menjadi satu kesatuan untuk pekerjaan yang lebih efisien dengan informasi. Dalam artikel ilmiah yang diterbitkan membahas masalah ini, Hadsell dan tim penelitinya berbicara tentang bagaimana jaringan saraf progresif mereka dapat beradaptasi dalam permainan Pong, kondisi di mana setiap waktu agak berbeda (dalam satu kasus, warnanya berubah; di lain, mereka bingung kontrol), jauh lebih cepat daripada jaringan saraf "biasa", yang harus dilatih lagi setiap saat.

Prinsip dasar jaringan saraf progresif

Image
Image

Metode tersebut terbukti sangat menjanjikan dan baru-baru ini digunakan untuk menyetel lengan robotik, sehingga mempercepat proses pembelajaran dari seminggu menjadi hanya satu hari. Sayangnya, cara ini juga memiliki keterbatasan. Hudsell mencatat bahwa dalam kasus jaringan saraf progresif, proses pembelajaran tidak dapat direduksi hanya dengan menambahkan tugas baru ke memori mereka. Jika Anda terus menggabungkan sistem seperti itu bersama-sama, cepat atau lambat Anda akan sampai pada "model yang terlalu rumit yang tidak mungkin dilacak". Dalam hal ini, kita akan berbicara tentang level yang berbeda. Tingkat di mana berbagai tugas biasanya akan dilakukan dengan cara yang sama. Membangun AI yang mampu merancang kursi dan menciptakan AI tingkat kecerdasan manusia yang mampu menulis puisi dan memecahkan persamaan diferensial bukanlah hal yang sama.

AI bisa disebut AI jika kita bisa menunjukkan cara kerjanya

Hambatan menakutkan lainnya adalah memahami bagaimana kecerdasan buatan akan sampai pada kesimpulannya saat memecahkan masalah. Jaringan saraf biasanya tahan terhadap pengamat. Terlepas dari kenyataan bahwa kita tahu bagaimana mereka dikumpulkan dan bagaimana informasi mengalir melaluinya, keputusan yang mereka buat biasanya tetap tidak dapat dijelaskan.

Contoh bagus dari masalah ini adalah percobaan Virginia Tech. Para peneliti telah membuat sistem pelacakan untuk jaringan saraf yang merekam piksel mana dalam gambar digital yang mulai dianalisis komputer. Para peneliti menunjukkan gambar jaringan saraf dari kamar tidur dan mengajukan pertanyaan: "Apa yang tergantung di jendela?" Mesin, alih-alih melihat langsung ke jendela, mulai menganalisis gambar mulai dari lantai. Sebuah tempat tidur masuk ke bidang penglihatannya dan mobil itu menjawab: "Ada tirai di jendela." Jawabannya ternyata benar, tetapi hanya karena sistem itu "diajarkan" untuk bekerja dengan jumlah data yang terbatas. Berdasarkan gambar yang ditampilkan, jaringan syaraf tiruan menyimpulkan bahwa jika foto tersebut menunjukkan kamar tidur, kemungkinan besar jendela harus memiliki tirai. Jadi saat detail masuk ke bidang penglihatannya,yang biasanya ditemukan di kamar tidur mana pun (dalam hal ini, tempat tidur), dia tidak menganalisis gambar tersebut lebih lanjut. Dia mungkin belum pernah melihat tempat tidur ini, dia melihat tirai. Itu logis, tetapi sangat dangkal dan menarik. Ditambah lagi, banyak kamar tidur tidak memiliki tirai!

Teknologi pelacakan hanyalah salah satu alat yang dapat membantu kita memahami apa yang mendorong mesin untuk membuat keputusan tertentu, tetapi ada metode yang lebih baik yang dapat menambahkan lebih banyak logika dan analisis mendalam ke sistem pembelajaran mesin. Murray Shanahan, profesor robotika kognitif di Imperial College London, percaya bahwa solusi terbaik untuk masalah ini adalah merevisi paradigma kuno AI - AI simbolik, atau GOFAI (Kecerdasan Buatan Kuno yang Baik, "kecerdasan buatan kuno yang baik"). Paradigmanya bermuara pada fakta bahwa secara mutlak tugas apa pun dapat dipecah menjadi elemen logika dasar, di mana setiap kata hanyalah seperangkat simbol sederhana yang kompleks. Dengan menggabungkan simbol-simbol ini - dalam tindakan, peristiwa, objek, dan sebagainya - pemikiran dapat disintesis. Bayangkan saja bahwa perkembangan seperti itu dilakukan pada masa ketika komputer adalah kotak raksasa seukuran ruangan, bekerja pada pita magnetik (pekerjaan dimulai pada pertengahan 50-an dan berlanjut hingga akhir 80-an abad terakhir).

Proposal Shanahan adalah untuk menggabungkan deskripsi simbolis GOFAI dan teknologi pembelajaran yang mendalam. Ini akan memungkinkan tidak hanya memberi sistem informasi baru dan menunggu mereka untuk menyimpulkan pola perilaku tertentu dan pemecahan masalah berdasarkan informasi ini, pendekatan Shanahan dirancang untuk memberi sistem tersebut titik awal untuk memahami dunia. Hal ini menurutnya tidak hanya akan menyelesaikan masalah transparansi AI, tetapi juga masalah transferable learning yang dijelaskan oleh Hadsell.

“Dapat dikatakan bahwa Breakout sangat mirip dengan Pong, karena dalam kedua kasus 'platform' dan 'bola' digunakan, tetapi dari sudut pandang persepsi dan logika manusia, keduanya adalah dua permainan yang sangat berbeda. Dan hampir tidak mungkin untuk menarik kesejajaran di antara mereka. Ini seperti mencoba menggabungkan struktur atom dan struktur seluruh tata surya."

Shanahan dan rekan-rekannya di Imperial College London saat ini sedang mengerjakan metode baru untuk pembelajaran mesin (yang mereka sebut pembelajaran terstimulasi simbolis dalam) dan telah menerbitkan beberapa eksperimen kecil. Metode ini masih dalam tahap awal, dan oleh karena itu masih sulit untuk mengatakan apakah akan berskala ke sistem yang lebih besar yang bekerja dengan berbagai jenis data. Meski demikian, masih ada kemungkinan metode ini akan berkembang menjadi sesuatu yang lebih. Bagaimanapun, pembelajaran mendalam selalu menjadi bagian paling membosankan dan membosankan dari pengembangan AI hingga peneliti menemukan cara untuk mengakses data dengan cepat dan memperoleh kekuatan pemrosesan yang besar. Cukup mungkin,saatnya untuk kembali ke paradigma AI lama dan mencobanya di lingkungan baru.

NIKOLAY KHIZHNYAK