Bagaimana Anda Membuat Robot Yang Ingin Mengubah Dunia? - Pandangan Alternatif

Daftar Isi:

Bagaimana Anda Membuat Robot Yang Ingin Mengubah Dunia? - Pandangan Alternatif
Bagaimana Anda Membuat Robot Yang Ingin Mengubah Dunia? - Pandangan Alternatif

Video: Bagaimana Anda Membuat Robot Yang Ingin Mengubah Dunia? - Pandangan Alternatif

Video: Bagaimana Anda Membuat Robot Yang Ingin Mengubah Dunia? - Pandangan Alternatif
Video: Jepang Membuat Robot Setinggi 18 Meter!, Inilah Beberapa Robot Paling Besar Yang Pernah di Buat! 2024, September
Anonim

Ilmuwan komputer Christoph Solge mencoba menghilangkan kebutuhan akan aturan yang mengatur perilaku robot. Strateginya adalah memberi mereka tujuan: membuat kita lebih kuat. Christophe bekerja di Game Innovation Lab di New York University. Sasha Maslov mewawancarai Sold for Quanta Magazine, yang darinya kita mengetahui bahwa kita mungkin tidak layak untuk mencoba menahan aliran singularitas teknologi yang tak terhentikan.

Tiga Hukum Robotika Isaac Asimov yang terkenal - membatasi perilaku android dan automata untuk menjaga keselamatan umat manusia - juga belum selesai. Hukum ini pertama kali muncul dalam cerita Asimov pada tahun 1942, dan kemudian dalam karya klasik seperti "Aku, Robot" dan berbunyi seperti ini:

1. Robot tidak dapat menyakiti seseorang atau, karena tidak bertindak, memungkinkan terjadinya kerugian pada seseorang.

2. Robot harus mematuhi perintah yang diberikan oleh manusia, jika tidak bertentangan dengan Hukum Pertama.

3. Robot harus mempertahankan keberadaannya, jika perlindungan ini tidak bertentangan dengan Hukum Pertama atau Kedua.

Tentu saja, dalam undang-undang ini orang dapat menemukan banyak kontradiksi dan celah (yang sebenarnya digunakan Azimov sendiri). Di era perangkat lunak canggih kita saat ini dengan pembelajaran mesin dan robotika otonom, mendefinisikan dan menerapkan etika besi kecerdasan buatan telah menjadi tantangan mendesak bagi organisasi seperti Institut Penelitian Kecerdasan Mesin dan OpenAI.

Christoph Salge mengambil pendekatan berbeda. Daripada memaksakan definisi filosofis top-down tentang bagaimana agen artifisial harus atau tidak berperilaku, Salge dan koleganya Daniel Polani sedang mengeksplorasi jalur bottom-up, atau "apa yang harus dilakukan robot terlebih dahulu," seperti yang mereka tulis dalam artikelnya "Pemberdayaan sebagai Pengganti Tiga Hukum Robotika". Pemberdayaan, sebuah konsep yang lahir di persimpangan sibernetika dan psikologi, menggambarkan motivasi intrinsik seorang agen untuk melawan dan bekerja di lingkungan pada saat bersamaan. “Sebagai organisme, ia ingin bertahan hidup. Dia ingin meninggalkan jejak di dunia,”jelas Salge. Penyedot debu Roomba, diprogram untuk mencari stasiun pengisian daya saat baterainya hampir habis, adalah contoh dasar dari "diberdayakan": untuk terus berfungsi di dunia,ia harus menerima tuntutan dan melanjutkan keberadaannya sendiri, yaitu bertahan hidup.

Pemberdayaan mungkin terdengar seperti resep untuk hasil yang mendukung kecerdasan buatan yang aman seperti ketakutan Nick Bostrom: sistem otonom yang kuat, hanya mementingkan kepentingan pribadi, dan menjadi gila dalam prosesnya. Tetapi Salge, yang mempelajari interaksi sosial manusia-mesin, bertanya: Apa yang terjadi jika agen yang diberdayakan “juga memberdayakan orang lain? Robot tidak hanya ingin tetap berfungsi - ia juga harus mendukung mitra manusianya."

Video promosi:

Solge dan Polanyi menyadari bahwa teori informasi menawarkan cara untuk menerjemahkan ekspansi timbal balik ini ke dalam kerangka kerja matematika untuk agen artifisial yang tidak berfilsafat. "Salah satu kelemahan dari tiga hukum robotika adalah bahwa hukum itu berbasis bahasa, dan bahasanya sangat ambigu," kata Salge. "Kami mencoba menemukan sesuatu yang benar-benar bisa dilakukan."

Beberapa ahli teknologi percaya bahwa AI adalah ancaman besar, bahkan bencana bagi keberadaan manusia. Dan kau?

Saya akan menahan diri. Jadi saya sangat percaya bahwa sekarang ada ketakutan akan robot dan pengaruh AI yang semakin meningkat. Tapi saya pikir dalam jangka pendek kita cenderung lebih peduli tentang kemungkinan perubahan pekerjaan, proses pengambilan keputusan, hilangnya demokrasi, hilangnya privasi. Saya tidak tahu seberapa besar kemungkinan AI yang tak terhentikan akan muncul dalam waktu dekat. Tetapi bahkan jika AI akan mengawasi sistem perawatan kesehatan dan mengeluarkan resep, kita perlu memikirkan masalah etika yang menyertainya.

Bagaimana konsep pemberdayaan membantu kita menghadapi tantangan ini?

Saya pikir ide memberdayakan hak mengisi ceruk. Agen tidak akan membiarkan orang itu mati, tetapi begitu Anda dapat mempertahankan ambang itu, itu akan mendukung niat untuk menciptakan peluang tambahan bagi orang tersebut untuk mengekspresikan dan memengaruhi dunia. Dalam salah satu buku Asimov, robot hanya akan menempatkan semua manusia di wadah yang aman. Ini tidak diinginkan. Jika kemampuan kita untuk mempengaruhi dunia terus meningkat, saya pikir itu akan menjadi tujuan yang jauh lebih menarik untuk dicapai.

Anda menguji ide agen virtual Anda di lingkungan video game. Apa yang terjadi?

Agen, termotivasi oleh haknya sendiri yang diperpanjang, akan menghindari proyektil dan tidak akan jatuh ke dalam lubang, secara umum, akan menghindari situasi apa pun yang dapat menyebabkan hilangnya mobilitas, kematian atau kerusakan sedemikian rupa sehingga mengurangi operabilitasnya. Dia akan bertahan.

Dalam hubungannya dengan pemain manusia, yang juga diberikan hak yang lebih tinggi, kami melihat bahwa robot virtual akan menjaga jarak tertentu agar tidak menghalangi pergerakan manusia. Dia tidak akan menghalangi Anda, dia tidak akan berdiri di lorong sehingga Anda tidak bisa lewat. Dia akan tinggal sedekat mungkin dengan Anda untuk membantu Anda. Ini mengarah pada perilaku di mana dia dapat mengambil inisiatif dan mengikuti perilaku orang lain.

Misalnya, kami membuat skenario di mana kami memiliki penghalang laser yang berbahaya bagi manusia, tetapi aman untuk robot. Jika orang dalam game ini mendekati laser, robot memiliki lebih banyak insentif untuk memblokir laser. Stimulus semakin intensif ketika orang tersebut berdiri tepat di depan penghalang, seolah-olah ingin melewatinya. Dan robot itu benar-benar menghalangi laser, berdiri di depan orang tersebut.

Apakah para agen ini menunjukkan perilaku yang tidak disengaja yang mirip dengan tiga hukum dalam buku Asimov?

Perilakunya bagus pada awalnya. Misalnya, robot virtual mencegat lawan yang mencoba membunuh Anda. Dari waktu ke waktu dia akan terserang peluru jika itu satu-satunya cara untuk menyelamatkan Anda. Tapi yang mengejutkan kami terutama sejak awal adalah dia juga sangat takut pada orang itu.

Alasannya adalah karena modelnya yang "picik": pada kenyataannya, dia menganalisis bagaimana urutan tindakan tertentu dalam dua atau tiga langkah dapat memengaruhi dunia, baik untuk Anda maupun untuknya. Oleh karena itu, pada langkah pertama, kami memprogram agar pemain bertindak secara acak. Tetapi dalam praktiknya, hal ini menghasilkan fakta bahwa agen tersebut memperlakukan orang tersebut sebagai semacam psikopat yang dapat, misalnya, menembak agen tersebut kapan saja. Oleh karena itu, agen harus dengan sangat hati-hati memilih posisi di mana orang tersebut tidak dapat membunuhnya.

Kami perlu memperbaikinya, jadi kami membuat model yang disebut asumsi kepercayaan. Pada dasarnya, agen pendamping bertindak berdasarkan asumsi bahwa orang tersebut hanya akan memilih tindakan yang tidak akan membatasi perpanjangan hak agen itu sendiri - mungkin ini adalah model yang lebih cocok untuk pendamping.

Kami juga memperhatikan bahwa jika Anda memiliki, katakanlah, 10 poin kesehatan dalam permainan, rekan tidak terlalu peduli jika Anda kehilangan delapan atau sembilan poin - dia bahkan dapat menembak Anda sekali, hanya untuk bersenang-senang. Dan kemudian kami menyadari bahwa ada kesenjangan antara dunia tempat kami tinggal dan model dalam game komputer. Segera setelah kami memodelkan batasan kapasitas yang disebabkan oleh hilangnya kesehatan, masalahnya hilang. Ini juga bisa diatasi dengan membuat model yang tidak terlalu picik yang bisa menghitung tindakan beberapa langkah lagi ke masa depan. Jika agen dapat melihat lebih jauh ke masa depan, dia akan melihat bahwa memiliki lebih banyak poin kesehatan dapat bermanfaat untuk acara mendatang.

Mempertimbangkan bahwa mengubah jumlah poin kesehatan tidak memengaruhi perpanjangan hak saya dengan cara apa pun, agen memutuskan: "Saya menembaknya, saya tidak menembak - apa bedanya?" Dan terkadang itu menembak. Yang tentu saja menjadi masalah. Saya tidak ingin tembakan acak ke pemain. Kami telah menambahkan perbaikan untuk membuat robot virtual sedikit lebih mengkhawatirkan kondisi Anda daripada miliknya.

Bagaimana Anda membuat konsep ini akurat?

Jika kami menganggap agen sebagai sistem kontrol, mereka dapat diuraikan menjadi komponen informasi: sesuatu sedang terjadi di dunia dan dengan satu atau lain cara menjadi perhatian Anda. Kami berbicara tentang informasi bukan sebagai hal-hal yang Anda rasakan, tetapi sebagai pengaruh apa pun - itu bisa menjadi substansi, sesuatu yang mengalir antara dunia dan Anda. Mungkin ada suhu atau nutrisi di tubuh Anda. Segala sesuatu yang melintasi batas antara dunia dan agen membawa informasi itu sendiri. Dengan cara yang sama, seorang agen dapat mempengaruhi dunia luar dengan berbagai cara, juga mengeluarkan informasi ke dalamnya.

Anda dapat menganggap aliran ini sebagai bandwidth saluran, ini adalah konsep dari teori informasi. Anda dapat memiliki kekuasaan yang luas, hak yang diperpanjang, jika Anda dapat mengambil tindakan berbeda yang membawa hasil yang berbeda. Jika terjadi kesalahan, Anda akan kehilangan otoritas Anda, karena hilangnya kapasitas sesuai dengan penurunan kuantitatif bandwidth antara Anda dan lingkungan. Ini adalah ide utamanya.

Seberapa banyak yang perlu diketahui seorang agen agar kekuatannya yang diperpanjang dapat diterapkan secara penuh?

Hak yang diperpanjang memiliki keuntungan karena dapat diterapkan meskipun Anda tidak memiliki pengetahuan penuh. Agen benar-benar membutuhkan model tentang bagaimana tindakannya akan memengaruhi dunia, tetapi dia tidak membutuhkan pemahaman lengkap tentang dunia dan semua seluk-beluknya. Tidak seperti beberapa pendekatan yang mencoba memodelkan segala sesuatu di dunia sebanyak mungkin, dalam kasus kami, Anda hanya perlu mencari tahu bagaimana tindakan Anda memengaruhi persepsi Anda sendiri. Anda tidak perlu mempelajari segalanya tentang segala hal; Anda hanya membutuhkan seorang agen yang menjelajahi dunia. Dia melakukan sesuatu dan mencoba memahami bagaimana tindakannya memengaruhi dunia. Model tumbuh, dan agen memahami dengan lebih baik dan lebih baik di mana batas-batas kekuasaannya meluas.

Anda mengujinya di lingkungan virtual. Mengapa tidak di dunia nyata?

Hambatan utama untuk menskalakan model ini dan menempatkannya di robot nyata adalah kesulitan menghitung bandwidth agen dan orang di lingkungan yang kaya seperti dunia nyata untuk waktu yang lama. Semua proses ini belum menjadi efektif. Saya optimis, tetapi sejauh ini masalah ini tetap murni komputasi. Oleh karena itu, kami memeriksa pengoperasian sistem dalam game komputer, dalam bentuk yang disederhanakan.

Sepertinya pemberdayaan, idealnya, akan membuat mesin kami menjadi anjing pelayan yang kuat

Saya bahkan mengenal beberapa teknisi robot yang dengan sengaja memodelkan perilaku pendamping berbasis anjing. Saya pikir jika robot memperlakukan kita seperti anjing kita, di masa depan ini kita semua bisa akur.

Ilya Khel

Direkomendasikan: