Akankah "Tiga Hukum Robotika" Melindungi Kita? - Pandangan Alternatif

Daftar Isi:

Akankah "Tiga Hukum Robotika" Melindungi Kita? - Pandangan Alternatif
Akankah "Tiga Hukum Robotika" Melindungi Kita? - Pandangan Alternatif

Video: Akankah "Tiga Hukum Robotika" Melindungi Kita? - Pandangan Alternatif

Video: Akankah
Video: Mengapa Tiga Hukum Robotika Akan Gagal 2024, April
Anonim

Sudah 50 tahun sejak Isaac Asimov menghasilkan Tiga Hukum Robotika yang terkenal - seperangkat aturan yang harus diikuti oleh robot yang menghargai diri sendiri. Meski awalnya hanya perangkat sastra, ketiga undang-undang tersebut menjadi resep asli untuk menghindari "robotocalypse". Untungnya, ada para ahli yang sedang mencari kepastian apakah jaminan Azimov telah bertahan dalam ujian waktu. Sayangnya, mereka semua mengatakan tidak.

Untuk memulainya, mari kita ingat tiga hukum yang sama ini:

Robot tidak dapat membahayakan seseorang atau, dengan kelambanannya, memungkinkan seseorang untuk dirugikan.

Robot harus mematuhi semua perintah yang diberikan oleh manusia, kecuali jika perintah tersebut bertentangan dengan Hukum Pertama.

Robot harus menjaga keselamatannya sepanjang tidak bertentangan dengan Hukum Pertama dan Kedua.

Belakangan, Azimov menambahkan hukum keempat, atau nol, yang mendahului yang lain dalam hal prioritas:

Video promosi:

0. Robot tidak dapat membahayakan seseorang, kecuali jika dapat membuktikan bahwa pada akhirnya akan bermanfaat bagi seluruh umat manusia.

Image
Image

Di alam fantasi Asimov, hampir semua robot harus mengikuti hukum ini. Ini bukan hanya saran atau pedoman - undang-undang dibangun ke dalam perangkat lunak. Selain itu, aturan ini tidak dapat dielakkan, ditulis ulang, atau direvisi.

Seperti yang ditunjukkan Asimov sendiri, ketidaksempurnaan, celah, dan ambiguitas dalam undang-undang ini sering kali menyebabkan perilaku robot yang aneh dan tidak logis. Hukumnya terlalu kabur dan sering gagal untuk mendefinisikan dan membedakan "manusia" dari "robot." Selain itu, robot dapat secara tidak sengaja melanggar hukum jika informasi lengkap tidak tersedia bagi mereka. Juga, robot yang terlalu licik atau kecerdasan buatan harus berada di bawah tekanan untuk tidak memprogram ulang intinya.

Saat itu tahun 2014, dan banyak hal yang lumrah dari kehidupan kita hingga fantasi abad lalu bisa tampak seperti fantasi langsung. Banyak orang merasa bahwa hukum Asimov harus tetap menjadi perangkat sastra. Tetapi Azimov sendiri mencatat pada tahun 1981 bahwa hukumnya dapat berfungsi. The Compute! dia menunjukkan yang berikut:

“Ketika seseorang bertanya kepada saya akan seperti apa jika ketiga hukum robotika saya benar-benar digunakan untuk mendefinisikan perilaku robot, jawabannya sudah siap. Asalkan, robot cukup fleksibel dan serbaguna untuk menunjukkan perilaku yang berbeda. Jawaban saya adalah ya, tiga hukum tersebut adalah satu-satunya cara manusia dapat berinteraksi dengan robot - atau yang lainnya.

Hampir tiga puluh tahun kemudian, kita semakin mendekati kenyataan di mana kita akan memiliki robot - atau, lebih tepatnya, kecerdasan buatan yang mengendalikannya - cukup fleksibel dan serbaguna untuk berbagai tingkah laku. Tinggal masalah waktu: ketika mesin melampaui manusia dalam segala hal, dari kekuatan fisik hingga daya imajinasi.

Hal yang menakutkan adalah praktis tidak ada margin untuk kesalahan. Jika superintelligence buatan tidak diprogram dengan baik atau acuh tak acuh terhadap manusia, itu akan menyebabkan bencana. Kami perlu memastikan bahwa kecerdasan buatan aman jika kami ingin selamat dari kemunculannya."

Jawab pertanyaan "dapatkah ketiga hukum Azimov membantu?" Dua ahli teori kecerdasan buatan mengambil alih: Ben Herzel (Aidyia Holdings) dan Louis Helm, wakil direktur Machine Intelligence Research Institute (MIRI) dan editor eksekutif majalah Rockstar Research. Setelah berbicara dengan mereka, menjadi jelas bahwa hukum Asimov pada umumnya tidak dapat menangani tugas yang diberikan kepada mereka, dan jika kita perlu membuat AI yang aman, kita harus mengembangkan sesuatu yang sama sekali berbeda.

Masa depan Asim?

Image
Image

Percakapan dengan Herzel dan Helm dimulai dengan hal yang tidak salah tentang Asimov, memprediksi masa depan, dan di mana dia salah.

"Saya pikir jenis robot yang dibayangkan Asimov akan mungkin terjadi dalam waktu yang tidak terlalu lama," jawab Herzel. - Namun, di sebagian besar dunia fiksinya, penulis berasumsi bahwa robot humanoid akan menjadi puncak dari robotika dan rekayasa kecerdasan buatan. Itu tidak mungkin. Segera, setelah mencapai status robot Azimov, pembuatan superintelligence buatan dan robot super akan tersedia."

Dengan demikian, tipikal dunia masa depan dalam cerita Asimov tentang robot, menurut Herzel, akan serupa dengan yang kita jalani saat ini, tetapi dengan robot cerdas yang berjalan di jalanan.

"Ini tidak mungkin terjadi, dan jika terjadi, tidak akan ditunda lama."

Bagi Helm, robot tampak sangat berbeda.

“Masalah utama, yang menurut pendapat saya, akan menjadi yang paling penting bagi umat manusia, tetap bukanlah regulasi moral dari sejumlah besar humanoid setengah cerdas, tetapi pada akhirnya perkembangan bentuk-bentuk lanjutan dari kecerdasan buatan (dalam tubuh mana pun). Perkembangan superintelligence ini adalah filter yang harus dilalui umat manusia pada akhirnya. Inilah mengapa mengembangkan strategi keamanan untuk transisi ini sangat penting. Tampaknya sangat aneh bagi saya bahwa robot, android, atau "emulasi" akan ada selama sepuluh tahun atau lebih sampai umat manusia dihadapkan pada masalah nyata mengembangkan etika mesin untuk superintelligence."

Awal yang bagus?

Image
Image

Mempertimbangkan bahwa tiga Hukum Robotika Asimov adalah upaya tulus pertama untuk memecahkan masalah yang sangat serius - masalah perilaku aman mesin dengan kecerdasan super buatan - ada baiknya mencari saat-saat di mana hukum masih dapat efektif (atau setidaknya menginspirasi).

“Sejujurnya, saya tidak menemukan inspirasi apa pun dalam ketiga hukum robotika ini,” kata Helm. - Inti dari etika mesin adalah bahwa mereka tidak memenuhi dasar etika mesin. Mungkin tiga hukum robotika sudah dikenal luas, tetapi pada kenyataannya tidak ada gunanya menggunakannya sebagai dasar pemrograman."

“Untuk beberapa alasan, sistem etika yang baik - disebut deontologi - telah menjadi dasar etika yang tidak dapat diandalkan. Ada sejumlah filsuf yang mencoba memperbaiki masalah deontologi, tetapi mereka sebagian besar adalah orang yang sama yang mencari "rancangan cerdas" dan "campur tangan ilahi". Tidak ada yang menganggapnya serius."

Kerugian dari tiga hukum robotika Asimov adalah sebagai berikut:

Sifat permusuhan

Berdasarkan teori etika usang (deontologi)

Jangan bekerja dalam fiksi

Herzel setuju:

“Tujuan dari tiga hukum itu adalah untuk melanggarnya dengan cara yang menarik; itulah mengapa cerita mereka sangat menghibur. Oleh karena itu, ketiga undang-undang tersebut dapat tetap menjadi contoh moral tentang bagaimana tidak melakukannya. Jika kita menganggapnya sebagai dasar, pasti akan ada celah di dalamnya”.

Herzel percaya bahwa pada kenyataannya undang-undang ini tidak akan berfungsi, karena ketentuan dengan partisipasi mereka ambigu dan tetap menjadi subjek penafsiran - yang berarti mereka sangat bergantung pada mereka yang membuat terjemahan.

Prasangka terhadap robot?

Aspek lain (dan potensi kekurangan) dari Tiga Hukum dalam sovinisme yang tampak adalah asumsi bahwa robot harus tetap, meskipun memiliki kekuatan superior, tunduk pada manusia, kebutuhan dan prioritas manusia.

“Masyarakat Azimov di masa depan seluruhnya terdiri dari chauvinis: orang memiliki lebih banyak hak daripada robot. Tiga hukum robotika diciptakan untuk menjaga tatanan sosial seperti itu."

Image
Image

Helm melihat masalah ini sedikit berbeda, dengan alasan bahwa jika kita berada dalam situasi seperti itu, itu dengan sendirinya akan menjadi bukti bahwa kita telah melangkah terlalu jauh.

“Saya pikir tidak bijaksana untuk merancang sistem kecerdasan buatan atau robot yang sadar diri. Dan tidak seperti film atau buku di mana pencipta kecerdasan buatan "secara tidak sengaja" datang ke mesin cerdas, saya tidak percaya bahwa ini bisa terjadi dalam kehidupan nyata. Ini akan membutuhkan terlalu banyak usaha dan pengetahuan. Dan sebagian besar desainer AI adalah orang-orang yang paham etika, jadi mereka akan menghindari menciptakan apa yang oleh para filsuf disebut "makhluk yang signifikan secara moral". Terutama ketika mereka dapat dengan mudah menciptakan mesin canggih yang tidak memiliki kecenderungan etis."

Helm tidak peduli tentang perlunya mengembangkan hukum asimetris untuk mengatur nilai robot atas manusia, dengan alasan (dan berharap) bahwa pencipta kecerdasan buatan di masa depan akan bergantung pada beberapa kendala etika.

“Menurut saya manusia terbuat dari atom, jadi secara teori, seorang insinyur bisa menciptakan bentuk kehidupan sintetis atau robot yang memiliki makna moral. Saya ingin berpikir bahwa tidak ada yang akan melakukan ini. Saya pikir kebanyakan orang juga begitu. Tapi mau tidak mau akan ada orang bodoh yang ingin dikenal sebagai pionir, meski itu tidak etis dan bodoh."

Three Laws of Robotics 2.0?

Mengingat kekurangan yang jelas dari tiga hukum robotika Asimov, sumber daya io9 mengajukan pertanyaan: dapatkah mereka diperbaiki atau ditingkatkan? Faktanya, banyak penulis fiksi ilmiah telah mencoba ini berkali-kali, memperbaikinya selama bertahun-tahun.

“Tidak,” kata Helm. "Tidak ada tambalan untuk ketiga hukum itu."

Selain sifatnya yang kontradiktif, hukum juga bersifat permusuhan.

"Saya adalah pendukung pendekatan etika mesin yang lebih kooperatif, lebih konsisten, dan lebih normatif, yang berarti pendekatan tersebut dapat pulih dari kesalahpahaman atau memperbaiki pemrograman yang salah."

Herzel menggemakan klaim Helm.

Mendefinisikan seperangkat aturan etika sebagai inti dari etika mesin akan sia-sia jika mesin didasarkan pada kecerdasan buatan umum yang fleksibel. Jika ia dipahami sebagai intuitif, fleksibel, adaptif atau etis - dalam konteks ini, sila etis akan berguna untuk sistem hanya sebagai pedoman kasar untuk penerapan intuisi etisnya sendiri. Tetapi dalam kasus ini, perintah tidak akan menjadi dasar dari sistem etika, tetapi hanya sebuah aspek. Ini dapat dilihat pada contoh manusia - prinsip etika yang kita pelajari bekerja, tetapi bukan sebagai pedoman, mereka hanya mendorong intuisi dan naluri etis kita. Kami praktis tidak bergantung pada prinsip etika."

Bagaimana cara membuat kecerdasan buatan yang aman?

Mengingat ketidakcukupan pendekatan hukum, Anda dapat bertanya kepada Gertzel dan Helm tentang pendekatan modern untuk masalah "AI yang aman".

"Sangat sedikit peneliti kecerdasan buatan umum yang percaya bahwa mungkin untuk membuat sistem yang sepenuhnya aman," kata Herzel. "Tapi ini tidak mengganggu mayoritas, karena tidak ada yang bisa dijamin sama sekali dalam hidup ini."

Herzel percaya bahwa begitu kita membuat sistem kecerdasan buatan umum atau embrionya, kita dapat melakukan penelitian dan eksperimen yang akan memberi tahu kita lebih banyak tentang etika AI daripada yang kita ketahui.

“Semoga dengan cara ini kita dapat merumuskan teori-teori yang baik tentang etika kecerdasan buatan yang memungkinkan kita untuk mendalami topik ini lebih dalam. Tapi sekarang agak sulit untuk berteori tentang etika AI, karena kami tidak hanya memiliki teori yang baik, kami tidak memiliki teori sama sekali."

“Dan bagi orang yang telah melihat terlalu banyak terminator, proses pembuatan kecerdasan buatan mungkin tampak mengintimidasi, karena mereka melewatkan kata“primitif”dalam konteks ini. Namun, perubahan paling radikal terjadi dengan cara ini."

"Ketika sekelompok manusia gua yang pintar menemukan bahasa, mereka tidak mengharapkan perkembangan teori bahasa formal yang solid yang dapat membantu memprediksi perubahan masa depan yang disebabkan oleh kemunculan bahasa di masyarakat."

Sebelum mempertimbangkan pengembangan "tiga hukum" berikutnya sebagai masalah teknis, Anda perlu melakukan banyak penelitian. Dan di sinilah Helm dan Herzel setuju.

“Rekan saya dari MIRI Luc Muelhauser menyimpulkan alasan kami sebagai berikut. Dia mengatakan bahwa masalah sering berpindah dari filsafat ke matematika dan kemudian ke teknik. Filsafat sering ditanyai pertanyaan yang tepat, tetapi dengan cara yang paling tidak praktis. Tidak ada yang bisa mengatakan dengan pasti apakah sudah ada kemajuan dalam menyelesaikan masalah tersebut. Jika kita dapat merumuskan kembali masalah filosofis penting tentang alasan, identifikasi, dan nilai menjadi rumus yang tepat yang dapat ditangani oleh ahli matematika, maka beberapa model dapat dibangun. Suatu hari yang cerah itu akan datang ke bidang teknik."

Helm merasa masalah ini sulit bagi sains dan filsafat, tetapi kemajuan itu mungkin.

“Saya skeptis filosofi akan mampu memecahkan masalah yang telah bergelut selama lebih dari 3000 tahun. Tetapi kita juga tidak dapat mengambil dan mulai membuat model matematika dari pertanyaan yang secara teknis tidak ada. Kami masih membutuhkan banyak perkembangan teoritis dan bahkan praktis."

Direkomendasikan: