Robot Perang Akan Datang! - Pandangan Alternatif

Robot Perang Akan Datang! - Pandangan Alternatif
Robot Perang Akan Datang! - Pandangan Alternatif

Video: Robot Perang Akan Datang! - Pandangan Alternatif

Video: Robot Perang Akan Datang! - Pandangan Alternatif
Video: PILOT ROBOT JET TEMPUR CHINA DIKLAIM MAMPU KALAHKAN MANUSIA DALAM PERTEMPURAN SESUNGGUHNYA 2024, Mungkin
Anonim

Robot pembunuh sungguhan, tanpa henti melakukan tugas dan tidak membutuhkan pengawasan manusia, mungkin muncul di gudang senjata tentara dunia dalam setahun, kata para ahli. Meramalkan bahayanya di sini, para ahli sedang mendiskusikan apakah robot pembunuh dan penggunaannya di medan perang harus dilarang sebelumnya.

Image
Image

Robot pembunuh mungkin dapat digunakan dengan pasukan dalam setahun jika PBB tidak mengambil tindakan sebelumnya untuk membatasi penggunaannya, kata profesor Universitas Sheffield Noel Sharkey. Menurut pendapatnya, mesin-mesin ini pasti akan menyebabkan kematian tak berdosa yang sangat besar, karena mereka tidak dapat membedakan seorang militer dari non-kombatan sipil. Pernyataannya datang tepat pada saat komunitas ahli dari 120 negara sedang membahas di Jenewa tentang potensi risiko yang terkait dengan pengoperasian sistem senjata otonom. Profesor Sharkey percaya: hanya ada sedikit diskusi, sangat penting untuk mengadopsi dokumen tentang pembatasan produksi robot! Jika tidak, setahun kemudian, robot benar-benar akan membanjiri pasukan negara maju.

Image
Image

Hari-hari ini di Jenewa, perwakilan lebih dari 90 negara di dunia sedang mendiskusikan bahaya yang datang dari "sistem senjata otonom yang mematikan." Salah satu masalah penting diskusi adalah bagaimana memastikan keamanan penggunaannya dalam situasi pertempuran? Banyak ahli, termasuk Profesor Sharkey, bersikeras bahwa, terlepas dari otonomi sistem, seseorang harus senantiasa memiliki kemampuan untuk "mengontrol prinsip" atas sistem - demi keselamatan umat manusia. "Robot masih belum bisa membuat keputusan seperti manusia," kata Profesor Sharkey. - Dia tidak sepenuhnya bisa. untuk memahami logika permusuhan, tidak dapat membedakan sekutu dari musuh dan membuat keputusan tentang diperbolehkannya tindakan tertentu. “Kita tidak bisa membiarkan robot memutuskan apakah, misalnya, nyawa Osama bin Laden sepadan, sehingga 50 perempuan tua dan 20 anak-anak mati bersamanya,Kata Sharkey. - Robot tidak peduli. Keputusan mendasar, misalnya, tentang pilihan tujuan harus dibuat oleh seseorang. " Menurut Profesor Sharkey, jika keputusan seperti itu diserahkan kepada robot, "konsekuensi dari penggunaannya akan sama merusaknya dengan penggunaan senjata kimia."

Image
Image

Profesor Sharkey adalah salah satu dari 57 ahli yang menandatangani surat terbuka yang ditujukan kepada Universitas Korea Selatan, di mana para ahli memprotes program pengembangan senjata cerdas. Institut Sains dan Teknologi Tinggi Korea Kaist saat ini meluncurkan program ini dengan produsen peralatan militer Hanwa Systems, dan beritanya telah mengguncang komunitas ilmiah. “Universitas, lembaga ilmiah, tidak dapat melakukan ini dari sudut pandang moral,” kata Profesor Sharkey, yang sepenuhnya setuju dengan penandatangan lainnya.

Menurut para ahli, robot pembunuh otomatis akan membuka Kotak Pandora, merevolusi cara perang.

Video promosi:

Perwakilan dari Kaist Institute telah menanggapi surat terbuka tersebut, meyakinkan rekan mereka bahwa mereka tidak memiliki rencana untuk membuat droid dengan gaya Skynet.

Image
Image

Perwakilan dari Keist Institute meyakinkan rekan-rekan mereka bahwa, sebagai institusi akademis, mereka “sangat menghargai standar etika dan moralitas universal” dan tidak bermaksud untuk mengembangkan tentara robot yang bekerja di luar kendali manusia. Sampai saat ini, Kaist Institute hanya melakukan penelitian di bidang ini. Mengenai hal ini, penulis surat terbuka itu tenang dan tidak memboikot rekan mereka. Namun, pertanyaan apakah umat manusia akan dapat menyetujui prinsip-prinsip umum kontrol total atas tindakan robot tempur masih terbuka. Sementara itu, hari ini sama sekali tidak penting dalam teori. Saat ini, robot yang sangat fungsional sudah menjadi mekanisme yang kompleks sehingga bahkan spesialis pun tidak sepenuhnya memahami cara kerja kecerdasan buatan mereka. Dan tanpa memahami sepenuhnya ini, mereka tidak dapat memprediksikapan tepatnya itu bisa gagal. “Jika umat manusia ditakdirkan untuk dihancurkan, kemungkinan besar, kecerdasan buatan akan memainkan peran penting dalam proses ini,” kata salah satu peserta konferensi di Jenewa. Menurut Elon Musk, kecerdasan buatan saat ini membawa lebih banyak ancaman bagi umat manusia daripada Korea Utara. Musk yakin bahwa robot harus berada di bawah kendali ketat yang konstan terhadap manusia, dan telah berulang kali mengimbau pemerintah berbagai negara untuk mengembangkan aturan yang jelas untuk kontrol atas sistem dengan kecerdasan buatan.daripada Korea Utara. Musk yakin bahwa robot harus berada di bawah kendali ketat yang konstan terhadap manusia, dan telah berulang kali mengimbau pemerintah berbagai negara untuk mengembangkan aturan yang jelas untuk kontrol atas sistem dengan kecerdasan buatan.daripada Korea Utara. Musk yakin bahwa robot harus berada di bawah kendali ketat yang konstan terhadap manusia, dan telah berulang kali mengimbau pemerintah berbagai negara untuk mengembangkan aturan yang jelas untuk kontrol atas sistem dengan kecerdasan buatan.

Varvara Lyutova

Direkomendasikan: