Kecerdasan Buatan: Pedang Bermata Dua? - Pandangan Alternatif

Kecerdasan Buatan: Pedang Bermata Dua? - Pandangan Alternatif
Kecerdasan Buatan: Pedang Bermata Dua? - Pandangan Alternatif

Video: Kecerdasan Buatan: Pedang Bermata Dua? - Pandangan Alternatif

Video: Kecerdasan Buatan: Pedang Bermata Dua? - Pandangan Alternatif
Video: Cara Kerja Otak Ternyata Bagai Pedang Bermata Dua, Ini Penjelasannya... 2024, Mungkin
Anonim

Kami mengatakan robot akan bangkit. Itu akan mengambil alih dunia, mengendalikan segalanya. Kami telah mendengar peringatan ini selama beberapa dekade, dan hari ini, di awal abad ke-21, jumlah peringatan ini terus bertambah. Ada ketakutan yang semakin besar akan kecerdasan buatan yang akan mengakhiri spesies kita.

Skrip semacam itu tidak hanya tersangkut di Hollywood, tetapi juga semakin menemukan pendukung di bidang ilmiah dan filosofis. Misalnya, Ray Kurzweil menulis bahwa pertumbuhan eksponensial kecerdasan buatan akan mengarah pada singularitas teknologi, titik di mana kecerdasan mesin akan melampaui kecerdasan manusia. Beberapa melihat ini sebagai akhir dunia, yang lain hanya melihat peluang. Nick Bostrom berpikir superintelligence akan membantu kita menghadapi penyakit, kemiskinan dan kerusakan lingkungan, serta memperbaiki diri kita sendiri.

Pada hari Selasa, ilmuwan terkenal Stephen Hawking bergabung dengan barisan nabi singularitas, lebih tepatnya, ke kelompok pesimis mereka, saat dia mengatakan kepada BBC bahwa "perkembangan kecerdasan buatan yang lengkap dapat berarti akhir dari umat manusia." Ia percaya bahwa manusia tidak akan mampu bersaing dengan AI, yang akan mampu memprogram ulang dirinya sendiri dan mencapai level yang jauh lebih unggul dari manusia. Namun, Hawking juga percaya bahwa kita tidak boleh mencoba menghubungi alien sama sekali, karena mereka hanya memiliki satu tujuan: menaklukkan kita atau menghancurkan kita sama sekali.

Masalah dengan skenario ini bukanlah karena mereka salah - siapa yang bisa memprediksi masa depan? - atau tidak memercayai skrip fiksi ilmiah. Yang terakhir tidak dapat dihindari jika Anda ingin memahami dan mengevaluasi teknologi modern dan dampaknya terhadap kita di masa depan. Penting untuk meletakkan pertanyaan filosofis kita di atas meja dalam skenario seperti itu dan memeriksa ketakutan kita untuk mencari tahu apa yang paling penting bagi kita.

Masalah dengan berfokus secara eksklusif pada kecerdasan buatan dalam konteks "hari kiamat" dan skenario fatal lainnya adalah bahwa hal itu mengalihkan perhatian kita dari masalah etika dan sosial lain yang lebih mendesak dan penting yang muncul sehubungan dengan perkembangan teknologi di bidang ini. Misalnya, adakah tempat untuk privasi di dunia teknologi informasi dan komunikasi? Apakah Google, Facebook, dan Apple Mengancam Kebebasan di Dunia Teknologi? Akankah otomatisasi lebih lanjut menyebabkan hilangnya pekerjaan? Bisakah teknologi keuangan baru mengancam ekonomi global? Bagaimana perangkat seluler memengaruhi lingkungan? (Untuk kredit Hawking, dia menyebutkan privasi dalam wawancara, tetapi kemudian dia masih berbicara tentang akhir zaman manusia.)

Pertanyaan-pertanyaan ini jauh kurang menarik dibandingkan superintelligence atau akhir dari kemanusiaan. Mereka juga tidak mengajukan pertanyaan tentang kecerdasan atau robot; mereka tentang masyarakat seperti apa yang kita butuhkan dan bagaimana kita ingin melihat hidup kita.

Pertanyaan-pertanyaan ini kuno, muncul dari penampilan sains dan filsafat, dan teknologi informasi yang berkembang saat ini, yang mengubah dunia kita, membuat kita memikirkannya lagi. Mari berharap bahwa pemikir manusia terbaik di zaman kita akan memfokuskan sebagian besar energi mereka untuk menemukan jawaban atas pertanyaan yang tepat, daripada pada demagogi seputar ancaman yang berlebihan.

Ilya Khel

Video promosi:

Direkomendasikan: