Kecerdasan Buatan. Bagian Dua: Kepunahan Atau Keabadian? - Pandangan Alternatif

Daftar Isi:

Kecerdasan Buatan. Bagian Dua: Kepunahan Atau Keabadian? - Pandangan Alternatif
Kecerdasan Buatan. Bagian Dua: Kepunahan Atau Keabadian? - Pandangan Alternatif

Video: Kecerdasan Buatan. Bagian Dua: Kepunahan Atau Keabadian? - Pandangan Alternatif

Video: Kecerdasan Buatan. Bagian Dua: Kepunahan Atau Keabadian? - Pandangan Alternatif
Video: #2. KECERDASAN BUATAN : MASALAH, RUANG KEADAAN DAN PENCARIAN (PART 1) 2024, September
Anonim

Sebelumnya Anda adalah bagian kedua dari artikel dari seri "Tunggu, bagaimana semua ini bisa nyata, mengapa masih belum dibicarakan di setiap sudut." Dalam seri sebelumnya, diketahui bahwa ledakan kecerdasan secara bertahap merayap ke manusia di planet bumi, mencoba untuk berkembang dari fokus sempit ke kecerdasan universal dan, akhirnya, kecerdasan super buatan.

"Mungkin kita menghadapi masalah yang sangat sulit, dan tidak diketahui berapa banyak waktu yang dialokasikan untuk solusinya, tetapi masa depan umat manusia mungkin bergantung pada solusinya." - Nick Bostrom.

Bagian pertama artikel itu dimulai dengan cukup polos. Kami membahas kecerdasan buatan yang terfokus secara sempit (AI, yang berspesialisasi dalam memecahkan satu masalah tertentu, seperti menentukan rute atau bermain catur), di dunia kita ada banyak sekali. Kemudian mereka menganalisis mengapa begitu sulit menumbuhkan kecerdasan buatan terarah umum (AGI, atau AI, yang, dalam hal kemampuan intelektual, dapat dibandingkan dengan manusia dalam memecahkan masalah apa pun), sangat sulit. Kami menyimpulkan bahwa laju eksponensial kemajuan teknologi mengisyaratkan bahwa AGI mungkin akan segera hadir. Pada akhirnya, kami memutuskan bahwa segera setelah mesin mencapai kecerdasan manusia, hal berikut dapat terjadi:

Image
Image
Image
Image
Image
Image
Image
Image

Seperti biasa, kami melihat ke layar, tidak percaya bahwa kecerdasan buatan (ISI, yang jauh lebih pintar daripada siapa pun) dapat muncul selama hidup kami, dan memilih emosi yang paling mencerminkan pendapat kami tentang masalah ini.

Video promosi:

Sebelum kita mendalami ISI secara spesifik, mari kita ingatkan diri kita sendiri apa artinya mesin menjadi superintelligent.

Perbedaan utama terletak antara kecerdasan super cepat dan kecerdasan super berkualitas. Seringkali, hal pertama yang terlintas dalam pikiran ketika berpikir tentang komputer superintelligent adalah ia dapat berpikir jauh lebih cepat daripada seseorang - jutaan kali lebih cepat, dan dalam lima menit ia akan memahami apa yang dibutuhkan seseorang selama sepuluh tahun. ("Saya tahu kung fu!")

Kedengarannya mengesankan, dan ISI benar-benar harus berpikir lebih cepat daripada orang lain - tetapi fitur utama yang memisahkan adalah kualitas kecerdasannya, yang merupakan hal lain. Manusia jauh lebih pintar daripada monyet, bukan karena mereka berpikir lebih cepat, tetapi karena otak mereka mengandung sejumlah modul kognitif cerdik yang melaksanakan representasi linguistik yang kompleks, perencanaan jangka panjang, pemikiran abstrak, yang tidak mampu dilakukan oleh monyet. Jika Anda mempercepat otak monyet seribu kali, ia tidak akan menjadi lebih pintar dari kita - bahkan setelah sepuluh tahun ia tidak akan dapat merakit konstruktor sesuai dengan instruksi, yang akan memakan waktu maksimal seseorang beberapa jam. Ada hal-hal yang tidak akan pernah dipelajari monyet, tidak peduli berapa jam yang dihabiskannya atau seberapa cepat otaknya bekerja.

Selain itu, monyet tidak tahu seberapa manusiawi, karena otaknya tidak mampu menyadari keberadaan dunia lain - monyet mungkin tahu apa itu seseorang dan apa itu gedung pencakar langit, tetapi tidak akan pernah mengerti bahwa gedung pencakar langit dibangun oleh manusia. Di dunianya, semuanya adalah milik alam, dan monyet tidak hanya tidak dapat membangun gedung pencakar langit, tetapi juga memahami bahwa siapa pun dapat membangunnya. Dan ini adalah hasil dari perbedaan kecil dalam kualitas kecerdasan.

Dalam skema umum kecerdasan yang kita bicarakan, atau sederhananya menurut standar makhluk hidup, perbedaan kualitas kecerdasan antara manusia dan kera sangat kecil. Dalam artikel sebelumnya, kami menempatkan kemampuan kognitif biologis di tangga:

Image
Image

Untuk memahami seberapa serius mesin superintelligent nantinya, letakkan dua tingkat lebih tinggi dari orang di tangga itu. Mesin ini mungkin hanya sedikit superintelligent, tetapi keunggulannya atas kemampuan kognitif kita akan sama dengan milik kita - atas monyet. Dan sama seperti simpanse tidak akan pernah memahami bahwa gedung pencakar langit dapat dibangun, kita mungkin tidak akan pernah mengerti apa yang dapat dipahami oleh mesin yang beberapa langkah lebih tinggi, bahkan jika mesin mencoba menjelaskannya kepada kita. Tapi ini hanya beberapa langkah. Mesin yang lebih cerdas akan melihat semut dalam diri kita - ia akan mengajari kita hal-hal paling sederhana dari posisinya selama bertahun-tahun, dan upaya ini akan sia-sia.

Jenis superintelligence yang akan kita bicarakan hari ini terletak jauh di luar tangga ini. Ini adalah ledakan kecerdasan - ketika semakin pintar sebuah mobil, semakin cepat ia dapat meningkatkan kecerdasannya, secara bertahap meningkatkan momentum. Mungkin butuh waktu bertahun-tahun bagi mesin seperti ini untuk melampaui simpanse dalam kecerdasan, tapi mungkin beberapa jam untuk melampaui kita dengan beberapa langkah. Mulai saat ini, mobil sudah dapat melompati empat langkah setiap detik. Itulah mengapa kita harus memahami bahwa segera setelah berita pertama bahwa mesin telah mencapai tingkat kecerdasan manusia muncul, kita mungkin menghadapi realitas koeksistensi di Bumi dengan sesuatu yang akan jauh lebih tinggi daripada kita di tangga ini (atau mungkin, dan jutaan kali lebih tinggi):

Image
Image

Dan karena kita telah menetapkan bahwa sama sekali tidak berguna untuk mencoba memahami kekuatan mesin yang hanya dua langkah di atas kita, mari kita tentukan sekali dan untuk semua bahwa tidak ada cara untuk memahami apa yang akan dilakukan ISI dan apa konsekuensinya bagi kita. Siapapun yang mengklaim sebaliknya tidak mengerti apa arti superintelligence.

Evolusi secara perlahan dan bertahap mengembangkan otak biologis selama ratusan juta tahun, dan jika manusia menciptakan mesin superintelijen, dalam arti tertentu kita akan melampaui evolusi. Atau itu akan menjadi bagian dari evolusi - mungkin evolusi bekerja sedemikian rupa sehingga kecerdasan berkembang secara bertahap hingga mencapai titik balik yang menandai masa depan baru bagi semua makhluk hidup:

Image
Image

Untuk alasan yang akan kita bahas nanti, sebagian besar komunitas ilmiah percaya bahwa pertanyaannya bukanlah apakah kita akan sampai pada titik kritis ini, tetapi kapan.

Di mana kita akan berakhir setelah ini?

Saya pikir tidak seorang pun di dunia ini, baik saya maupun Anda, yang akan dapat mengatakan apa yang akan terjadi ketika kita mencapai titik kritis. Filsuf Oxford dan ahli teori AI terkemuka Nick Bostrom percaya kami dapat menggabungkan semua hasil yang mungkin menjadi dua kategori besar.

Pertama, melihat sejarah, kita mengetahui hal-hal berikut tentang kehidupan: spesies muncul, ada untuk waktu tertentu, dan kemudian secara tak terelakkan jatuh dari keseimbangan kehidupan dan punah.

Image
Image

"Semua spesies punah" telah menjadi aturan yang dapat diandalkan dalam sejarah seperti "semua orang mati suatu hari nanti". 99,9% spesies telah jatuh dari log kehidupan, dan cukup jelas bahwa jika spesies tetap berada di log ini terlalu lama, embusan angin alami atau asteroid yang tiba-tiba akan membalikkan log tersebut. Bostrom menyebut kepunahan sebagai keadaan atraktor - tempat di mana semua spesies seimbang agar tidak jatuh di mana tidak ada spesies yang kembali.

Dan meskipun kebanyakan ilmuwan mengakui bahwa ISI akan memiliki kemampuan untuk membuat manusia punah, banyak juga yang percaya bahwa menggunakan kemampuan ISI akan memungkinkan individu (dan spesies secara keseluruhan) untuk mencapai keadaan kedua dari penarik - keabadian spesies. Bostrom percaya bahwa keabadian suatu spesies sama menariknya dengan kepunahan suatu spesies, artinya, jika kita sampai pada hal ini, kita akan dikutuk ke dalam keberadaan yang kekal. Jadi, bahkan jika semua spesies sampai hari ini jatuh dari tongkat ini ke pusaran kepunahan, Bostrom percaya bahwa batang kayu itu memiliki dua sisi, dan di sana tidak muncul kecerdasan sedemikian rupa yang akan memahami bagaimana jatuh ke sisi lain.

Image
Image

Jika Bostrom dan orang lain benar, dan menilai dari semua informasi yang tersedia bagi kita, mungkin saja mereka benar, kita perlu menerima dua fakta yang sangat mengejutkan:

1. Munculnya ISI pertama kali dalam sejarah akan membuka kemungkinan suatu spesies mencapai keabadian dan keluar dari siklus fatal kepunahan.

2. Munculnya ISI akan memiliki dampak yang sangat besar yang, kemungkinan besar, akan mendorong umat manusia dari balok ini ke satu arah atau yang lain.

Ada kemungkinan bahwa ketika evolusi mencapai titik balik seperti itu, ia selalu mengakhiri hubungan manusia dengan arus kehidupan dan menciptakan dunia baru, dengan atau tanpa manusia.

Hal ini menimbulkan pertanyaan menarik yang tidak akan ditanyakan hanya oleh seorang gelandangan: kapan kita akan sampai pada titik kritis ini dan di mana hal itu akan menempatkan kita? Tidak ada seorang pun di dunia yang mengetahui jawaban atas pertanyaan ganda ini, tetapi banyak orang pintar yang telah mencoba memahaminya selama beberapa dekade. Untuk sisa artikel ini, kita akan mencari tahu dari mana asalnya.

* * *

Mari kita mulai dengan bagian pertama dari pertanyaan ini: kapan kita harus mencapai titik kritis? Dengan kata lain: berapa banyak waktu tersisa sampai mesin pertama mencapai superintelligence?

Pendapat berbeda dari kasus ke kasus. Banyak orang, termasuk Profesor Vernor Vinge, ilmuwan Ben Herzel, salah satu pendiri Sun Microsystems Bill Joy, futuris Ray Kurzweil, setuju dengan pakar pembelajaran mesin Jeremy Howard ketika dia mempresentasikan grafik berikut di TED Talk:

Image
Image

Orang-orang ini memiliki pandangan yang sama bahwa ISI akan segera hadir - pertumbuhan eksponensial ini, yang tampaknya lambat bagi kita hari ini, akan benar-benar meledak dalam beberapa dekade mendatang.

Yang lainnya, seperti salah satu pendiri Microsoft Paul Allen, psikolog penelitian Gary Marcus, pakar komputer Ernest Davis, dan pengusaha teknologi Mitch Kapor, percaya bahwa pemikir seperti Kurzweil secara serius meremehkan besarnya masalah dan berpikir bahwa kita hampir tidak mendekati titik kritis.

Kubu Kurzweil berpendapat bahwa satu-satunya hal yang meremehkan yang terjadi adalah mengabaikan pertumbuhan eksponensial, dan orang yang ragu dapat dibandingkan dengan mereka yang melihat internet yang perlahan berkembang pesat pada tahun 1985 dan berpendapat bahwa hal itu tidak akan berdampak pada dunia dalam waktu dekat.

Orang-orang yang ragu-ragu mungkin menolak bahwa lebih sulit bagi kemajuan untuk mengambil setiap langkah berikutnya dalam hal perkembangan kecerdasan secara eksponensial, yang menetralkan sifat eksponensial khas kemajuan teknologi. Dll

Kubu ketiga, di mana Nick Bostrom berada, tidak setuju dengan yang pertama atau yang kedua, dengan alasan bahwa a) semua ini benar-benar dapat terjadi dalam waktu dekat; dan b) tidak ada jaminan bahwa ini akan terjadi sama sekali atau akan memakan waktu lebih lama.

Yang lainnya, seperti filsuf Hubert Dreyfus, percaya bahwa ketiga kelompok tersebut secara naif percaya bahwa akan ada titik kritis sama sekali, dan bahwa kita kemungkinan besar tidak akan pernah sampai ke ISI.

Apa yang terjadi jika kita menggabungkan semua pendapat ini?

Pada 2013, Bostrom melakukan survei di mana dia mewawancarai ratusan ahli di bidang kecerdasan buatan selama serangkaian konferensi tentang topik berikut: "Apa prediksi Anda untuk mencapai AGI di tingkat manusia?" dan meminta kami untuk menyebutkan tahun yang optimis (di mana kami akan memiliki AGI dengan peluang 10 persen), asumsi realistis (tahun di mana kami akan memiliki AGI dengan probabilitas 50 persen) dan asumsi percaya diri (tahun paling awal di mana AGI akan muncul sejak 90 probabilitas -persentase). Berikut hasilnya:

- Rata-rata tahun optimis (10%): 2022

- Rata-rata tahun realistis (50%): 2040

- Rata-rata tahun pesimis (90%): 2075

Responden rata-rata percaya bahwa dalam 25 tahun kita akan memiliki AGI daripada tidak. 90 persen kemungkinan AGI terjadi pada tahun 2075 berarti bahwa jika Anda masih sangat muda sekarang, kemungkinan besar akan terjadi dalam hidup Anda.

Sebuah studi terpisah baru-baru ini dilakukan oleh James Barratt (penulis buku terkenal dan sangat bagus Penemuan Terbaru Kami, kutipannya saya sampaikan kepada pembaca Hi-News.ru) dan Ben Hertzel di Konferensi AGI, konferensi AGI tahunan, hanya menunjukkan pendapat orang-orang relatif terhadap tahun kita mencapai AGI: 2030, 2050, 2100, lebih lambat atau tidak sama sekali. Berikut hasilnya:

- Pada tahun 2030: 42% responden

- Pada tahun 2050: 25%

- Pada 2100: 20%

- Setelah 2100: 10%

- Tidak pernah: 2%

Mirip dengan hasil Bostrom. Dalam jajak pendapat Barratt, lebih dari dua pertiga dari mereka yang disurvei percaya AGI akan ada di sini pada tahun 2050, dan kurang dari setengahnya percaya AGI akan muncul dalam 15 tahun ke depan. Juga mengejutkan bahwa hanya 2% dari responden, pada prinsipnya, tidak melihat AGI di masa depan kita.

Namun AGI bukanlah titik kritis seperti ISI. Kapan, menurut para ahli, apakah kita akan memiliki ISI?

Bostrom bertanya kepada para ahli kapan kita akan mencapai ASI: a) dua tahun setelah mencapai AGI (yaitu, hampir seketika karena ledakan kecerdasan); b) setelah 30 tahun. Hasil?

Pendapat rata-rata adalah bahwa transisi cepat dari AGI ke ISI akan terjadi dengan probabilitas 10%, tetapi dalam 30 tahun atau kurang akan terjadi dengan probabilitas 75%.

Dari data ini, kita tidak tahu tanggal berapa responden menyebut kemungkinan 50 persen untuk ASI, tapi berdasarkan dua jawaban di atas, anggap saja itu 20 tahun. Artinya, para ahli AI terkemuka dunia percaya bahwa titik balik akan datang pada tahun 2060 (AGI akan muncul pada tahun 2040 + akan memakan waktu 20 tahun untuk transisi dari AGI ke ISI).

Image
Image

Tentu saja, semua statistik di atas bersifat spekulatif dan hanya mewakili pendapat para ahli di bidang kecerdasan buatan, tetapi mereka juga menunjukkan bahwa sebagian besar orang yang bersangkutan setuju bahwa pada tahun 2060 kemungkinan besar AI akan datang. Hanya dalam 45 tahun.

Mari kita lanjutkan ke pertanyaan kedua. Ketika kita sampai pada titik kritis, sisi mana dari pilihan fatal yang akan menentukan kita?

Superintelligence akan memiliki kekuatan paling kuat, dan pertanyaan kritis bagi kita adalah sebagai berikut:

Siapa atau apa yang akan mengendalikan kekuatan ini dan apa yang akan menjadi motivasi mereka?

Jawaban atas pertanyaan ini akan bergantung pada apakah ISI mendapatkan perkembangan yang sangat kuat, perkembangan yang sangat menakutkan, atau di antaranya.

Tentu saja, komunitas pakar juga mencoba menjawab pertanyaan-pertanyaan ini. Jajak pendapat Bostrom menganalisis kemungkinan konsekuensi yang mungkin timbul dari dampak AGI terhadap kemanusiaan, dan ternyata dengan peluang 52 persen semuanya akan berjalan dengan sangat baik dan dengan peluang 31 persen semuanya akan berjalan baik buruk atau sangat buruk. Jajak pendapat yang terlampir di akhir bagian sebelumnya dari topik ini, yang dilakukan di antara Anda, para pembaca Hi-News, menunjukkan hasil yang sama. Untuk hasil yang relatif netral, kemungkinannya hanya 17%. Dengan kata lain, kami semua percaya bahwa AGI akan menjadi masalah besar. Perlu juga dicatat bahwa survei ini menyangkut kemunculan AGI - dalam kasus ISI, persentase netralitas akan lebih rendah.

Sebelum kita membahas lebih dalam tentang sisi baik dan buruk dari pertanyaan, mari kita gabungkan kedua sisi pertanyaan - "kapan ini akan terjadi?" dan "apakah ini baik atau buruk?" menjadi tabel yang mencakup pandangan sebagian besar pakar.

Image
Image

Kita akan membicarakan kamp utama sebentar lagi, tetapi pertama-tama, putuskan posisi Anda. Kemungkinan besar, Anda berada di tempat yang sama dengan saya sebelum saya mulai mengerjakan topik ini. Ada beberapa alasan mengapa orang tidak memikirkan topik ini sama sekali:

- Seperti yang disebutkan di bagian pertama, film tersebut benar-benar membingungkan orang dan fakta, menghadirkan skenario yang tidak realistis dengan kecerdasan buatan, yang mengarah pada fakta bahwa kita tidak boleh menganggap serius AI sama sekali. James Barrat menyamakan situasi ini dengan yang dikeluarkan oleh Pusat Pengendalian Penyakit (CDC) dengan peringatan serius tentang vampir di masa depan kita.

- Karena apa yang disebut bias kognitif, sangat sulit bagi kita untuk percaya bahwa sesuatu itu nyata sampai kita memiliki bukti. Seseorang dapat dengan yakin membayangkan para ilmuwan komputer tahun 1988 secara teratur mendiskusikan konsekuensi luas dari Internet dan apa yang mungkin terjadi, tetapi orang hampir tidak percaya bahwa itu akan mengubah hidup mereka sampai itu benar-benar terjadi. Hanya saja komputer tidak tahu bagaimana melakukan ini pada tahun 1988, dan orang-orang hanya melihat komputer mereka dan berpikir, “Benarkah? Apakah ini yang akan mengubah dunia? Imajinasi mereka dibatasi oleh pengalaman pribadi yang mengajari mereka, mereka tahu apa itu komputer, dan sulit untuk membayangkan kemampuan komputer di masa depan. Hal yang sama terjadi sekarang dengan AI. Kami dengar itu akan menjadi hal yang seriusTapi karena kita belum bertemu muka dengan tatap muka dan, secara umum, kita mengamati manifestasi AI yang agak lemah di dunia modern kita, agak sulit bagi kita untuk percaya bahwa itu akan mengubah hidup kita secara radikal. Bertentangan dengan prasangka inilah banyak ahli dari semua kubu, serta orang-orang yang tertarik, menentang untuk mencoba menarik perhatian kita melalui kebisingan egosentrisme kolektif sehari-hari.

- Bahkan jika kita percaya pada semua ini - berapa kali hari ini Anda memikirkan tentang fakta bahwa Anda akan menghabiskan sisa kekekalan dalam ketiadaan? Sedikit, setuju. Bahkan jika fakta ini jauh lebih penting daripada apa pun yang Anda lakukan hari demi hari. Ini karena otak kita biasanya fokus pada hal-hal kecil sehari-hari, tidak peduli seberapa delusi situasi jangka panjang yang kita hadapi. Hanya saja kita dibuat.

Salah satu tujuan artikel ini adalah mengeluarkan Anda dari kamp yang disebut "Saya suka memikirkan hal-hal lain" dan menempatkan Anda di kamp ahli, bahkan jika Anda hanya berdiri di persimpangan jalan antara dua garis putus-putus di kotak di atas, benar-benar ragu-ragu.

Selama penelitian, menjadi jelas bahwa pendapat kebanyakan orang dengan cepat beralih ke "kamp utama", dan tiga perempat ahli jatuh ke dalam dua subkamp di kamp utama.

Image
Image

Kami akan mengunjungi kedua kamp ini secara penuh. Mari kita mulai dengan kesenangan.

Mengapa masa depan bisa menjadi impian terbesar kita?

Saat kami menjelajahi dunia AI, secara mengejutkan kami menemukan banyak orang di zona nyaman kami. Orang-orang di alun-alun kanan atas penuh dengan kegembiraan. Mereka percaya bahwa kita akan berada di sisi yang baik, dan mereka juga percaya bahwa kita pasti akan sampai pada hal ini. Bagi mereka, masa depan adalah yang terbaik yang hanya bisa diimpikan.

Hal yang membedakan orang-orang ini dari pemikir lain bukanlah karena mereka ingin berada di sisi yang bahagia - tetapi mereka yakin bahwa dia sedang menunggu kita.

Keyakinan ini muncul dari kontroversi. Kritikus percaya itu berasal dari kegembiraan yang membayangi sisi negatif potensial. Tetapi para pendukungnya mengatakan prediksi yang suram selalu naif; teknologi terus berlanjut dan akan selalu membantu kita lebih dari sekadar merugikan kita.

Anda bebas memilih salah satu dari pendapat ini, tetapi kesampingkan skeptisisme dan perhatikan baik-baik sisi bahagia dari balok keseimbangan, mencoba menerima kenyataan bahwa segala sesuatu yang Anda baca mungkin telah terjadi. Jika Anda menunjukkan kepada pemburu-pengumpul dunia kenyamanan, teknologi, dan kelimpahan tak berujung kami, bagi mereka itu akan tampak seperti fiksi magis - dan kami berperilaku cukup sederhana, tidak dapat mengakui bahwa transformasi yang tidak dapat dipahami yang sama menanti kami di masa depan.

Nick Bostrom menjelaskan tiga jalur yang dapat diambil oleh sistem AI superintelligent:

Peramal yang dapat menjawab pertanyaan pasti, termasuk pertanyaan kompleks yang tidak dapat dijawab oleh manusia - misalnya, "bagaimana cara membuat mesin mobil lebih efisien?" Google adalah jenis primitif dari "oracle".

Seorang jin yang akan menjalankan perintah tingkat tinggi apa pun - menggunakan perakit molekuler untuk membuat versi mesin mobil baru yang lebih efisien - dan akan menunggu perintah berikutnya.

Seorang penguasa yang akan memiliki akses luas dan kemampuan untuk berfungsi secara bebas di dunia, membuat keputusan sendiri dan meningkatkan prosesnya. Dia akan menemukan cara transportasi pribadi yang lebih murah, lebih cepat dan lebih aman daripada mobil.

Pertanyaan dan tugas ini, yang tampaknya sulit bagi kami, akan terlihat oleh sistem superintelligent seolah-olah seseorang diminta untuk memperbaiki situasi "pensil saya jatuh dari meja", di mana Anda hanya akan mengambilnya dan meletakkannya kembali.

Eliezer Yudkowski, seorang ahli kecerdasan buatan Amerika, menyatakannya dengan baik:

“Tidak ada masalah yang sulit, hanya masalah yang sulit untuk tingkat kecerdasan tertentu. Pergi satu langkah lebih tinggi (dalam hal kecerdasan), dan beberapa masalah tiba-tiba akan berpindah dari kategori "tidak mungkin" ke kamp yang "jelas". Satu langkah lebih tinggi - dan semuanya akan menjadi jelas."

Ada banyak ilmuwan, penemu, dan wirausahawan yang tidak sabar yang telah memilih zona kenyamanan yang percaya diri dari meja kami, tetapi kami hanya memerlukan satu panduan untuk berjalan menuju yang terbaik di dunia terbaik ini.

Ray Kurzweil memang ambigu. Beberapa mengidolakan ide-idenya, beberapa membenci. Beberapa tetap di tengah - Douglas Hofstadter, mendiskusikan ide-ide buku Kurzweil, dengan fasih mencatat bahwa "seolah-olah Anda mengambil banyak makanan enak dan sedikit kotoran anjing, dan kemudian mencampurkan semuanya sedemikian rupa sehingga tidak mungkin memahami apa yang baik dan apa yang buruk."

Suka atau tidak suka ide-idenya, mustahil untuk melewatkannya tanpa bayangan minat. Dia mulai menemukan hal-hal saat remaja, dan pada tahun-tahun berikutnya dia menemukan beberapa hal penting, termasuk pemindai flatbed pertama, pemindai pertama yang mengubah teks menjadi ucapan, synthesizer musik Kurzweil yang terkenal (piano listrik pertama yang sebenarnya), dan pengenal ucapan pertama yang sukses secara komersial. Dia juga penulis lima buku sensasional. Kurzweil dihargai karena prediksinya yang berani dan rekam jejaknya yang cukup baik - di akhir tahun 80-an, ketika Internet masih dalam tahap awal, ia memperkirakan bahwa pada tahun 2000-an Web akan menjadi fenomena global. The Wall Street Journal menyebut Kurzweil sebagai "jenius yang gelisah", Forbes sebagai "mesin berpikir global," Inc. Majalah - "Pewaris sah Edison", Bill Gates - "yang terbaik dari merekayang memprediksi masa depan kecerdasan buatan. " Pada tahun 2012, salah satu pendiri Google, Larry Page, mengundang Kurzweil ke posisi CTO. Pada 2011, ia ikut mendirikan Singularity University, yang diselenggarakan oleh NASA dan sebagian disponsori oleh Google.

Biografinya penting. Ketika Kurzweil berbicara tentang visinya tentang masa depan, kedengarannya seperti orang gila, tetapi hal yang benar-benar gila tentang itu adalah dia jauh dari gila - dia orang yang sangat cerdas, berpendidikan, dan waras. Anda mungkin mengira dia salah dalam ramalannya, tapi dia bukan orang bodoh. Prediksi Kurzweil dibagikan oleh banyak pakar zona nyaman, Peter Diamandis dan Ben Herzel. Inilah yang menurutnya akan terjadi.

Kronologi

Kurzweil percaya bahwa komputer akan mencapai tingkat kecerdasan buatan umum (AGI) pada tahun 2029, dan pada tahun 2045 kita tidak hanya akan memiliki kecerdasan super buatan, tetapi juga dunia yang benar-benar baru - waktu yang disebut singularitas. Kronologi AI-nya masih dianggap terlalu dibesar-besarkan, tetapi selama 15 tahun terakhir, perkembangan pesat sistem kecerdasan buatan (AI) yang sangat terfokus telah memaksa banyak ahli untuk berpihak pada Kurzweil. Prediksinya masih lebih ambisius daripada survei Bostrom (AGI pada 2040, ISI pada 2060), tetapi tidak banyak.

Menurut Kurzweil, tiga revolusi simultan dalam bioteknologi, nanoteknologi, dan yang lebih penting, AI mendorong singularitas pada tahun 2045. Tetapi sebelum kita melangkah lebih jauh - dan nanoteknologi mengikuti secara dekat kecerdasan buatan - mari luangkan waktu sejenak untuk nanoteknologi.

Image
Image

Beberapa kata tentang nanoteknologi

Kami biasanya menyebut teknologi nanoteknologi yang menangani manipulasi materi dalam kisaran 1-100 nanometer. Nanometer adalah satu miliar meter, atau sepersejuta milimeter; dalam kisaran 1-100 nanometer, virus (diameter 100 nm), DNA (lebar 10 nm), molekul hemoglobin (5 nm), glukosa (1 nm) dan banyak lagi dapat ditampung. Jika nanoteknologi menjadi subjek kita, langkah selanjutnya adalah memanipulasi atom individu yang kurang dari satu urutan besarnya (~, 1 nm).

Untuk memahami di mana manusia mengalami masalah saat mencoba memanipulasi materi pada skala seperti itu, mari kita beralih ke skala yang lebih besar. Stasiun Luar Angkasa Internasional berada 481 kilometer di atas Bumi. Jika manusia adalah raksasa dan menghantam ISS dengan kepala mereka, mereka akan menjadi 250.000 kali lebih besar dari yang sekarang. Jika Anda memperbesar apa pun dari 1 hingga 100 nanometer 250.000 kali, Anda mendapatkan 2,5 sentimeter. Nanoteknologi setara dengan manusia, yang mengorbit ISS, mencoba memanipulasi benda seukuran sebutir pasir atau bola mata. Untuk mencapai level berikutnya - mengendalikan atom individu - raksasa harus memposisikan objek dengan hati-hati dengan diameter 1/40 milimeter. Orang biasa membutuhkan mikroskop untuk melihatnya.

Untuk pertama kalinya, Richard Feynman berbicara tentang nanoteknologi pada tahun 1959. Kemudian dia berkata: “Prinsip-prinsip fisika, sejauh yang saya tahu, tidak menentang kemungkinan mengendalikan benda-benda atom demi atom. Pada prinsipnya, fisikawan dapat mensintesis bahan kimia apa pun yang telah dituliskan oleh ahli kimia. Bagaimana? Dengan menempatkan atom di tempat yang dikatakan ahli kimia untuk mendapatkan zat. Ini adalah keseluruhan kesederhanaan. Jika Anda tahu cara memindahkan molekul atau atom individu, Anda dapat melakukan hampir semua hal.

Nanoteknologi menjadi bidang ilmiah yang serius pada tahun 1986 ketika insinyur Eric Drexler mempresentasikan fondasinya dalam buku mani Mesin Penciptaan, tetapi Drexler sendiri percaya bahwa mereka yang ingin mempelajari lebih lanjut tentang ide-ide modern dalam nanoteknologi harus membaca bukunya tahun 2013. Kelimpahan Penuh (Kelimpahan Radikal).

Begitu kita sampai di dasar nanoteknologi, kita dapat menggunakannya untuk membuat perangkat teknis, pakaian, makanan, bioproduk - sel darah, penangkal virus dan kanker, jaringan otot, dan sebagainya - apa pun. Dan di dunia yang menggunakan nanoteknologi, biaya suatu bahan tidak lagi terkait dengan kelangkaannya atau kerumitan proses pembuatannya, tetapi lebih kepada kompleksitas struktur atomnya. Di dunia nanoteknologi, berlian bisa lebih murah daripada penghapus.

Kami bahkan belum dekat di sana. Dan tidak sepenuhnya jelas apakah kita meremehkan atau melebih-lebihkan kompleksitas jalan ini. Namun, semuanya mengarah ke titik di mana nanoteknologi tidak jauh. Kurzweil berasumsi bahwa pada tahun 2020-an kita akan memilikinya. Negara-negara dunia tahu bahwa nanoteknologi dapat menjanjikan masa depan yang cerah, dan oleh karena itu mereka menginvestasikan banyak miliaran di dalamnya.

Bayangkan saja kemungkinan apa yang akan didapat komputer superintelligent jika sampai ke assembler skala nano yang andal. Tapi nanoteknologi adalah ide kami, dan kami mencoba mengendarainya, itu sulit bagi kami. Bagaimana jika itu hanya lelucon untuk sistem ISI, dan ISI sendiri akan muncul dengan teknologi yang akan berkali-kali lebih kuat daripada apa pun yang pada prinsipnya dapat kita asumsikan? Kami sepakat: tidak ada yang bisa membayangkan kemampuan superintelligence buatan? Diyakini bahwa otak kita tidak dapat memprediksi bahkan sekecil apa pun yang akan terjadi.

Apa yang bisa dilakukan AI untuk kita?

Berbekal superintelligence dan semua teknologi yang bisa diciptakan superintelligence, ISI mungkin akan bisa menyelesaikan semua masalah umat manusia. Pemanasan global? ISI pertama-tama akan menghentikan emisi karbon dengan menciptakan sejumlah bahan bakar non-fosil yang efisien untuk menghasilkan energi. Dia kemudian akan menemukan cara yang efektif dan inovatif untuk menghilangkan kelebihan CO2 dari atmosfer. Kanker dan penyakit lainnya? Bukan masalah - perawatan kesehatan dan pengobatan akan berubah dengan cara yang tidak mungkin dibayangkan. Kelaparan dunia? ISI akan menggunakan nanoteknologi untuk membuat daging yang identik dengan daging alami, dari awal, daging asli.

Image
Image

Nanoteknologi akan mampu mengubah tumpukan sampah menjadi tong berisi daging segar atau makanan lainnya (bahkan tidak harus dalam bentuk biasanya - bayangkan sebuah kubus apel raksasa) dan mendistribusikan semua makanan ini ke seluruh dunia menggunakan sistem transportasi yang canggih. Tentu saja, ini bagus untuk hewan yang tidak lagi harus mati demi makanan. ISI juga dapat melakukan banyak hal lain, seperti melestarikan spesies yang terancam punah atau bahkan mengembalikan yang punah dari DNA yang tersimpan. ISI dapat memecahkan masalah makroekonomi kita yang paling sulit - debat ekonomi kita yang paling sulit, masalah etika dan filosofis, perdagangan global - yang semuanya akan sangat terlihat jelas bagi ISI.

Tapi ada sesuatu yang sangat istimewa yang bisa dilakukan ISI untuk kita. Memikat dan menggoda yang akan mengubah segalanya: ISI dapat membantu kita menghadapi kefanaan. Secara bertahap memahami kemampuan AI, mungkin Anda akan mempertimbangkan kembali semua ide Anda tentang kematian.

Tidak ada alasan bagi evolusi untuk memperpanjang umur kita lebih lama dari sekarang. Jika kita hidup cukup lama untuk melahirkan dan membesarkan anak-anak sampai pada titik di mana mereka bisa mengurus diri sendiri, evolusi sudah cukup. Dari sudut pandang evolusi, 30+ tahun sudah cukup untuk perkembangan, dan tidak ada alasan mutasi untuk memperpanjang umur dan mengurangi nilai seleksi alam. William Butler Yates menyebut spesies kita "jiwa yang melekat pada hewan yang sekarat". Tidak terlalu menyenangkan.

Dan karena kita semua mati suatu hari nanti, kita hidup dengan gagasan bahwa kematian tidak bisa dihindari. Kami memikirkan tentang penuaan dari waktu ke waktu - terus bergerak maju dan tidak dapat menghentikan proses ini. Tetapi pikiran tentang kematian itu berbahaya: ditangkap olehnya, kita lupa untuk hidup. Richard Feynman menulis:

“Ada hal yang luar biasa dalam biologi: tidak ada dalam sains ini yang berbicara tentang perlunya kematian. Jika kita ingin menciptakan mesin gerak abadi, kita menyadari bahwa kita telah menemukan cukup banyak hukum dalam fisika yang menunjukkan ketidakmungkinan ini, atau bahwa hukum itu salah. Tetapi tidak ada dalam biologi yang menunjukkan keniscayaan kematian. Hal ini membuat saya percaya bahwa ini tidak bisa dihindari, dan hanya masalah waktu sebelum ahli biologi menemukan penyebab dari masalah ini, penyakit universal yang mengerikan ini, itu akan sembuh."

Faktanya adalah bahwa penuaan tidak ada hubungannya dengan waktu. Penuaan adalah saat bahan fisik tubuh rusak. Suku cadang mobil juga bisa rusak - tetapi apakah penuaan tidak bisa dihindari? Jika Anda terus memperbaiki mobil Anda karena suku cadangnya sudah aus, itu akan bertahan selamanya. Tubuh manusia tidak berbeda - hanya lebih kompleks.

Kurzweil berbicara tentang nanobot cerdas yang terhubung dengan Wi-Fi dalam aliran darah yang dapat melakukan tugas yang tak terhitung jumlahnya untuk kesehatan manusia, termasuk secara teratur memperbaiki atau mengganti sel-sel yang rusak di mana pun di tubuh. Memperbaiki proses ini (atau menemukan alternatif yang disarankan oleh ASI yang lebih cerdas) tidak hanya menjaga tubuh tetap sehat, tetapi juga dapat membalikkan penuaan. Perbedaan tubuh pria 60 tahun dan 30 tahun terletak pada beberapa masalah fisik yang bisa diperbaiki dengan teknologi yang tepat. ISI bisa membuat mobil yang akan dimasuki seseorang saat berusia 60 tahun dan keluar saat berusia 30 tahun.

Bahkan otak yang rusak pun bisa diperbarui. ISI pasti tahu bagaimana melakukan ini tanpa mempengaruhi data otak (kepribadian, ingatan, dll.). Seorang pria 90 tahun yang menderita degradasi otak total dapat menjalani pelatihan ulang, pembaruan, dan kembali ke awal hidupnya. Ini mungkin tampak tidak masuk akal, tetapi tubuh adalah segenggam atom, dan ISI pasti dapat dengan mudah memanipulasinya, struktur atom apa pun. Ini tidak terlalu konyol.

Kurzweil juga percaya bahwa bahan buatan akan semakin terintegrasi ke dalam tubuh seiring berjalannya waktu. Sebagai permulaan, organ dapat diganti dengan versi mesin super canggih yang akan bertahan selamanya dan tidak pernah gagal. Kemudian kita bisa melakukan desain ulang tubuh secara lengkap, mengganti sel darah merah dengan nanobots sempurna yang bergerak sendiri, menghilangkan kebutuhan akan jantung sama sekali. Kami juga dapat meningkatkan kemampuan kognitif kami, mulai berpikir miliaran kali lebih cepat, dan mengakses semua informasi yang tersedia untuk umat manusia melalui cloud.

Kemungkinan untuk memahami cakrawala baru benar-benar tidak terbatas. Orang telah berhasil memberkahi seks dengan tujuan baru, mereka melakukannya untuk kesenangan, bukan hanya untuk reproduksi. Kurzweil berpikir kita bisa melakukan hal yang sama dengan makanan. Nanobots dapat memberikan nutrisi ideal langsung ke sel-sel tubuh, memungkinkan zat-zat yang tidak sehat masuk ke dalam tubuh. Ahli teori nanoteknologi Robert Freitas telah mengembangkan pengganti sel darah yang, jika diterapkan di tubuh manusia, dapat membuatnya tidak bernapas selama 15 menit - dan ini ditemukan oleh seseorang. Bayangkan kapan ISI akan mendapatkan kekuasaan.

Bagaimanapun juga, Kurzweil percaya bahwa manusia akan mencapai titik di mana mereka menjadi sepenuhnya buatan; saat kita melihat materi biologis dan memikirkan betapa primitifnya mereka; Saat ketika kita akan membaca tentang tahap-tahap awal sejarah manusia, kagum pada bagaimana kuman, kecelakaan, penyakit, atau usia tua dapat membunuh seseorang di luar kehendaknya. Pada akhirnya, manusia akan mengalahkan biologi mereka sendiri dan menjadi abadi - ini adalah jalan menuju sisi bahagia dari balok keseimbangan yang telah kita bicarakan sejak awal. Dan orang-orang yang percaya akan hal ini juga yakin bahwa masa depan seperti itu akan segera menanti kita.

Anda mungkin tidak akan terkejut bahwa ide Kurzweil menuai kritik pedas. Singularitasnya pada tahun 2045 dan kehidupan abadi selanjutnya bagi orang-orang disebut "kenaikan para kutu buku" atau "ciptaan cerdas orang-orang dengan IQ 140". Yang lain mempertanyakan kerangka waktu optimis, pemahaman tentang tubuh dan otak manusia, mengingatkan pada hukum Moore, yang masih belum hilang. Untuk setiap ahli yang percaya pada ide-ide Kurzweil, ada tiga orang yang menganggapnya salah.

Tetapi hal yang paling menarik tentang ini adalah bahwa sebagian besar ahli yang tidak setuju dengannya umumnya tidak mengatakan bahwa ini tidak mungkin. Alih-alih mengatakan "omong kosong, ini tidak akan pernah terjadi", mereka mengatakan sesuatu seperti "semua ini akan terjadi jika kita sampai ke ISI, tapi itulah masalahnya." Bostrom, salah satu pakar AI terkenal yang memperingatkan bahaya AI, juga mengakui:

“Hampir tidak ada masalah tersisa yang tidak bisa diselesaikan oleh superintelligence atau bahkan membantu kami menyelesaikannya. Penyakit, kemiskinan, kerusakan lingkungan, segala jenis penderitaan - semua kecerdasan super ini dengan bantuan nanoteknologi dapat diselesaikan dalam sekejap. Superintelligence juga dapat memberi kita umur tidak terbatas dengan menghentikan dan membalik proses penuaan menggunakan nanomedic atau kemampuan untuk mengupload kita ke cloud. Superintelligence juga dapat menciptakan peluang untuk peningkatan kemampuan intelektual dan emosional tanpa akhir; dia dapat membantu kita menciptakan dunia di mana kita akan hidup dalam kegembiraan dan pengertian, mendekati cita-cita kita dan secara teratur mewujudkan impian kita."

Ini adalah kutipan dari salah satu kritikus Kurzweil, bagaimanapun, yang mengakui bahwa semua ini dimungkinkan jika kita dapat membuat ASI yang aman. Kurzweil secara sederhana mendefinisikan seperti apa superintelligence buatan itu, jika memungkinkan. Dan jika dia adalah tuhan yang baik.

Kritik paling jelas dari para pendukung zona nyaman adalah bahwa mereka bisa saja salah dalam menilai masa depan ISI. Dalam bukunya The Singularity, Kurzweil mencurahkan 20 halaman dari 700 potensi ancaman ISI. Pertanyaannya bukan kapan kita sampai di ISI, pertanyaannya apa yang akan menjadi motivasinya. Kurzweil menjawab pertanyaan ini dengan hati-hati: “ISI berasal dari banyak upaya yang berbeda dan akan terintegrasi secara mendalam ke dalam infrastruktur peradaban kita. Padahal, hal itu akan melekat erat di tubuh dan otak kita. Dia akan mencerminkan nilai-nilai kita karena dia akan menyatu dengan kita."

Namun jika jawabannya adalah, mengapa begitu banyak orang pintar di dunia ini yang mengkhawatirkan masa depan kecerdasan buatan? Mengapa Stephen Hawking mengatakan bahwa perkembangan ISI "bisa berarti akhir dari umat manusia"? Bill Gates mengatakan dia "tidak mengerti orang yang tidak peduli" tentang hal itu. Elon Musk takut kita "memanggil iblis". Mengapa banyak ahli menganggap ISI sebagai ancaman terbesar bagi umat manusia?

Berdasarkan materi dari waitbutwhy.com, kompilasi oleh Tim Urban. Artikel ini menggunakan bahan dari karya Nick Bostrom, James Barratt, Ray Kurzweil, Jay Niels-Nilsson, Stephen Pinker, Vernor Vinge, Moshe Vardy, Russ Roberts, Stuart Armstrog dan Kai Sotal, Susan Schneider, Stuart Russell dan Peter Norvig, Theodore Modis Marcus, Karl Schulman, John Searle, Jaron Lanier, Bill Joy, Kevin Keley, Paul Allen, Stephen Hawking, Kurt Andersen, Mitch Kapor, Ben Herzel, Arthur Clark, Hubert Dreyfus, Ted Greenwald, Jeremy Howard.

Penulis: Ilya Khel

Bagian tiga: Mengapa itu penemuan terakhir kita?

Direkomendasikan: