Superkomputer Tercepat Di Dunia Telah Memecahkan Rekor Kecerdasan Buatan - - Pandangan Alternatif

Daftar Isi:

Superkomputer Tercepat Di Dunia Telah Memecahkan Rekor Kecerdasan Buatan - - Pandangan Alternatif
Superkomputer Tercepat Di Dunia Telah Memecahkan Rekor Kecerdasan Buatan - - Pandangan Alternatif

Video: Superkomputer Tercepat Di Dunia Telah Memecahkan Rekor Kecerdasan Buatan - - Pandangan Alternatif

Video: Superkomputer Tercepat Di Dunia Telah Memecahkan Rekor Kecerdasan Buatan - - Pandangan Alternatif
Video: Pemegang Rekor Dunia !!! 7 Mobil TERCEPAT Di Dunia - FASTEST CAR in The World 2024, Juni
Anonim

Di pantai barat Amerika, perusahaan paling berharga di dunia mencoba membuat kecerdasan buatan lebih pintar. Google dan Facebook membual tentang eksperimen menggunakan miliaran foto dan ribuan prosesor berperforma tinggi. Namun akhir tahun lalu, sebuah proyek di Tennessee timur diam-diam melampaui skala lab AI perusahaan mana pun. Dan itu dijalankan oleh pemerintah AS.

Superkomputer pemerintah AS memecahkan rekor

Proyek pemecahan rekor ini melibatkan superkomputer terkuat di dunia, Summit, di Laboratorium Nasional Oak Ridge. Mobil ini memenangkan mahkota Juni lalu, mengembalikan gelar ke Amerika Serikat lima tahun kemudian ketika China menduduki puncak daftar. Sebagai bagian dari proyek penelitian iklim, sebuah komputer raksasa meluncurkan eksperimen pembelajaran mesin yang lebih cepat dari sebelumnya.

The Summit, meliputi area yang setara dengan dua lapangan tenis, menggunakan lebih dari 27.000 GPU yang kuat dalam proyek ini. Dia menggunakan kekuatan mereka untuk melatih algoritme pembelajaran mendalam, teknologi yang sangat mendukung kecerdasan buatan tingkat lanjut. Dalam pembelajaran mendalam, algoritme melakukan latihan pada satu miliar miliar operasi per detik, yang dikenal dalam lingkaran superkomputer sebagai exaflop.

“Pembelajaran mendalam belum pernah mencapai tingkat kinerja ini sebelumnya,” kata Prabhat, pemimpin tim peneliti di Pusat Penelitian Energi Nasional di Laboratorium Nasional Lawrence Berkeley. Timnya bekerja sama dengan para peneliti di markas Summit, Laboratorium Nasional Oak Ridge.

Seperti yang Anda duga, pelatihan AI dari komputer paling kuat di dunia berfokus pada salah satu tantangan terbesar dunia - perubahan iklim. Perusahaan teknologi melatih algoritme untuk mengenali wajah atau rambu jalan; ilmuwan pemerintah telah melatih mereka untuk mengenali pola cuaca seperti siklon dari model iklim yang memampatkan prakiraan seratus tahun atmosfer bumi menjadi tiga jam. (Namun, tidak jelas berapa banyak energi yang dibutuhkan proyek dan berapa banyak karbon yang dilepaskan ke udara dalam proses ini).

Image
Image

Video promosi:

Eksperimen Summit memiliki implikasi untuk masa depan kecerdasan buatan dan klimatologi. Proyek ini mendemonstrasikan potensi ilmiah dari mengadaptasi pembelajaran mendalam ke superkomputer yang secara tradisional mensimulasikan proses fisik dan kimia seperti ledakan nuklir, lubang hitam, atau material baru. Ini juga menunjukkan bahwa pembelajaran mesin dapat memperoleh keuntungan dari lebih banyak daya komputasi - jika Anda dapat menemukannya - dan memberikan terobosan di masa depan.

“Kami tidak tahu ini bisa dilakukan pada skala ini sampai kami melakukannya,” kata Rajat Monga, CTO di Google. Dia dan karyawan Google lainnya membantu proyek tersebut dengan mengadaptasi software machine learning TensorFlow open source perusahaan untuk skala raksasa Summit.

Sebagian besar pekerjaan dalam penskalaan pembelajaran mendalam telah dilakukan di pusat data perusahaan Internet, di mana server bekerja sama pada masalah, memisahkannya karena mereka relatif terputus-putus daripada digabungkan ke dalam satu komputer raksasa. Superkomputer seperti Summit memiliki arsitektur yang berbeda, dengan koneksi berkecepatan tinggi khusus yang menghubungkan ribuan prosesor mereka ke dalam satu sistem yang dapat bekerja secara keseluruhan. Hingga saat ini, hanya ada sedikit pekerjaan untuk mengadaptasi pembelajaran mesin untuk bekerja dengan perangkat keras semacam ini.

Monga mengatakan pekerjaan untuk mengadaptasi TensorFlow ke skala Summit juga akan mendukung upaya Google untuk memperluas sistem kecerdasan buatan internalnya. Insinyur Nvidia juga mengambil bagian dalam proyek ini, memastikan puluhan ribu GPU Nvidia di mesin ini bekerja tanpa hambatan.

Menemukan cara untuk memanfaatkan lebih banyak kekuatan komputasi dalam algoritme pembelajaran mendalam telah berperan penting dalam perkembangan teknologi saat ini. Teknologi yang sama yang digunakan Siri untuk pengenalan suara dan mobil Waymo untuk membaca rambu-rambu jalan menjadi berguna pada tahun 2012 setelah para ilmuwan mengadaptasinya untuk dijalankan pada GPU Nvidia.

Image
Image

Dalam analisis yang diterbitkan Mei lalu, para ilmuwan di OpenAI, lembaga penelitian San Francisco yang didirikan oleh Elon Musk, memperkirakan bahwa jumlah daya komputasi dalam eksperimen pembelajaran mesin publik terbesar telah berlipat ganda kira-kira setiap 3,43 bulan sejak 2012; ini berarti peningkatan 11 kali lipat dalam setahun. Perkembangan ini membantu bot Alphabet mengalahkan para juara dalam permainan papan dan video yang menantang, dan juga secara signifikan meningkatkan akurasi penerjemah Google.

Google dan perusahaan lain saat ini sedang membuat jenis baru chip yang mendukung AI untuk melanjutkan tren ini. Google mengatakan bahwa pod dengan ribuan chip AI-nya berjarak dekat - prosesor tensor duplikat, atau TPU - dapat memberikan 100 petaflop kekuatan pemrosesan, sepersepuluh dari kecepatan yang dicapai oleh Summit.

Kontribusi Summit untuk ilmu iklim menunjukkan bagaimana AI raksasa dapat meningkatkan pemahaman kita tentang kondisi cuaca di masa depan. Saat peneliti membuat prediksi cuaca berusia seabad, membaca prakiraan cuaca menjadi tantangan. “Bayangkan Anda memiliki film YouTube yang telah diputar selama 100 tahun. Tidak ada cara untuk menemukan semua kucing dan anjing secara manual di film ini,”kata Prabhat. Biasanya perangkat lunak digunakan untuk mengotomatiskan proses ini, tetapi tidak sempurna. Hasil Summit menunjukkan bahwa pembelajaran mesin dapat melakukan ini jauh lebih baik, yang seharusnya membantu memprediksi badai seperti banjir.

Menurut Michael Pritchard, seorang profesor di Universitas California, Irvine, meluncurkan pembelajaran mendalam tentang superkomputer adalah ide yang relatif baru yang muncul pada waktu yang tepat bagi para peneliti iklim. Perlambatan dalam kemajuan prosesor tradisional telah menyebabkan para insinyur melengkapi superkomputer dengan peningkatan jumlah chip grafis untuk meningkatkan kinerja secara lebih konsisten. “Waktunya telah tiba ketika Anda tidak dapat lagi meningkatkan kekuatan pemrosesan dengan cara yang biasa,” kata Pritchard.

Pergeseran ini membuat pemodelan tradisional terhenti, dan karena itu harus beradaptasi. Ini juga membuka pintu untuk memanfaatkan kekuatan pembelajaran mendalam, yang secara alami cocok untuk chip grafis. Mungkin kita akan mendapatkan gambaran yang lebih jelas tentang masa depan iklim kita.

Ilya Khel