Bahaya Apa Dari Jaringan Saraf Yang Kita Anggap Remeh? - Pandangan Alternatif

Daftar Isi:

Bahaya Apa Dari Jaringan Saraf Yang Kita Anggap Remeh? - Pandangan Alternatif
Bahaya Apa Dari Jaringan Saraf Yang Kita Anggap Remeh? - Pandangan Alternatif

Video: Bahaya Apa Dari Jaringan Saraf Yang Kita Anggap Remeh? - Pandangan Alternatif

Video: Bahaya Apa Dari Jaringan Saraf Yang Kita Anggap Remeh? - Pandangan Alternatif
Video: Histologi Sistem Saraf Pusat Dan Sistem Saraf Tepi Dengan Korelasi Klinisnya 2024, Mungkin
Anonim

Pernahkah Anda bertemu seseorang di jalan yang akan menjadi orang yang sama seperti Anda? Pakaian, wajah, gaya berjalan, cara berkomunikasi, kebiasaan benar-benar identik dengan Anda. Ini seperti dipindai dan dicetak pada printer. Kedengarannya agak menyeramkan, bukan? Sekarang bayangkan Anda telah melihat video di mana orang seperti itu menceritakan sesuatu tentang dirinya. Paling banter, Anda akan mencoba mengingat ketika Anda berjalan sedemikian rupa sehingga Anda tidak mengingat apa pun, tetapi Anda dapat mengatakannya di depan kamera. Meskipun semua ini terdengar seperti penalaran sederhana, tetapi teknologi sudah sangat dekat untuk menciptakan orang-orang seperti itu. Mereka sudah ada, tapi sebentar lagi akan ada lebih banyak lagi.

Dari mana yang palsu itu berasal?

Sekarang sudah terlalu banyak hal yang biasa disebut palsu. Mereka ada dimana-mana. Mereka dapat ditemukan dalam foto, berita, produksi barang, dan layanan informasi. Lebih mudah untuk mengatakan di mana tidak ada fenomena yang disertai dengan kata ini. Sementara Anda bisa melawan mereka. Anda dapat mempelajari asal muasal foto tersebut, memeriksa fitur khas produk bermerek dari yang palsu, dan memeriksa kembali berita. Padahal, berita adalah topik tersendiri.

Saat ini seorang konsumen konten tidak mau menunggu dan membutuhkan produksi instan dari penciptanya, bahkan kadang tidak peduli dengan kualitas, yang utama cepat. Di sinilah situasi muncul ketika seseorang mengatakan sesuatu, dan orang lain, tanpa memeriksanya, mengambilnya dari situs web dan koran mereka. Dalam beberapa kasus, butuh waktu lama untuk memutar kembali bola ini dan membuktikan bahwa semuanya salah.

Tidak ada gunanya menjelaskan mengapa ini semua dilakukan. Di satu sisi, ada yang hanya ingin menertawakan keadaan, di sisi lain, ada yang benar-benar tidak tahu bahwa dirinya salah. Sebuah tempat terpisah, kira-kira di tengah, ditempati oleh orang-orang yang sudah basi mencari untung. Ini bisa berupa kepentingan pengaruh di berbagai tingkat, termasuk di tingkat politik. Terkadang ini adalah tujuan menghasilkan keuntungan. Misalnya menabur kepanikan di pasar saham dan melakukan transaksi menguntungkan dengan sekuritas. Tetapi seringkali hal ini disebabkan permusuhan terhadap seseorang (perusahaan, produk, dll.) Untuk meremehkannya. Contoh sederhananya adalah "menjatuhkan" peringkat sebuah film atau institusi yang tidak diinginkan seseorang. Tentu saja, ini membutuhkan pasukan dari mereka yang akan pergi dan tidak suka (terkadang bahkan bot), tapi itu cerita lain.

Apa itu Pembelajaran Mendalam?

Video promosi:

Akhir-akhir ini, istilah ini semakin sering terdengar. Terkadang dia bahkan tidak terkait dengan kasus tersebut dan bingung dengan hal lain. Sehingga produk perangkat lunak terlihat lebih mengesankan.

Jangan mengira bahwa konsep dan prinsip dasar machine learning baru muncul beberapa tahun yang lalu. Faktanya, mereka berumur bertahun-tahun sehingga banyak dari kita bahkan belum lahir saat itu. Prinsip dasar sistem pembelajaran mendalam dan model matematika untuk pekerjaan mereka telah dikenal di tahun 80-an abad yang lalu.

Pada saat itu, mereka tidak begitu masuk akal karena kurangnya satu komponen penting. Itu adalah daya komputasi yang tinggi. Baru pada pertengahan tahun 2000-an, muncul sistem yang dapat membantu bekerja ke arah ini dan memungkinkan penghitungan semua informasi yang diperlukan. Sekarang mesin telah berkembang lebih pesat dan beberapa sistem penglihatan mesin, persepsi suara dan beberapa lainnya bekerja sangat efisien sehingga kadang-kadang bahkan melampaui kemampuan seseorang. Meskipun, mereka belum "dipenjara" ke arah yang bertanggung jawab, menjadikan mereka tambahan kemampuan manusia sambil tetap mempertahankan kendali atas mereka.

Image
Image

Apa itu Deepfake? Kapan Deepfake muncul?

Sangat mudah untuk menebak bahwa Deepfake adalah permainan kecil kata-kata yang terkait dengan Deep Learning dan kata-kata palsu yang saya bicarakan di atas. Artinya, Deepfake harus membawa palsu ke tingkat baru dan menurunkan seseorang dalam bisnis yang sulit ini, memungkinkan mereka membuat konten palsu tanpa membuang energi.

Pertama-tama, video palsu tersebut menyangkut. Artinya, setiap orang bisa duduk di depan kamera, mengatakan sesuatu, dan wajahnya akan diganti dengan orang lain. Itu terlihat menakutkan, karena, pada kenyataannya, Anda hanya perlu menangkap gerakan dasar seseorang dan tidak mungkin membedakan yang palsu. Mari kita lihat bagaimana semuanya dimulai.

Jaringan adversarial generatif pertama dibuat oleh seorang mahasiswa di Universitas Stanford. Itu terjadi pada tahun 2014, dan nama siswanya adalah Ian Goodfellow. Faktanya, dia mengadu dua jaringan saraf satu sama lain, salah satunya terlibat dalam pembuatan wajah manusia, dan yang kedua menganalisisnya dan berbicara dengan cara yang sama atau tidak. Jadi mereka melatih satu sama lain dan suatu hari jaringan saraf kedua mulai bingung dan mengambil gambar yang dihasilkan secara nyata. Sistem yang semakin kompleks inilah yang melahirkan Deepfake.

Sekarang salah satu promotor utama ide Deepfake adalah Hao Li. Dia tidak hanya ini, tetapi juga banyak lainnya. Untuk ini, dia berulang kali dianugerahi berbagai penghargaan, termasuk yang tidak resmi. Ngomong-ngomong, dia termasuk orang yang patut diapresiasi atas kemunculan animoji di iPhone X. Jika tertarik, Anda dapat membiasakan diri dengannya lebih detail di situsnya. Hari ini dia bukan topik utama diskusi.

Kami hanya mengingatnya karena dia menunjukkan lamarannya di Forum Ekonomi Dunia di Davos, yang memungkinkan Anda mengganti wajah seseorang yang duduk di depan kamera dengan wajah lainnya. Secara khusus, dia menunjukkan bagaimana sistem bekerja pada contoh wajah Leonardo DiCaprio, Will Smith, dan orang-orang terkenal lainnya.

Ini terlihat sedikit menyeramkan. Di satu sisi, Anda hanya dapat mengagumi teknologi modern yang memungkinkan Anda memindai wajah, mengubahnya ke wajah lain saat dalam perjalanan, dan menghasilkan gambar baru. Semua ini membutuhkan waktu sepersekian detik dan sistem bahkan tidak melambat. Artinya, ini memungkinkan tidak hanya untuk memproses video jadi dan mengganti wajah, tetapi juga untuk berpartisipasi dalam karakter seperti itu dalam beberapa jenis komunikasi video langsung.

Bahaya Deepfake. Bagaimana cara mengubah wajah di video?

Anda dapat berbicara sebanyak yang Anda suka bahwa teknologi ini dibutuhkan, sangat keren dan Anda tidak perlu memfitnah. Anda bahkan dapat bertindak ekstrem dan mulai mengatakan bahwa ini adalah posisi orang tua yang galak yang hanya takut pada segala sesuatu yang baru, tetapi sebenarnya ada lebih banyak bahaya daripada manfaat.

Dengan teknologi tersebut, apalagi jika bersifat open source, siapapun akan bisa berselancar dan merekam video apapun. Tidak buruk jika hanya mencemarkan kehormatan dan martabat seseorang, lebih buruk lagi jika itu adalah pernyataan yang dibuat atas nama orang penting. Misalnya dengan merekam video hanya berdurasi 30-40 detik atas nama Tim Cook, Anda bisa meruntuhkan hampir seluruh sektor IT AS yang dipimpin oleh Apple. Pasar saham akan terpukul sangat keras sehingga menimbulkan kepanikan di kalangan investor. Akibatnya, ribuan orang akan kehilangan miliaran dolar.

Siapapun yang tidak menyukai cara menghasilkan uang ini akan mengatakan bahwa inilah yang mereka butuhkan, biarkan mereka pergi ke pabrik. Tetapi di bawah skenario yang paling menyedihkan, tidak akan ada pabrik setelah ini. Selain itu, klise bahwa kita mendapatkan orang yang menipu fluktuasi nilai sekuritas. Cukup membeli dan menjualnya tepat waktu.

Situasinya bisa menjadi lebih buruk jika "pelawak" berbicara atas nama pemimpin negara besar. Tentu saja, kemudian semuanya akan terungkap, tetapi selama ini Anda dapat melakukan banyak hal yang tidak menyenangkan. Dengan latar belakang ini, hanya mengganti wajah selebriti dengan aktor dalam film dewasa akan menjadi lelucon yang tidak bersalah.

Dengan teknologi seperti itu, hal utama adalah memindai, lalu masalah teknologi. Dalam arti kata yang sebenarnya
Dengan teknologi seperti itu, hal utama adalah memindai, lalu masalah teknologi. Dalam arti kata yang sebenarnya

Dengan teknologi seperti itu, hal utama adalah memindai, lalu masalah teknologi. Dalam arti kata yang sebenarnya.

Anda dapat membayangkan situasi sebaliknya, ketika orang sungguhan mengatakan sesuatu, dan kemudian meyakinkan semua orang bahwa dia dijebak. Bagaimana berada dalam situasi ini juga tidak terlalu jelas. Ini akan membawa kebingungan ke feed berita sehingga tidak mungkin untuk mengeceknya kembali di sumber lain. Akibatnya, secara umum menjadi tidak jelas apa yang benar dan yang salah di dunia ini. Sebuah gambaran muncul dari film-film tentang masa depan yang suram, seperti Surrogates atau Terminator, di mana T-1000 memperkenalkan dirinya sebagai orang lain dan, antara lain, memanggil John Conor atas nama ibu angkatnya.

Sekarang saya bahkan tidak berbicara tentang pelecehan lain yang memungkinkan pengumpulan bukti palsu. Dengan latar belakang ini, semua kesenangan mainan itu menjadi terlalu meragukan.

Bagaimana cara mendeteksi Deepfake?

Masalahnya bukan bahkan sistem seperti itu harus dilarang, tetapi hal ini tidak mungkin lagi. Mereka sudah ada, dan perkembangan teknologi, termasuk membaca wajah, telah menyebabkan kemunculan mereka dan penyebaran open source. Bahkan jika kita membayangkan bahwa sistem dalam bentuknya yang sekarang akan lenyap, kita harus memahami bahwa ia akan diciptakan kembali. Mereka hanya akan sekali lagi mengajarkan jaringan saraf untuk bekerja satu sama lain dan hanya itu.

Sejauh ini, tidak semuanya begitu menakutkan, dan Anda benar-benar dapat mengidentifikasi yang palsu dengan mata telanjang. Gambarannya mirip, tapi agak kasar. Selain itu, dia terkadang memiliki beberapa masalah pencampuran, terutama di sekitar tepi wajah. Tetapi tidak ada yang berhenti dan sama sekali tidak sulit untuk mengembangkannya. Hao Li yang sama yakin bahwa ini akan memakan waktu tidak lebih dari beberapa bulan, dan untuk membuat “topeng” yang bahkan tidak dapat dibedakan oleh komputer, akan membutuhkan beberapa tahun lagi. Setelah itu tidak akan ada jalan untuk kembali.

Di satu sisi, algoritme yang sudah dibuat oleh YouTube dan Facebook dapat melindungi dari hal ini. Ngomong-ngomong, yang terakhir bahkan membuka kompetisi untuk pengembangan teknologi pengenalan - Tantangan Deteksi Deepfake ("Tugas mendeteksi deepfakes"). Dana hadiah untuk kompetisi ini adalah $ 10 juta. Kompetisi sudah berlangsung dan akan berakhir pada Maret 2020. Anda masih punya waktu untuk berpartisipasi.

Mengganti wajah dalam video tidak lagi menjadi masalah
Mengganti wajah dalam video tidak lagi menjadi masalah

Mengganti wajah dalam video tidak lagi menjadi masalah.

Mungkin kemurahan hati ini karena video palsu dengan Mark Zuckerberg sendiri. Jika kedua hal ini saling berkaitan, munculnya persaingan semacam itu tidaklah mengherankan.

Jika wajah yang diganti sepenuhnya cocok dengan aslinya, gaya balasan yang diwakili oleh jaringan saraf khusus tidak akan berdaya. Dalam hal ini, dia harus menangkap perbedaan minimal dalam ekspresi wajah, gerakan, dan cara berbicara. Dalam kasus orang terkenal, masalah seperti itu akan diselesaikan di tingkat layanan video, karena YouTube yang sama tahu bagaimana Donald Trump yang konvensional bergerak. Ketika berbicara tentang orang yang kurang dikenal, itu menjadi lebih rumit. Meskipun, hal ini juga dapat dibuktikan dengan menempatkannya di depan kamera dan melakukan percakapan santai saat jaringan saraf menganalisis gerakannya. Ini akan berubah menjadi sesuatu seperti mempelajari sidik jari, tetapi, seperti yang dapat kita lihat, ini lagi-lagi akan menimbulkan kesulitan yang tidak perlu.

Sistem otentikasi video menjahit ke dalam kamera juga dapat dielakkan. Anda dapat membuat kamera menandai video yang diambil dan memperjelas bahwa video tersebut tidak direkam melalui aplikasi terpisah atau diproses dalam program khusus. Tapi bagaimana dengan video yang baru saja diproses? Misalnya, wawancara yang diedit. Akibatnya, kami akan mendapatkan video yang tidak lagi menggunakan kunci asli.

Beberapa meme di bagian akhir
Beberapa meme di bagian akhir

Beberapa meme di bagian akhir.

Bisakah kita mengatakan bahwa kita sekarang telah membuat sketsa salah satu skenario masa depan yang gelap? Secara umum, ya. Jika teknologi yang diciptakan untuk mencapai tujuan yang baik lepas kendali, mereka bisa menyesap kesedihan. Sebenarnya, ada banyak pilihan untuk teknologi berbahaya tersebut, tetapi kebanyakan dari mereka dilindungi. Misalnya fusi nuklir. Di sini kita berurusan dengan kode yang bisa didapat siapa saja.

Tulis di kolom komentar perlindungan seperti apa yang Anda lihat terhadap pemalsuan, mengingat sistem masking mampu membuat masker benar-benar identik dengan wajah aslinya. Dan karena mereka ada di video, Anda bahkan tidak dapat menerapkan pengenalan kedalaman dan volume pada mereka. Selain itu, anggaplah bahwa kode dan kunci apa pun yang disematkan pada gambar dapat diretas. Seperti yang mereka katakan, itu untuk apa. Sekarang kita bisa berdiskusi, semua pengantar ada di sana.

Artem Sutyagin

Direkomendasikan: