Bagaimana Jaringan Saraf Diajarkan Untuk Memalsukan Gambar Berita - Pandangan Alternatif

Daftar Isi:

Bagaimana Jaringan Saraf Diajarkan Untuk Memalsukan Gambar Berita - Pandangan Alternatif
Bagaimana Jaringan Saraf Diajarkan Untuk Memalsukan Gambar Berita - Pandangan Alternatif

Video: Bagaimana Jaringan Saraf Diajarkan Untuk Memalsukan Gambar Berita - Pandangan Alternatif

Video: Bagaimana Jaringan Saraf Diajarkan Untuk Memalsukan Gambar Berita - Pandangan Alternatif
Video: jaringan hewan jaringan saraf 2024, April
Anonim

Untuk membuat pemalsuan, sistem dan teknologi kecerdasan buatan untuk menghasilkan pemalsuan video dan audio digunakan.

Untuk membuat gambar berita "individu" bagi kita semua dan memalsukan laporan media yang dipilih di dalamnya, hari ini upaya seorang programmer sudah cukup. Spesialis dalam kecerdasan buatan dan keamanan siber memberi tahu Izvestia tentang ini. Baru-baru ini, mereka memperkirakan bahwa ini membutuhkan kerja banyak tim. Akselerasi seperti itu menjadi mungkin dengan perkembangan teknologi untuk serangan pada jaringan saraf dan pembuatan suara dan video palsu menggunakan program untuk membuat "pemalsuan yang dalam". Koran Izvestia belum lama ini juga mengalami serangan serupa, ketika tiga portal berita Libya sekaligus menerbitkan pesan yang diduga muncul di salah satu terbitan. Menurut para ahli, dalam 3-5 tahun, seseorang dapat mengharapkan invasi manipulator robot, yang secara otomatis akan dapat membuat banyak pemalsuan.

Dunia baru yang berani

Ada semakin banyak proyek yang menyesuaikan gambar informasi dengan persepsi pengguna tertentu. Salah satu contoh pekerjaan mereka adalah aksi baru-baru ini dari tiga portal Libya, yang menerbitkan berita yang diduga dicetak dalam edisi Izvestia pada 20 November. Pencipta surat kabar palsu itu memodifikasi halaman depan surat kabar itu, memposting di atasnya pesan tentang negosiasi antara Marsekal Khalifa Haftar dan Perdana Menteri Pemerintah Kesepakatan Nasional (PNS) Fayez Sarraj. Palsu, dengan font Izvestia, disertai dengan foto kedua pemimpin yang diambil pada Mei 2017. Label dengan logo terbitan tersebut dipotong dari terbitan aktual yang diterbitkan pada tanggal 20 November, dan semua teks lain pada halaman tersebut dari terbitan 23 Oktober.

Dari sudut pandang spesialis, di masa mendatang pemalsuan semacam itu dapat dilakukan secara otomatis.

Image
Image

"Teknologi kecerdasan buatan sekarang benar-benar terbuka, dan perangkat untuk menerima dan memproses data semakin kecil dan semakin murah," kata Yuri Vilsiter, Doktor Ilmu Fisika dan Matematika, Profesor Akademi Ilmu Pengetahuan Rusia, kepala departemen FSUE "GosNIIAS" kepada Izvestia. - Oleh karena itu, sangat mungkin bahwa dalam waktu dekat, bahkan bukan negara dan perusahaan besar, tetapi hanya individu pribadi akan dapat menguping dan memata-matai kita, serta memanipulasi kenyataan. Di tahun-tahun mendatang, dengan menganalisis preferensi pengguna, dimungkinkan untuk mempengaruhinya melalui umpan berita dan pemalsuan yang sangat cerdik.

Video promosi:

Menurut Yuri Vilsiter, teknologi yang dapat digunakan untuk intervensi semacam itu di lingkungan mental sudah ada. Secara teori, invasi bot manipulator dapat diharapkan dalam beberapa tahun, katanya. Saat yang membatasi di sini mungkin kebutuhan untuk mengumpulkan database besar contoh tanggapan orang nyata terhadap rangsangan buatan dengan pelacakan konsekuensi jangka panjang. Pelacakan semacam itu mungkin membutuhkan penelitian beberapa tahun lagi sebelum serangan yang ditargetkan secara konsisten diperoleh.

Serangan penglihatan

Alexei Parfentiev, kepala departemen analitik di SearchInform, setuju dengan Yuri Vilsiter. Menurutnya, para ahli sudah memprediksi serangan terhadap jaringan saraf, meski sekarang hampir tidak ada contoh seperti itu.

- Peneliti dari Gartner percaya bahwa pada tahun 2022, 30% dari semua serangan dunia maya akan ditujukan untuk merusak data yang digunakan untuk melatih jaringan saraf dan mencuri model pembelajaran mesin yang sudah jadi. Kemudian, misalnya, kendaraan tak berawak tiba-tiba mulai salah mengira pejalan kaki sebagai objek lain. Dan kita tidak akan berbicara tentang risiko keuangan atau reputasi, tetapi tentang kehidupan dan kesehatan orang biasa, ahli yakin.

Serangan pada sistem visi komputer sedang dilakukan sebagai bagian dari penelitian sekarang. Tujuan dari serangan tersebut adalah untuk memaksa jaringan saraf mendeteksi dalam gambar apa yang tidak ada. Atau, sebaliknya, tidak melihat apa yang direncanakan.

Image
Image

“Salah satu topik yang secara aktif berkembang di bidang pelatihan jaringan saraf adalah apa yang disebut serangan musuh (“serangan musuh”- Izvestia),” jelas Vladislav Tushkanov, analis web di Lab Kaspersky. - Dalam kebanyakan kasus, mereka ditujukan untuk sistem visi komputer. Untuk melakukan serangan semacam itu, dalam banyak kasus, Anda harus memiliki akses penuh ke jaringan saraf (yang disebut serangan kotak putih) atau hasil kerjanya (serangan kotak hitam). Tidak ada metode yang dapat menipu sistem visi komputer mana pun dalam 100% kasus. Selain itu, alat telah dibuat yang memungkinkan Anda untuk menguji jaringan saraf untuk ketahanan terhadap serangan musuh dan meningkatkan ketahanannya.

Selama serangan seperti itu, penyerang mencoba mengubah gambar yang dikenali sehingga jaringan saraf tidak berfungsi. Seringkali noise ditumpangkan pada foto, serupa dengan yang terjadi saat memotret di ruangan dengan pencahayaan redup. Seseorang biasanya tidak memperhatikan gangguan seperti itu dengan baik, tetapi jaringan saraf mulai tidak berfungsi. Tetapi untuk melakukan serangan seperti itu, penyerang membutuhkan akses ke algoritme.

Menurut Stanislav Ashmanov, Direktur Umum Neuroset Ashmanov, saat ini tidak ada metode untuk mengatasi masalah ini. Selain itu, teknologi ini tersedia untuk siapa saja: programmer rata-rata dapat menggunakannya dengan mengunduh perangkat lunak sumber terbuka yang diperlukan dari layanan Github.

Image
Image

- Serangan pada jaringan saraf adalah teknik dan algoritme untuk menipu jaringan saraf, yang membuatnya menghasilkan hasil yang salah, dan kenyataannya, menghancurkannya seperti kunci pintu, - Ashmanov yakin. - Misalnya, sekarang cukup mudah untuk membuat sistem pengenalan wajah berpikir bahwa itu bukan Anda, tetapi Arnold Schwarzenegger di depannya - ini dilakukan dengan mencampurkan aditif yang tidak terlihat oleh mata manusia ke dalam data yang memasuki jaringan saraf. Serangan yang sama dimungkinkan untuk sistem pengenalan dan analisis suara.

Pakar yakin bahwa itu hanya akan menjadi lebih buruk - teknologi ini telah menyebar ke massa, penipu sudah menggunakannya, dan tidak ada cara perlindungan terhadapnya. Karena tidak ada perlindungan terhadap pembuatan otomatis pemalsuan video dan audio.

Palsu

Teknologi deepfake berdasarkan Deep Learning (teknologi deep learning jaringan neural. - Izvestia) sudah menjadi ancaman nyata. Pemalsuan video atau audio dibuat dengan mengedit atau melapisi wajah orang-orang terkenal yang seharusnya mengucapkan teks yang diperlukan dan memainkan peran yang diperlukan dalam plot.

“Deepfake memungkinkan Anda mengganti gerakan bibir dan ucapan manusia dengan video, yang menciptakan perasaan realisme tentang apa yang terjadi,” kata Andrey Busargin, direktur departemen untuk perlindungan merek inovatif dan kekayaan intelektual di Group-IB. - Selebriti palsu "menawarkan" pengguna di jejaring sosial untuk berpartisipasi dalam pengundian hadiah berharga (smartphone, mobil, sejumlah uang), dll. Tautan dari video ini sering mengarah ke situs penipuan dan phishing di mana pengguna diminta memasukkan informasi pribadi, termasuk detail kartu bank. Skema semacam itu menjadi ancaman bagi pengguna biasa dan tokoh masyarakat yang disebutkan dalam iklan. Karena kejahatan semacam ini, gambar selebriti dikaitkan dengan penipuan atau barang yang diiklankan.dan di sinilah kami mengalami kerusakan merek pribadi,”katanya.

Image
Image

Ancaman lain terkait dengan penggunaan "suara palsu" untuk penipuan telepon. Misalnya, di Jerman, penjahat dunia maya menggunakan suara deepfake untuk membuat kepala anak perusahaan Inggris segera mentransfer € 220.000 ke rekening pemasok Hongaria dalam percakapan telepon, menyamar sebagai manajer perusahaan. Pimpinan perusahaan Inggris itu mencurigai suatu tipuan ketika "bos" -nya meminta wesel kedua, tetapi telepon itu datang dari nomor Austria. Pada saat ini, tahap pertama telah ditransfer ke rekening di Hongaria, dari mana uang itu ditarik ke Meksiko.

Ternyata teknologi saat ini memungkinkan pembuatan gambar berita individu yang diisi dengan berita palsu. Selain itu, akan segera mungkin untuk membedakan video dan audio palsu hanya dengan perangkat keras. Menurut para ahli, tindakan yang melarang pengembangan jaringan saraf tidak mungkin efektif. Oleh karena itu, kita akan segera hidup di dunia di mana kita perlu terus-menerus memeriksa ulang semuanya.

“Kami perlu mempersiapkan ini, dan kami harus menerimanya,” tegas Yuri Vilsiter. - Umat manusia bukanlah yang pertama kali berpindah dari satu realitas ke realitas lainnya. Dunia kita, cara hidup dan nilai-nilai kita sangat berbeda dengan dunia tempat nenek moyang kita hidup 60.000 tahun lalu, 5.000 tahun lalu, 2.000 tahun lalu, dan bahkan 200-100 tahun lalu. Dalam waktu dekat, sebagian besar privasi seseorang akan dirampas dan karena itu dipaksa untuk tidak menyembunyikan apa pun dan bertindak jujur. Pada saat yang sama, tidak ada dalam realitas sekitarnya dan dalam kepribadian seseorang yang dapat dipercaya, semuanya harus dipertanyakan dan terus-menerus diperiksa ulang. Tapi apakah kenyataan masa depan ini mengerikan? Tidak. Ini akan sangat berbeda.

Anna Urmantseva

Direkomendasikan: