Karena garis antara fakta dan fiksi semakin sulit dibedakan, penjahat online hanya membutuhkan dua jam untuk membuat produk “deepfake” buatan komputer yang realistis yang dapat menghancurkan hidup seseorang
AUTUMN SPREDEMANN
Lonjakan popularitas foto, audio, dan video hiper-realistis yang dikembangkan dengan kecerdasan buatan (AI)—umumnya dikenal sebagai deepfake—telah menjadi sensasi internet.
Ini juga memberi penjahat dunia maya keunggulan di dunia kejahatan.
Antara 2022 dan kuartal pertama tahun ini, penggunaan deepfake dalam penipuan melon- jak 1.200 persen di Amerika Serikat saja.
Padahal itu bukan hanya masalah di Amerika.
Dalam analisis yang sama, deepfake yang digunakan untuk tujuan penipuan meledak di Kanada, Jerman, dan Inggris Raya. Dalam studi tersebut, Amerika Serikat menyumbang 4,3 persen dari kasus penipuan deepfake global.
Sementara itu, pakar AI dan penyelidik kejahatan dunia maya mengatakan bahwa kita masih berada di puncak gunung es. “Lubang kelinci” dari potensi penipuan deepfake masih akan terus berlanjut.
“Saya percaya, dorongan no. 1 bagi penjahat dunia maya untuk melakukan kejahatan dunia maya adalah karena ketidakmampuan penegak hukum untuk mengikuti langkah mereka,” kata Michael Roberts kepada The Epoch Times.
Mr. Roberts adalah penyelidik profesional dan pendiri perusahaan perintis Rexxfield, yang membantu korban serangan berbasis web.
Dia juga memulai PICDO, organisasi gangguan kejahatan dunia maya, dan telah menjalankan pendidikan kontra-peretasan untuk cabang militer AS dan Australia, serta NATO.
Mr. Roberts mengatakan, sistem hukum di dunia Barat “sangat kewalahan” oleh kasus penipuan online, banyak di antaranya termasuk serangan deepfake. Selain itu, kasus-kasus yang diselidiki tanpa menyewa perusahaan swasta yang dipilih dengan hati-hati.
Pasar untuk deteksi deepfake bernilai 3,86 miliar dolar AS pada 2020 dan diperkirakan akan tumbuh 42 persen setiap tahun hingga 2026, menurut laporan HSRC.
Pola Kejahatan
Bayangkan mendapat telepon dari orang yang dicintai, sambil menangis mengklaim bahwa mereka telah diculik. Secara alami, para penculik menginginkan uang dan suara anggota keluarga Anda mulai memberikan instruksi tentang cara mengirimkan uang tebusan.
Anda mungkin yakin itu suara kekasih Anda di ujung sana, tetapi ada kemungkinan tidak. Penipuan audio deepfake atau “kloning suara” telah menyebar seperti api liar di seluruh Amerika Serikat tahun ini, membutakan individu yang penuh kasih dan tidak siap di banyak negara bagian.
Tapi itu tidak berhenti di situ. Serangan deepfake bisa datang dalam berbagai bentuk. Penipuan pintar ini juga dapat muncul sebagai obrolan video dengan seseorang yang Anda kenal.
Mereka dapat muncul sebagai unggahan media sosial dari kolega lama, membahas bagaimana investasi cryptocurrency memung- kinkan mereka membeli rumah baru yang indah yang mereka tunjuk dengan bersemangat di sebuah foto.
“Kami memiliki banyak kasus penipuan mata uang kripto,” kata Mr. Roberts.
Deepfake juga digunakan untuk pemerasan. Ini biasanya melibatkan pembuatan video atau foto korban yang berparas rupawan dalam situasi cabul atau membahayakan.
Kemudian penyerang meminta uang tebusan, jangan sampai mereka membagikan video atau foto palsu tersebut kepada rekan kerja, bos, keluarga, dan teman korban.
Setiap contoh itu sudah terjadi.
Tetapi untuk membuat barang palsu yang realistis ini, penjahat memerlukan akses ke ma- teri seperti foto, audio, dan video. Sayangnya, hal-hal ini tidak sulit didapat.
“Jika seseorang masuk ke foto pribadi Anda, di galeri media sosial Anda, itu akan dapat memberikan semua pengambilan sampel, semua teknologi … untuk membuat foto palsu yang sangat realistis,” kata Mr. Roberts.
Profil media sosial adalah harta karun bagi penjahat yang ingin membuat produk ini.
Memulihkan aset yang hilang dan reputasi korban bisa jadi suram. Roberts mencatat litigasi terhadap kejahatan dunia maya adalah perjuangan yang berat. “Itu panjang, sulit, berlarut-larut, serta melelahkan secara emosional dan finansial.”
Orang dalam industri AI lainnya mengatakan bukan hanya kualitas barang palsu yang menjadi masalah, tetapi juga kuantitasnya. “Cepat atau lambat, orang akan dapat menghasilkan kombinasi piksel apa pun dari semua jenis konten. Dan terserah Anda untuk memfilternya,” kata Alan Ikoev kepada The Epoch Times.
Mr. Ikoev adalah CEO FameFlow.ai, yang membuat iklan selebriti dan influencer berlisensi.
Sebagai pelopor konten resmi yang dihasilkan AI yang melibatkan selebritas, dia terlalu akrab dengan karya rekan-rekannya yang jahat. Namun untuk mengatasi penipuan yang semakin canggih ini, orang perlu curiga terhadap semua yang mereka lihat secara online. “Jika mereka tidak mempertanyakan, maka mereka akan dengan mudah diyakinkan,” kata Ikoev.
Membedakan apa yang asli atau palsu secara online sudah menantang. Delapan puluh enam persen pengguna internet mengaku ditipu oleh berita palsu, menurut survei Ipsos terhadap lebih dari 25.000 peserta di 25 negara.
Ini diperparah oleh studi keamanan siber baru-baru ini, yang mengungkapkan hampir setengah dari semua lalu lintas internet sekarang dihasilkan oleh bot.
Tapi itu tidak semua berita buruk. Mr. Roberts berpendapat bahwa penjahat siber saat ini masih belum dapat tertangkap dengan seberapa cepat teknologi bergerak maju.
Kewaspadaan dan rencana diperlukan untuk menangkis atau melawan serangan deep- fake.
Gerakan Kontra
Kemajuan pesat teknologi dalam penipuan hampir membangkitkan nostalgia pada hari- hari ketika penipuan internet hanyalah email dari seorang pangeran yang memproklamirkan diri di negeri asing yang membutuhkan bantuan untuk mentransfer uang.
AI telah memberikan alat yang lebih baik kepada penjahat dunia maya, tetapi AI juga dapat digunakan untuk melawan mereka.
“Pengembangan alat deteksi deepfake canggih menggunakan algoritme berbasis AI sangat penting untuk memerangi ancaman ini. Upaya kolaboratif antara pengembang, peneliti, dan perusahaan teknologi AI sangat penting untuk menciptakan langkah keamanan yang kuat dan meningkatkan kesadaran,” ujar Nikita Sherbina, CEO AIScreen, kepada The Epoch Times.
Mr. Sherbina mengatakan, bisnis dapat melindungi diri mereka sendiri dengan menggunakan teknologi. Pada dasarnya melawan api digital dengan api.
“Implementasikan sistem autentikasi canggih berbasis AI, termasuk pengenalan suara dan wajah dengan autentikasi multi faktor. Pemantauan dan analisis pola komunikasi secara terus-menerus menggunakan algoritme AI juga dapat membantu mendeteksi dan mencegah aktivitas penipuan,” ujarnya.
Tetapi bagi individu, mengganggu atau mencegah penipuan deepfake lebih mudah.
Jika terjadi dugaan serangan klon suara, Mr. Roberts berkata, “Hal pertama yang Anda lakukan adalah mengatakan, ‘sayang, saya akan menelepon Anda kembali’.”
Dia mencatat bahwa penipu biasanya akan mengajukan sejumlah alasan mengapa Anda tidak dapat menelepon mereka kembali untuk memverifikasi identitas mereka. Trik lain untuk menggagalkan penjahat menggunakan audio kloning untuk memalsukan penculikan adalah dengan mengajukan pertanyaan penelepon yang tidak ada dalam domain publik.
“Lakukan percakapan ini dengan keluarga Anda sebelum itu benar-benar terjadi sehingga mereka mengerti apa yang Anda lakukan,” tambah Mr. Roberts.
Dia menekankan pentingnya tidak menggunakan alamat email individu dengan nama lengkap atau nomor yang relevan dengan tanggal lahir pengguna.
Selanjutnya, seseorang tidak boleh menggunakan kembali kata sandi login. Mr. Roberts mencatat hal pertama yang dilakukan peretas ketika mereka mengambil kata sandi adalah mencoba masuk ke setiap situs yang memung- kinkan untuk melihat di mana lagi kata sandi itu berfungsi.
Ini termasuk rekening bank, penyimpanan cloud, media sosial, dan banyak lagi.
Tetapi sementara deepfake telah meningkatkan standar bagi penipu online, metode untuk melacaknya tidak berubah.
“Prosesnya tidak berubah. AI hanyalah kontennya… tetapi remah roti yang ditinggalkan para penjahat, selalu sama,” kata Ikoev.
Penipu pelacakan mungkin sudah mapan, tetapi jalur yang jelas bagi korban untuk memulihkan uang yang hilang, tidak.
Penipuan keuangan dari deep-fake dapat berkisar dari 243.000 hingga 35 juta dolar AS, menurut sebuah analisis.
Salah satu contohnya adalah hiruk pikuk cryptocurrency menggunakan tiruan Elon Musk yang dilaporkan merugikan konsumen AS sekitar 2 juta dolar AS selama enam bulan.
Mungkin yang lebih meresahkan adalah siapa pun dapat membuatnya. Mr. Ikoev menjelaskan bahwa semua yang dibutuhkan seseorang untuk membuat deepfake di smartphone mereka adalah kartu grafis dan menonton beberapa tutorial web. (osc)