Para Orangtua Harus Berbicara dengan Anak-anak Tentang Materi Pelecehan Anak Berbasis AI

Peningkatan jumlah materi pelecehan anak berbasis “deepfake”—termasuk yang dibuat oleh siswa—mendorong orang tua dan pengasuh untuk membahas topik ini dengan anak-anak mereka.

ETIndonesia. Kemunculan gambar pelecehan anak yang dibuat oleh kecerdasan buatan (AI) membuat orang tua dan pengasuh disarankan oleh Kepolisian Federal Australia (AFP) untuk melakukan percakapan secara “terbuka dan tanpa penghakiman” dengan anak-anak mereka mengenai bahaya dan kerugian yang ditimbulkan.

Kepolisian Federal Australia menyatakan bahwa Pusat Australia untuk Menanggulangi Eksploitasi Anak (ACCCE), yang dipimpin oleh AFP, telah menyaksikan peningkatan penggunaan materi pelecehan anak yang dihasilkan oleh AI dalam setahun terakhir, termasuk siswa yang menciptakan “deepfake” untuk melecehkan atau mempermalukan teman sekelas mereka.

Awal bulan ini, seorang remaja laki-laki di sebuah sekolah menengah di barat daya Sydney dilaporkan kepada polisi dan Komisioner eSafety setelah dia diduga menggunakan AI untuk membuat gambar eksplisit dari siswi dan menyebarkannya menggunakan akun media sosial palsu.

Pada Juni tahun lalu, sekitar 50 siswa di Bacchus Marsh Grammar School di Victoria mengalami pengambilan gambar dari akun media sosial mereka yang kemudian dimanipulasi menjadi foto telanjang “deepfake” menggunakan AI.

Seorang siswa juga dikeluarkan dari Salesian College, sebuah sekolah Katolik di tenggara Melbourne, setelah dia membuat gambar seksual palsu dari seorang guru perempuan yang kemudian disebarkan di sekitar sekolah.

Pada tahun 2023, sebuah studi oleh Internet Watch Foundation (IWF) menemukan bahwa dalam sebulan, 20.254 gambar yang dihasilkan oleh AI diposting di salah satu forum web gelap yang memuat materi pelecehan anak (CSAM).

Pembaruan tahun 2024 menemukan bahwa 3.512 gambar baru yang dihasilkan oleh AI telah dibagikan di forum yang sama, dan video deepfake pertama mulai muncul.

Analis IWF mengklasifikasikan 90 persen gambar tersebut sebagai “cukup realistis untuk dinilai di bawah hukum yang sama dengan CSAM nyata.”

Meskipun jumlah total gambar yang dihasilkan AI masih relatif rendah (diperkirakan 0,16 persen dari total CSAM yang beredar saat ini), IWF memperingatkan bahwa masalah ini kemungkinan akan memburuk seiring teknologi menjadi lebih mudah dikuasai.

“Bukti adanya pelaku (kemungkinan dengan teknologi rendah) yang mencoba dan gagal membuat CSAM berbasis AI pada platform [AI yang tersedia untuk umum] telah ditemukan dibagikan di forum web gelap,” demikian catatan laporan 2024.

Mereka juga menemukan bahwa gambar yang dihasilkan AI, termasuk CSAM, semakin sering muncul di web terbuka daripada di web gelap.

“Perkembangan AI tidak melambat, begitu pula jumlah orang yang menggunakan AI untuk tujuan kriminal,” kata laporan tersebut.

“Dalam konteks ini, dan dalam konteks alat yang lebih baik, lebih cepat, dan lebih mudah diakses untuk menghasilkan gambar dan video, masa depan terus berada dalam ketidakpastian.”

Tak seperti IWF yang berbasis di Inggris, seorang juru bicara AFP mengatakan kepada The Epoch Times bahwa ACCCE tidak membedakan antara gambar pelecehan anak berbasis AI dan foto anak-anak nyata, sehingga tidak memiliki pengukuran sejauh mana masalah ini di Australia.

Namun, keberadaan gambar semacam itu di Australia disoroti oleh pemenjaraan dua pria Australia tahun lalu, satu karena memiliki materi pelecehan anak berbasis AI, dan yang lainnya karena memproduksinya.

Pelanggaran kepemilikan mengakibatkan hukuman penjara dua tahun dengan masa tanpa pembebasan bersyarat selama 10 bulan, sedangkan produksi 739 gambar menyebabkan hukuman penjara 13 bulan.

Komandan AFP Helen Schneider mengatakan bahwa kaum muda mungkin tidak menyadari bahwa menggunakan AI untuk membuat materi yang melibatkan teman sekelas mereka dapat dianggap sebagai tindak pidana.

“Anak-anak dan remaja secara alami memiliki rasa ingin tahu,” katanya. “Namun, apa pun yang menggambarkan pelecehan terhadap seseorang di bawah usia 18 tahun—baik itu video, gambar, lukisan, atau cerita—merupakan materi pelecehan anak, terlepas dari apakah itu ‘nyata’ atau tidak.”

Sumber : Theepochtimes.com 

FOKUS DUNIA

NEWS