Hasil Investigasi : TikTok Meracuni Anak di Bawah Umur dengan Video Seks dan Narkoba

oleh Li Yan

Sebuah penelitian yang dilakukan ‘Wall Street Journal’ (WSJ) baru-baru ini menemukan, aplikasi TikTok menggunakan algoritma untuk mendorong konten yang terkait dengan situs web narkoba dan pornografi ke pengguna di bawah umur

Untuk mengetahui konten apa saja yang ditunjukkan TikTok kepada pengguna muda, ‘Wall Street Journal’ telah mendaftarkan lusinan akun otomatis dari usia 13 hingga 15 tahun. Akun robot ini dapat dengan sesuka hati menelusuri video hiburan dari ‘For You’ yang disediakan TikTok. Aliran video yang sangat dipersonalisasi ini dihasilkan oleh algoritma, dan kontennya tidak terbatas.

Setelah menganalisis video yang diberikan ke akun otomatis ini, media menemukan bahwa melalui perhitungan algoritma, platform hiburan dapat dengan cepat membawa anak di bawah umur ke dalam jurang maut yang penuh dengan konten seks dan narkoba.

Misalnya, TikTok memposting setidaknya 569 video terkait penggunaan narkoba, kecanduan kokain dan metamfetamin, serta video promosi untuk penjualan secara online narkoba dan perlengkapan yang digunakan kepada akun yang terdaftar sebagai anak laki-laki berusia 13 tahun. Akun di bawah umur lainnya yang didaftarkan oleh Wall Street Journal, juga telah menerima ratusan video serupa.

Bahkan, jika akun yang dibuat oleh media WSJ diatur untuk tertarik pada banyak topik, TikTok terkadang berfokus pada satu topik dan mendorong ratusan video yang terkait dengan satu topik tersebut.

Misalnya, jika sebuah akun diatur untuk tertarik pada beberapa kategori, TikTok akan memasukkan ratusan film Jepang dan kartun TV ke dalamnya, namun banyak di antara video itu adalah tema yang berhubungan dengan seks.

TikTok juga menampilkan lebih dari seratus video promosi dari situs porno berbayar dan toko seks ke akun di bawah umur yang didaftarkan oleh media WSJ, serta ribuan konten yang ditandai sebagai ‘hanya untuk orang dewasa’.

Terkadang, pembuat TikTok memperjelas dengan menandai video sebagai hanya ditonton oleh orang dewasa. Tapi TikTok masih mendorong video ini.

Setelah pengungkapan WSJ, 255 video dihapus.

Secara total, setidaknya 2.800 video yang ditandai sebagai video khusus dewasa didorong ke akun di bawah umur yang dibuat oleh WSJ.

WSJ berbagi dengan TikTok mengenai 974 sampel video yang melibatkan narkoba, pornografi, dan konten dewasa lainnya disediakan oleh platform TikTok ke akun-akun anak di bawah umur ini. Bahkan ratusan video diantaranya ditampilkan ke satu akun secara berurutan.

Seorang juru bicara TikTok mengatakan bahwa pihaknya telah menghapus beberapa video yang dilihat oleh akun WSJ dan membatasi distribusi video lain, tetapi tidak mengungkapkan nomor spesifiknya. Juru bicara itu juga menyatakan bahwa tidak ada algoritma yang mampu menjamin tidak terjadi konten yang keliru.

CEO Keamanan Media Sosial, Mark Berkman mengatakan bahwa tanggapan TikTok tidak cukup baik.

“TikTok dan platform lain dapat melakukan banyak hal untuk memastikan bahwa, terutama pengguna anak-anak, tidak akan melihat konten berbahaya ini,  pertama, TikTok dapat membuka datanya ke perangkat lunak keamanan pihak ketiga, jadi setidaknya para orang tua dapat memilih untuk memantau konten ini …” kata  Mark Berkman.

Dia mengatakan bahwa TikTok seharusnya bisa melakukan hal intervensi yang sangat penting ini tetapi itu tidak dilakukan.

Survei video yang dilakukan oleh WSJ sebelumnya menemukan, TikTok hanya perlu menggunakan satu informasi penting untuk menganalisis video yang disukai pengguna, yakni melalui lamanya waktu pengguna bertahan saat menonton konten video.

Guillaume Chaslot, mantan insinyur yang bekerja pada algoritma di YouTube mengatakan kepada WSJ : “Semua masalah yang kami lihat di YouTube berasal dari algoritma untuk partisipasi pengguna. Jadi masalah dengan TikTok persis sama, tetapi situasi mereka lebih buruk”. 

Di antara sekitar 100 juta pengguna aktif bulanan TikTok, remaja adalah kelompok terbesar. Menurut data perusahaan, tahun lalu (2020), anak di bawah umur menyumbang lebih dari seperempat pengguna aplikasi.

Pada Juli, survei Business Insider menemukan bahwa algoritma TikTok secara otomatis merekomendasikan konten seputar gangguan makan, yang tampaknya melanggar pedoman komunitas TikTok. Akun robot WSJ juga menemukan bahwa, platform tersebut memiliki beberapa konten yang mendorong makan dan minum yang tidak normal, dan mengemudi dalam keadaan mabuk. (sin)