Sebuah laporan Forbes menimbulkan pertanyaan tentang bagaimana tim moderasi TikTok menangani materi pelecehan seksual anak - menuduhnya memberikan akses luas dan tidak aman ke foto dan video ilegal.
Dilansir dari Dilansir dari theverge.com, karyawan moderasi dari pihak ketiga yang disebut Teleperformance, yang bekerja dengan TikTok di antara perusahaan lain, mengklaim meminta mereka untuk meninjau spreadsheet yang mengganggu yang dijuluki DRR atau Daily Required Reading pada standar moderasi TikTok.
Spreadsheet tersebut diduga berisi konten yang melanggar pedoman TikTok, termasuk "ratusan gambar" anak-anak yang telanjang atau dilecehkan. Karyawan mengatakan ratusan orang di TikTok dan Teleperformance dapat mengakses konten dari dalam dan luar kantor — membuka pintu ke kebocoran yang lebih luas.
Teleperformance membantah kepada Forbes bahwa itu menunjukkan konten eksploitatif seksual kepada karyawan, dan TikTok mengatakan materi pelatihannya memiliki "kontrol akses yang ketat dan tidak menyertakan contoh visual CSAM," meskipun tidak mengonfirmasi bahwa semua vendor pihak ketiga memenuhi standar itu.
Para karyawan menceritakan kisah yang berbeda, dan seperti yang diungkapkan Forbes, itu tidak pasti secara hukum. Moderator konten secara rutin dipaksa untuk berurusan dengan CSAM yang diposting di banyak platform media sosial. Tapi gambar pelecehan anak melanggar hukum di AS dan harus ditangani dengan hati-hati. Perusahaan seharusnya melaporkan konten tersebut ke National Center for Missing and Exploited Children (NCMEC), kemudian menyimpannya selama 90 hari tetapi meminimalkan jumlah orang yang melihatnya.
Tuduhan di sini jauh melampaui batas itu. Mereka menunjukkan bahwa Teleperformance menunjukkan foto dan video grafis kepada karyawan sebagai contoh apa yang harus diberi tag di TikTok, sambil bermain cepat dan longgar dengan akses ke konten itu. Seorang karyawan mengatakan dia menghubungi FBI untuk menanyakan apakah praktik tersebut merupakan penyebaran CSAM secara kriminal, meskipun tidak jelas apakah ada yang dibuka.
Laporan lengkap Forbes layak dibaca, menguraikan situasi di mana moderator tidak dapat mengikuti pertumbuhan eksplosif TikTok dan disuruh menonton kejahatan terhadap anak-anak karena alasan yang mereka rasa tidak sesuai. Bahkan dengan standar perdebatan yang rumit tentang keselamatan anak secara online, ini adalah situasi yang aneh — dan jika akurat, mengerikan —.
Posting Komentar