Notification

×

Kategori Berita

Cari Berita

Iklan

Iklan

Ahli Ungkap Fakta Ngeri Konten TikTok yang Sasar Remaja, Waspadalah

Desember 16, 2022 Last Updated 2022-12-16T08:38:46Z


Sebuah studi terbaru mengungkap TikTok 'mengiklankan' konten toksik soal makan dan bunuh diri pada pengguna baru.

Hal itu terungkap dari hasil penelitian organisasi nirlaba Center for Countering Digital Hate (CCDH) bertajuk Deadly by Design: TikTok push harmful content promoting eating disorders an self-harm into users' feeds.


Lembaga ini menyebut cuma butuh waktu kurang dari 3 menit setelah mendaftar akun TikTok untuk melihat konten terkait bunuh diri dan sekitar 5 menit lagi untuk menemukan komunitas yang mempromosikan konten diet negatif.


Para peneliti mengatakan hasil tersebut didapatkan setelah mereka membuat delapan akun baru di Amerika Serikat, Inggris, Kanada, dan Australia pada usia minimal pengguna TikTok 13 tahun.


Akun-akun ini kemudian nge-like konten tentang citra tubuh dan kesehatan mental. Uji coba CCDH menunjukkan aplikasi ini merekomendasikan video tentang citra tubuh dan kesehatan mental setiap 39 detik dalam periode 30 menit.


"Hasil [tes]-nya adalah mimpi buruk setiap orang tua: feed anak muda dibombardir dengan konten berbahaya dan mengerikan yang dapat berdampak kumulatif secara signifikan pada pemahaman mereka tentang dunia di sekitar mereka, kesehatan fisik dan mental mereka," ucap Imran Ahmed, CEO CCDH, dalam laporan itu.


"Laporan ini menggarisbawahi kebutuhan mendesak untuk reformasi ruang online," imbuhnya.


"Tanpa pengawasan, platform buram TikTok akan terus mendapat untung dengan melayani penggunanya - ingat, anak-anak usia 13 tahun - konten yang semakin intens dan menyusahkan tanpa pemeriksaan, sumber daya, atau dukungan."


Laporan ini muncul ketika anggota parlemen negara bagian dan federal AS sedang mencari cara untuk menangkal TikTok karena masalah privasi dan keamanan nasional, serta menentukan apakah aplikasi tersebut sesuai untuk pengguna usia muda.


Menanggapi laporan tersebut, seorang juru bicara TikTok membantah dengan mengatakan itu adalah penggambaran yang tidak akurat dari pengalaman menonton di platform karena berbagai alasan.


"Aktivitas dan pengalaman yang dihasilkan ini tidak mencerminkan perilaku asli atau pengalaman menonton orang sungguhan," kata juru bicara TikTok, seperti dikutip dari CNN.


TikTok mengungkap persentase video yang dihapus karena terkait konten bunuh diri dan menyakiti diri sendiri dari April hingga Juni 2022. Bahwa, 93,4 persen dihapus tanpa ditayangkap, 91,5 persen dihapus dalam waktu 24 jam setelah diunggah, dan 97,1 persen dihapus sebelum ada laporan.


"Kami secara teratur berkonsultasi dengan pakar kesehatan, menghapus pelanggaran terhadap kebijakan kami, dan menyediakan akses ke sumber daya yang mendukung bagi siapa saja yang membutuhkan," kata jubir TikTok.


"Kami menyadari bahwa konten pemicu itu unik untuk setiap individu dan tetap fokus untuk mengembangkan ruang yang aman dan nyaman bagi semua orang, termasuk orang-orang yang memilih untuk berbagi perjalanan pemulihan mereka atau mengedukasi orang lain tentang topik penting ini," lanjut pernyataan itu.


Pihaknya juga terus meluncurkan fitur perlindungan baru untuk penggunanya, termasuk cara untuk memfilter video dewasa atau "berpotensi bermasalah".


Pada Juli, TikTok menambahkan "skor kedewasaan" ke video yang terdeteksi berpotensi mengandung tema dewasa atau kompleks serta fitur untuk membantu orang memutuskan berapa banyak waktu yang ingin mereka habiskan untuk video TikTok.


Perusahaan milik ByteDance itu juga mengklaim tidak mengizinkan konten yang menggambarkan, mempromosikan, menormalkan, atau mengagungkan aktivitas yang dapat menyebabkan bunuh diri atau menyakiti diri sendiri.


Juru bicara perusahaan mengatakan kepada CNN ketika seseorang mencari kata atau frasa yang dilarang seperti #selfharm, mereka tidak akan melihat hasil apa pun dan malah akan dialihkan ke sumber daya dukungan lokal.


Hal ini juga terjadi lebih dari setahun setelah para pimpinan platform media sosial, termasuk TikTok, dipanggil dalam rapat dengar pendapat di parlemen AS tentang perlindungan pengguna muda - terutama gadis remaja - terhadap konten berbahaya yang merusak kesehatan mental dan citra tubuh mereka.


Setelah RDP tersebut, perusahaan-perusahaan berjanji untuk berubah. Namun, temuan terbaru dari CCDH ini menilai masih banyak pekerjaan yang perlu dilakukan mereka.[sb]

×