Số hóa

Video độc hại tràn ngập TikTok

Một nghiên cứu chỉ ra rằng TikTok có thể hiển thị các nội dung độc hại liên quan đến tự tử và chứng rối loạn ăn uống cho thanh thiếu niên chỉ trong vài phút sau khi họ tạo tài khoản.

Trong một báo cáo vừa được công bố, Center for Countering Digital Hate - CCDH (tạm dịch: trung tâm chống lại sự thù ghét kỹ thuật số), nhận thấy rằng chỉ trong chưa đầy 3 phút sau khi đăng ký một tài khoản TikTok, nền tảng này sẽ xuất hiện hàng loạt nội dung liên quan đến tự tử và chứng rối loạn ăn uống.

Báo cáo từ CCDH chỉ ra rằng người dùng trẻ tuổi có thể dễ dàng tiếp cận với các video độc hại trên TikTok (Ảnh: CNN).

Các nhà nghiên cứu cho biết họ đã thiết lập 8 tài khoản ở Mỹ, Anh, Canada và Úc, ở độ tuổi tối thiểu từ 13 tuổi. CCDH cho biết ứng dụng TikTok đã đề xuất các video về hình ảnh cơ thể và sức khỏe tâm thần khoảng 39 giây một lần trong khoảng thời gian 30 phút sử dụng.

Báo cáo trên được đưa ra trong bối cảnh các nhà lập pháp liên bang đang tìm cách hạn chế TikTok vì những lo ngại về bảo mật và quyền riêng tư, cũng như xác định xem ứng dụng này có phù hợp với thanh thiếu niên hay không.

Phát ngôn viên của TikTok đã bác bỏ các thông tin từ báo cáo trên. Người này nói rằng nghiên cứu đã mô tả không chính xác về trải nghiệm xem trên nền tảng vì nhiều lý do như kích thước mẫu nhỏ, chỉ thử nghiệm trong giới hạn 30 phút,...

"Hoạt động và trải nghiệm trên không phản ánh hành vi chân thực và trải nghiệm xem của người dùng thật. Chúng tôi thường xuyên tham khảo ý kiến của các chuyên gia y tế, loại bỏ các hành vi vi phạm chính sách và cung cấp quyền truy cập vào bộ phận hỗ trợ cho bất kỳ ai có nhu cầu", phát ngôn viên của TikTok trao đổi với CNN.

TikTok cần phải làm nhiều hơn để bảo vệ người dùng trẻ (Ảnh: CNN).

Đây không phải là lần đầu tiên các thuật toán của các mạng xã hội được đưa ra để thử nghiệm. Nền tảng Instagram cũng nhiều lần bị cáo buộc đã đề xuất những nội dung độc hại, liên quan đến một số tài khoản ăn kiêng và ủng hộ chứng rối loạn ăn uống.

TikTok cho biết họ không cho phép nội dung mô tả, bình thường hóa các hoạt động có thể dẫn đến hành vi tự sát hoặc tự làm hại bản thân. Công ty cho biết trong số các video bị xóa do vi phạm chính sách về nội dung tự tử và tự làm hại bản thân từ tháng 4-6/2022, 93,4% bị xóa khi không có lượt xem, 91,5% bị xóa trong vòng 24 giờ sau khi đăng và 97,1% bị xóa trước khi có bất kỳ báo cáo nào.

Tuy vậy, CCDH cho biết TikTok cần phải làm nhiều hơn nữa để hạn chế nội dung độc hại và tăng cường các biện pháp bảo vệ cho người dùng trẻ tuổi.

"Báo cáo này nhấn mạnh nhu cầu cấp thiết phải cải cách không gian trực tuyến. Nếu không có sự giám sát, thuật toán không rõ ràng của TikTok có thể sẽ tiếp tục thu lợi nhuận từ người dùng trẻ em", Imran Ahmed, Giám đốc điều hành của CCDH, cho biết.

Tác giả: Thế Anh (theo edition.cnn.com)

Nguồn tin: Báo Dân trí

BÀI MỚI ĐĂNG

TOP