Chứa nhiều nội dung độc hại, TikTok phải xoá 113 triệu video
Chỉ trong vòng 3 tháng, mạng xã hội TikTok đã phải xoá 113 triệu video rác, phần nhiều liên quan các nội dung độc hại với trẻ em.
Báo cáo minh bạch hằng quý của TikTok cho thấy họ đã phải xóa khoảng 113 triệu video vi phạm chính sách trong quý II/2022. ” Con số này chỉ chiếm 1% so với tổng số video được đăng tải lên TikTok trong cùng khoảng thời gian” – chuyên trang công nghệ The Verge cho biết.
Phần nhiều các video bị xóa liên quan các nội dung độc hại với trẻ em khi chiếm 44%. Các lý do khác là: hoạt động bất hợp pháp, hàng hóa thuộc diện không được quảng cáo cũng như các video nghi có hình ảnh khỏa thân, nội dung người lớn…
Số liệu cũng cho thấy quý II/2022, hệ thống tự động của TikTok đã xóa 48 triệu video vi phạm chính sách. Khoảng 96% số video bị xóa trước khi người dùng kịp gửi báo cáo nội dung xấu. TikTok cho biết họ sử dụng thuật toán tự động, kết hợp đánh giá của con người để sàng lọc nội dung có thể vi phạm nguyên tắc sử dụng.
TikTok nhiều lần bị “ý kiến” vì các video gây hại. Ảnh: Reuters
Mạng xã hội khổng lồ của Trung Quốc này gần đây nỗ lực kiểm duyệt video chặt chẽ hơn để ngăn sự lan truyền các nội dung hiểu lầm, tin giả. Nền tảng video ngắn với hơn một tỉ người dùng giúp giới trẻ sáng tạo nội dung nhưng cũng bị cho là nơi phát tán nhiều trào lưu nguy hại.
Cũng liên quan tới TikTok, một quan chức Bộ Thương mại Mỹ hồi đầu tháng 9 tiết lộ Nhà Trắng đang xem xét việc cấm mạng xã hội này.
Mỹ nhiều lần đưa TikTok vào “diện theo dõi” với lý do lo ngại đe dọa an ninh quốc gia. Nhiều nghị sĩ Mỹ đề xuất mạng video của ByteDance cần được ngăn chặn vì thu thập dữ liệu người dùng Mỹ và gửi về cho Chính phủ Trung Quốc
Video đang HOT
Ám ảnh của nhân viên kiểm duyệt nội dung video trên TikTok
Nhiều cựu nhân viên cho biết họ gặp phải vấn đề tâm lý nghiêm trọng khi liên tục phải xem nội dung độc hại trên nền tảng để kiểm duyệt.
Imani (25 tuổi) là một nhân viên kiểm duyệt nội dung của TikTok ở Maroc. Cô đã bị sốc trước cảnh tượng một thanh niên tra tấn dã man một con mèo. 2 năm sau, video kinh khủng đó vẫn còn ám ảnh cô.
Imani làm việc cho chi nhánh ở Trung Đông và Bắc Phi của TikTok thông qua bên thứ ba là công ty Majorel. Công việc của cô là kiểm duyệt những nội dung khủng khiếp nhất trên nền tảng, bao gồm các vụ tự tử và lạm dụng trẻ em.
Tháng 9/2020, khi được mời làm việc tại Majorel với mức lương ít ỏi là 2 USD/giờ, cô nghĩ đó là một món quà trời cho bởi đó là thời gian khó khăn trong đại dịch. Thế nhưng, cô không biết rằng công việc này sẽ gây tổn hại đến tâm lý như thế này. Thời điểm hiện tại, tuy đã nghỉ việc nhưng cô vẫn chịu một số ảnh hưởng của nó.
Và Imani không đơn độc. 9 người kiểm duyệt nội dung khác cùng làm việc cho Majorel đã miêu tả với Insider về những vấn đề tâm lý nghiêm trọng mà họ gặp phải vì công việc này. Tất cả đều nói rằng Majorel và TikTok đã áp đặt môi trường làm việc với sự giám sát liên tục và các chỉ tiêu gần như không thể thực hiện được.
Ảnh: Internet.
Tràn lan nội dung độc hại
" Điều đáng sợ của công việc này là bạn bị ảnh hưởng từ từ, thậm chí bạn còn không nhận ra nó. Ban đầu, bạn nghĩ đó không phải vấn đề lớn nhưng hóa ra nó ảnh hưởng rất nhiều đến bạn", Wisam - một cựu nhân viên kiểm duyệt nội dung làm việc cho Majorel chia sẻ.
Trước TikTok, Wisam là nhân viên kiểm duyệt nội dung kỳ cựu của Facebook, được tuyển dụng thông qua cùng một công ty gia công phần mềm. Anh cho biết khi TikTok trở nên phổ biến hơn, số lượng nội dung độc hại trên nền tảng này có thể sẽ tăng nhanh.
Mặc dù TikTok sử dụng trí thông minh nhân tạo để kiểm duyệt nội dung nhưng công nghệ này nổi tiếng là hoạt động không hiệu quả với những ngôn ngữ không phải tiếng Anh. Vì thế, người lao động vẫn được thuê để kiểm duyệt những video nội dung độc hại trên nền tảng.
Việc thuê bên thứ ba tuyển dụng nhân viên kiểm duyệt cho phép những gã khổng lồ như Meta hay ByteDance (công ty mẹ của TikTok) có lý do hợp lý để từ chối trách nhiệm khi người lao động phàn nàn về điều kiện làm việc hay vấn đề tâm lý do công việc gây ra.
Majorel thường khuyến khích nhân viên tìm việc khác nếu không thể chịu đựng nổi công việc kiểm duyệt nội dung độc hại. Tuy nhiên, họ thường chọn ở lại vì khó kiếm được cơ hội việc làm tương tự.
Những chỉ tiêu "bất khả thi"
Samira (23 tuổi) gia nhập Majorel tháng 7/2020 với nhiệm vụ kiểm duyệt TikTok Lives. Lúc đầu, cô được phân công xem 200 video mỗi giờ và phải duy trì sự chính xác lên tới 95%. Ba tháng sau, người quản lý của cô đã tăng chỉ tiêu lên mức cô chỉ có khoảng 10 giây để xem 1 video.
" Chỉ tiêu mới gần như bất khả thi. Họ không coi chúng tôi là con người mà là robot", Samira nói.
Những cựu nhân viên khác cũng cho biết chỉ tiêu của họ rất khó đạt được. Khi không đạt được yêu cầu, họ bị khiển trách và cắt khoản thưởng 50 USD bằng tiền mặt. Bên cạnh đó, nhân viên kiểm duyệt nội dung tại Majorel có ít thời gian nghỉ hơn so với đồng nghiệp ở Mỹ. Phân ca làm việc không hợp lý cũng là một trong những vấn đề bị kêu ca.
" Đôi khi, tôi làm việc từ trưa cho đến nửa đêm, 12 tiếng liên tục. Người quản lý thường thêm hoặc đổi ca làm của tôi mà không thông báo trước. Đó là lý do chính khiến tôi nghỉ việc", Imani nói.
Kể từ khi rời Majorel gần 1 năm trước, Samira đã bắt đầu quá trình hồi phục tâm lý. Sau khi bỏ việc, cô đã dành 6 tháng để chữa lành các tổn thương và chuyển về phía tây, đến thành phố ven biển Agadir. Tại đây, cô làm giáo viên tiếng Anh cấp hai và cấp ba. Với công việc này, cô kiếm được gấp đôi mức lương nhận được với tư cách là người kiểm duyệt nội dung cho TikTok.
Ảnh: Internet.
Vấn đề tâm lý nghiêm trọng
Sau khi xem các video chứa nội dung độc hại, Samira bắt đầu gặp nhân viên tư vấn chăm sóc sức khỏe tại nhà mỗi tháng 1 lần. Tuy nhiên, mỗi lần như vậy, cô lại gặp một người khác với người lần trước. Do đó, hiệu quả không được như mong đợi.
Một số cựu nhân viên khác cũng nói rằng các cố vấn sức khỏe của công ty không thể giúp họ giải quyết những vấn đề tâm lý gặp phải. " Những cuộc gặp hàng tháng hiếm khi giúp chúng tôi cảm thấy khá hơn với một công việc liên tục phải tiếp xúc với nội dung độc hại mỗi ngày", một người cho biết.
Bên cạnh đó, họ cũng sợ rằng các cố vấn sẽ báo cáo lại với bộ phận nhân sự mà không có sự đồng ý của họ. Điều này có thể gây bất lợi cho công việc sau này.
Về phần mình, phát ngôn viên của Majorel nói với Insider rằng công ty tài trợ chi phí để nhân viên kiểm duyệt nội dung gặp gỡ các nhà tâm lý học ngoài công ty. Tuy nhiên, ít nhất 4 cựu nhân viên cho biết họ không được cung cấp dịch vụ nào như vậy
Apple sa thải phó chủ tịch sau trò đùa trên TikTok Mới đây, Phó chủ tịch phụ trách mua sắm của Apple, Tony Blevins đã bị sa thải sau những lời nhận xét thô thiển trên TikTok. Theo Bloomberg, nhà sáng tạo nội dung Daniel Mac đã đăng tải một đoạn video hỏi Blevins rằng anh ấy làm gì để kiếm sống, Blevins trả lời: "Tôi đua xe, chơi golf, âu yếm phụ nữ,...