Ác mộng hàng ngày của nhân viên TikTok

CÓ THỂ BẠN QUAN TÂM

Thiết kế Website trọn gói 2,900,000đ

Quảng cáo Google

Quảng cáo Facebook

Chăm sóc Website

Chăm sóc Fanapge

Thiết kế Mobile App

Quảng cáo Tiktok

Làm việc suốt 12 giờ, xem video có nội dung bạo lực, chết chóc… là những công việc mà nhân viên kiểm duyệt nội dung của TikTok phải làm mỗi ngày.

Vào ngày 24/3, 2 cựu nhân viên của TikTok đã khởi kiện hãng công nghệ vì không có biện pháp hỗ trợ nhóm kiểm duyệt nội dung trước những ảnh hưởng tâm lý họ phải gánh chịu.

Theo TechCrunch, đơn kiện này một lần nữa phơi bày sự khắc nghiệt của công việc kiểm duyệt nội dung tại các nền tảng video như TikTok.

Mặt tối của TikTok.

Khi tiếp nhận vị trí kiểm duyệt video tại TikTok vào năm 2021, Ashley Velez được dặn dò cô sẽ là đội ngũ trực tiếp bảo vệ trẻ em khỏi hình ảnh bạo lực. Tuy nhiên sau vài tháng tại đây, cô dần nhận ra mặt tối của công việc này.

“Chúng tôi phải nhìn thấy hình ảnh chết chóc, đồi trụy hay ảnh khỏa thân của trẻ dưới tuổi vị thành niên mỗi ngày.

Tôi thậm chí còn bắt gặp hình ảnh người bị súng bắn thẳng vào mặt, video trẻ em bị đánh đập. Chúng khiến tôi khóc suốt 2 tiếng đồng hồ”, cô tâm sự.

Trong thời gian làm việc tại TikTok từ tháng 5-11/2021, Velez nằm trong đội ngũ 10.000 người kiểm duyệt nội dung trên toàn cầu của nền tảng này. Nhóm nhân viên sẽ đảm nhiệm việc quét sạch các video mang tính bạo lực, gây khó chịu để biến TikTok thành một mạng xã hội an toàn.

Nhưng sau thời gian làm việc, Ashley Velez cùng đồng nghiệp của mình, Reece Young, đâm đơn kiện TikTok và công ty mẹ ByteDance vì những ảnh hưởng xấu đến tâm lý của họ.

Đơn kiện cáo buộc TikTok và ByteDance vi phạm luật lao động của bang California vì đã không bảo vệ sức khỏe tinh thần của Velez và Young trong thời gian họ làm việc, phải tiếp nhận nhiều nội dung độc hại, ảnh hưởng đến tâm thần.

Ngoài ra, hãng công nghệ còn buộc các nhà kiểm duyệt nội dung phải làm việc với cường độ cao để đáp ứng chỉ tiêu, thậm chí yêu cầu họ ký thỏa thuận nhằm giữ bí mật những nội dung đã xem qua.

“TikTok không cung cấp môi trường làm việc an toàn cho hàng nghìn người kiểm duyệt nội dung trước những nội dung chưa qua kiểm duyệt, rùng rợn và hàng trăm triệu người dùng ứng dụng mỗi ngày”, đơn kiện viết.

Hai cựu nhân viên còn chỉ ra dù nhận thức rõ những rủi ro về mặt tinh thần khi phải tiếp xúc nhiều với nội dung độc hại, TikTok và ByteDance vẫn không đưa ra biện pháp thích hợp để hỗ trợ nhân viên.

Velez và Young phải làm việc 12 giờ/ngày, xem những video phản cảm, gây khó chịu như “lạm dụng tình dụng trẻ em, hiếp dâm, tra tấn, quan hệ tình dục với độc vật, tự sát và giết người”.

Ngoài những hình ảnh độc hại, 2 cựu nhân viên còn phải tiếp nhận những phát ngôn gây thù hằn, thuyết âm mưu sai lệch, làm ảnh hưởng xấu đến sức khỏe tinh thần của họ.

“Xem những video vui vẻ trên TikTok, người dùng tưởng chừng như mạng xã hội này rất tích cực.

Nhưng đa số mọi người đều không biết đằng sau là những nhân viên phải cật lực làm việc để giữ nền tảng an toàn”, luật sư Steve Williams, người tiếp nhận vụ kiện này chia sẻ.

Xem nội dung phản cảm mỗi ngày.

Trước đó, nền tảng chia sẻ video đình đám cũng từng bị Candie Frazier, nhân viên kiểm duyệt nội dung, kiện vì những nội dung độc hại đã khiến cô bị sang chấn tâm lý (PTSD) nghiêm trọng.

Frazier cho biết mỗi ngày cô phải dành 12 giờ để kiểm duyệt các nội dung được đăng tải lên TikTok. Cụ thể, nhân viên phải xem từ 3-10 video cùng lúc với các video có nội dung ít nhất 25 giây. Trong 4 giờ làm việc đầu tiên, họ chỉ được phép nghỉ 15 phút và nghỉ thêm 15 phút sau mỗi 2 giờ làm việc.

Với khối lượng lớn nội dung được đăng tải lên TikTok hàng ngày, Frazier thường xuyên phải chứng kiến những video nhạy cảm, gây khó chịu.

TikTok không phải là mạng xã hội duy nhất vướng phải những cáo buộc này. Năm 2018, Facebook bị nhân viên kiểm duyệt Selena Scola kiện vì những tác hại tâm lý do phải xem nội dung độc hại liên tục.

Vụ kiện sau đó đã biến thành vụ kiện tập thể và hãng công nghệ đồng ý bồi thường 52 triệu USD cho 11.000 người kiểm duyệt nội dung.

Theo NPR, không chỉ TikTok, nhiều công ty mạng xã hội khác phải sử dụng trí tuệ nhân tạo để lọc hàng triệu video có nội dung phản cảm. Tuy vậy, họ vẫn cần yếu tố con người để giải quyết những vấn đề còn lại, giữ cho nền tảng an toàn với người dùng.

“Chúng ta đều hy vọng trí tuệ nhân tạo sẽ làm tất cả phần việc, nhưng điều này vẫn chưa thể thành sự thật và con người phải thực hiện hầu hết công việc khó khăn này”, luật sư Steve Williams cho biết.

Nguồn : marketingtrips.com

CÔNG TY TNHH HBMEDIA - HBMEDIA CO.,LTD
Trụ sở: 242/8D Bà Hom -Phường 13, Quận 6 - Hồ Chí Minh
VPĐD : 151/67D Liên Khu 4-5 , P. Bình Hưng Hoà B , Quận Bình Tân , TP Hồ Chí Minh
Tư vấn dịch vụ : 0933 576 079
Từ 8h00 – 18h00 các ngày từ thứ 2 đến thứ 7

Trả lời

Email của bạn sẽ không được hiển thị công khai. Các trường bắt buộc được đánh dấu *