Đại diện Facebook cho biết năm tới họ sẽ tăng cường đội ngũ kiểm duyệt nội dung lên 20.000 nhân viên để đáp ứng tốt hơn cho công việc.

Với hơn 2 tỷ người sử dụng, việc kiểm duyệt nội dung ngày càng trở nên khó khăn với Facebook. Công việc không hấp dẫn này nằm trên vai của đội kiểm duyệt nội dung gồm khoảng 7500 nhân viên (cùng với các thuật toán của trang web). Những người này sẽ lướt qua hàng ngàn bài viết có nội dung xấu, từ tài liệu khủng bố, bạo lực đến hình ảnh lạm dụng trẻ em.

Không có gì ngạc nhiên khi không phải lúc nào họ cũng có lựa chọn kiểm soát chính xác (một phần là do các nguyên tắc không rõ ràng của Facebook).

Facebook xin lỗi vì những sai lầm trong kiểm soát nội dung 

Và một lần nữa, việc kiểm duyệt các bài viết có nội dung thù hằn lại gặp sai sót, lần này đến từ ProPublica.

Tổ chức phi lợi nhuận này đã gửi đến Facebook 49 bài viết chứa lời nói thù hận và mạng xã hội lớn nhất thế giới đã mắc sai lầm trong việc đánh giá 22 trường hợp. Trong sáu trường hợp, Facebook đổ lỗi cho người dùng vì không gắn cờ các bài viết một cách chính xác.

Hai trường hợp khác, Facebook cho rằng không đủ thông tin để đánh giá. Công ty bảo vệ 19 quyết định của mình. Các bài viết bao gồm các chủ nghĩa phân biệt giới tính, phân biệt chủng tộc, và chống Hồi giáo.

Phó chủ tịch Facebook, Justin Osofsky, nói: “Chúng tôi xin lỗi vì những sai lầm chúng tôi đã thực hiện. Chúng tôi phải làm tốt hơn”. Người quản lý này cho biết mạng xã hội sẽ tăng cường đội ngũ an toàn và an ninh với khoảng 20.000 người vào năm tới nhằm nỗ lực thực hiện tốt hơn các tiêu chuẩn cộng đồng. Ông nói thêm rằng Facebook đã xóa khoảng 66.000 bài viết được báo cáo là bài phát biểu thù địch mỗi tuần.

Trên chiến dịch chống thông tin sai lệch, Facebook cũng đã bổ sung thêm các công cụ mới để chống lại các tài liệu nhạy cảm. Vào tháng 4, hãng đã giới thiệu một cơ chế báo cáo cho báo chí khiêu dâm, và đầu tháng này bỏ qua hoặc chặn các nội dung gây quấy nhiễu.

Nguồn: GenK

Góc quảng cáo