Facebook vừa công bố Báo cáo thực thi Tiêu chuẩn cộng đồng lần ba từ quý 4/2018 đến quý 1/2019, tăng cường kiểm soát và xóa những nội dung vi phạm.

Facebook tăng cường kiểm soát nội dung vi phạm Tiêu chuẩn cộng đồng

Facebook sẽ bắt đầu báo cáo này hàng quý kể từ năm tới, thay vì hai lần mỗi năm như hiện nay và sẽ đưa cả mạng Instagram vào báo cáo. Trong báo cáo lần ba vừa mới công bố vừa bổi sung một số nội dung nổi bật:

  • Dữ liệu về lượt kháng nghị và nội dung được khôi phục: Đây là lần đầu tiên Facebook đưa vào báo cáo khối lượng nội dung mà mọi người kháng nghị và khối lượng nội dung được khôi phục sau khi hãng thực hiện hành động ban đầu.
  • Dữ liệu về hàng hóa bị kiểm soát: Ngoài 8 lĩnh vực chính sách mà báo cáo đợt 2 (tháng 11/2018) đề cập đến, Facebook còn nêu chi tiết tiến độ gỡ bỏ hoạt động mua bán trái phép hàng hóa bị kiểm soát, cụ thể là súng và ma túy.

Tổng cộng, Facebook đưa ra số liệu về 9 chính sách trong Tiêu chuẩn cộng đồng, gồm: ảnh khỏa thân và hoạt động tình dục người lớn, bắt nạt và quấy rối, ảnh khỏa thân và bóc lột tình dục trẻ em, tài khoản giả, ngôn từ gây thù ghét, hàng hóa bị kiểm soát (ma túy và súng), spam, hoạt động tuyên truyền khủng bố toàn cầu, nội dung bạo lực và phản cảm.

Ý nghĩa các số liệu được Facebook xử lý

Tỷ lệ: Facebook quan tâm nhất về tần suất nội dung vi phạm Tiêu chuẩn cộng đồng. Hãng sẽ tính toán bằng cách lấy mẫu nội dung định kỳ được xem trên mạng xã hội và xem xét nội dung đó để tính phần trăm vi phạm.

Theo thống kê của mạng xã hội lớn nhất thê giới, cứ 10.000 lượt xem sẽ có 11 đến 14 lượt có nội dung vi phạm chính sách khỏa thân và hoạt động tình dục người lớn và sẽ có 25 lượt xem vi phạm nội dung bạo lực và phản cảm.

Đây cũng là lần đầu tiên “gã khổng lồ mạng xã hội” chia sẻ độ phổ biến của khủng bố toàn cầu, ảnh khỏa thân và bóc lột tình dục trẻ em, trong 10.000 lượt xem sẽ có ít hơn 3 trường hợp vi phạm.

Nội dung được xử lý: Số liệu này phản ánh số lượng nội dung người đăng vi phạm chính sách và mức độ xác định nội dung. Facebook sẽ xóa nội dung, cảnh cáo hoặc vô hiệu hóa tài khoản.

Theo thống kê, Facebook đã xóa 1,2 tỷ tài khoản trong Q4/2018 và 2,19 tài khoản trong Q1/2019. Hãng cho biết lượng tài khoản cao là do nhiều tin tặc đã sử dụng phần mềm tạo ra một lượng lớn tài khoản cùng lúc.

Tỷ lệ chủ động: số liệu này thống kê lượng nội dung Facebook phát hiện và xử lý trước khi được người dùng báo cáo, phản ảnh mức độ hiệu quả của AI trong các hoạt động cụ thể.

6 trong số 9 chính sách được đưa vào báo cáo này, Facebook đã chủ động phát hiện hơn 95% nội dung trước khi được người dùng báo cáo.

Mạng xã hội này đã chủ động phát hiện và xử lý 65% nội dung đối với ngôn từ gây thù ghét, tăng từ 24% so với năm ngoái. Trong quý 1/2019, hãng đã gỡ 4 triệu bài đăng vi phạm chính sách này và đang tiếp tục đầu tư và mở rộng công nghệ mở rộng phát hiện nội dung “có vấn đề” trên nhiều ngôn ngữ và khu vực khác nhau.

Xử lý khiếu nại

Facebook sẽ cung cấp cho mọi người một tùy chọn để khiếu nại các quyết định, trừ các trường hợp nội dung có độ nguy hiểm cao. Nếu xử lý sai, nội dung đã xóa sẽ được tự động khôi phục sau khi được xem xét.

Theo Facebook

Góc quảng cáo