Các nhà nghiên cứu của đại học MIT vừa phát hiện một lỗi cơ bản trong hầu hết các công cụ phát hiện tin giả hiện nay và đề xuất các phương pháp cải thiện.

Các nhà nghiên cứu MIT tiết lộ phương pháp cải thiện công cụ phát hiện tin giả

Ngày nay, các phương pháp tạo tin tức giả đang ngày càng phổ biến và tinh vi hơn. Nhiều trình tạo văn bản dựa trên AI, trong đó có GPT-2 của Open AI, có thể tự vẽ ra những câu chuyện hoàn hảo, mạch lạc khiến người dùng bị lừa một cách dễ dàng.

Để giảm thiểu điều này, hồi tháng 7, các chuyên gia từ Đại học Harvard và Phòng nghiên cứu MIT – IBM Watson Lab đã phát minh ra một công cụ dựa trên AI để phát hiện văn bản do thuật toán tạo ra. Tuy nhiên, nghiên cứu mới đây của trường Đại học MIT cho thấy cơ chế hoạt động của công cụ này có một lỗi cơ bản.

Giant Language Model Test Room (GLTR) là hệ thống phát hiện văn bản được tạo bằng thuật toán hay con người. Điểm sai lệch của công cụ này là cho rằng văn bản được viết bởi con người luôn chính xác và bài viết được soạn thảo bởi hệ thống AI đều là giả mạo. Điều này đồng nghĩa ngay cả những bài viết do các hệ thống AI tạo ra chứa thông tin chính xác vẫn bị đánh đồng là tin giả và ngược lại.

MIT công bố nghiên cứu phương pháp cải thiện công cụ phát hiện tin giả

Ngoài ra, nghiên cứu nhấn mạnh rằng kẻ tấn công có khả năng sử dụng công cụ này để thao túng những văn bản của con người. Họ có thể đào tạo AI sử dụng mô hình GPT-2 để thay đổi văn bản do con người tạo ra nhằm làm sai lệch ý nghĩa ban đầu.

Tal Schuster, tác giả chính của nghiên cứu, nhấn mạnh điều quan trọng là phát hiện tính thật giả của văn bản, không phải xác định xem bài viết được tạo ra bởi con người hay thuật toán. Regina Barzilay, Giáo sư trường Đại học MIT, nói nghiên cứu này đã cho thấy sự thiếu tin cậy của những công cụ phân loại thông tin sai lệch hiện nay.

Để khắc phục sai sót, các nhà nghiên cứu đã sử dụng FEVER – cơ sở dữ liệu kiểm tra thực tế lớn nhất thế giới hiện nay – để phát triển nên hệ thống phát hiện thật giả mới. Tuy nhiên, mô hình được tạo ra thông qua FEVER dễ bị lỗi do sai lệch của bộ dữ liệu (dataset).

Khi nhóm nghiên cứu tạo ra một bộ dữ liệu mới bằng cách gỡ lỗi của FEVER thì độ chính xác của mô hình bị giảm từ 86% xuống còn 58%. Điều này cho thấy còn rất nhiều việc phải làm để đào tạo AI về dữ liệu.

Các chuyên gia cho rằng sai sót của công cụ phát hiện tin giả là không sử dụng bằng chứng thực tế bên ngoài như một phần của quy trình xác minh. Nhóm nghiên cứu hy vọng trong tương lai sẽ cải thiện mô hình này để có thể phát hiện các loại tin giả bằng cách kết hợp cơ chế hoạt động hiện tạo với những bằng chứng thực tế bên ngoài.

Theo The Next Web

Góc quảng cáo