Các hãng công nghệ lớn đang phát triển trí tuệ nhân tạo(AI) vừa quyết định ngồi lại với nhau để ngăn ngừa… Skynet, một thực thể hư cấu trong phim Kẻ Hủy Diệt nhưng rất có thể trở thành hiện thực.

AI đang dần xuất hiện trong rất nhiều sản phẩm, dịch vụ chúng ta đang dùng hằng ngày. Từ các trợ lý ảo như Siri, Alexa, Cortana,… cho đến các AI phân tích hình ảnh như của Microsoft hay Facebook cũng như AI chơi cờ của Google. Sử dụng AI để mang tới sự tiện lợi cho người dùng đang trở thành xu thế.

Các gã khổng lồ công nghệ hợp tác về vấn đề đạo đức AI

Skynet là 1 thực thể hư cấu trong series phim Kẻ Hủy Diệt (Terminator), nó vốn là 1 AI đc thiết kế để giúp đỡ con người nhưng đã vượt qua các giới hạn và trở nên xấu xa. Viễn cảnh đó đang ngày càng hiện hữu và tạo ra lo lắng trong dư luận do xu hướng phát triển AI nói trên. Vì vậy, các công ty công nghệ lớn đã cùng nhau lập ra 1 tổ chức để ngăn ngừa việc đó.

AI lợi hay hại?

Trí thông minh nhân tạo (AI) đang dần chứng tỏ các lợi ích của chúng như các robot tự động để giảm sức người, nhận diện khuôn mặt để đưa ra các gợi ý tag ảnh, AI điều khiển xe, AI điều khiển khí cầu phát WiFi…

Tuy nhiên, các lợi ích mà AI đem lại cũng tạo ra nhiều quan ngại về mối nguy hại từ chúng. Liệu robot tự động có làm cho nhiều người mất việc? AI nhận diện khuôn mặt có thể vi phạm quyền riêng tư? Xe tự lái sẽ có giải quyết tốt các quyết định có yếu tố đạo đức? Lo xa hơn thì AI rồi có trở thành Skynet?

Các gã khổng lồ công nghệ hợp tác về vấn đề đạo đức AI
Ảnh minh họa: Internet

Tin tốt là các công ty đang phát triển AI nhận thức được quan ngại của cộng đồng. Google, Facebook, Microsoft, Amazon và IBM đã đi tới quyết định thành lập 1 tổ chức có tên tạm dịch là: “Chương trình đối tác về trí thông minh nhân tạo đem lại lợi ích cho con người và cộng đồng”.

Theo giám đốc bộ phận AI của Facebook, Yann LeCun: “Mọi công nghệ mới đều đem đến sự thay đổi lớn, và thay đổi đôi khi sẽ gây lo lắng cho những người không hiểu rõ thay đổi. Do đó, việc giải thích và đối thoại với cộng đồng về các khả năng của AI nhất là các câu hỏi về mối nguy hại và đạo đức cơ bản chính là 1 trong số mục tiêu của nhóm.”

Tổ chức này có tác động như thế nào đến việc phát triển AI?

Tổ chức này sẽ hoạt động theo 3 hướng chính:

  1. Khuyến khích trao đổi giữa các tổ chức xây dựng AI.
  2. Tạo điều kiện để các học giả và cộng đồng đưa ra ý kiến và góc nhìn về AI.
  3. Thông báo cho cộng đồng về tiến trình phát triển của AI, có thể bao gồm tăng nhận thức về AI cho các nhà làm luật.

Các gã khổng lồ công nghệ hợp tác về vấn đề đạo đức AI
Tạo ra 1 cộng đồng đối thoại về AI là tối quan trọng – theo ông LeCun. Chúng ta đã chứng kiến 1 chat bot của Microsoft sử dụng các câu nói phân biệt chủng tộc mà nó học được (ảnh trên), một AI chấm điểm cuộc thi sắc đẹp đưa ra nhận định rằng người da đen kém hấp dẫn hơn người da trắng hay một hệ thống đánh giá khả năng 1 người sẽ phạm tội cho rằng người da đen có nguy cơ hơn người da trắng.

Việc AI phát triển theo chiều hướng tiêu cực như vậy có thể hạn chế được nếu như chúng được đưa cho nhiều đối tượng nhận xét trước khi công bố ra cộng đồng. Điều này sẽ giúp AI học có chọn lọc hơn khi được đưa ra công chúng.

Tuy nhiên, dù cho nhóm có thể đưa ra các chuẩn mực đạo đức chung cho AI thì cũng không thể cản được nếu một thành viên trong nhóm không tuân thủ. Mục đích chính của nhóm là phản đối việc phát triển và sử dụng AI đi trái với thông lệ quốc tế hoặc nhân quyền, nhưng việc áp đặt tuân thủ không phải là mục tiêu hướng đến của nhóm.

Theo một số nhận xét thì việc hợp tác không là chưa đủ, thử thách lớn hơn là tổ chức này cần liên tục xem xét lại các chuẩn mực mà mình đưa ra. Các chuẩn mực này cần thay đổi và cập nhật liên tục để đảm bảo giải quyết các vấn đề rất đa dạng của việc phát triển AI.

Tóm lại, tổ chức này chắc chắn sẽ có ích trong việc tạo ra các quy chuẩn về AI, big data và loại bỏ các lỗ hổng trong thuật toán có thể làm cho AI có định kiến xấu. Đây là một nhiệm vụ rất to lớn và việc thành lập của nhóm sẽ bắt đầu thực thi nhiệm vụ này.

(Theo Wired)

Góc quảng cáo