Kaspersky trình bày các nguyên tắc đạo đức khi ứng dụng trí tuệ nhân tạo (AI) hoặc học máy (ML) trong quá trình phát triển và sử dụng hệ thống của doanh nghiệp nhằm củng cố cam kết phát triển công nghệ một cách có trách nhiệm và minh bạch.

Khi vai trò của thuật toán AI ngày càng nổi bật trong an ninh mạng, các nguyên tắc trong sách trắng (white paper) của Kaspersky đã giải thích làm thế nào để doanh nghiệp đảm bảo độ đáng tin cậy của công nghệ AI và hướng dẫn các công ty trong ngành giảm thiểu rủi ro liên quan đến việc sử dụng thuật toán AI/ML. Cuộc thảo luận nằm trong khuôn khổ Diễn đàn Quản trị Internet của Liên hợp quốc (UNIGF), diễn ra tại Nhật Bản, nơi quy tụ các chuyên gia hàng đầu thế giới, chịu trách nhiệm về quản trị Internet.

222821-kaspersky-su-dung-ai-co-trach-nhiem

Kaspersky đã sử dụng thuật toán ML – một tập hợp con của AI trong các giải pháp của doanh nghiệp gần 20 năm qua. Việc kết hợp trí tuệ nhân tạo và kiến ​​thức chuyên môn của con người đã giúp các giải pháp của Kaspersky phát hiện và chống lại nhiều mối đe dọa an ninh mạng một cách hiệu quả.

Trong đó, ML đóng vai trò quan trọng trong việc tự động phát hiện mối đe dọa và nhận dạng bất thường, đồng thời nâng cao độ chính xác trong việc phát hiện phần mềm độc hại. Để thúc đẩy sự đổi mới, Kaspersky đã xây dựng các nguyên tắc đạo đức cho việc phát triển và sử dụng AI/ML. Các nguyên tắc này cũng được chia sẻ công khai với toàn ngành với mục đích ngoại giao đa phương nhằm đảm bảo AI được sử dụng đúng đắn để tạo ra một thế giới tốt đẹp hơn.

Theo Kaspersky, để thuận lợi trong việc phát triển và sử dụng AI/ML cần cân nhắc sáu nguyên tắc sau:

  • Sự minh bạch;
  • Sự an toàn;
  • Kiểm soát của con người;
  • Sự riêng tư;
  • Cam kết sử dụng cho mục đích an ninh mạng;
  • Sự cởi mở đối thoại.

Nguyên tắc minh bạch thể hiện niềm tin vững chắc của Kaspersky rằng các công ty nên thông báo cho khách hàng của mình về việc công nghệ AI/ML được sử dụng trong các sản phẩm và dịch vụ. Kaspersky tuân thủ nguyên tắc này bằng cách phát triển các hệ thống AI/ML dễ sử dụng nhất có thể, chia sẻ thông tin với các bên liên quan về cách hoạt động của các giải pháp và cách Kaspersky tận dụng công nghệ AI/MI.

222821-kaspersky-su-dung-ai-co-trach-nhiem

Tính an toàn được phản ánh rõ rệt trong các giải pháp của Kaspersky nhằm đảm bảo chất lượng của hệ thống AI/ML. Trong đó có bao gồm kiểm toán bảo mật dành riêng cho AI/ML, các bước để giảm thiểu sự phụ thuộc vào bộ dữ liệu của bên thứ ba trong quá trình đào tạo các giải pháp do AI thực hiện và ưu tiên các công nghệ ML điện toán đám mây (cloud-based) với các biện pháp bảo vệ cần thiết thay vì các mô hình được cài đặt sẵn trên thiết bị của khách hàng.

Nhu cầu hiệu chỉnh công việc của hệ thống AI/ML khi phân tích các mối đe dọa phức tạp, đặc biệt là các APT (Advanced Persistent Threat), đã giải thích cho tầm quan trọng của việc kiểm soát bởi con người. Để cung cấp sự bảo vệ hiệu quả trước các mối đe dọa ngày càng phát triển, Kaspersky cam kết duy trì sự kiểm soát của con người như một yếu tố thiết yếu trong tất cả các hệ thống AI/ML của mình.

Đảm bảo quyền riêng tư trong việc sử dụng AI/ML cũng là một nguyên tắc đạo đức quan trọng. Dữ liệu lớn đóng vai trò then chốt trong quá trình đào tạo các hệ thống, nên các công ty làm việc với AI/ML phải cân nhắc đến quyền riêng tư của mỗi cá nhân một cách toàn diện. Kaspersky cam kết tôn trọng quyền riêng tư của mỗi cá nhân thông qua việc áp dụng một số biện pháp về mặt tổ chức và kỹ thuật để bảo vệ dữ liệu và hệ thống, đồng thời đảm bảo quyền riêng tư của người dùng được thực hiện hiệu quả.

Nguyên tắc đạo đức thứ năm thể hiện sự cam kết của Kaspersky trong việc chỉ sử dụng hệ thống AI/ML cho mục đích phòng thủ. Bằng cách tập trung hoàn toàn vào các công nghệ phòng thủ, công ty đang theo đuổi sứ mệnh xây dựng một thế giới an toàn hơn và thể hiện cam kết của mình trong việc bảo vệ người dùng và dữ liệu của họ.

222821-kaspersky-su-dung-ai-co-trach-nhiem

Nguyên tắc cuối cùng đề cập đến sự cởi mở đối thoại của Kaspersky với các bên liên quan nhằm chia sẻ những phương pháp thực tiễn tốt nhất trong việc sử dụng AI một cách có đạo đức. Về vấn đề này, Kaspersky sẵn sàng thảo luận với bất kỳ các bên quan tâm, vì công ty tin rằng cách duy nhất để vượt qua những thách thức, thúc đẩy đổi mới và mở ra những cơ hội mới là sự hợp tác chặt chẽ giữa tất cả các bên liên quan.

Anton Ivanov, chuyên gia phân tích bảo mật tại Kaspersky chia sẻ: “AI có tiềm năng mang lại nhiều lợi ích cho ngành an ninh mạng, nâng cao hơn nữa khả năng phục hồi không gian mạng của xã hội chúng ta. Tuy nhiên, cũng như bất kỳ công nghệ nào khác ở giai đoạn đầu phát triển, AI cũng mang theo một số rủi ro.

Để giải quyết những lo ngại xung quanh AI, Kaspersky đã đưa ra các nguyên tắc đạo đức của mình nhằm chia sẻ những phương pháp thực hành tốt nhất để ứng dụng AI. Ngoài ra, Kaspersky kêu gọi cởi mở đối thoại trong toàn ngành nhằm phát triển các hướng dẫn rõ ràng về những yếu tố đạo đức cần được cân nhắc khi phát triển các giải pháp dựa trên AI và ML.”

Các nguyên tắc đạo đức đã được Kaspersky trình bày tại Diễn đàn Quản trị Internet của Liên Hợp Quốc, diễn ra từ ngày 8 đến ngày 12 tháng 10 năm 2023, tại Kyoto, Nhật Bản. Về việc AI và các công nghệ mới nổi trở thành một trong những chủ đề chính trong sự kiện năm nay, Kaspersky đã tổ chức một hội thảo để thảo luận về các nguyên tắc đạo đức trong việc phát triển và sử dụng AI, đồng thời những khía cạnh về mặt kỹ thuật và pháp lý cũng được đưa vào cuộc thảo luận.

Việc đưa ra các nguyên tắc đạo đức là sự tiếp nối mục tiêu củaKaspersky Global Transparency Initiative, nhằm thúc đẩy các nhà cung cấp công nghệ tuân thủ các nguyên tắc minh bạch và trách nhiệm giải trình vì một môi trường trực tuyến an toàn và linh hoạt hơn

Góc quảng cáo