Năng lượng cần cung cấp cho các dự án trí tuệ nhân tạo (AI) đang ngày càng tăng theo cấp số nhân. Theo dữ liệu được công bố bởi OpenAI, những chương trình nghiên cứu AI trọng điểm trong những năm gần đầy đã tăng gấp đôi sau mỗi 3 – 4 tháng, tăng gần 300.000 lần từ năm 2012 đến 2018.
Sức mạnh tính toán cần thiết của trí tuệ nhân tạo (AI), chẳng hạn như nhận dạng hình ảnh và đánh bại con người trong môn cờ vây – đã tăng gấp 300.000 lần từ năm 2012 đến năm 2018.
Tháng trước những nghiên cứu tại OpenAI ở San Francisco đã tiết lộ một thuật toán có khả năng học hỏi cách xoay khối Rubik bằng bàn tay robot thông qua phép thử sai (trial and error). Đó là một nghiên cứu kỳ công đáng chú ý, nhưng cần hơn 1.000 máy tính bàn cộng với hàng chục máy chạy chip đồ họa chuyên dụng thực hiện các phép tính chuyên sâu trong vài tháng.
Theo ước tính của Evan Sparks, CEO của Determined AI – công ty khởi nghiệp cung cấp phần mềm giúp các công ty quản lý các dự án AI, nỗ lực này tiêu tốn khoảng 2,8 GWh điện, gần bằng sản lượng của ba nhà máy điện hạt nhân trong một giờ. Tuy nhiên đây chỉ là giả định, OpenAI từ chối tiết lộ chi tiết về dự án hoặc đưa ra ước tính về lượng điện tiêu thụ.
Trí tuệ nhân tạo đã tạo ra những thành tựu đáng kinh ngạc, như máy tính học cách nhận dạng hình ảnh, trò chuyện, đánh bại con người trong các trò chơi phức tạp và thậm chí là lái xe. Tất cả những tiến bộ đó đòi hỏi một lượng đáng kẻ về sức mạnh tính toán và điện để phát minh và đào tạo các thuật toán. Tuy nhiên những thiệt hại do biến đổi khí hậu gây ra ngày càng rõ ràng, vì vậy các chuyên gia AI sẽ gặp nhiều khó khăn do nhu cầu năng lượng lớn.
Sasha Luccioni, nhà nghiên cứu sau tiến sĩ tại Mila – viện nghiên cứu AI ở Canada – cho biết: “Điều đáng lo ngại là các thuật toán học máy nói chung ngày càng tiêu tốn nhiều năng lượng, sử dụng nhiều dữ liệu và thời gian đào tạo ngày càng lâu hơn”.
Đó không chỉ là nỗi lo riêng cho giới học thuật. Khi nhiều công ty trong những lĩnh vực khác nhau bắt đầu sử dụng AI thì sẽ có ngày càng nhiều ý kiến lo ngại rằng công nghệ này sẽ chỉ làm trầm trọng thêm khủng hoảng khí hậu. Sparks nói rằng Detined.ai đang hợp tác với một công ty dược phẩm sử dụng những mô hình AI khổng lồ.
“Với tư cách là một ngành công nghiệp, thật đáng để suy nghĩ về cách chống lại điều này,” ông nói thêm.
Một số nhà nghiên cứu AI đang xem xét về sức ảnh hưởng của mô hình trí tuệ nhân tạo đến môi trường. Họ đang sử dụng một số công cụ để theo dõi nhu cầu năng lượng của các thuật toán hoặc thực hiện các bước bù đắp lượng khí thải. Đang có nhiều công ty quảng cáo về hiệu quả năng lượng của các thuật toán trong những bài báo nghiên cứu và tại một số hội nghị. Khi chi phí của AI tăng lên, ngành công nghiệp ngày phải tìm hướng phát triển mới, sao cho các thuật toán tiêu tốn ít năng lượng hơn.
Luccioni gần đây đang hỗ trợ vận hành một trang web cho phép những nhà nghiên cứu AI tính toán gần đúng lượng khí thải carbon trong các thuật toán của họ. Bà cũng đang thử nghiệm cách tiếp cận phức tạp hơn — mã code có thể sẽ được thêm vào chương trình AI để theo dõi việc sử dụng năng lượng của các chip máy tính riêng lẻ. Luccioni và những người khác cũng đang cố gắng thuyết phục một số công ty cung cấp công cụ để theo dõi hiệu suất dự án, bao gồm một số phép đo năng lượng hoặc lượng khí thải carbon. Bà hy vọng rằng điều này sẽ thúc đẩy các công ty minh bạch hơn. Ví dụ, dưới phần chú thích dự án sẽ ghi rõ: “Chúng tôi đã thải ra X tấn carbon và chúng tôi đã bù đắp lại…”
Năng lượng cần để cung cấp cho AI đang ngày càng tăng theo thời gian. Theo dữ liệu được công bố bởi OpenAI, những chương trình AI trọng điểm trong những năm gần đầy đã tăng gấp đôi sau mỗi 3 – 4 tháng, tăng gần 300.000 lần từ năm 2012 đến 2018 – nhanh hơn gấp nhiều lần so với Định luật Moore (được đặt theo tên của Gordon Moore, người đồng sáng lập Intel.)
Những tiến bộ gần đây trong công nghệ xử lý ngôn ngữ tự nhiên (NLP) — kỹ thuật AI giúp máy móc phân tích cú pháp, diễn giải và tạo văn bản — được chứng minh rất tốn điện. Theo bài nghiên cứu của một nhóm chuyên gia tại tại trường UMass Amherst (Mỹ), đào tạo mô hình NLP có thể tốn một lượng năng lượng bằng với chiếc ô tô vận hành suốt vòng đời, gồm cả năng lượng tạo ra nó.
Đào tạo một thuật toán học máy mạnh mẽ thường có nghĩa là chạy một ngân hàng máy tính khổng lồ trong nhiều ngày, nếu không muốn nói là vài tuần. Đó là chưa kể quá trình tinh chỉnh cần thiết để hoàn thiện thuật toán, chẳng hạn như tìm kiếm qua các kiến trúc mạng nơ-ron khác nhau để tìm ra cái tốt nhất. Vì vậy, rất khó để đo chính xác mức năng lượng mà AI thực sự tiêu thụ.
Bộ Năng lượng Mỹ ước tính các trung tâm dữ liệu chiếm khoảng 2% tổng lượng điện sử dụng của quốc gia này. Trên toàn thế giới, những trung tâm dữ liệu tiêu thụ khoảng 200 TWh mỗi năm — nhiều hơn tổng lượng điện ở một số quốc gia. Các chuyên gia dự báo số liệu này sẽ còn tăng gấp nhiều lần trong thập kỷ tới. Một số dự đoán rằng năm 2030, công nghệ điện toán và truyền thông sẽ tiêu thụ từ 8% đến 20% điện năng toàn cầu, trong đó các trung tâm dữ liệu chiếm 1/3.
Những năm gần đây, các công ty cung cấp dịch vụ điện toán đám mây đã tìm cách giải quyết vấn đề tiêu thụ điện năng và bù đắp lượng khí thải carbon bằng nhiều biện pháp khác nhau.
Hiện vẫn chưa rõ sự bùng nổ của AI sẽ thay đổi ‘bức tranh’ tổng thể về tiêu thụ năng lượng ở những trung tâm dữ liệu như thế nào. Các nhà cung cấp đám mây lớn như Microsoft, Amazon và Google đều không tiết lộ nhu cầu năng lượng tổng thể của các hệ thống máy học.
Jonathan Koomey, nhà nghiên cứu và theo dõi việc sử dụng năng lượng của trung tâm dữ liệu, lưu ý rằng các thuật toán AI thường chạy trên các chip chuyên dụng hiệu quả, vì vậy các kiến trúc chip mới có thể bù đắp một số nhu cầu về năng lượng.
Tuy nhiên, khi các công ty và tổ chức khác ngày càng sử dụng trí tuệ nhân tạo, các chuyên gia cho rằng việc hiểu rõ dấu chân năng lượng của công nghệ, cả trong các trung tâm dữ liệu và các thiết bị, tiện ích khác sẽ trở nên quan trọng. Eric Masanet, giáo sư tại Đại học Northwestern, người đứng đầu Phòng thí nghiệm Phân tích Hệ thống Tài nguyên và Năng lượng cho biết: “Tôi đồng ý rằng cộng đồng phân tích cần phải xử lý vấn đề này”.
Một số nhà nghiên cứu AI không chờ đợi ngành công nghiệp này thức dậy. Luccioni của Mila đã giúp tổ chức một hội thảo về biến đổi khí hậu vào tháng trước tại một hội nghị AI quan trọng.
Allen Institute for AI, viện nghiên cứu thành lập bởi Paul Allen – nhà đồng sáng lập Microsoft – cũng kêu gọi nâng cao nhận thức của tác động môi trường của AI. Giám đốc điều hành của viện, Oren Etzioni, cho biết ông được khuyến khích bởi nỗ lực của các nhà nghiên cứu, vì nhiều bài báo hiện nay bao gồm một số tài liệu về cường độ tính toán của một thuật toán hoặc thử nghiệm cụ thể.
Etzioni cho biết thêm rằng toàn bộ ngành công nghiệp đang dần bắt đầu sử dụng năng lượng hiệu quả. Ngay cả khi điều này phần lớn là do chi phí liên quan đến việc đào tạo các mô hình AI lớn, nó có thể giúp ngăn chặn AI góp phần gây ra thảm họa khí hậu. Ông nói: “AI rõ ràng đang hướng tới các mô hình nhẹ hơn và AI xanh hơn.”