09/07/2025 20:28 GMT+7 | Văn hoá
Trí tuệ nhân tạo (AI) đang bùng nổ với những tiềm năng chưa từng có, nhưng cái giá phải trả cho sức mạnh ấy lại là gánh nặng khổng lồ lên hệ thống năng lượng toàn cầu.
Tại hội nghị toàn cầu “AI for Good” (tạm dịch: AI vì những điều tốt đẹp) ở Geneva (Thụy Sĩ), UNESCO đã công bố một báo cáo nghiên cứu mới, trong đó kêu gọi cấp thiết thu hẹp quy mô AI để giảm thiểu tác động tới môi trường.
Theo báo cáo, chỉ với những thay đổi nhỏ như rút ngắn độ dài câu hỏi hoặc sử dụng các mô hình AI chuyên biệt hơn, mức tiêu thụ điện năng của AI có thể giảm tới 90% mà vẫn giữ nguyên hiệu suất. Đây là một phát hiện có thể định hình lại cách chúng ta sử dụng AI trong tương lai.
Ảnh minh hoạ: Internet
Một ví dụ điển hình được nêu trong báo cáo chính là ChatGPT. Giám đốc điều hành của OpenAI – “cha đẻ” của ChatGPT - ông Sam Altman mới đây tiết lộ rằng mỗi yêu cầu gửi đến ChatGPT tiêu tốn trung bình 0,34 Wh điện, tức nhiều hơn từ 10 - 70 lần so với một lượt tìm kiếm trên Google. Với khoảng 1 tỷ lượt truy cập mỗi ngày, ChatGPT tiêu thụ khoảng 310 GWh mỗi năm – tương đương tổng điện năng của 3 triệu người dân Ethiopia.
Không những thế, UNESCO còn cảnh báo rằng nhu cầu năng lượng của AI đang tăng gấp đôi sau mỗi 100 ngày, khi các công cụ AI thế hệ mới ngày càng được tích hợp vào cuộc sống hàng ngày. Báo cáo của cơ quan này nhấn mạnh: “Tốc độ tăng trưởng theo cấp số nhân về sức mạnh tính toán để vận hành các mô hình AI đang gây áp lực nghiêm trọng lên hệ thống năng lượng toàn cầu, tài nguyên nước và khoáng sản chiến lược. Điều này làm dấy lên lo ngại về tính bền vững môi trường, sự công bằng trong tiếp cận công nghệ và cạnh tranh tài nguyên”.
Mặc dù vậy, kết quả thử nghiệm của UNESCO cho thấy chỉ cần cắt giảm độ dài của câu hỏi từ 300 xuống 150 từ, đồng thời thay thế mô hình AI tổng quát bằng mô hình nhỏ hơn, kết quả vẫn tương đương – nhưng điện năng tiêu tốn thì giảm gần 90%.
Vấn đề nằm ở chỗ các mô hình AI lớn như ChatGPT được thiết kế để xử lý nhiều chủ đề khác nhau, buộc hệ thống phải xử lý một lượng dữ liệu khổng lồ trong mỗi lần phản hồi. Trong khi đó, những mô hình chuyên biệt – chỉ tập trung vào một số tác vụ nhất định – có thể đưa ra câu trả lời hiệu quả hơn mà lại tiêu tốn ít điện năng hơn đáng kể.
Ở thời điểm hiện tại, các “ông lớn công nghệ” đã bắt đầu chú ý đến vấn đề này. Google tung ra Gemma, Microsoft có Phi-3, OpenAI giới thiệu GPT-4o mini, trong khi công ty AI của Pháp như Mistral AI cũng góp mặt với Ministral – những mô hình nhỏ gọn với ít tham số hơn nhưng vẫn đảm bảo hiệu năng tốt trong từng ngữ cảnh cụ thể.
Đăng nhập
Họ và tên
Mật khẩu
Xác nhận mật khẩu
Mã xác nhận
Đăng ký
Xin chào, !
Bạn đã đăng nhập với email:
Đăng xuất