27.8 C
Kwang Binh
spot_img
Chủ Nhật, Tháng 6 8, 2025

Trí tuệ nhân tạo “hút” năng lượng toàn cầu

Must read

Những kỳ tích trên không gian mạng của Trí tuệ nhân tạo (AI) đang được đánh đổi bằng cái giá không nhỏ ngoài đời thực: năng lượng và môi trường. Ngành công nghiệp này dựa vào các trung tâm dữ liệu để đào tạo, vận hành các mô hình, dẫn đến nhu cầu năng lượng tăng lên và góp phần vào lượng phát thải toàn cầu.





Một trung tâm dữ liệu của Amazon Web Services tại Virginia (Mỹ).  Ảnh:  Bloomberg / Getty Images
Một trung tâm dữ liệu của Amazon Web Services tại Virginia (Mỹ). Ảnh: Bloomberg / Getty Images

Khi “bộ não số” khát nước và ngốn điện

Mỗi tương tác với AI, dù nhỏ nhất, đều tiêu tốn lượng điện và nước đáng kể để vận hành các trung tâm dữ liệu. Theo nghiên cứu mới, cứ mỗi 20 đến 50 câu hỏi đặt cho ChatGPT có thể tiêu tốn khoảng 500ml nước sạch, tương đương một chai nước uống. Các nhà khoa học tin rằng, chỉ riêng khi đào tạo GPT-3, Microsoft có thể đã tiêu thụ tới 700.000 lít nước. Các nhà khoa học lưu ý các mô hình AI năng lực cao khác như LaMDA của Google có thể tiêu thụ một lượng nước “đáng kinh ngạc” lên tới hàng triệu lít.

Không chỉ tiêu thụ nước, các tương tác với AI còn “ngốn” điện đáng kể. Thao tác tạo hình ảnh bằng AI có thể sử dụng năng lượng tương đương sạc đầy một Điện thoại thông minh. Mỗi yêu cầu tìm kiếm thông tin trên một công cụ tích hợp AI có thể tiêu thụ lượng điện nhiều hơn khoảng 10 lần so với một lượt tìm kiếm thông thường trên Google (2,9 Wh so với 0,3 Wh) và tương đương lượng điện năng sử dụng khi nói chuyện trong một giờ trên điện thoại gia đình, theo Bloomberg.

Việc tạo email dài 100 từ bằng ChatGPT cần khoảng 0,14 kWh, tương đương năng lượng cung cấp cho 14 bóng đèn LED chiếu sáng trong một giờ. Con số này có vẻ nhỏ nếu tính riêng lẻ cho một người dùng, một tác vụ, nhưng nếu nhân lên với quy mô hàng tỷ lượt tương tác mỗi ngày toàn cầu, tổng lượng tài nguyên tiêu thụ sẽ ở mức khổng lồ.

Theo Công ty nghiên cứu phi lợi nhuận Electric Power Research Institute, ChatGPT sử dụng hơn 500.000kWh điện mỗi ngày để xử lý khoảng 200 triệu yêu cầu, đủ để cung cấp năng lượng cho 180.000 hộ gia đình ở Mỹ. Theo ước tính của Cơ quan Năng lượng quốc tế (IEA), nếu tốc độ phát triển hiện tại được duy trì, lượng điện năng cần để huấn luyện và vận hành AI có thể vượt quá tổng lượng tiêu thụ của nhiều quốc gia nhỏ vào cuối thập niên này.

Điều đáng quan ngại là nguồn điện cung cấp vận hành AI phần lớn đến từ các nhà máy chạy bằng nhiên liệu hóa thạch, qua đó “tiếp tay” làm tăng lượng khí thải carbon. Theo Euronews, Microsoft thông báo lượng khí thải CO2 của họ tăng gần 30% kể từ năm 2020 do mở rộng trung tâm dữ liệu. Lượng khí thải nhà kính toàn cầu của Google vào năm 2023 cao hơn gần 50% so với năm 2019.

“Khi chúng ta chuyển từ văn bản sang video rồi đến hình ảnh, các mô hình AI này ngày càng lớn hơn và tác động về năng lượng của chúng cũng vậy. Điều này sẽ phát sinh  năng lượng sử dụng khá lớn và là tác nhân ngày càng tăng đối với lượng khí thải trên toàn cầu”, ông Vijay Gadepally, nhà khoa học cấp cao tại Phòng thí nghiệm Lincoln của MIT, cho biết.

Hiện tại, năng lượng sử dụng của AI chỉ chiếm một phần nhỏ trong mức tiêu thụ điện năng của ngành công nghệ nói chung và ước tính chiếm khoảng 2 đến 3% tổng lượng khí thải toàn cầu. Tuy nhiên, tỷ lệ này có khả năng tăng lên khi ngày càng nhiều công ty, chính phủ và tổ chức sử dụng AI để thúc đẩy hiệu quả và năng suất.

Nỗ lực “xanh hóa”

Hiện có hơn 8.000 trung tâm dữ liệu trên toàn cầu, trong đó khoảng 16% nằm ở châu Âu. IEA ước tính rằng nhu cầu điện toàn cầu từ các trung tâm dữ liệu có thể tăng gấp đôi trong khoảng thời gian từ năm 2022 đến năm 2026, một phần là do việc áp dụng AI. Do đó, việc giảm thiểu tiêu thụ năng lượng trong lĩnh vực AI đang trở thành ưu tiên quan trọng, không chỉ vì mục tiêu bền vững mà còn để giảm chi phí vận hành.

Nhiều “ông lớn” công nghệ đang cam kết hướng tới phát triển bền vững. Microsoft đặt mục tiêu trở thành công ty “phát thải carbon âm” (negative carbon) vào năm 2030 và Google tuyên bố các trung tâm dữ liệu của họ sẽ chạy hoàn toàn bằng năng lượng tái tạo năm 2030.

MIT Technology Review, tạp chí thuộc sở hữu hoàn toàn của Viện Công nghệ Massachusetts, gần đây đưa ra các hướng tiếp cận chính để cải thiện hiệu quả năng lượng của AI, từ mô hình phần mềm, phần cứng, hệ thống làm mát, đến mối liên hệ giữa tiết kiệm chi phí và giảm tiêu thụ năng lượng.

Theo đó, nhóm nghiên cứu của MIT đã thử nghiệm với “giới hạn công suất”, hay hạn chế lượng điện cung cấp cho bộ xử lý và bộ xử lý đồ họa mà nền tảng siêu máy tính. Thay vì để chúng hoạt động ở mức 100%, họ giới hạn mức sử dụng ở mức 60% – 80% tổng công suất, tùy thuộc vào bộ xử lý mà họ sử dụng. Cách tiếp cận này được áp dụng cho cả khối lượng công việc đào tạo và suy luận, không chỉ làm giảm tổng công suất và mức tiêu thụ năng lượng của khối lượng công việc mà còn làm giảm nhiệt độ hoạt động.

Một cách tiếp cận khác là tái sử dụng nhiệt thải từ trung tâm dữ liệu. Đơn cử, theo Global Data Centers, nhiệt lượng từ trung tâm dữ liệu Microsoft mới tại Đan Mạch sẽ sưởi ấm cho 6.000 ngôi nhà.

Có thể thấy việc phát triển AI không thể tách rời khỏi bài toán năng lượng và môi trường. Nếu không kịp thời điều chỉnh, cuộc cách mạng AI có thể trở thành con dao hai lưỡi, với một bên là tri thức siêu việt, bên còn lại là những hậu quả môi trường khó đảo ngược.

THƯ LÊ

https%3A%2F%2Fbaodanang.vn%2Fchannel%2F5408%2F202506%2Ftri-tue-nhan-tao-hut-nang-luong-toan-cau-4008267%2F

- Advertisement -spot_img

More articles

- Advertisement -spot_img

Latest article