Arm CEO 示警:美国未来 20%-25% 的电量将被 AI 数据中心消耗
4 月 10 日消息,當地時間周二,Arm 公司 CEO 雷內?哈斯(Rene Haas)發出了嚴厲的警告,他表示人工智能收集的信息越多,他們就越聰明,但他們收集的信息越多,需要的力量就越大。包括 OpenAI 的 ChatGPT 在內的 AI 模型需要大量電力,這可能導致到 2030 年,AI 數據中心將消耗美國 20% 至 25% 的電力需求,相比今天的 4% 大幅增加。
他特別強調,類似 ChatGPT 這樣的大語言模型耗電非常嚴重,這些模型需要“永不滿足”的電力才能有效運行。據此前報道,ChatGPT 每天需要處理超過 2 億次請求,其電量消耗高達每天 50 萬千瓦時。相比之下,美國普通家庭每天的平均用電量僅為 29 千瓦時,這意味著 ChatGPT 的日耗電量是普通家庭的 1.7 萬倍以上。
Arm 現在正著眼于降低人工智能技術的功耗,隨著電力需求的驚人增長,哈斯強調了在沒有更高效的能源解決方案的情況下推進 AI 研究的挑戰。
國際能源機構(IEA)在《2024 電力》報告中強調了這個問題,全球 AI 數據中心的耗電量將是 2022 年的十倍,并指出部分原因在于 ChatGPT 這樣的大語言模型所需的電力,遠高于谷歌等傳統搜索引擎。
荷蘭中央銀行數據科學家 Alex de Vries 在一份發表于可持續能源期刊《焦耳》上的論文中計算得出,如果谷歌將生成式人工智能技術應用于所有搜索,其每年將消耗約 290 億千瓦時電量,這相當于肯尼亞、危地馬拉和克羅地亞一年的總發電量。
廣告聲明:文內含有的對外跳轉鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節省甄選時間,結果僅供參考,所有文章均包含本聲明。
總結
以上是生活随笔為你收集整理的Arm CEO 示警:美国未来 20%-25% 的电量将被 AI 数据中心消耗的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 中国联通与中国石化签约,在 AI、加油站
- 下一篇: 宝马集团一季度全球交付 594671 辆