10月16日資訊,隨著人工智能產業(yè)的迅猛發(fā)展,對算力的需求呈現(xiàn)爆發(fā)式增長。無論是依托先進硬件技術,還是構建超大規(guī)模ai集群,各大企業(yè)正全力增強其ai運算實力。但與此同時,這一趨勢也引發(fā)了前所未有的能源消耗挑戰(zhàn)。
根據分析師Ray Wang提供的數據,NVIDIA的AI服務器平臺在代際演進過程中,功耗顯著攀升——從Ampere架構到Kyber架構,短短八年時間,整體功耗增長高達100倍。
這種急劇上升的能耗主要源于兩個方面:一是每機架部署的GPU數量持續(xù)增加,二是單個GPU的熱設計功耗(TDP)不斷提升。
以Hopper架構為例,其典型機架運行功率為10KW;而到了Blackwell架構,由于GPU密度大幅提升,單機架功耗已接近120KW。
除了GPU本身的升級,諸如新一代NVLink/NVSwitch互聯(lián)架構、優(yōu)化后的機架設計以及更高的持續(xù)利用率,也在推動超大規(guī)模數據中心整體能耗飛速上漲。
當前,科技巨頭之間正展開一場“AI機架規(guī)?!钡募ち腋偁帲饬坑嬎銓嵙Φ臉藴室巡辉賰H僅是FLOPS,而是轉向了“吉瓦(GW)”級別的電力消耗指標。包括OpenAI和Meta在內的多家公司,已規(guī)劃在未來數年內新增超過10吉瓦的AI算力支持。
作為參照,1吉瓦的電力足以滿足約100萬個美國家庭的日常用電需求。如今,一些頂級AI數據中心的總能耗水平,已堪比一個中等國家或數個美國大州的用電總量。
此外,國際能源署(IEA)在其2025年發(fā)布的《能源與AI》研究報告中預測,到2030年,全球AI系統(tǒng)的能耗將翻一番,增速約為電網擴容速度的四倍。
以上就是AI成“能源黑洞”:NVIDIA AI服務器功耗8年激增100倍!的詳細內容,更多請關注php中文網其它相關文章!
每個人都需要一臺速度更快、更穩(wěn)定的 PC。隨著時間的推移,垃圾文件、舊注冊表數據和不必要的后臺進程會占用資源并降低性能。幸運的是,許多工具可以讓 Windows 保持平穩(wěn)運行。
Copyright 2014-2025 http://ipnx.cn/ All Rights Reserved | php.cn | 湘ICP備2023035733號