

2023年,我們見證了人工智能(AI)的爆發,它正在改變人們的工作、生活、以及與技術交互的方式。以ChatGPT為代表的生成式AI也因其顯著的進步和廣泛的應用,在去年引起了極大的關注。隨著人工智能的不斷發展和成熟,將有可能徹底改變從醫療保健、金融、生產製造到交通、娛樂等眾多行業。市場對人工智能的巨大需求推動了新的芯片和服務器技術的發展,這些變化將對數據中心的建設、電力需求、水資源消耗、供配電和製冷技術與架構帶來顛覆性的挑戰。如何應對這些挑戰,將在新的一年成為行業備受關注的議題。
作為數據中心、行業關鍵應用領域基礎設施建設和數字化服務的全球領導者,自2018年起,施耐德電氣已經連續第7年在年初發布《看得見的未來—數據中心行業的新趨勢與新突破》係xi列lie洞dong察cha,開kai創chuang了le行xing業ye趨qu勢shi前qian瞻zhan解jie讀du先xian河he,並bing持chi續xu引yin領ling未wei來lai變bian革ge方fang向xiang,為wei數shu據ju中zhong心xin行xing業ye注zhu入ru強qiang勁jin發fa展zhan動dong力li。立li足zu深shen刻ke的de行xing業ye洞dong察cha和he實shi踐jian,施shi耐nai德de電dian氣qi致zhi力li於yu揭jie示shi新xin一yi年nian數shu據ju中zhong心xin行xing業ye會hui發fa生sheng哪na些xie變bian化hua,這zhe些xie變bian化hua和he趨qu勢shi對dui數shu據ju中zhong心xin運yun營ying商shang的de價jia值zhi和he意yi義yi,以yi及ji對dui這zhe些xie行xing業ye變bian化hua的de看kan法fa和he價jia值zhi主zhu張zhang。以yi下xia是shi施shi耐nai德de電dian氣qi全quan球qiu數shu據ju中zhong心xin科ke研yan中zhong心xin對dui2024年發展趨勢的預測。
趨勢一
智算中心將引領數據中心建設

過去十年,雲計算一直是推動數據中心建設與發展的主要驅動力,目的是為社會提供數字化轉型所需的通用算力。但是,AI的爆發帶來了巨大的算力需求,為了滿足AI大模型的訓練和應用推理,我們需要建設大量的智算中心。
施耐德電氣根據全球數據中心的用電量,GPU芯片和AI服務器未來的出貨量等數據,估算出全球智算中心目前的電力需求為4.5 GW,占數據中心總57 GW的8%,並預測到2028年它將以26%-36%的年複合增長率增長,最終達到14.0 GW至18.7 GW,占總93 GW的15%-20%。這一增長速度是傳統數據中心年複合增長率(4%-10%)的2到3倍。算力分布也會由現在的集中部署(集中vs.邊緣為95%:5%)向邊緣遷移(50%:50%),這意味著智算中心將引領數據中心建設的潮流。根據工信部的規劃,我們國家智能算力的占比將在2025年達到35%,年均複合增長率在30%以上。
施耐德電氣觀點:
相xiang較jiao於yu傳chuan統tong數shu據ju中zhong心xin,智zhi算suan中zhong心xin的de建jian設she需xu要yao在zai確que保bao高gao能neng效xiao和he高gao可ke用yong的de前qian提ti下xia,實shi現xian可ke持chi續xu發fa展zhan和he更geng具ju前qian瞻zhan性xing,也ye就jiu是shi最zui小xiao化hua對dui環huan境jing的de影ying響xiang,尤you其qi需xu要yao提ti高gao適shi應ying性xing來lai滿man足zu未wei來laiIT技術(高功耗的芯片和服務器)的需求。
趨勢二
AI將推動機櫃功率密度驟升

機櫃功率密度對數據中心的設計與造價具有較大的影響,包括供配電、製冷以及IT機房的布局等,一直都是數據中心比較關注的設計參數之一。
Uptime過去幾年的調研結果顯示,服務器機櫃的功率密度正在穩步但緩慢地攀升。機櫃的平均功率密度通常低於6千瓦,大多數運營商沒有超過20千瓦的機櫃。造成這一趨勢的原因包括摩爾定律使芯片的熱設計功耗維持在相對較低的水平(150瓦),同時高密服務器通常被分散部署在不同的機櫃以降低對基礎設施的要求,但AI的爆發將改變這一趨勢。
施耐德電氣觀點:
用於訓練的AI機櫃功率密度可以高達30-100千瓦(取決於芯片的類型和服務器的配置)。而造成這一高密的原因是多方麵的,包括快速提升的CPU/GPU熱設計功耗,CPU為200-400瓦,GPU為400-700瓦,未來還會進一步升高;AI服務器的功耗通常在10千瓦左右,由於GPU是並行工作的,AIfuwuqixuyaoyijiqundefangshijincoubushu,yijiangdixinpianhecunchuzhijiandewangluoshiyan。jiguigonglvmidudedouzengjianggeishujuzhongxinwulijichusheshideshejidailaijudatiaozhan。
趨勢三
數據中心正在從風冷向液冷過渡

風冷一直都是數據中心IT機房冷卻的主流方式,如果設計得當,可支持十幾個千瓦甚至更高的機櫃功率密度。但隨著對AIxunlianxingnengdebuduanzhuiqiu,kaifarenyuanbuduantigaoxinpiandereshejigonghao,duizhexiexinpianjinxingfenglengbiandebuqieshiji。suiranyixiefuwuqigongyingshangtongguozhongxinshejixinpiandesanreqi、增加服務器風量以及進出風溫差,以不斷突破風冷技術的極限,配置40-50千瓦風冷型的AI機櫃,但這會使風扇的功耗呈指數級增加。例如,AI服務器風扇可以消耗高達25%的服務器功率,但傳統服務器的典型值隻有8%。
施耐德電氣觀點:
芯片的冷卻才是液冷的主要驅動力,20千瓦機櫃功率密度是風冷和液冷相對合理的分界線。當AI機櫃功率密度超過這一數值時,應重點考慮采用液冷服務器。
相較於風冷,液冷還帶來了諸多好處,包括處理器可靠性和性能提升、能源效率提升、用水量減少以及噪音水平降低等等。目前,對於高密的AI服務器,供應商通常提供風冷和液冷兩種方案,但對於下一代GPU,液冷將是唯一選擇。
趨勢四
配電的安全可靠在智算中心更加重要

對於傳統數據中心,不同工作負載同時達到峰值的概率極低。比如,典型的大型數據中心峰均比通常在1.5-2.0或更高。但在智算中心,由於AI訓練負載缺乏變化(峰均比接近1.0),工作負載可以在峰值功率下,運行數小時、數(shu)天(tian)甚(shen)至(zhi)數(shu)周(zhou)。其(qi)結(jie)果(guo)是(shi)增(zeng)加(jia)了(le)上(shang)遊(you)大(da)型(xing)斷(duan)路(lu)器(qi)脫(tuo)扣(kou)的(de)可(ke)能(neng)性(xing),以(yi)及(ji)宕(dang)機(ji)的(de)風(feng)險(xian)。同(tong)時(shi),由(you)於(yu)機(ji)櫃(gui)功(gong)率(lv)密(mi)度(du)的(de)升(sheng)高(gao),需(xu)要(yao)采(cai)用(yong)更(geng)高(gao)額(e)定(ding)電(dian)流(liu)值(zhi)的(de)斷(duan)路(lu)器(qi)、列頭櫃、小母線等。而在電阻變小的同時,可以通過的故障電流也就更大,這意味著IT機房出現拉弧的風險也會升高,保證該區域工作人員的安全是必須解決的難題。
施耐德電氣觀點:
在(zai)設(she)計(ji)階(jie)段(duan)采(cai)用(yong)模(mo)擬(ni)軟(ruan)件(jian)對(dui)電(dian)力(li)係(xi)統(tong)進(jin)行(xing)弧(hu)閃(shan)風(feng)險(xian)評(ping)估(gu),分(fen)析(xi)可(ke)產(chan)生(sheng)的(de)故(gu)障(zhang)電(dian)流(liu),並(bing)且(qie)對(dui)可(ke)靠(kao)性(xing)進(jin)行(xing)分(fen)析(xi),以(yi)便(bian)為(wei)特(te)定(ding)場(chang)地(di)設(she)計(ji)最(zui)佳(jia)解(jie)決(jue)方(fang)案(an)。
這項研究必須從中壓開關櫃分析至機櫃層麵,同時建議如果新建數據中心IT機房的AI訓練工作負載超過60-70%,需要根據下遊各饋線斷路器的總和來確定主斷路器的大小,設計時不再考慮同時係數。
趨勢五
標準化將成為液冷推進的關鍵

冷板式液冷和浸沒式液冷是數據中心液冷的兩種主流方式。究竟選擇哪種液冷方式以及如何實現快速部署一直都是行業熱議的話題。
隨著越來越多AI服(fu)務(wu)器(qi)采(cai)用(yong)冷(leng)板(ban)式(shi)液(ye)冷(leng),冷(leng)板(ban)式(shi)液(ye)冷(leng)也(ye)更(geng)容(rong)易(yi)與(yu)傳(chuan)統(tong)的(de)風(feng)冷(leng)係(xi)統(tong)兼(jian)容(rong),受(shou)到(dao)很(hen)多(duo)數(shu)據(ju)中(zhong)心(xin)運(yun)營(ying)商(shang)的(de)青(qing)睞(lai)。但(dan)是(shi)服(fu)務(wu)器(qi)廠(chang)家(jia)液(ye)冷(leng)的(de)設(she)計(ji)方(fang)式(shi)多(duo)種(zhong)多(duo)樣(yang),快(kuai)速(su)接(jie)頭(tou)、盲插和Manifold的兼容性存在諸多問題,IT與基礎設施的責任邊界也模糊不清,這大大限製了液冷在數據中心的接受度和推廣。
相xiang較jiao於yu冷leng板ban式shi液ye冷leng,采cai用yong碳tan氟fu化hua合he物wu流liu體ti的de浸jin沒mei式shi液ye冷leng不bu僅jin價jia格ge相xiang對dui較jiao高gao,而er且qie很hen多duo碳tan氟fu化hua合he物wu屬shu於yu對dui環huan境jing有you害hai的de人ren工gong合he成cheng類lei化hua學xue物wu質zhi,麵mian臨lin越yue來lai越yue多duo的de行xing業ye監jian管guan與yu政zheng策ce壓ya力li。因yin此ci,浸jin沒mei式shi液ye冷leng除chu了le采cai用yong油you類lei冷leng卻que液ye,可ke用yong的de碳tan氟fu化hua合he物wu流liu體ti將jiang越yue來lai越yue少shao。
施耐德電氣觀點:
IT廠家提供更為標準化的設計方案,包括流體的溫度、壓力、流量、設備的接口等,並且提供更加明確的責任邊界。
施耐德電氣將在第一季度發布液冷白皮書,來幫助數據中心更好地部署液冷技術。
趨勢六
數據中心將更加關注WUE

水(shui)資(zi)源(yuan)短(duan)缺(que)正(zheng)在(zai)成(cheng)為(wei)許(xu)多(duo)地(di)區(qu)的(de)嚴(yan)重(zhong)問(wen)題(ti),了(le)解(jie)和(he)減(jian)少(shao)數(shu)據(ju)中(zhong)心(xin)的(de)水(shui)資(zi)源(yuan)消(xiao)耗(hao)變(bian)得(de)越(yue)來(lai)越(yue)重(zhong)要(yao)。此(ci)前(qian),數(shu)據(ju)中(zhong)心(xin)水(shui)資(zi)源(yuan)消(xiao)耗(hao)未(wei)被(bei)重(zhong)視(shi)的(de)一(yi)個(ge)重(zhong)要(yao)原(yuan)因(yin)是(shi)用(yong)水(shui)成(cheng)本(ben)相(xiang)對(dui)用(yong)電(dian)通(tong)常(chang)是(shi)微(wei)不(bu)足(zu)道(dao)的(de),甚(shen)至(zhi)很(hen)多(duo)數(shu)據(ju)中(zhong)心(xin)通(tong)過(guo)消(xiao)耗(hao)更(geng)多(duo)的(de)水(shui)來(lai)提(ti)高(gao)能(neng)效(xiao)。但(dan)是(shi),數(shu)據(ju)中(zhong)心(xin)的(de)用(yong)水(shui)已(yi)經(jing)引(yin)起(qi)了(le)很(hen)多(duo)當(dang)地(di)政(zheng)府(fu)的(de)關(guan)注(zhu),尤(you)其(qi)在(zai)水(shui)資(zi)源(yuan)匱(kui)乏(fa)的(de)地(di)區(qu),政(zheng)府(fu)正(zheng)在(zai)出(chu)台(tai)各(ge)項(xiang)政(zheng)策(ce)來(lai)限(xian)製(zhi)和(he)優(you)化(hua)數(shu)據(ju)中(zhong)心(xin)的(de)用(yong)水(shui)。這(zhe)其(qi)中(zhong)包(bao)括(kuo)將(jiang)WUE作為數據中心的設計指標,采用水電雙控政策。因此,減少用水量將成為許多數據中心運營商未來關注的重點領域。
施耐德電氣觀點:
數據中心的WUE值在 0.3-0.45 L/kWh之間是一個相對優秀的數值。施耐德電氣建議根據數據中心所在地域水資源情況、氣候情況和數據中心類型,尋找用電與用水之間的平衡。
行業可以采用絕熱蒸發、間接蒸發冷卻、液冷等各種技術創新,從而減少直接用水量。數據中心運營商應將WUE作為可持續發展目標的一部分,報告用水量/節水量,同時關注用電所帶來的間接用水量。
趨勢七
提升配電能力將成為智算中心新的訴求

在智算中心,隨著機櫃功率密度的提升以及AI機櫃的集群化部署,IT機房的配電麵臨額定容量偏小的挑戰。比如,過去一個300 kW的配電模塊可以支持幾十台甚至是上百台機櫃。而如今,同樣配電模塊的電量甚至無法支持一個最低配置的NVIDIA DGX SuperPOD AI集群(單排358 kW的10個機櫃,每機櫃36 kW)。配電模塊規格太小,使用多個配電模塊不僅浪費ITkongjian,yebiandebuqieshiji。yudangedarongliangpeidianmokuaixiangbi,duogepeidianmokuaihaihuizengjiachengben。huiguipeidiandebenzhi,tigaopeidianrongliangdezhuyaoshouduanjiushizengdadianliu。
施耐德電氣觀點:
在設計時應選擇規格足夠高的配電模塊,實現彈性部署,從而適應未來的配電需求,以至少支持一整排集群為準。
比如,在額定電壓下,800 A的配電模塊是目前適用於所有三種配電類型(PDU,RPP和母線)的標準容量尺寸,可提供576 千瓦(降容後為461 千瓦)。對於末端配電可以使用小母線,從而避免了定製大於63 A額定電流的機櫃PDU。在空間允許的情況下,可以使用多個標準化的機櫃PDU作為過渡。
趨勢八
AI將賦能數據中心的節能改造

數據中心通過提供AI算力推動人類社會向著自動化、數字化和電氣化等更加可持續的方向演進,賦能交通、製造和發電領域減少對環境的影響。反過來,AI也可以賦能數據中心能源的優化,來減少其自身對環境的影響。
比如,AI和機器學習技術可以用於數據中心冷源係統和空調末端的控製,通過對曆史數據的分析,實時監測數據中心氣流分布,並基於數據中心IT負(fu)載(zai)的(de)變(bian)化(hua),實(shi)時(shi)匹(pi)配(pei)合(he)適(shi)的(de)冷(leng)量(liang)輸(shu)出(chu)。通(tong)過(guo)自(zi)動(dong)調(tiao)節(jie)末(mo)端(duan)精(jing)密(mi)空(kong)調(tiao)及(ji)風(feng)機(ji)的(de)運(yun)轉(zhuan)方(fang)式(shi),從(cong)而(er)實(shi)現(xian)動(dong)態(tai)地(di)按(an)需(xu)製(zhi)冷(leng),以(yi)減(jian)少(shao)熱(re)點(dian)並(bing)且(qie)降(jiang)低(di)機(ji)房(fang)的(de)能(neng)源(yuan)消(xiao)耗(hao)與(yu)運(yun)維(wei)成(cheng)本(ben)。
施耐德電氣觀點:
AI技ji術shu在zai機ji房fang空kong調tiao群qun控kong係xi統tong中zhong的de應ying用yong,可ke以yi實shi現xian機ji房fang內nei部bu環huan境jing參can數shu的de智zhi能neng監jian測ce和he控kong製zhi,並bing通tong過guo自zi動dong調tiao節jie與yu優you化hua來lai提ti高gao能neng效xiao和he係xi統tong的de可ke靠kao性xing,從cong而er達da到dao節jie能neng減jian排pai的de目mu的de。
隨著AI技術的持續普及,以及國家對數據中心節能降耗的持續要求,無論是新建還是改造項目,AI技術在數據中心空調群控係統中均將得到更多的關注與應用。
趨勢九
配電係統的占地麵積將引關注

在數據中心設計中,追求IT機房麵積占比的最大化,即盡可能減少輔助設備間的占地麵積,一直都是數據中心設計的主要訴求之一。對於傳統的數據中心,IT機房的麵積與配電室的麵積之比通常為1.5:1左右。隨著AI驅動IT機櫃的高密化,越來越多的IT機房采用液冷方式,液冷IT機房的麵積與配電室的麵積之比將發生逆轉,在0.6:1左右。這時,配電室的占地麵積將引起數據中心設計人員的更多關注,優化配電室的占地麵積也必將成為行業的一個發展方向。
施耐德電氣觀點:
在更小的占地麵積內,提高配電和電源設備的供電容量是有效的途徑之一。
比如,減小UPS係統的占地麵積,包括采用更高功率電源模塊的模塊化UPS,實現兆瓦級單櫃功率;同時采用鋰電池取代鉛酸蓄電池,可以將電池間的占地麵積減少40-60%。集中部署供配電設備(比如:電力撬塊)也可以減少配電間的占地麵積;采用體積緊湊的模塊化配電櫃和池化柴油發電機等應急電源也是有效的手段。
趨勢十
儲能係統在數據中心的價值日益凸顯

UPSxitongzaishixianshujuzhongxindiannengzhiliangzhilihebujianduangongdianfangmianyizhifahuizhezhongyaodezuoyong。suizheshujuzhongxinyunyingshangmianlinzhetigaokechixuxinghecaiwujixiao,tongshibaochihuozengqianggongpeidianxitongdekekaoxinghedanxingdeyali,xindenengyuancunchuhefadianjishutigonglexindekenengxing,danyeduichuantongshujuzhongxinyunyingmoshihedianqijiagoutichuletiaozhan。dianchiheranliaodianchidengfenbushinengyuanjishunenggouyouxiaochanshenghuocunchuqingjienengyuan。
儲能係統除提供傳統UPS係統功能外,還可以通過在用電高峰時釋放存儲的能量來管理電力需求高峰,實現扛峰增載;通過削峰填穀,降低數據中心用電成本,來實現能源成本優化;同時參與電網的需求響應,實現創收。
施耐德電氣觀點:
數(shu)據(ju)中(zhong)心(xin)實(shi)現(xian)可(ke)持(chi)續(xu)發(fa)展(zhan),需(xu)要(yao)降(jiang)低(di)能(neng)源(yuan)成(cheng)本(ben),充(chong)分(fen)利(li)用(yong)擱(ge)淺(qian)的(de)資(zi)產(chan),減(jian)少(shao)對(dui)柴(chai)油(you)發(fa)電(dian)機(ji)的(de)依(yi)賴(lai),並(bing)保(bao)持(chi)獨(du)立(li)於(yu)電(dian)網(wang)的(de)業(ye)務(wu)彈(dan)性(xing),這(zhe)些(xie)需(xu)求(qiu)為(wei)儲(chu)能(neng)係(xi)統(tong)在(zai)數(shu)據(ju)中(zhong)心(xin)的(de)采(cai)用(yong)創(chuang)造(zao)了(le)更(geng)多(duo)有(you)效(xiao)的(de)應(ying)用(yong)場(chang)景(jing)與(yu)價(jia)值(zhi)。
隨著鋰電池儲能係統價格的不斷下降和電氣架構的創新,數據中心可以通過微網係統提供對能源供應的更大控製權和自主權;在沒有微網的情況下,也可以通過部署儲能係統來獲得競爭優勢。
進入2024年,數據中心行業的重點將從傳統數據中心建設轉向智算中心建設,通過不斷的技術創新來實現智算中心的可持續發展與適應下一代IT技術是關鍵所在。
以上對新興趨勢的預測來自施耐德電氣全球數據中心科研中心,該部門設立於上個世紀九十年代。科研中心始終以“探索數據中心行業的技術和發展趨勢,倡導最佳實踐”為(wei)團(tuan)隊(dui)使(shi)命(ming),通(tong)過(guo)發(fa)表(biao)通(tong)俗(su)易(yi)懂(dong)的(de)白(bai)皮(pi)書(shu)和(he)權(quan)衡(heng)工(gong)具(ju)助(zhu)力(li)數(shu)據(ju)中(zhong)心(xin)用(yong)戶(hu)提(ti)高(gao)可(ke)用(yong)性(xing)和(he)優(you)化(hua)能(neng)效(xiao),賦(fu)能(neng)數(shu)據(ju)中(zhong)心(xin)的(de)可(ke)持(chi)續(xu)發(fa)展(zhan),最(zui)大(da)化(hua)數(shu)據(ju)中(zhong)心(xin)的(de)商(shang)業(ye)價(jia)值(zhi)。截(jie)至(zhi)2023年,施耐德電氣科研中心團隊已經發表白皮書230餘篇,每年有超過40萬的下載量;權衡工具30個,每年有超過2萬wan用yong戶hu在zai線xian使shi用yong。所suo有you白bai皮pi書shu和he權quan衡heng工gong具ju都dou免mian費fei提ti供gong給gei整zheng個ge行xing業ye學xue習xi和he使shi用yong,在zai推tui動dong數shu據ju中zhong心xin行xing業ye的de發fa展zhan的de同tong時shi充chong分fen印yin證zheng了le施shi耐nai德de電dian氣qi在zai數shu據ju中zhong心xin行xing業ye思si想xiang領ling袖xiu的de地di位wei。