歡(huān)迎來訪江蘇91视频导航管路係統股份有限公司 官方網站(zhàn)!

新聞中心(xīn)

AI的(de)盡頭是光(guāng)伏、儲能、數據中心?液冷是必(bì)然趨勢?

91视频导航管路 2024-03-12 08:56:05 740次 返回

剛剛過去的周末,光伏、儲(chǔ)能行業迎來重磅利好消息:摩根士丹利調高(gāo)寧德時代目標價,在黃仁(rén)勳、奧特曼兩位(wèi)大佬加(jiā)持下(xià)“儲能與AI”的故事發酵。

640.jpg

圖片來源網絡

摩根士丹利調高寧德時代目標價

3月10日,摩根士丹利發布報告,將中(zhōng)國電池巨頭(tóu)寧德時代(CATL)的評級上(shàng)調至“超配”,並設定目標價為210元人民幣。在報告中,摩根(gēn)士丹利分析師指出,寧德時代(dài)作為全球領先的電池(chí)製造商,受益於電動汽車市場的快速增長和電池需求的攀升。

摩根士丹(dān)利發布報告指出,隨著價格戰接近尾聲,寧德時代準備通過新(xīn)一代大規模生產線提高成本效率,並擴大在淨資產收益率方麵的優勢,看到寧德時代(dài)在基本麵上的多個拐點,上(shàng)調公司(sī)評級至超配,並選為行業首選。

另外,據央視(shì)網10日報道,寧德時(shí)代(dài)董事長曾(céng)毓群(qún)在采訪時談到了近期多家歐美(měi)車企削減或推遲電動化的話題,“歐美(měi)車企沒有回歸燃油車,也沒有停止(電動汽車),可能是因為不(bú)賺錢,所以往後延遲一陣。”

從儲能(néng)業(yè)務來看,寧德時代是當之無愧的王者。國海證券預計,該公司2023年動力和儲能電(diàn)池的出貨量達380GWh以上(shàng),同比增長31%以上。單2023年四季度看(kàn),公司的出(chū)貨量達110GWh以上,同比增(zēng)長14%以上,環比增長10%以上。按(àn)四季度中值計(jì)算,假(jiǎ)設公司的電池業務利潤貢獻在90%,則測算公司單(dān)Wh盈利在1毛左右,與公司2023年前三季度的單位盈利基本保持相當。

黃仁勳、奧特曼:AI的盡(jìn)頭是光(guāng)伏和儲能

消息麵上,在算力爆(bào)炒之後(hòu),“儲能+AI”的故事在剛剛過去(qù)的這個周末發酵了。據報道,英偉達CEO黃仁勳在一次公開演講中指出,AI未來發展與狀和儲能緊(jǐn)密相連。黃仁勳在演講中明確表示:“AI的盡頭是光伏(fú)和儲能!我們不能隻想著算力(lì),如果隻考慮計算機,我們需要燒掉14個地(dì)球的(de)能源。”

早在2月27日,就有人在社交視頻(pín)上(shàng)講“儲能與AI”的故事,引用的也是(shì)所謂“黃(huáng)仁勳的演講”。與此同時,OpenAI的創始人山姆·奧特曼也提出了類似的看法。奧特曼表示,“未來AI的(de)技術取決於(yú)能源,我們需要更多的(de)光伏和儲能。”

ChatGPT日耗電超50萬度

人工智能技術的快速發展,帶來了巨大的算力和能源消耗。據《紐約客》雜誌報道,ChatGPT日耗電超50萬(wàn)度,相當於1.7萬個美國家庭,以響應用戶的約(yuē)2億個請求。

*近(jìn),在博世互聯2024大會上,馬斯克遠程連線接受了博世CEO和董事長的采訪。馬斯克提到人工智能的發展速度前所未見,似乎每過6個月的(de)時間,算力(lì)就會增加10倍,遠遠超出了摩爾定律每18個月翻番(fān)的速度。他預計,兩年內年將由“缺矽(guī)”變為“缺電”,而這可能(néng)阻礙(ài)AI的發展。

“目前算力增長已經麵臨瓶頸,很(hěn)明顯,接下來變壓器會(huì)陷(xiàn)入短缺,緊接著就是(shì)電力,等到2025年,我們將沒有足(zú)夠的電力來運行所有的芯片。”馬斯克稱。

事實上,馬(mǎ)斯克對(duì)電(diàn)力短缺的擔憂也不是一(yī)天兩天了(le),此前曾多次公開強(qiáng)調解決日益增(zēng)長的電力需求的緊迫性。他認(rèn)為,需要加快項目進(jìn)度,以跟上不斷增長的電力需求。

我國台灣地區4月電價調(diào)漲箭在弦上,“電價工作小組”3月12日起將連開4場討(tǎo)論會。其中民(mín)生用電擬分三級距調漲,*小漲幅700度(或500度)以下約(yuē)漲5%,701~1000度(dù)約(yuē)漲7%,1001度以上漲約10%;產業用電依產業別分三級距(jù)調漲,但連二年用電成長(zhǎng)、用電50億度以上“超級大戶”以公司別來(lái)看,調幅*高上看近3成,台積電首當其衝;但用電衰退麵(miàn)板、石化(huà)、鋼鐵,漲幅較小。4月電價方案平均漲幅在10~15%。

波士頓谘詢公司(sī)就曾分析稱,預計(jì)2030年左右,美國(guó)數據(jù)中心的電力(lì)消(xiāo)耗將較2022年增長三(sān)倍,相當於電力總需求的7.5%,會大幅提(tí)升社會用電量。

谘(zī)詢(xún)公司Grid Strategies也曾(céng)發布過(guò)一項研究,認為(wéi)美國未來五年的年(nián)度電力需求增長大約在1.5%左右。而根據EIA的(de)數(shù)據,美國發電量近15年來才增加了不(bú)到3%。過慣了供需相對穩定日子的美國供電體係,和麵臨(lín)不少問題的電網,能否應對驟(zhòu)然增長的需求,尚有待觀(guān)察。

從儲能業務來看,寧德時代是當之無愧的(de)王者。國海(hǎi)證券預計,該公司2023年動力和儲能電池的(de)出(chū)貨量達380GWh以上,同比增長31%以上。單2023年四季度看,公司的出貨量達110GWh以上,同(tóng)比(bǐ)增長14%以上,環比增長10%以上(shàng)。按四季度中值計算,假設公(gōng)司的(de)電(diàn)池業(yè)務利(lì)潤貢(gòng)獻在90%,則測算公司(sī)單Wh盈利在(zài)1毛左(zuǒ)右,與公司2023年(nián)前三季度的(de)單位盈利基本保持相當。

AI大模型下的液冷發展趨勢

摘要

液冷是一種用液體來冷卻電子設備的散熱技術,能夠顯著提高數據中心散熱效率(lǜ)。液冷技術根據(jù)冷卻液(yè)與發熱器件的接觸方式不同,可以分為(wéi)間(jiān)接液冷和直接液冷,其中間接液冷主要包括冷板式液(yè)冷,直接液冷包括浸沒式液冷和噴淋式液冷。冷板式液冷和浸沒式液冷是(shì)目前主流(liú)的液冷形式,冷板式液冷應用*為廣(guǎng)泛(fàn),在(zài)改造成(chéng)本、可維護性、兼容性方麵具備優勢;浸沒式液冷冷卻效果*好(hǎo),節能性上優勢明顯,但可維護(hù)性和兼容性一般,多用於高功(gōng)率密度機(jī)櫃。

控製當前數據中心溫控方式仍以風冷為主,液冷方案中冷板式技術更為普及。2022年數據中心液冷技術的滲透率大概在5%~8%左右,風冷仍然占據90%以(yǐ)上的市場份額。按照服務器(qì)出(chū)貨量口徑統計,2023H1我國冷板式液冷服(fú)務器比例為90%左右,浸沒式液冷滲透率為10%。

數據中心算(suàn)力與能(néng)耗水(shuǐ)漲船高,逐漸超出風冷散熱(rè)閾值,液冷散熱已是趨勢所向。Chatgpt為代表的生成式人工智能模型拉升算力需求,百(bǎi)億參數成為模型湧現門檻,算力成為大模型性能提升(shēng)的關鍵。大模型帶來大算力,大算力帶來高功耗,Intel的多(duō)款CPU芯片的TDP已突破(pò)350W,NVIDIA 的H100係列GPU芯片TDP更是達到700W。這也導致單服務器和單機櫃功率均顯著上升,已經逐漸(jiàn)超出風(fēng)冷散熱的覆蓋範圍,液冷散熱已成為必然趨勢。

PUE限製是現階段液冷技術發展的核心驅(qū)動力。PUE代表數據中心能源使用效(xiào)率,等於數據中心總耗(hào)電/IT設備耗電,比(bǐ)值越接近於1,說明能源越接近全部(bù)都用於IT設備(bèi)負載(zǎi)上。我國數(shù)據中心平均PUE為1.49,仍有半數區域的數據中心PUE位於1.5以上。近幾年,國家與地方出台了一係列針(zhēn)對新建與老(lǎo)舊數據中心PUE的管(guǎn)控計劃,明確(què)要求東、西部樞紐節點(diǎn)數據中心PUE分別控製在1.25、1.2以下。而傳統風冷方案的數據(jù)中(zhōng)心PUE一般在1.5左右,高於政策要(yào)求的範圍;液冷方案(àn)能夠有效降低(dī)冷(lěng)卻係統的能耗水平,從(cóng)而將數據中心整體PUE降低到1.05-1.2左右,滿足相關的政策要求。

數據(jù)中心TCO是液冷技術規模應用的關鍵因素。數據(jù)中心(xīn)總成本(TCO)包(bāo)括建設成本(Capex)和運營成本(Opex)。根據奕信通科(kē)技(jì)在(zài)2022年數據中心標準峰會發布的報告進行測算,以華東地區數據中心(xīn)建設情況為例,現階段冷板式液冷方案的TCO甚至Capex已經低於風冷(lěng),浸(jìn)沒式液冷方案的(de)TCO也將在運行五年(nián)左右之後出現低於風冷方案的拐點。但是該測算結果依賴於一定的前提(tí)條件:如機櫃功率達到30KW、不(bú)計(jì)算服務(wù)器折舊和(hé)服務器運營支出、水電費(fèi)與(yǔ)房租等運營成本按華東地區情況計價、采用集中式大型IDC機房(fáng)且IT設備(bèi)在12個月線性上(shàng)架(jià)後實現80%負載率、外界氣溫對(duì)製冷係(xì)統的能耗需(xū)求較高等。因此在西北部地區、較小型數據中心等場景下液冷技術的經濟性(xìng)尚沒有完全體現。但在數據中心發展的(de)大型化、集約化的趨勢下,且液冷(lěng)方(fāng)案仍存在每年降本5-10%的(de)空間,再考慮到液冷方案能夠有效延長服務器使用壽命,未來(lái)液冷數據中(zhōng)心TCO的優勢(shì)將更加明顯(xiǎn)。

控製數據中心(xīn)液冷未來市場規(guī)模估算:到2025年,中(zhōng)國數據中心液冷市場規(guī)模將(jiāng)達到359億元左右,CAGR達到72.4%;AI數據中(zhōng)心液冷(lěng)市場規模將達(dá)到(dào)280億元左右(yòu),CAGR達到71.4%;通用數(shù)據中心液冷市場規模將達到79億元,CAGR達到76.2%。

1液冷技術詳解

液(yè)冷是一種用液體來冷卻電(diàn)子設備的散熱技術。液冷的工作原理是以液體(tǐ)作為(wéi)冷媒,利用液體(tǐ)的高熱容和高熱傳導性能,通過液體流動將IT設(shè)備(bèi)的(de)內(nèi)部元器件產生的(de)熱(rè)量傳遞到設備外,使IT設備的發熱(rè)器(qì)件得到冷卻,以保證IT設備在安全溫度範圍內運行(本文主要討論數據(jù)中心應用場景下的(de)液冷技術)。根(gēn)據冷(lěng)卻液與發熱器(qì)件的接觸方式不同,可以分為間(jiān)接液冷和直接液冷。間接液冷是指服務器熱源與(yǔ)冷卻液之間(jiān)沒有(yǒu)直接接觸的換熱過程,以冷(lěng)板(bǎn)式液冷技術為主(zhǔ)。直接液冷(lěng)是指將發(fā)熱部件與冷卻液直接接觸的冷卻(què)方式(shì),包括浸沒式和噴淋式液冷技術。其中又可以根據冷(lěng)卻液是否會發生液態到氣態的轉變(biàn),將浸沒式液冷分為單(dān)相浸沒式(shì)液冷和雙相浸沒式液冷。當前(qián),冷板式液(yè)冷和浸沒(méi)式液冷(lěng)為液冷的主要形式。

6402.png

液冷係統通用架構(gòu)包括室外側和室內側兩部分:室外側包含冷卻(què)塔、一(yī)次側管網、一次側冷卻(què)液;室內側包含 CDU、液冷機櫃、ICT 設備、二次(cì)側管(guǎn)網和二次側冷卻(què)液。室外側為外部冷源,通常為室外的冷水機組、冷卻塔或幹冷器,熱量轉移主要通過(guò)水溫的升降實現;室內側包(bāo)括供液環路和服務器內部流道,主要通過冷卻液溫(wēn)度的升降實現熱(rè)量轉移(yí);兩個部分通過CDU中的板式換(huàn)熱器發(fā)生間壁式換熱。

6403.png

1.1 冷板式液(yè)冷

冷板式液冷(lěng)屬於間接液冷,冷卻液不與服務器芯片直接接觸。冷板式液冷也被稱作芯片級(jí)液冷,技術原理是通過在服(fú)務器組件(如 CPU、GPU等高(gāo)發熱(rè)部件)上安裝(zhuāng)液(yè)冷板(通常為銅鋁等導熱金屬構成的封閉腔體),服(fú)務器組件通(tōng)過導(dǎo)熱部件將(jiāng)熱量傳導到液(yè)冷板(bǎn)上,然後利用液(yè)冷板內部的(de)液體循(xún)環將熱量傳遞到遠離服(fú)務器的散熱單元;同時一般會增設風冷單元為低發熱元件進行散(sàn)熱。

冷板式液冷係統(tǒng)主要由(yóu)冷卻(què)塔、CDU、一次側 & 二次側液冷管路、冷卻(què)介質、液冷機櫃(guì)組成;其中液冷機櫃內包含液冷板、設備內液冷管路、流體連接器、分(fèn)液器等。

6404.png

1.2 浸(jìn)沒(méi)式液冷

浸沒式液冷屬於直接液(yè)冷,將發熱器件浸沒在冷卻液中進行熱交(jiāo)換,依靠冷卻液流動循環帶走熱量。

浸沒式液冷係統室外側包含冷卻塔、一次側管網、一次側冷卻液;室內側包含 CDU、浸沒腔體、IT 設備、二次側管網和(hé)二次側冷(lěng)卻液。使用過程中 IT設(shè)備完全浸(jìn)沒在二次側冷卻液中,因此二次側循(xún)環冷卻液需要采用不(bú)導電液體(tǐ),如礦物油、矽油、氟化(huà)液等。

浸沒式液冷(lěng)根據冷(lěng)卻液換熱(rè)過程中是否發生相變,可以進一步分為單相(xiàng)浸沒式液冷和雙相浸沒式液(yè)冷(lěng)技術。

1.2.1 單相浸沒(méi)式(shì)液冷

在單相浸沒式液冷中(zhōng),冷卻液在熱量(liàng)傳遞過程中僅發(fā)生溫度變化(huà),而不(bú)存在相態轉變。單相浸沒式液冷的(de)技術原理為:CDU循環泵(bèng)驅動二次側低溫冷卻液由浸沒腔體底部進入,流經豎插在浸沒腔體中的IT設備時帶走發熱(rè)器件熱量;吸(xī)收熱量升溫後的二次側冷(lěng)卻液由浸沒腔體頂部出口流回CDU;通過CDU內部的板式換熱器將吸收的熱量傳遞給一次側冷卻液;吸熱升溫後的(de)一次側冷卻液通過外部(bù)冷卻裝置(如冷卻塔)將熱量排放到大氣環境中,完成整個冷卻過(guò)程。

6405.png

1.2.2 雙相浸沒式液冷

雙相浸沒式液冷的不同之處在於冷(lěng)卻液會發生相態轉變。雙相浸沒式液冷的傳熱路徑與單相浸沒液冷基(jī)本一致,主要差異在於二次側冷卻液僅在浸沒腔體內部循環區域,浸(jìn)沒腔體內頂部為氣態區、底部為液態區;IT設備完全浸沒在低沸點的液態(tài)冷(lěng)卻液中,液態冷(lěng)卻液吸(xī)收設備(bèi)熱量後發生沸騰,汽化產生的高溫氣態冷卻液因密度較(jiào)小(xiǎo),會逐漸匯聚到浸沒腔體頂部,與安(ān)裝在頂部的冷凝器發生換熱後冷凝為低溫液態冷卻液(yè),隨後(hòu)在重(chóng)力作用下(xià)回流至腔體底部,實現對IT設備的散熱。

6406.png

1.3  淋式液冷

噴(pēn)淋式液冷屬於直接液冷,將冷卻液精準噴灑於電子設(shè)備器件進行散熱。冷(lěng)卻液借助特製的噴淋板精準噴灑至發熱器件或與之相連接的固體導(dǎo)熱材料上,並與之進(jìn)行熱交換,吸熱後的冷卻液換熱後將通過回(huí)液管、回液箱等集液裝置進行收集並通過循環泵輸送至(zhì)CDU進行下一次製冷(lěng)循環。

噴(pēn)淋式液冷係統主要由冷卻塔、CDU、一次側(cè) & 二次側(cè)液冷管(guǎn)路、冷卻介質和噴淋式液冷(lěng)機櫃組成;其中噴(pēn)淋式(shì)液冷機櫃通常包(bāo)含(hán)管路係統、布液係統、噴(pēn)淋模塊(kuài)、回液係統等。

6407.png

1.4 不同液冷方案的比較

6408.png

1.4.1 冷板式液(yè)冷目前(qián)應用(yòng)*為廣泛,在改造成本、可維護性、兼容性方麵具備優勢

冷板式液冷的優勢主要在於:

1)兼容性:冷板式液冷的改(gǎi)造成本(běn)相對較低,不需要對數據中(zhōng)心(xīn)現有的機房及(jí)機櫃進行大規模改造,其適用的硬盤、光模塊等服務器(qì)部件與風冷方案一致(zhì),運維模(mó)式、機房承(chéng)重與風(fēng)冷場景也基本一致;

2)散熱效果與節能性:冷卻效(xiào)果和節能性要遠好於風冷,PUE可以達到1.2左右;(據《綠色高能效數據中心散熱冷卻技(jì)術研究現狀及發展趨勢》數據顯示,風冷散(sàn)熱下數據中心的 PUE 值通常在1.5左右)

3)可靠性:液體與設備不直接接觸,可靠性更高;

4)維護性:易開展維(wéi)護性設(shè)計,可實現在線維護方案;

5)噪聲(shēng):風(fēng)機(jī)轉速大幅降低,噪聲值可至 70dB 左(zuǒ)右。

冷板(bǎn)式液冷的局限性主要在(zài)於:

1)液體沒有與(yǔ)電子器(qì)件直接接觸,而是通過(guò)金屬管壁進行熱交換,與直接(jiē)接觸的浸沒式液冷相比冷卻與節能效(xiào)果欠佳;

2)IT設(shè)備、冷卻液、管路、供配電等不統一,服務器多與(yǔ)機櫃深耦合;

3)管(guǎn)路接頭(tóu)、密封件較多,漏液(yè)維護複雜。

1.4.2  浸沒式液冷(lěng)的散熱效果和節能性優勢明顯,但兼容性和維護性一般,多用於高功率密度(dù)機(jī)櫃

浸沒式液冷的(de)優(yōu)勢(shì)主要在於:

1)散熱效果與節能(néng)性(xìng):與冷板式液冷相比(bǐ),浸沒式液(yè)冷中(zhōng)采用了直接接觸式的熱交(jiāo)換,傳熱係數高,冷卻效果(guǒ)更好,節能性更強(雙相浸沒式液冷方案的PUE在1.04-1.07左右,單相浸沒式為1.09左右)

2)緊湊:支持高密機櫃,單櫃(guì)散熱量高達160kW;同時,機櫃間無需隔開距離,機房不需要空調和冷凍機組、無需架(jià)空地板、無需安裝冷熱通道封閉設施;

3)可(kě)靠性(xìng):設備完(wán)全浸沒在液體中,排除了溫度、風機振動、灰塵等帶來的可靠性問題;

4)噪聲:100%液體冷卻,無需配置風扇,實現**“靜音”機房(fáng)。

浸沒式液冷的局限(xiàn)性主要在於:

1)兼(jiān)容性(xìng)較差:IT設備需要定製,光模塊、硬盤等部件兼(jiān)容性仍待驗證;此外,雙相浸沒式液冷方案(àn)適配的服務(wù)器需改為刀片式,其專用(yòng)機櫃對(duì)於管路要求高,控製複雜;

2)維護複雜:浸沒式液冷設備維護時需要打開Tank上蓋,並配備可移動機械吊臂(bì)或專業(yè)維護車實現設備的豎直插拔,維護複雜度高(gāo),耗時長;且開蓋維護過程有一定(dìng)的冷卻(què)液揮發問題,增加運(yùn)行成本;

3)承重要求高(gāo):因浸沒式液冷係統Tank內充滿冷卻液,整櫃重量大幅增加,對機房有特殊承重要求,普遍要求浸沒式液冷機房地板承重應大於1500kg/m2;

4)國產冷媒(méi)待驗證:單相浸(jìn)沒式液冷方案所使用的國(guó)產冷媒仍待驗證。

浸沒式液冷比較適用於對功率密度、節能性要求較高的大型數據(jù)中心,特別是地理位置較為特殊、空間有限的數據中心。

1.4.3 噴淋式液冷在安裝便(biàn)利性、空間利用等方麵有優勢,但是現階(jiē)段落地應用相對較少

噴淋式液(yè)冷不需要對數據中心基礎設施進行大幅改動,安裝便捷,空間利用率高,且噴淋方式能夠(gòu)節(jiē)省冷卻液,其不(bú)足在於服務器整體密封於氣相(xiàng)櫃中,排(pái)液、補液,維護時會破壞服務器原有密(mì)封結構。目前噴淋式液冷技術的應(yīng)用場景有限,隻有少量(liàng)數據中心采用了噴淋式液冷技術。

2 數(shù)據(jù)中心(xīn)液冷行業基本情況與競爭格局

2.1 基本情況:數據中心液冷行業如日方(fāng)升,液冷技(jì)術有望(wàng)加速導入

數據中心溫控方式(shì)仍以風冷為主,液冷技術有望加速導入(rù)。目前數據中心的散熱方式仍然以風(fēng)冷為主,在算力設備以及數據中心機房的高(gāo)熱密度趨勢和高(gāo)能效散熱要求的雙重推動下,預計未來液冷將成為主流(liú)的數據中心溫控(kòng)方式。根據產業調(diào)研與曙光數創(chuàng)的信息,2022年數據中(zhōng)心(xīn)液冷技術的滲透率大概在5%~8%左右,風冷仍(réng)然占據90%以上(shàng)的市場份額;預計2025-2028年時液冷技術的滲透率有望達到(dào)30%。

液冷方式以冷板(bǎn)式為主,浸沒式技術有(yǒu)望加速推廣(guǎng)。當前主流的液(yè)冷技術包括冷板式液冷和浸沒式液冷,由於冷(lěng)板式液冷對於數據(jù)中心的(de)改(gǎi)造難度較低,改造所需(xū)成本也較為可控,所以目前冷板式液冷的市場應用相(xiàng)對更加普及。根據IDC《中國半年度液冷服務器市場(2023上半年)跟蹤(zōng)》報(bào)告,按照服(fú)務器出貨量口徑統計,2023H1我(wǒ)國冷板式液冷服務(wù)器比(bǐ)例達到90%左右,浸沒式液冷(lěng)滲透率僅(jǐn)為10%。但隨著國家對(duì)於(yú)數據中心PUE的政策要求的愈發嚴格,機櫃功率密度的持續抬升以(yǐ)及浸沒式液冷技術的逐漸成熟(shú),浸沒式液冷方(fāng)案有望進入加(jiā)速推廣期。

2.2 產(chǎn)業鏈:涉及(jí)環(huán)節眾多,存在較高進入壁壘

液冷產業鏈涉及環節眾多,包括上遊的液冷(lěng)設備及產品零(líng)部件提供商、中遊的液冷服務器及液冷基礎設施提供商(shāng)與下遊的數據中心(xīn)使用者。上遊(yóu)主要為產(chǎn)品零部件及液冷設備,包括快速接頭、CDU、電磁閥、浸沒液冷TANK、manifold、冷卻(què)液(yè)等產品,代表性廠商有英維克、3M、高瀾股份(fèn)、雲酷、奕信通、廣東合一、綠色雲圖(tú)、巨化股份(fèn)等。中(zhōng)遊主要為液冷服務器、芯片廠商以及液冷集成(chéng)設施、模塊與(yǔ)機櫃等,代表性廠商有華為、中興、浪潮、曙光、新華三、聯(lián)想、超聚變、英特爾等。下遊(yóu)主要為數據中(zhōng)心的使用者,包括三(sān)家電信運營商,百度、阿裏巴巴、騰訊、京東等互(hù)聯網企業,數據港、光環新網等第(dì)三方(fāng)IDC服務商以及政府、科研(yán)機構、金融、能源、交通等其他信息化需求客戶。

6409.png

產業鏈(liàn)存在較高的技術、人才、客戶認證壁壘。

1)技術壁壘:液冷數據中心基礎設施產品的(de)研發和製造(zào)涉及冷卻技術、製(zhì)冷係統設計及仿真技術(shù)、溫濕度解耦(ǒu)控(kòng)製算法等多項技術領域,要求企業在液冷核心技術進行多年研究積(jī)累,深入掌握液冷技術的相關原理和應用。此外,液冷數據中心基礎設施產品工藝流(liú)程複雜,需要掌握生產製造流程中的核心(xīn)工藝,同時需具備(bèi)成熟的控製體係,對產品質量進行把控,保證產品的合格率(lǜ),因此數(shù)據中心液冷行業具有較高的技術(shù)壁壘。

2)人才壁壘:液冷數據(jù)中心基礎設施領域屬於新興技術密集型產業,產品性能涉及材料化學、熱力(lì)學、電子學、計算機科學等多學科,並且數據中心的製(zhì)冷係統存在定製化特征,因此對研發技術人員的技術研發能力和行業經驗要求較高。目前行業(yè)發展曆程較短,技術與產品仍處於驗證階(jiē)段,高端技術人才相對稀缺,且高端人才主要(yào)集中規模較大的企業以及***研究(jiū)機構中,因此新進企業難以在短期內(nèi)培養出(chū)一批具備技術開發實力並擁有(yǒu)豐富(fù)實踐項目經驗的(de)專(zhuān)業技術隊伍,由此(cǐ)數據中心液冷行業存在較高的(de)專業人(rén)才壁(bì)壘。

3)客戶認證壁壘:出於安全(quán)性、穩(wěn)定(dìng)性等考慮(lǜ),企業客戶在選擇液冷數據中心基礎設施供應商時通常需要(yào)進行嚴格的資質驗證。尤其是(shì)金(jīn)融(róng)、醫藥等機構出於數據安全、保密等要求,對液冷數據中心基礎設施解決方案供應商挑選非常(cháng)嚴格,需要對企業產品質(zhì)量(liàng)水平、項目經驗、技術研發能力進行綜合考察,因此認證過程複雜且耗時較長。液冷數據中心基礎設施廠商應具備較強的產品研發能力、穩定的(de)產品供應以及(jí)售後服務經驗,同時具(jù)備豐富(fù)的技術儲備,才能滿足不同客戶的需求(qiú)。另一方麵,由於更換液冷數據中心基礎設施供應商會對產品的穩定性形成風險,客戶在與液(yè)冷數據中心基礎設施供應商建立生產配套關係後,傾向於維持與現有技術供(gòng)應商的合作,不會輕易更換主要供應商,因此先進入者一旦建立起自身客戶資源、形成先發優勢,新進入企業將很(hěn)難在短期內(nèi)爭奪市場份額、改變行業現有格局,因此數據中心液冷行業(yè)具有(yǒu)較高的客戶認證門檻。

2.3 競爭格局:行業仍處於技術(shù)驗證階段,市場格局尚不明確

目前液冷行業仍處於技術驗證階段,技術路線(xiàn)、產品(pǐn)結構、行業標準等還無定數,國外廠商難以進入中國市場,市場競爭格局尚不明確。目前市場中主要廠商在液冷技術和產品方麵還處於實驗研究或初步應用階段(duàn),產品(pǐn)結構與行(háng)業標(biāo)準尚在演進,市場內還未形成具備較強核心競爭力的龍頭廠商,市(shì)場(chǎng)競爭格局尚未穩定。此(cǐ)外,由於(yú)中國(guó)對(duì)數據安全的(de)保護,在數據中心基(jī)礎設施的供應方麵存在一定的地域壁壘,因此,目前國(guó)外廠(chǎng)商的產品的(de)應用主要以其本國市場(chǎng)為主,進入中國市場較為(wéi)困難。

3 數據中心液冷行(háng)業未來看點

3.1 推理/訓(xùn)練服務器功耗有望達到10/2kW,液冷方案成為首選

生(shēng)成式人工智能(néng)橫空出世,助推AI算力景(jǐng)氣度。受ChatGPT為代表的(de)生成式人工智能大模型等新業(yè)態帶動,全新的AI應用場景(jǐng)有望在未來3-5年爆發,百億參數是大模型(xíng)具備湧現能力的門檻,千億參數的大(dà)模型將具備較好的湧現能力,AI算(suàn)力成為大模型(xíng)能力提升的核心驅動力。現階段ChatGPT的總算力消耗(hào)達到了3640PF-day(每秒計算一千萬億次,需要計算3640天),需要(yào)7-8個投資(zī)規模30億元,算力500P的超大數據中(zhōng)心才能支撐其訓練過程,AI算力(lì)的重要(yào)性不言而喻。據IDC預測,全球AI算力市場規模將從2022年的195.0億美元增(zēng)長到2026年的346.6億美元,其中生(shēng)成式AI算(suàn)力市場規(guī)模將從2022年的8.2億美元(yuán)增長到2026年(nián)的109.9億美元,生成式AI算(suàn)力占整體AI算力市場規模的比例將從4.2%增長到31.7%。

64010.png

大模型帶來高算力,高算力帶(dài)來高功耗。隨著AI計算、HPC計算等高性(xìng)能計算需求不斷提升,CPU、GPU等計(jì)算芯片朝高算力、高集成方向演進,同時也導致單顆計算芯(xīn)片功(gōng)耗的(de)大幅提升。對於CPU、GPU、ASIC等計算(suàn)芯(xīn)片而言(yán),一方麵可以通過增加計算核心數或提高單核心的(de)主頻等方式來(lái)提高算力,此舉會(huì)顯著增加芯片的TDP(熱設計功耗);另一方麵可以依靠先進製程技術來縮(suō)減單位算力對應的TDP(TDP/算力(lì))。但是由於先進製程技術推進較慢(màn)等因素,單位算力對應TDP的(de)下降幅度逐年減(jiǎn)少,且遠不及算力的增長(zhǎng)速度,這也(yě)導致了(le)AI芯片(piàn)功耗的大幅攀升。當前,Intel的多款CPU芯片的TDP已突破350W,NVIDIA 的H100係列GPU芯片的TDP更高達700W。

64011.png

計算芯片高功耗(hào)造成單服務器功耗顯著提高。單(dān)服務器功耗大(dà)部分源於計算芯片,服務器的核心組件包括CPU(中央處理器)、GPU(圖形(xíng)處理器)、內存(cún)芯片、SSD(固態硬盤)、網卡、PCB主板(bǎn)、RAID卡、HBA卡和電源等。CPU/GPU等計算芯片在通用服務器功(gōng)耗中占比約為50%左右,而在AI服務器(qì)中,計算芯片的功耗占比高達80%以上。我們參考2022-2023年中國電信集采AI服務器配置(zhì)與阿裏雲通用服務器配置進行功(gōng)耗計算,服務器的功(gōng)耗可以粗略估計為所有組件的功耗(hào)總和(hé);選取超聚(jù)變FusionServer 2288 V7作(zuò)為通用服務器的代(dài)表型號,超聚變FusionServer G5500 V6作為AI訓練服務器的代表型號,超聚變FusionServer G8600 V7作為(wéi)AI推理服務器的代表型號。

通過我們的測算,通用服務器的(de)總功耗為595W,AI訓練服務器的總功耗為7015W,AI推理服務(wù)器(qì)的總(zǒng)功耗為1615W。但是由於芯片超頻,額外的(de)NVLINK模組等因素的存在,計算(suàn)芯片的實際滿載功耗往往會高於官方標(biāo)定的功耗。以上因素導致服務(wù)器的實際功耗(hào)可能會高於各組件的總功(gōng)耗(hào),具體(tǐ)的功(gōng)耗(hào)還要以實際測試為準。根據超聚變服(fú)務器功耗計算器的測算,當前配置下的(de)通用服務器的實際滿載功耗(hào)為700W左右,AI訓練服務器的實際(jì)滿載功(gōng)耗為9800W左右,AI推理服務器的實際滿載(zǎi)功耗為2000W左右。(該過程僅為根據公開資料的估算(suàn),請以實際環境和負載下的測算為準)

64012.png

隨著服務器功耗提高,單機櫃功率上升趨(qū)勢明顯。根據Uptime Institute相關報告數據顯示,2020年全(quán)球數據中心單(dān)機櫃功率密度達到(dào)8.4kW/機櫃,相比於2017年的5.6 kW/機櫃有明顯提升;其中71%的(de)數據中心平均功率(lǜ)密度低於10 kW/機櫃,17%的數據中心平均功(gōng)率密度高於20kW/機櫃,預計未(wèi)來數據中心功率密度將繼續上升(shēng),高密度數據中心占比將持續提高。

單機櫃功率逐漸超出風冷散熱閾值,液冷散熱已是趨勢所向。風冷散熱一般適用於20Kw/機(jī)櫃左右的(de)功率密度以下,20Kw/機櫃以上時液冷散熱優勢明(míng)顯。通用服務器通常為2U,AI訓練服務器通常為6U,AI推(tuī)理服務器通常為4U,標準機櫃為42U;考慮到電源模塊、網絡模(mó)塊等因素,假設單機櫃內可以放置(zhì)18個(gè)通用服務器或(huò)6個AI訓(xùn)練服務器或9個AI推理服務器,根據(jù)之前對於服(fú)務器功耗的(de)測算,則單機櫃功(gōng)率可以分別達到12.6kW(通用),58.8kW(AI訓練)和18kW(AI推理);考慮到機櫃中其他模塊的散熱情況,實際單機櫃功率會更高。對於通用(yòng)服務器機(jī)櫃,其單機(jī)櫃功率已(yǐ)經(jīng)開(kāi)始逐步靠(kào)近風冷(lěng)散熱閾值,隨(suí)著通用(yòng)服(fú)務器功耗的持續上升,液冷散熱的優(yōu)勢有望逐步顯現(xiàn);對於AI訓(xùn)練(liàn)與推理服務器機櫃,其單機櫃功率(lǜ)已(yǐ)經逼近或者超出了風(fēng)冷散熱所能覆蓋的功率密度範圍,液冷散熱已成大勢所趨。

3.2 PUE限製是現階段液冷技(jì)術發展的(de)核心驅動力

數據中心耗電量不(bú)斷提(tí)升,綠色低碳成為必然趨勢。數(shù)據中心(xīn)是(shì)能耗大戶,其包含大量(liàng)的(de) IT 設備(bèi)、供電與製冷設備。隨(suí)著數據中心算力與(yǔ)功耗的不斷增長,數據(jù)中心耗電量必將呈(chéng)快速增長趨勢,綠色低(dī)碳必(bì)將並且已經成為新型數據(jù)中(zhōng)心發展(zhǎn)的重要基本原則之一。

我國數據中心平均PUE為1.49,仍有半數區(qū)域的數據中心PUE位於1.5以上。PUE 全稱 “Power Usage Effectiveness(能源使用(yòng)效率)”,是數據中心(xīn)消耗的一(yī)切能源與 IT 負載運用的能源之比,比值越接近於1,說明能源越接近全部都用(yòng)於 IT 負(fù)載上。目(mù)前我國一半以上區域的數據中心 PUE 值都在 1.5 以上,即消(xiāo)耗(hào)在冷卻等非 IT 負載上的能源,占到了 IT 負載的一半以上。截至2021年全國數據中心平均PUE為1.49,還有華南、華(huá)東(dōng)、西北和西南區域的數據中心PUE超過(guò)1.50,僅有東北、華北和華東區域的數(shù)據中心PUE在1.50以下。

64013.png

數據中心PUE管控日趨嚴格,針對老舊與新建數據中心均出台強力(lì)約束措施。國(guó)家與地方出台了一係列政策對數(shù)據(jù)中心能耗管理進行(háng)規範,不斷強調數據中心綠色高質量(liàng)發展的(de)重(chóng)要性。2021年7月,工(gōng)信部印發《新型數據中心(xīn)發展三年行動計劃(2021-2023年)》,要求到2021年底,新建大型及以上數據中心PUE降(jiàng)低到1.35以下;到2023年底,新建大型(xíng)及以上數據中心(xīn)PUE降低(dī)到1.3以下,嚴寒和(hé)寒冷地區降低到1.25以下。2022年8月,工信部等七部門印發《信息通信行業綠色低碳(tàn)發展行動計劃(2022-2025年)》,要求到2025年(nián),全國新建大型、超大型數(shù)據中心電能(néng)利用(yòng)效率(PUE)降到1.3以下,改建核心機房PUE降到(dào)1.5以下。除此之外,地方也出台了一係列數據中心PUE要求相關的政策文件,其中北(běi)京針對數(shù)據中心的年能源消耗量設立(lì)了多層次PUE要求,年能源消耗量越高的數據中心PUE要求越高,此外還(hái)針對PUE超(chāo)過1.4的數據中(zhōng)心實行電價加價措施。

640.png

64014.png


冷卻係統占據數據(jù)中心除IT設備(bèi)負載外的能耗中的(de)絕大部分,液冷技術能夠有效降低冷卻係統能耗,進而降低數據中心PUE,滿(mǎn)足監管政策要求。PUE為1.92的數據中心下冷(lěng)卻係統能(néng)耗占(zhàn)總能耗的比例為38%左右,而PUE為1.3的數據中心下冷卻係統能耗占比(bǐ)下降(jiàng)至18%,這意味著降(jiàng)低數據中心PUE的關鍵就在於降低(dī)冷卻係統的能耗表現。在同(tóng)等的(de)散(sàn)熱水平下,傳統風冷方案的數(shù)據中心PUE一般為1.5左右,液冷方案的PUE值可降至1.05-1.2左右,能夠滿足(zú)當前政策對於數(shù)據(jù)中心PUE的要求。

3.3 數據中心TCO是液冷(lěng)技術規模應用的關鍵因素

數據中心總成本(TCO)包括建設成本(Capex)和運營成本(Opex)。Capex一般指建設成本,包(bāo)括土地獲取、勘察、規劃設計、設備購置、建設、安裝以及係統調測等費用;Opex一般指運營成本,主要包含電力、冷卻散熱等基礎設施(shī)成本、維護成(chéng)本及管理成本。低成本是數(shù)據中心建(jiàn)立(lì)競爭優勢的關鍵,也是(shì)降低投資回收期和持續發(fā)展的關鍵。

我們基於華東(dōng)地區、2N UPS、30kW每機櫃等常見數據中心配置進行風(fēng)冷(lěng)、冷板式液冷和浸(jìn)沒式液冷等不同冷卻方式下的TCO測算(本文關於TCO的討論均不考慮服務器等IT設備成(chéng)本)。市場普遍認為,風冷方案在Capex上更具經濟性,液冷方案隻在後續的(de)Opex中有一定的優勢。但是根據奕信通科技在(zài)2022年數據中心標準峰會(CDCC)發布的報告進行測算,現階段選擇冷板式液冷方案(àn)的Capex已經低於風冷方案,即便是浸沒式液冷方案,也將在(zài)運行5年左右之後出現(xiàn)TCO低於風冷方案的拐點。(該過程僅為根據公開資料的估算(suàn),請以實際環境和負載下的測算(suàn)為準)

但是該(gāi)測算結果依(yī)賴於一定的前提條件:如機(jī)櫃功率達(dá)到30KW、不計算服務器折舊和服務器(qì)運營支出、水電費與房租等運營成本按華東地區情況計(jì)價、采用集中式大型IDC機房(fáng)且IT設備在12個月線性上(shàng)架後實(shí)現80%負載率、外界氣溫(wēn)對製冷係統的能耗需求較高等。因此在西北部地區、較小型數據中心等場景(jǐng)下液冷(lěng)技術的經濟性尚沒(méi)有完全體現。但在數據中心發展的大型化、集約化的趨勢(shì)下,且液(yè)冷方案仍存在每(měi)年降(jiàng)本5-10%的空間,再考慮到液冷方(fāng)案(àn)能夠有(yǒu)效(xiào)延長服務器使(shǐ)用壽命,未來液冷數據中(zhōng)心TCO的優勢將(jiāng)更加明顯。

64015.png

機電(diàn)部分包括(kuò)製冷係統、配電係統、機櫃係統、布線(xiàn)係統和監控管理係統的購置和安裝成本,不考(kǎo)慮IT設備成本。

64016.png

液冷(lěng)方案與風冷方案相比:1)其機電部分的Capex可以節省掉冷凍水(shuǐ)機(jī)組/冷凍水精密空調,減少UPS和開關設備的容量(liàng)等;2)需要增加密封機箱、冷卻液(yè)、冷板、熱交換器、防滴漏連接器和機架式分液器等液冷(lěng)設備方麵的(de)成本;3)液冷方案下同樣外電體量的數據中心內空(kōng)間利用(yòng)率更高,能承載(zǎi)更多IT設(shè)備,每ITkW(IT設(shè)備(bèi)功率(lǜ))下(xià)的分攤成本更低。根據假(jiǎ)設條件測算(suàn),風(fēng)冷、冷板式液冷(lěng)、浸沒式液冷方案的機(jī)電部分Capex分(fèn)別為16000-18000元/ITkW、15000-17000元/ITkW和23000-28000元/ITkW左右。冷板式液冷方案下分攤到每ITkW下的機電部分(fèn)Capex與風冷方案基本持平甚至更低;浸沒式液冷方(fāng)案所需增加(jiā)的機電設備較多,分攤下(xià)來每ITkW的Capex相比(bǐ)於風冷仍有7000-10000元/ITkW左右(yòu)的上升。

64017.png

土建部分主要包括建築物成本。風冷和液冷方案的土建成本差異(yì)主要在於(yú)同樣體量(liàng)的數據中心內,液冷方案(àn)下建築(zhù)所需的建築(zhù)麵積更小。根(gēn)據奕信(xìn)通科(kē)技測算,風冷、冷板(bǎn)式液冷、浸沒式液冷的土建部分Capex分別為5000元/ITkW,3000元(yuán)/ITkW和3500元/ITkW左右。

外電(diàn)和能評(píng)部分主要包(bāo)括獲取外電資源,通過能評(píng)驗收(shōu)所需付出的(de)成本。與風冷相比,液冷方案的PUE更低更節能,獲取外電資源,通過能評(píng)驗收的難度相對(duì)會小(xiǎo)很多。根據奕信通科技測算,風冷、冷板式液冷、浸沒式液冷的外(wài)電和能評部分Capex分別為4000元/ITkW,2000元/ITkW和2000元/ITkW左右。

64018.png

Opex中占比*高的(de)是電力成本,液冷技術可以有效降低電力成本。數據中心的(de)Opex主要包括電力成本、固定資產折舊、房租、人工費等等,其(qí)中電力(lì)成本占比*高,達到56.7%(風冷情況下)。

64019.png

浸沒式液冷方案的Opex*具優勢。根據奕信通科技測算,風冷(lěng)方案的Opex為9360-9720元(yuán)/ITkw/年左右(yòu),冷板式液冷(lěng)方案的Opex為(wéi)8040-8400元/ITkw/年左(zuǒ)右(yòu),浸沒式液冷方案的Opex是7800-8160元/ITkw/年(nián)左右。

64020.png

現階段選擇冷板式(shì)液冷的初始TCO已經低於風冷,浸沒式(shì)液冷的TCO將在5-6年之後低於風冷(lěng)。我們根據以上測算(suàn)結果進行10年期的TCO測算,那麽風冷的Capex和Opex分別為26000元/ITkW和9540元/ITkW/年(nián),冷板式液冷的Capex和Opex分別為21000元/ITkW和8220元/ITkW/年,浸沒式液冷的Capex和Opex分別為31000元/ITkW和7980元/ITkW/年。根據TCO測算,現階段冷板式液冷方(fāng)案的(de)TCO從開(kāi)始(shǐ)就已(yǐ)經低於風冷方(fāng)案,浸(jìn)沒式(shì)液冷方案也將在5年左右之後出現TCO低於風冷方案的拐點。

64021.png

3.4 液冷技術能夠有效(xiào)延長(zhǎng)服務器使用壽命,實現降本增效

傳統電子設備(bèi)普遍采用空氣冷卻方式(shì),溫度是電子設備(bèi)產生故障的主要原因之一。環境的多(duō)樣性包括溫度、濕度、振動、灰塵等多個方麵,在導致電子設備失效的因素中溫度占了55%,過熱是電子設備產生(shēng)故障的(de)主要誘因(yīn)。隨(suí)著溫度的增加,電子、原子、分子的運動(dòng)速度加快,使得電子(zǐ)設備的性能(néng)發生變化,當達到一定階段時,就會(huì)引起嚴重的故障。在高於一般室內環境溫度(約20°C~25°C)範圍內條件下,故障率大致按(àn)指(zhǐ)數規律隨溫度的升高而增加。同(tóng)時,濕度、振動、灰塵等因素同樣會(huì)對電子設(shè)備的工作性能和使用壽命產生負麵影響。

64022.png

液冷能夠有效降低服務器部件故(gù)障率,延長使用壽命。液體具有比空氣更大的比熱容,散熱能力更強,使得服務器溫度更加(jiā)穩定,CPU和GPU計算部件可以長(zhǎng)時間穩定工作在(zài)高性能頻(pín)率狀(zhuàng)態。此外,浸沒式液冷將IT設備(bèi)浸入封閉的液體環境中,與空氣完全隔(gé)離,並且不再需要高速(sù)風扇(shàn)進行散熱,消除了空氣濕度、風扇振動以及灰塵(chén)帶來的可(kě)靠性影響(xiǎng),從而優化了服務器的運行環境,延長了設備的(de)使用壽命。根據阿裏雲的實驗數據,與風冷服務器相比,液冷服(fú)務器整體(tǐ)部件故(gù)障率下降約53%,其中電源、網卡(kǎ)、風(fēng)扇、網線等部件的故障率下降超過80%。隨(suí)著單服務器價值量以及數據中心運營成本的與(yǔ)日俱增,服務(wù)器的可靠性與使用壽命顯得尤為重要,液冷帶來的附(fù)加經濟價值有望逐步顯現。

64023.png

3.5 解耦交付模式成為未來發展趨勢,助力液冷產業規範化發展

目(mù)前冷板式液冷方(fāng)案的交付模式可以分為(wéi)兩類,包括一體化交付與解(jiě)耦交付兩種。一(yī)體化交(jiāo)付是指液冷機櫃的所有部分,包括機櫃和服(fú)務器等,都按照廠(chǎng)商自行設定的標準(zhǔn)進行集成設計開發,然後再作為一個整體進行交付。而解耦交付則要求液冷機櫃與液冷服務器之間遵循用戶預先製定的通(tōng)用接口設計規範,機櫃與服(fú)務器可以分別由不同廠商負責生(shēng)產和交付。

64024.png

6401.png

解耦交付模式為大勢所趨,助推冷板式液(yè)冷產業規範化(huà)發展(zhǎn)。服務器與機櫃解耦(ǒu)更有利於形成統一的技術標(biāo)準及規範,能夠促進行業(yè)競爭與(yǔ)技術推廣,讓更多廠商能夠參與液冷行業,實現多廠(chǎng)家適配,也便於後(hòu)續靈活部署,使得客戶(hù)可以根據實際需(xū)求(qiú)選擇不同的服務器(qì)和機櫃組合,不會受限於某一個供應商。目(mù)前華(huá)為、超聚變等液冷廠商已經實現了(le)盲插快接,中國移動(dòng)也已經著手研發新(xīn)型機櫃,並計劃在完成測試後開源,推動更多的服務器和機櫃(guì)廠商參與到(dào)盲插解耦(ǒu)液冷技術的研發與驗證中,推動技術(shù)成熟(shú)與規範化。

64025.png

4 數據中心(xīn)液冷未(wèi)來市(shì)場規模(mó)估算

根據估算,到2025年,中國數據中心液冷市場規模將達到359億(yì)元左右,CAGR達到72.4%;AI數據中心液冷市場規模將達到280億元左右,CAGR達到71.4%;通用數據(jù)中心液冷市場規模將達到79億元(yuán),CAGR達到76.2%。核心假設如下:

1)假設通用服務器的平均功率為0.7kW。以超聚變FusionServer 2288 V7(2U)作為(wéi)通用服務器的代表型號,在超聚變服務器功耗計算器中(zhōng)測算得出其滿(mǎn)載(zǎi)功率約為0.7kW。

2)假設AI服務器的平均功率為3.8kW,其中AI訓練服(fú)務器(qì)平均(jun1)功率為8kW,AI推理服(fú)務器為2kW。根據產業(yè)調研數據,假設AI服務器中訓練與(yǔ)推理的數(shù)量關係約為3:7,訓練服(fú)務器中H係列和A係列所占比(bǐ)例約為(wéi)4:6,推理服務器(qì)均為(wéi)T4係列。以超聚變FusionServer G5500 V6作為AI訓練服務器的(de)代表型號,超聚變FusionServer G8600 V7作為AI推(tuī)理服務器的代(dài)表型號,根據超聚變服(fú)務器功耗計算器,H係列訓練服務器滿載功率約為10kW,A係列訓(xùn)練服(fú)務器滿載功率約為6.8kW,T4係列(liè)推理服務器的功率約為2KW。結(jié)合以上數量比例關係,可以(yǐ)估算出AI服務器(qì)平均功率(lǜ)約為3.8kW。

3)假(jiǎ)設通用服務器平均功率每年(nián)提升10%,AI訓練與(yǔ)推理服(fú)務器平均功率未(wèi)來三(sān)年提升30%/20%/15%。根據近幾(jǐ)年CPU/GPU TDP的變化趨勢,CPU TDP每年提升10%左右,GPU TDP每(měi)年提(tí)升20%左右,我們假設通(tōng)用服務器(qì)平均功(gōng)率未來(lái)三年保持10%左右的增速,AI訓練與推(tuī)理服務器平均(jun1)功率未來三年(nián)的(de)增速為30%/20%/15%。

4)至(zhì)2025年,假設通用(yòng)服務器液冷滲透率由(yóu)5%提升到20%,AI訓練服務器液冷滲透率由70%提升到(dào)100%,AI推理服務器液冷滲透率由(yóu)40%提升至70%。根據產業(yè)調研(yán)與曙光數創的信息,2022年我國液冷滲透率為5%-8%左右(yòu),預計2025-2028年時液冷滲透率能達到(dào)30%左右。我們假設通用服務器2022年液冷滲透率為5%,至2025年(nián)液冷滲透率上升至20%;AI訓練服務器2022年液冷滲透率為70%,至2025年液冷滲透率上升至100%;AI推理服(fú)務(wù)器2022年液冷滲透率為40%,至(zhì)2025年液冷滲透率上升(shēng)至70%;整體液冷滲透率由2022年的8%上升至2025年的25.7%。

5)至2025年,假設浸沒式(shì)液冷滲透率由10%提升至30%,冷(lěng)板式液冷滲透率由90%降低至70%。根據IDC《中國半年度液冷服務器市場(2023上半年)跟蹤》報告,按照服務器(qì)出貨量口徑統計,2023H1我國冷板式(shì)液冷服務器比例為90%左右(yòu),浸沒式液冷滲透率僅為10%。隨著未來(lái)浸沒式液冷技(jì)術逐漸成熟進入加速推廣期,我們預計浸沒式液冷的滲透率由2022年的10%上升至(zhì)2025年的30%,冷板式液冷的滲透率(lǜ)由2022年的(de)90%下降(jiàng)至70%。

6)考慮到大部分數據中心液冷廠商(shāng)的產(chǎn)品隻覆蓋數據中心液冷基礎設(shè)施中的製冷係統、機櫃係統等核心部分,故估算(suàn)數據中心液冷市場規(guī)模時隻考慮數據中心液冷基礎設施中製冷(lěng)係(xì)統、機櫃係統等核心部分的市(shì)場(chǎng)規模,不考慮布線係統、土建(jiàn)、外電(diàn)、能評等其(qí)他配套部分(fèn)。結合產業(yè)調研數據,假設冷板式液冷基礎設施的價值量約為10000元(yuán)/ITkW,浸沒式液冷(lěng)基礎設(shè)施的價值量約為15000元/ITkW。

7)考慮到未來數據中心液冷市場競爭逐步加劇以及技術逐漸成熟,液冷方(fāng)案價格將呈逐年下降的趨勢;冷(lěng)板式液冷技術目前更為成熟(shú),未來價格的下降空間相對較小。我們假設冷板式液冷價值量逐年下降5%,浸沒式液冷價值量(liàng)逐年下降10%。

64026.png



[聲(shēng)明]文章(zhāng)係(xì)本(běn)網編輯轉載(zǎi),轉載目的在於傳遞更(gèng)多行(háng)業新聞信息(xī),文章僅作交流學(xué)習使用,也並不代(dài)表本網讚同其觀點和對其真實性負責。如涉及作品內容、版權和其它問題(tí),請在30日內與本網聯係,我們將在**時間刪除內容!

本站文章版權歸原作者所有(yǒu) 內容為作者(zhě)個人觀點 本站隻提供參考並不構成任何投資及應用建議。本站擁有對此(cǐ)聲明的*終解釋權。



91视频导航_91短视频在线_91网站入口_91视频在线免费观看