AI伺服器燒燙燙 「降火氣」成核心競爭力
台達電與Google合作研發in row液體對液體散熱的CDU,成為今年台達電在OCP參展的焦點。(圖/下載自台達電臉書)

AI伺服器燒燙燙 「降火氣」成核心競爭力

mirror-daily-logo

2025/10/20 06:45:00

記者:

吳筱雯

根據市調機構集邦資訊調查顯示,台達電目前在Sidecar散熱系統市佔率已是世界第一,美系外資則評估台達電Sidecar散熱系統今年的市佔率上看50%,台達電不僅是AI伺服器電源一線供應商,更躋身為液冷散熱系統一線供應商。
AI伺服器中,吃電怪獸GPU吃的電量越來越大、AI伺服器機櫃內要裝的GPU數量越來越多,傳統用空氣冷卻的資料中心已經沒有辦法處理密集運算下產生的熱能,液體導熱效率是空氣的25倍以上,所以用液體來散熱,能提供遠超用空氣冷卻的熱交換效率,如此一來,每一台AI伺服器裡可以裝更多的GPU、每一顆GPU吃的電量可以更大,也不用擔心伺服器因為過熱而當機。
現在AI伺服器散熱主流的做法是,是所謂的直接液體散熱(Direct Liquid Cooling,DLC),也就是裝著涼水的冷水管線環繞在伺服器內,透過幫浦(CDU,冷卻液分配裝置)帶動循環,冷水管線與銅製的冷板相連,冷板最下方就是高速運作時很容易爆熱的GPU、CPU,當20度室溫的涼水通過冷板內部的管路時,便能直接帶走GPU、CPU產生的熱能,涼水會因此而變成40多度的熱水,熱水順著冷板的熱水管線接口流出伺服器,透過熱交換器、風扇牆、資料中心內本來就有的冷氣,熱水溫度降回涼水並回流至CDU後,再打入冷水管線循環使用,另種做法是,熱水循環到冰水主機/冷卻水塔散熱後,再回流至CDU、打回機櫃中的冷水管路使用。
在機房內透過熱交換器、風扇降低溫度的形式,就是現在廣受歡迎、讓台達電賺飽飽的Sidecar(側邊櫃),在這套系統中,核心的CDU、冷板、風扇牆,台達電不是能自行設計,就是設計、製造一把抓,並且掌握系統組裝與測試的「眉角」,這是台達電能夠獲得一線CSP大客戶指定使用的關鍵之一。美系外資認為,台達電正在向微軟、Meta和甲骨文等一線CSP交貨用於輝達GB200伺服器機架的sidecar散熱系統。
而溫熱水循環到冰水主機或冷卻水塔的形式,則是可以一台CDU對8~10個伺服器機櫃的in row(一對多散熱系統),散熱效果比Sidecar更好。
不過,in row的限制在於,機房設計之初,就必須建置液體冷卻管線,而且冷卻水品質必須時時監控,免得水變質、水垢影響散熱,因此必須預先建置水處理設備、水塔、水路管線,也就是說,這必須是專為液冷伺服器所設計的特殊機房,只有最近設計、興建的新蓋機房才能支援,專門的液冷資料中心建置成本則比現在既有的資料中心高出一大截。
也因此,一般預期in row開始普及的時間點,可能要等到2027年,屆時輝達最新AI伺服器的耗電量會是GB200的5倍之多,需要更大的解熱能力,而且新蓋的液冷機房已經可以使用,in row正好派得上用場。ㄇ台ㄉㄚ

延伸閱讀