部落格
液冷式散熱技術全面解析:資料中心高效能與AI部署的未來關鍵

隨著AI運算、雲端平台及5G邊緣運算的蓬勃發展,伺服器設備所產生的熱能密度不斷攀升,傳統以風扇與冷氣為主的空氣冷卻(Air Cooling)技術,已逐漸面臨效率瓶頸與能耗過高等挑戰。為因應未來高效能運算(HPC)、大型模型訓練及高密度機櫃需求,液冷式散熱(Liquid Cooling)正快速成為資料中心的下一波革新主流。
一、傳統風冷的限制與轉型壓力
風冷透過空調機房與伺服器內建風扇進行散熱,雖在過去十數年為主流設計,但如今已面臨多項挑戰:
- 散熱效率不足:當伺服器熱密度超過10kW/rack 時,風冷難以快速排熱,導致硬體降頻或損壞風險升高。
- 高能耗與PUE:空調系統耗電高,導致資料中心 PUE(能源使用效率)常超過1.5。
- 空間與氣流管理複雜:需精細設計冷熱通道、氣流迴圈,部署彈性低。
- 高噪音與維護成本:大量風扇與冷氣設備產生高噪音,且維護頻率高。
二、液冷散熱的核心優勢
液冷技術是透過高導熱性的液體(如水、油或特殊冷卻液)來吸收與轉移伺服器所產生的熱能,相較於空氣,其導熱效率高出數十倍以上,具備以下關鍵優勢:
- 高熱傳導效率:液體比空氣具更高熱容與導熱率,可快速將熱源溫度拉低。
- 降低整體PUE:可將PUE降至1.2甚至1.05以下,大幅節能。
- 適應高密度運算需求:單機櫃可支援20~50kW以上的運算密度。
- 減少噪音與空調依賴:封閉液冷系統不需風扇,運作更安靜。
- 提升系統穩定與壽命:降低溫度波動對硬體的影響,有助於延長伺服器壽命
三、液冷技術的類型與冷卻媒介選擇
液冷散熱系統依據散熱結構設計與冷卻介質的不同,大致可分為三種主要形式,各有對應的應用場景與技術需求:
1. 冷板式液冷(Cold Plate / Direct-to-Chip / D2C)
透過金屬冷板直接貼合伺服器中的 CPU、GPU 等高熱元件,並以冷卻液循環吸熱。
- 冷卻介質:多以去離子水或含添加劑的冷卻液為主
- 應用場景:高效能雲端伺服器、AI訓練平台
- 技術優勢:可逐台部署、維護簡便、與現有機架相容性高
2. 機櫃液冷(Rear-Door / In-Rack Cooling)
於機櫃後門或側邊安裝熱交換器模組,將伺服器排出的熱氣轉由液體管路帶走。
- 冷卻介質:主要為水冷系統,導熱效率高但需良好密封設計
- 應用場景:傳統資料中心改裝、漸進式液冷導入
- 技術優勢:部署門檻低、不需更動原有伺服器結構
3. 浸沒式液冷(Immersion Cooling)
將整組伺服器直接沉浸於特殊的絕緣液體中進行全面散熱,可分為單相與雙相系統。
- 冷卻介質:使用絕緣冷卻油或氟碳類冷媒(油冷為主流形式)
- 應用場景:AI超算叢集、邊緣運算、高環境溫度地區
- 技術優勢:散熱均勻、節能顯著、空間使用效率高
四、液冷系統中常見冷卻介質:水與油的角色
在不同類型的液冷系統中,最常見的冷卻媒介為:
- 水冷:使用去離子水或含添加劑的冷卻液,導熱效率高但具導電性,需良好封閉設計。主要應用於冷板與後門散熱系統。
- 油冷:使用絕緣冷卻油,通常搭配浸沒式設計。可完全包覆伺服器硬體,達到極限散熱,但系統建置成本與維護要求高。
雖然「油冷」與「水冷」常被並列討論,但實際上它們是不同應用場景下所採用的冷卻媒介或子系統技術,不構成液冷技術的絕對分類基礎。
五、液冷部署趨勢與全球應用實例
隨著生成式 AI、高效能運算(HPC)與大型模型訓練快速發展,伺服器的熱密度大幅提升,液冷技術也從實驗走向主流。各大雲端與資料中心業者正積極導入冷板式、浸沒式與模組化液冷解決方案,支援單櫃 30~70 kW 以上的高密度部署,同時兼顧能源與水資源效率(WUE)。
- Google:自 TPU v3 起全面使用冷板液冷,有效提升導熱效率與系統可用性。
- Microsoft:部署雙相浸沒式液冷,並研發「零蒸發」水冷系統,減少資源耗損。
- NVIDIA & Meta:為 AI 晶片平台如 GB200 導入高密度液冷系統,支援單櫃多達 72 GPU,顯著強化能效與散熱。
- Equinix & Digital Realty:著手標準化液冷機櫃與模組化服務,推動全球資料中心轉型。
根據 Uptime Institute 預估,到 2026 年將有超過 30% 新建資料中心導入液冷系統,成為 AI 基礎建設的重要支柱。
面對不斷提升的伺服器功耗與能效需求,液冷不僅是一項技術升級,更是未來資料中心可持續發展的核心策略。無論是大型雲服務平台、ISP 或邊緣運算節點,導入液冷系統已不再只是選項,而是應對未來運算環境不可或缺的基礎設施規劃。