AI伺服器大廠慧與科技(HPE)推出液冷技術的解決方案,以應對AI系統日益增長的散熱需求。另外,也可以從4個液冷技術的關鍵數字,證明液冷技術的未來可期。
相較於使用風扇的傳統氣冷技術,液冷技術—–—特別是直接液冷技術(Direct Liquid Cooling,DLC)—–—是將冷卻劑直接泵入伺服器中,以吸收處理器散發的熱量,並傳輸到資料中心外的熱交換系統。
相較於使用風扇的傳統氣冷技術,液冷技術—–—特別是直接液冷技術(Direct Liquid Cooling,DLC)—–—是將冷卻劑直接泵入伺服器中,以吸收處理器散發的熱量,並傳輸到資料中心外的熱交換系統。 圖片來源:數位時代
關鍵數字1:液體可吸收的熱能是空氣的3倍
目前AI晶片的設計需求旨在以更小的體積,達到更高效能,但也提升冷卻晶片的困難度。若無法即時冷卻晶片,資料中心可能面臨過熱問題,導致系統故障,最終造成AI工作無預警停擺。
而液冷技術能更快速且有效地冷卻這些晶片,因為 水的熱容量是空氣的三倍,可吸收更多加速器和其他元件(如CPU、記憶體和網路交換器)所產生的熱量。
關鍵數字2:碳排量相較氣冷減少將近8倍
以1個擁有1萬台伺服器的HPC資料中心為例,若皆採用氣冷技術,資料中心每年將排放超過8,700噸的二氧化碳,而採用液冷技術的伺服器,每年僅排放約1,200噸的二氧化碳。
除了碳排之外,成本也是考量。在擁有1萬台液冷伺服器的資料中心中,每台伺服器的年度成本僅為45.99美元(約新台幣1,478元),而氣冷伺服器的年度成本則高達254.70美元(約新台幣8,188元),這相當於每年可節省近元210萬美(約新台幣6,750萬元)的營運成本。
關鍵數字3:能源90%可重複再利用
伺服器晶片所產生的熱能,透過液冷系統吸收熱量後,會將熱量轉移到資料中心外的熱交換系統,並利用這些熱水為其他建築或設施提供能源。
目前美國能源部國家再生能源實驗室(NREL)已成功採用此方式多年,該實驗室從慧與科技研發的Cray液冷超級電腦Peregrine系統中回收90%的熱水,並將其再利用作為能源系統整合設施(ESIF)辦公室和實驗室的主要熱源。
慧與科技在魁北克的合作夥伴QScale也計劃利用此一技術支援農作物種植並解決糧食短缺問題。QScale希望利用液冷技術為當地將近100個足球場大小的溫室供電,預計每年可生產約8萬噸的番茄。
也有廠商利用回收的熱水協助魚場養殖。Hima是全球最大的陸上鱒魚養殖場,採用循環水產養殖系統(Recirculating Aquaculture Systems,RAS)技術,循環利用純淨的山泉水。其目標為每年生產約8,000噸的優質Hima鱒魚,相當於2,200萬份晚餐。
關鍵數字4:液冷散熱可節省近77.5%的室內空間
隨著資料中心計劃採用新型的AI基礎架構,「密度」將成為資料中心是否有足夠空間容納先進AI解決方案的關鍵因素。
相較於氣冷解決方案,液冷技術無需使用風扇和其相關設備,因此資料中心可以放置更少且更緊密排列的伺服器機架,從而最大化空間利用率或視需求擴充。
以1萬台伺服器的資料中心為例,採用液冷伺服器可減少77.5%的空間需求。此外,在5年內液冷解決方案使用的機箱功率可減少14.9%,且每千瓦效能比氣冷解決方案高出20.7%。
雖然液冷散熱技術有望成為未來主流,不過,伺服器產業分析師陳牧風提醒,大型資料中心在散熱的需求上,也因為AI伺服器需要透過更緊密的方式排列、提升算力,
因此基礎設施的散熱(水冷甚至是浸沒式)系統、不斷電系統(UPS)、配電裝置(PDU)與備援電池(BBU)都需要升級。
各資料中心在節能減碳和AI算力的平衡下,什麼樣的方案能夠達到雙贏,也是資料中心建置時必須面對的課題。
本文授權自數位時代,原文見此。