面對AI訓練與推論龐大的能耗,如何降低資料中心營運時的能源消耗,已成為科技業必須面對的重要課題。除了晶片本身效能提升帶來的功耗壓力,冷卻系統也是另一大能量消耗來源,而微軟近期宣布已經在冷卻技術上取得突破,導入微流體 (Microfluidics)技術的新式冷卻方案,標榜能將冷卻效率提升至現有技術的三倍,並且有助於縮小伺服器機櫃之間的距離、提升資料中心運作效率。
根據微軟說明,目前許多資料中心主要仰賴冷板 (Cold Plate)來協助GPU降溫,但冷板與熱源之間仍隔著多層材料,散熱效率受限。微軟此次提出的方案,將冷卻液體直接導入更貼近熱源的位置,透過如毛細血管般的微細流道,將液體精準導流至晶片背面進行散熱,最大程度降低熱阻。此技術更藉由AI模型智慧調控液體流向,確保在高負載時維持最佳降溫效率。
從官方釋出的示意圖可見,晶片背面被刻畫出類似葉脈或蝶翼般的網狀流道設計,藉由自然界啟發的分流結構,提高冷卻液分佈的均勻性。
微軟表示透過此設計,GPU的最高溫度提升幅度將能降低65%,但仍會依實際工作負載及晶片類型而異。對於運算密集的AI應用而言,不僅能避免晶片過熱導致降頻,甚至能進一步推動超頻,而不必擔心損壞晶片。
更重要的是,這樣的散熱方式也有助於提升資料中心機櫃密度,讓伺服器之間可擺放得更近,降低訊號傳輸延遲,進而提升整體運算效能。而對於永續發展與節能議題,此技術能減少冷卻設備耗電,並且產生更高品質的廢熱,未來可望作為能源回收再利用的一環。
雖然微軟並未特別強調此技術對環境的長遠意義,但仍以「可持續性」與減少電網壓力作為附帶效益。從產業角度來看,若此方案能順利商用,對資料中心營運成本、AI運算擴展能力,以及減碳目標都能帶來實質助益。
目前微軟尚未公布此冷卻技術的量產時程,或者是否會授權給合作夥伴,但隨著AI訓練模型規模持續放大,如何更有效率地管理能源消耗,將成為下一階段雲端運算競爭的新戰場。ㄌ