重新考虑数据中心的冷却方案—水冷却或将再次兴起
就如同汽車制造行業的賽車一樣,長期以來,高性能計算(HPC)領域一直是后來最終得以推廣應用到主流計算領域的相關技術的試驗場。實際上,今天的云系統和超大規模部署對于推動無虛構硬件,負載平衡文件系統和開源軟件開發的高性能計算先驅企業們而言,可以說是欠下了太多。同時,這導致業界的相關人士也在開始探索目前應用于HPC的水冷趨勢是否適用于主流數據中心。
簡短的歷史回顧
在當前的數據中心業界,使用水冷卻方案作為冷空氣的替代冷卻方法已經再次興起復蘇。對于那些年紀太小剛剛進入數據中心行業的年輕從業人員們來說,他們或許并不知道水冷卻方案曾經是數據中心最為主要的冷卻方式,而且該方式目前仍然適用于大型主機。但隨著上世紀90年代和2000年代以來,x86服務器架構的出現,空氣冷卻方案逐漸成為了事實上的新的冷卻標準。
位于德國慕尼黑市的Leibniz-Rechenzentrum(LRZ)公司的超級計算中心是一處為來自世界各地的多元化研究人員們提供超級計算需求支持的計算中心,在2012年,該計算中心為HPC供應商社區帶來了獨特的挑戰:LRZ公司希望能夠在不犧牲計算性能的情況下大幅削減其電力資源的消耗。來自IBM 公司的System x團隊提供了一款服務器,該服務器具有采用溫水直接水冷卻功能,可將未冷卻的水直接連接到CPU,內存和其他高功耗組件。由此,溫水冷卻超級計算機的時代誕生了。
在過去,數據中心的水冷卻方案一直都是采用冷水機組進行的。但在LRZ公司的計算中心,他們使用了高達45°C的未冷卻水的受控回路。除了帶來了能源效率的提升和數據中心級別的成本大幅節約之外,還帶來了一些額外的好處。由于超高效的直接水冷卻方案使得CPU保持更冷,因此處理器內的能量損失更少,比同類風冷處理器節省多達5%。如果需要的話,英特爾的CPU可以不斷地以“turbo模式”運行,將性能額外的提升10-15%。因為服務器系統沒有風扇,除了電源上的小風扇,使得操作幾乎是無聲的。數據中心產生的熱水通過管道輸送到建筑物中作為熱源。而據LRZ公司稱,借助采用該模式,其整體節能量接近40%。
今天的現狀
幾年過去后的今天,絕大多數(即使不是全部的話)主要的x86系統服務器供應商們都以某種方式選擇了水冷卻解決方案模式。這些x86服務器產品涵蓋了水冷式后門熱交換器,其作用類似于汽車的散熱器,吸收空氣冷卻系統排出的熱量,使得服務器產品直接浸沒在充滿特殊介電兼容冷卻劑的儲罐中——類似于大量雞肉炸鍋的服務器則負責充當加熱組件。
直接水冷系統也在不斷發展。現在,熱材料的進步已經使得進水溫度允許達到50°C。這使得水冷卻方案幾乎可以在世界上的任何地方使用,而無需使用冷水機組。此外,由水冷卻的部件的數量也已經擴大:除CPU和內存外,現在IO和電壓調節裝置都是采用水冷的,進而推動了從系統到水的熱量傳輸百分比超過了90%。
遺憾的是,并非數據中心的所有設備都可以采用水冷解決方案,因此LRZ公司和聯想集團正在研究通過將熱水“廢物”轉化為冷水來擴展替代冷卻方案,這些冷水可以重復用于冷卻數據中心的其余部分。這個過程使用“吸附式冷卻器”,其從100臺計算機架中取出熱水,并將其傳遞到一片特殊的硅膠片上,蒸發水,對其進行冷卻。由此,蒸發的水被冷凝回液體形態,然后要么通過管道回到計算服務器機架,或者要么進入后門熱交換器,用于儲存機架和聯網裝置,這些都不是水冷的。正是因為輸送到冷卻機組的水足夠熱,以使該過程得以高效運行,進而使得這種數據中心的設計方法成為了可能。服務器設備與數據中心基礎設施之間的緊密連接和相互依賴性具有很大的潛力。
固然,擁有數千個節點,數PB級別的存儲和數英里互連電纜的巨型超級計算機集群可能已經證明了數據中心轉向采用水冷卻基礎設施的方案是成本合理的。那么對于那些主要是運行了企業的電子郵件系統、文件打印系統、CRM和其他必要的業務應用程序的一般的數據中心而言,是否需要盡快的雇傭水暖工以采用上述冷卻方案呢?并非如此,但事實上,今天已經有一些因素會推動企業客戶考慮在未來采用上述相關的替代冷卻方法了,并且這些替代冷卻方法的采用可能比大多數人預期的要早。
亟待處理的是數據中心的散熱
而不是溫度
過去50年來,推動處理器領域不斷創新背后的驅動力一直是摩爾定律,該定律指出:集成電路中的晶體管數量大約每兩年增加一倍。而提出摩爾定律的英特爾公司每18個月就會將CPU性能提高一倍,同時成本將降低50%。然而,在半個世紀之后,對于這一預測的實現正變得越來越困難。為了保持摩爾定律曲線,英特爾公司必須為CPU增加更多的處理內核,這顯然會消耗更多的功率,從而產生更多的熱量。下表顯示了英特爾處理器的功耗在過去十幾年中是如何增長的:
為了處理應對這些散熱,空氣冷卻環境中的處理器將需要更大(更高)的散熱器,這將需要具有更高或更大底盤的系統。而根據美國采暖、制冷和空調工程師協會的估計,標準化機架中的熱負荷將持續增加:
那些在過去20年中備受歡迎的1U“披薩盒”服務器最終是否會成為瀕臨滅絕的產品呢?可能不會,但與此同時,它們可能也不會像過去二十年那樣得到大范圍的部署了。簡而言之,企業客戶將面臨一個艱難的權衡:系統密度(他們的IT人員可以塞進機架的服務器數量)與CPU能力(更少的內核數量)。那些希望運行更多內核CPU的企業客戶將不得不放棄機架中的空間,這也就意味著其數據中心將需要安裝更多的機架,進而也就意味著其包括房地產成本、電氣費用和空調成本在內的運營費用(OPEX)將更高。
故而這些企業客戶肯定不得不考慮采用替代的冷卻方案來緩解這些問題。直接水冷系統不需要SUV大小的散熱器。這將使得他們能夠在不影響服務器計算性能的情況下保持其規模大小。
走向更加綠色環保的解決方案
第二個因素取決于您企業數據中心所處的地理位置。“綠色環保”數據中心的計劃倡議已在歐洲實施了十年。該計劃倡議促使LRZ和其他類似的企業紛紛積極的尋求采用空氣冷卻的替代品。TOP500.org網站上甚至還有一份“綠色環保500強”的清單,列出了最節能的數據中心。隨著更多這些裝置的完工和推廣,其他相關企業客戶可能會看到50%的電力成本節省和15%的性能提升,這足以證明采取水冷卻方法的有效性。
目前,全球范圍內,大約55%的電力供應來自對化石燃料的燃燒。而整個數據中心行業大約消耗了全球近3%的電力資源,故而整個數據中心行業在能源消耗方面不能再像“避開雷達的監控,偷偷飛入敵軍領地”那般躲避監管了。相關的政府監管機構已經看到監督要求企業采用節能措施的必要性,并制定了相關的法律法規來強制企業降低數據中心的能耗。
數據中心采取更佳“綠色環保”的節能方案不僅僅是一種無私的努力。在許多地方,其也是必要的。目前,全球某些地區的電價可能已經超過了每千瓦時0.20美元,而在其他某些地區的價格甚至可能是這一數字的兩倍。當前企業數據中心采用替代冷卻方案的最大障礙是管道基礎設施的前期成本和水冷系統較之空氣冷卻方案的小額溢價(在大多數情況下小于10%)。
企業的財務管理部門總是問,“這樣的系統需要多長時間才能收回成本?”在某些情況下,可能需要一年時間。 當然,這些TCO和ROI取決于解決方案本身和安裝成本,但大多數OEM廠商都有TCO計算器來幫助企業客戶確定直接水冷系統的投資回報。
總結
毫無疑問,水冷系統已經在HPC中占有一席之地了。我們希望該方案將來能夠擴展到常規的商業化數據中心。顯然,大多數數據中心在目前還在采用Skylake處理器架構的時期都不會轉換到采用水冷卻方案。然而,隨著遵守摩爾定律變得更加困難,替代冷卻方案將逐漸獲得吸引和關注度。許多企業客戶將面臨重大的權衡,他們將尋求最大化服務器性能和數據中心密度的選擇。水冷卻解決方案提供了一種方法,同時降低了企業數據中心的運營成本,并有助于燃燒更少量的煤。
資料免費送(點擊鏈接下載)
史上最全,數據中心機房標準及規范匯總(下載)數據中心運維管理 | 資料匯總(2017.7.2版本)? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ??
加入運維管理VIP群(點擊鏈接查看)
《數據中心運維管理》VIP技術交流群會員招募說明
加入學習群掃描以下二維碼或者添加微信:
wang2017bj
總結
以上是生活随笔為你收集整理的重新考虑数据中心的冷却方案—水冷却或将再次兴起的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 数据中心柴油发电机系统的使用和维护
- 下一篇: 数据中心基础设施故障处理流程