機房建置,雲計算和它採用的增長仍然持續不減。雲計算服務提供商市場格局將由來自美國和中國的少數公司主導,這些公司部署了公司擁有的超大型數據中心。

機房建置
在可預見的將來,由於許多企http://hk.equaltech.com/equaltech.php?page=product_detail&id=82143業決定放棄擁有自己的數據中心,並將應用程序遷移到雲平臺,這些少數公司將會佔據云計算市場的大部分增長。圖1顯示了2020年的超大規模數據中心的預計增長,以及預期在這些數據中心駐留的服務器的百分比。到2020年,預計大規模客戶將會採用所有售出的服務器的47%。
對於諸如惠普和戴爾這樣的傳統硬件提供商來說,這種情況預示着更窄的客戶羣,同時將擁有更高的技術敏銳度和更密切的關注底線.HPE和戴爾將看到他們爲超大規模客戶提供的服務器超過了“無名“白盒供應商,並可以更好地提供客戶需要的產品。標準的服務器配置並不再適合所有客戶。越來越多的人將開放式計算作爲一種降低成本和提高效率的途徑。
新的網絡拓撲將爲超大規模數據中心的南北向流量和東西向流量帶來更高的帶寬。Facebook公司已經公開了基於商品交換機設計的規範,並向全世界展示了軟件定義網絡(SDN)和網絡功能虛擬化(NFV)的諸多優勢。
對於超大規模數據中心運營商來說,電力輸送和冷卻新方法的創新使其設施中的機架功率密度得以提高,同時提高整體基礎設施的效率,從而產生極低的PUE。以下討論了電力基礎設施在使超大規模數據中心儘可能可靠和高效運行方面發揮的作用。
誰是超大規模廠商嗎?
當今網絡上最強大的廠商名字是互聯網熱潮期間在20世紀80年代和90年代開始發展的超大規模廠商。微軟公司成功打造成了當今超過900年億美元的龐然大物,其產品從全球數據中心足跡推動的操作系統和辦公軟件包轉向SaaS(Office 365)和PaaS(Azure)。亞馬遜公司於1994年開始從一家在線書商成爲了一個價值1700年億美元的電子商務巨頭,並且還成爲全球規模最大的雲計算服務提供商。
Facebook公司是全球最大的社交媒體企業,在全球各地擁有衆多大型數據中心。阿里巴巴是中國規模最大的電子商務商,並且正在將其數據中心覆蓋範圍擴展到國外。谷歌在20世紀90年代開始時是從一個研究項目發展起來,並迅速成長爲互聯網上最大的搜索提供商。該公司也依賴多個地區的海量數據中心來提供用戶在搜索網絡時所期望的快速性能。其他大型且快速增長的超大規模數據中心運營商還包括蘋果,騰訊,百度,eBay等。
大多數超大規模數據中心的建設者都擁有自己的基礎設施。超大規模數據中心運營商原本採用HPE,戴爾EMC,思科等公司製造的硬件,如今轉向採用臺灣和中國ODM廠商(如廣達,英業達,富士康,超微,浪潮等)提供的低成本,專用定製和“開放式”計算和網絡解決方案。
功率密度和冷卻對超大規模設計的影響
在過去的幾十年中,數據中心行業的機架功率密度與計算和存儲密度相應地增長。如今在單一機架中的服務器和硬盤比以往任何時候都要多。而一個典型的它機架的軸功率爲1 - 3千瓦,如今20到40千瓦的負載在單個機櫃中也是常見的。美國國家可再生能源實驗室報告表明,每機架千30瓦的部署普遍存在。
谷歌公司的全球基礎設施負責人喬·卡瓦根表示,該公司在2015年使用了5.7兆瓦的能源。其中數據中心的能耗佔了絕大多數,這也是谷歌公司爲其雲計算園區採購可再生能源獲得領先地位的原因。
基於英特爾、AMD、英偉達和手臂的最新芯片技術提供的新服務器每秒可提供更高的運算速度和每瓦操作性能。與此同時,數據中心房地產的成本在大多數市場上漲,導致運營商尋求更高的這機櫃來更有效地利用空間。有的運營商甚至採用一個裝滿它設備的高大圓柱,但密集的部署將會產生大量散熱問題,數據中心架構師必須採用空氣或水作爲冷卻介質。有一些數據中心設施同時部署這兩種冷卻方式。
高效的空氣冷卻措施需要遵守各種設計原則:
•更改設備的部署方向,以創建自然的熱通道和冷通道。
•在空置的機架空間使用盲板以確保冷空氣不會泄漏到熱通道中。
•實行熱通道或冷通道遏制。
•自然對流可以通過精心設計的設施流動空氣,冷空氣下沉到地板上,熱空氣上升到天花板,因此,對冷通道採用高架冷空氣設計,並在機架背面提升天花板或煙囪,以驅動空氣通過它系統。
絕熱冷卻依賴於通過體積膨脹引起的氣壓變化來減少熱量的過程。在數據中心中使用絕熱過程以促進有效利用水和電的“自然冷卻“方法。
液體冷卻非常適合機櫃功率和熱密度超過以合理速度流動的空氣的冷卻能力(高達幾百CFM)的應用。液體冷卻有多種形式:冷卻門,冷凍擱板,直接噴霧冷卻到芯片上等等。“在高性能計算領域,其製冷方案都將轉向液體冷卻。”荷蘭歐公司技術總監保羅藝術說,“在我們的設想中,擴張是唯一的途徑。我們認爲這是新一代高性能計算的開始,擁有巨大的力量。我們正處於革命的開始階段。”
最終,冷卻決策將取決於數據中心將運行的參數:維護/維修的頻率,可用技術人員的數量,維修的允許時間,期望的功率效率水平等等。
推動超大規模數據中心的未來需求
許多論文記錄了數據中心行業在21世紀初日益增長的電力需求。如果摩爾定律和服務器虛擬化對行業沒有幫助,電力需求的增長可能會超過美國總髮電量的10%。相反,這行業在監管自身方面發揮了領導作用,使它系統更加節能。英特爾公司和AMD公司致力於減少服務器芯片(CPU)的功耗,並且隨着每代CPU的產生,他們改進了每個週期的指令,並減少了每條指令的功率,同時保持在給定的功率範圍內。
展望未來,許多超大規模數據中心運營商正致力於爲其數據中心設施提供可再生能源。首先通過購買可再生能源證書和電力抵消(從當地公用事業購買水力發電等綠色能源的電能),現在許多超大規模數據中心都使用燃料電池或太陽能陣列的電能。蘋果公司和Facebook公司已經有多個數據中心採用太陽能的電力。微軟公司在懷俄明州夏延擁有沼氣發電廠,並從飛行員山上風購買風力發電,並在全球各地建設大量太陽能發電設施。亞馬遜公司在德克薩斯州建立了一個兆253瓦的風力發電場,而谷歌公司所有的數據中心在2017年全部採可再生能源。
“我們是全球最大的可再生能源企業購買者。”谷歌公司技術基礎設施高級副總裁喬卡瓦根說。
這行業也有許多關於最適合超大規模數據中心的電力基礎設施的建議。在早期,Facebook公司的機架設備採用了480 v / 277 v交流電源,而機架上它負載採用12 v直流電源。谷歌公司提出了採用48 v直流電爲服務器供電,直接轉換負載點電源以48 v運行到主板運行CPU、內存等所需的工作電壓和電流。在谷歌公司實施的項目中,從電源到機架的電力爲480/277的交流電(或400 v / 230 v交流電),通過三相整流器將交流電轉換爲直流電爲機架設備供電。微軟公司最近的開放計算項目採用了480/277V交流電源爲機架設備供電,而服務器採用277 v電源,服務器機箱中帶有兩個三相電源,並支持與機架服務器配套的基本(非智能)PDU。
對於那些尋求採用發電設備運行數據中心的公司來說,在現場生產直流電源並將其輸送到機架上是很有意義的。在這種情況下,將380 v直流電源引入機架,並通過直流-直流轉換器轉換到48 v是一種選擇。或者甚至可以將48 v直流電源輸入到機架上,這取決於與電源的距離。
每個數據中心都是爲了實現功能,等待時間,正常運行時間,成本和價值目標而構建的。電力傳輸基礎設施的選擇與這些目標密切相關,並由數據中心運行的軟件棧的穩健性和靈活性所緩解。未來的超大規模數據中心可能會從虛擬機遷移到容器,並提供“無服務器”計算模式。而人們有關數據中心採用交流電源和直流電源的爭論將會持續下去,而部署機架上的燃料電池等新技術也將越來越受歡迎,爲數據中心業主和運營商提供可再生能源以支持超大規模數據中心將成爲一種強制性要求。人們需要了解有關超大規模計算的更多信息。

arrow
arrow
    文章標籤
    機房建置
    全站熱搜
    創作者介紹
    創作者 hank 的頭像
    hank

    websitedesign

    hank 發表在 痞客邦 留言(0) 人氣()