例如,任何時候,當有用戶登錄到網上銀行、或在倫敦公共交通系統(tǒng)刷他們一卡通“牡蠣卡”、或僅僅只是在Facebook對他們朋友最新發(fā)布的狀態(tài)帖子發(fā)表簡單的評論時,這些過程都將涉及到數據中心的積極參與。
每一次,這些相互作用被傳送,都會沿著一個類似神經系統(tǒng)的高速網絡電纜,將數據信息傳輸到數據中心某處的一臺服務器,在那里進行迅速的數據信息處理,然后,這些數據信息的發(fā)起用戶就可以快速的查看自己的銀行賬戶余額、或使用公共交通網絡、或享受他們的在線社交生活了。
與此同時,服務器將對用戶發(fā)起傳輸而來的數據信息進行響應,將將其傳遞到存儲部件或者“大腦”(即數據中心),確保這些短暫而必要的數據處理過程的細節(jié)都將被記錄下來,從而在毫秒之間就結束了一連串的事件處理。
鑒于我們的日常工作和生活對于互聯網連接的設備和云服務的依賴的不斷上升,每一天,即使不是數萬億的話,至少也有數十億此類的交易,在全球范圍內發(fā)生。
有鑒于此,隨著技術企業(yè)著手新建或擴展他們現有的基礎設施,以確保用戶的需求得到滿足——包括從處理性能和預期的角度來看,使得全球數據中心的規(guī)模獲得了持續(xù)不斷的增長。
故而,對于21世紀的每家數據中心運營商而言,確保其數據中心基礎設施的高效率和彈性運行無疑是至關重要的。
但是,如果沒有相關的技術人員在過去五十年間不斷辛勤的試驗和研究的話,許多在今天被認為是運行一處現代化的數據中心所不可或缺的重要組成部分的相關設計理念和技術可能都是不存在的。
時光倒流的回顧
在正常運行時間協會(Uptime Institute)的常務執(zhí)行理事皮特·特納40多年的IT行業(yè)職業(yè)生涯中,該組織在制定并建立數據中心設計的標準化方面發(fā)揮了重要作用,并通過他及其團隊成員的共同努力,創(chuàng)造了層級標準:拓撲分類系統(tǒng)。
對于外行人來說,等級標準:拓撲是由Uptime Institute在上世紀90年代末發(fā)布的。而通過使用一個一級到四級的標記系統(tǒng),其被用來表示一處數據中心的物理基礎設施的可用性。
運營商可以通過簡單的架構搭建他們的數據中心基礎設施,以滿足必要的層級需求;或使用站點需求,并獲得Uptime Institute所頒發(fā)的數據中心正式認證之間進行選擇。
由于其在發(fā)布的最初,該文檔一直受到定期審查,在超過200個國家被下載,以告知全世界數據中心相關的設計標準和規(guī)范。
據特納介紹說,其已被證明非常成功的原因之一就在于,其有助于確保當一家企業(yè)指定了所需要的數據中心類型時,設計團隊就能夠在理解他們的要求的基礎上負責建立數據中心。
“其所做的便是創(chuàng)造了一種通用的語言,讓包括從數據中心所有者到設計師在內的所有人都可以順暢的就其所預期實現的是什么樣的操作功能進行有效的表達。”特納告訴Computer Weekly的記者說。
“而在此之前,企業(yè)主們只會說,’我希望打造一處數據中心’,然后就會有人響應說,'我將為您建立一處數據中心',但關于他們所談論的究竟是否是同一種設施,卻并沒有太多的涉及。”
該標準最初對企業(yè)進行通知是應Uptime Institute的一家客戶的要求,該企業(yè)客戶在完成了一項兼并和收購交易之后,需要幫助澄清如何使得其新近收購的數據中心組合能夠滿足其業(yè)務的要求,據特納回憶說。
他說:“他們來向我們咨詢,詢問我們是否能夠幫助他們開發(fā)一種行話,該行話將使他們能夠區(qū)分不同的計算機房,結果該行話演變成為了一級標準。”他說。
如今,該文檔被廣泛用于運營商的營銷材料,以簡潔地描述他們的設施是如何具備彈性的。
“管理執(zhí)行人員現在可以使用該標準來表達他們所想要的功能的水平,并將其提交給他們的實施團隊,通過提出一套設計方案,以符合四個層次之一的任何一個層級的標準。”特納說。
“無論他們是否是通過認證到底,作為實現其業(yè)務需求的選擇。都需要弄清楚其所要瞄準的是怎樣的層次水平,因為并不是層級數字最大的就是最好的層級。”
“最好的層級是那些能夠對企業(yè)的業(yè)務需求:將需要在該設施運行作出回應的層級,而為超出您企業(yè)業(yè)務的實際所需支付額外的資源,并沒有什么意義。”他補充說。
提高能源效率
鑒于運營數據中心的成本和耗電是如此高昂,故而提升數據中心運營效率是必不可少的,而許多現代服務器園區(qū)經營者因為要想辦法提高其所運行的基礎設施的效率,均擁有上述想法。
為了向他們伸出援助之手,綠色網格組織在2007年推出了電力使用效率(PUE)這一指標,方便數據中心運營商們作為確定其內部能源效率基準的有效的手段。
從那時起,一家數據中心的PUE得分便成為大多數提供商的營銷材料的另一大重要的支柱——盡管這是不正確的。
在過去的十年中,許多數據中心設施都轉移到采用熱通道和冷通道在其數據大廳內相結合的設計,而服務器機架則排在交替行。
由服務器發(fā)出的熱量被隔離在一個行內進行處理,而冷空氣則從另一個通道進入,用來保持設備的冷卻。
自2009到2010年,數據中心行業(yè)一直按照ASHRAE技術委員會的9.9(TC 9.9)熱指南采用這種方法以收集蒸汽。
“10年前,對于服務器所使用的每千瓦的電力資源,您至少需要再花費另一個千瓦的熱能來使其冷卻下來。”一名在數據中心行業(yè)擁有25年經驗的老將保羅·芬奇解釋說,他目前是托管服務提供商Digital Realty公司的高級技術總監(jiān)。
“正是緣于ASHRAE所做的工作,使得消耗同樣千瓦數的IT功率,我們可以只需要再消耗100W的能源來使其冷卻,而不在需要再另外消耗1000W的能源了。這不僅代表了能源效率的大幅提高,更不用說碳排放量的大幅減少了。”