隨著人工智能技術(shù)的迅猛發(fā)展,智算中心已成為數(shù)據(jù)中心建設(shè)的新趨勢。據(jù)《中國綜合算力指數(shù)報告(2024)》顯示,截至2024年6月,中國在用算力中心的機(jī)架數(shù)量已超830萬,算力規(guī)模達(dá)到246 EFLOPS,智能算力同比增速超過65%。這一數(shù)據(jù)充分展示了智算中心在數(shù)據(jù)中心產(chǎn)業(yè)中的重要地位。
回顧數(shù)據(jù)中心的發(fā)展歷程,可以清晰地看到其經(jīng)歷了三大階段的演變。最初,電信運(yùn)營商和少數(shù)第三方中立IDC服務(wù)商是市場的主力軍。隨后,隨著云計算的興起,互聯(lián)網(wǎng)成為主導(dǎo),大量第三方數(shù)據(jù)中心供應(yīng)商涌現(xiàn)。而如今,在多元算力需求的推動下,GPU在企業(yè)級數(shù)據(jù)中心得到廣泛應(yīng)用,傳統(tǒng)IDC逐漸向AIDC轉(zhuǎn)變。
在這一轉(zhuǎn)變過程中,AIDC需具備高算力、高彈性、大規(guī)模、高效能和智能化五大能力,以應(yīng)對人工智能大模型帶來的挑戰(zhàn)。高算力方面,智算中心需要提供更高的算力,支持復(fù)雜的人工智能算法和模型訓(xùn)練。高彈性則要求智算中心能滿足用戶多元化的需求,具備兼容不同計算和存儲資源的能力。
同時,為了滿足人工智能對龐大算力的需求,智算中心的規(guī)模也在不斷擴(kuò)大。未來單個智算集群需能提供大規(guī)模的算力和存儲資源,以滿足人工智能應(yīng)用的需求。而在高效能方面,提高能效、降低能源消耗成為關(guān)鍵,尤其是在“3060”雙碳戰(zhàn)略目標(biāo)下,智算中心的節(jié)能環(huán)保被提升到了新的高度。
智能化則主要體現(xiàn)在智算中心的智能化管理上,通過AI和機(jī)器學(xué)習(xí)的能力,實現(xiàn)數(shù)據(jù)中心的自動化管理和優(yōu)化。然而,在AIDC的發(fā)展過程中,如何同時實現(xiàn)高質(zhì)量算力和碳中和的目標(biāo),成為眾多IDC廠商戰(zhàn)略布局的關(guān)鍵。
數(shù)據(jù)中心內(nèi)部IT設(shè)備耗能占比超60%,其中空調(diào)設(shè)備能耗占比最大。隨著算力增加,芯片能耗也在不斷增加。液冷技術(shù)作為解決之道,逐漸從理論走向?qū)嶋H應(yīng)用。據(jù)預(yù)測,到2027年,液冷數(shù)據(jù)中心市場規(guī)模將突破千億大關(guān)。IDC服務(wù)商和硬件設(shè)備供應(yīng)商都在積極布局液冷技術(shù),以解決大模型時代對更大計算所需的冷卻需求。
除了液冷技術(shù)外,數(shù)據(jù)中心供冷方式還包括間接蒸發(fā)冷卻、磁懸浮冷機(jī)組等新一代制冷方式。這些技術(shù)都在不斷降低數(shù)據(jù)中心的能源消耗和碳排放。例如,磁懸浮冷卻機(jī)組采用無油離心技術(shù),實現(xiàn)免維護(hù)和冷卻系統(tǒng)的靈活性和可靠性提升。同時,無水冷卻技術(shù)也通過充分利用自然冷能來降低數(shù)據(jù)中心能耗。
在供電方面,通過提升供電效率來降低數(shù)據(jù)中心碳排放也成為行業(yè)關(guān)注的焦點。采用DR、RR供電架構(gòu)以及高壓直流等技術(shù)手段可有效降低電能傳輸過程中的損耗。秦淮數(shù)據(jù)發(fā)布的“玄鐵”極簡供電架構(gòu)就是其中的代表,它通過一體化集成和與土建解耦的彈性交付能力,大大節(jié)省了占地面積并縮短了現(xiàn)場交付周期。
總的來說,作為算力底座的數(shù)據(jù)中心已經(jīng)步入了新的時代。在這個時代下,如何在保證算力供給的前提下實現(xiàn)碳中和目標(biāo),成為整個IDC行業(yè)上下游需要共同面對的挑戰(zhàn)。液冷技術(shù)、新一代制冷方式以及供電效率的提升都是解決這一挑戰(zhàn)的關(guān)鍵路徑。