在2024T-EDGE創(chuàng)新大會暨鈦媒體財經(jīng)年會的EDGE Founders Demo Day平行論壇上,GMI Cloud亞太區(qū)總裁King Cui發(fā)表了關于AI出海大潮中的趨勢洞察和GMI Cloud在GPU云平臺構建方面的探索的演講。他提到,盡管GPT4和ChatGPT等AI技術正逐漸改變人們的生活,但與早期的互聯(lián)網(wǎng)技術相比,AI技術仍處于“技術普惠點”之前的階段,相當于“1995年的互聯(lián)網(wǎng)”。
King Cui將云計算的發(fā)展分為三個階段。Cloud 1.0階段(2010-2015年)是Cloud Base的時代,企業(yè)開始將傳統(tǒng)IDC業(yè)務遷移到云端,云服務主要以裸金屬形態(tài)存在。Cloud 2.0階段(2016-2022年)則是Cloud Native的時代,用戶和企業(yè)從簡單的云上遷移到深度用云,PaaS產(chǎn)品從裸金屬base轉變?yōu)閂M及Container Base,客戶開始更多地使用云廠商提供的PaaS產(chǎn)品,專注于自身業(yè)務的研發(fā)提效。而Cloud 3.0階段(2023年至今)則標志著AI Native Cloud時代的到來,以OpenAI發(fā)布GPT為起點,AI浪潮席卷全球。
King Cui指出,AI技術的發(fā)展速度和對人類生活的影響日益增強,盡管仍處于早期階段,但已經(jīng)展現(xiàn)出巨大的潛力和機會。截至2024年8月,全球AI WEB產(chǎn)品總數(shù)達到1717個,其中中國AI WEB產(chǎn)品數(shù)量280個,出海AI WEB產(chǎn)品數(shù)量95個,這意味著有34%的AI產(chǎn)品從一開始就定位為全球化。中國AI企業(yè)在海外市場的布局正在加速,但算力成為制約其發(fā)展的關鍵因素之一。
在AI出海過程中,算力為中心的生產(chǎn)矛盾逐漸增多。國內高端算力資源不足、AI Infra建設經(jīng)驗不足、供應商可靠性難保障等問題,導致AI Infra穩(wěn)定性不足,增加了企業(yè)的經(jīng)濟和時間成本。以meta為例,其披露的報告顯示,在為期54天的預訓練階段中,總共出現(xiàn)了466次工作中斷,其中大部分是硬件問題,GPU問題占比最高。
為了維持AI Infra層的穩(wěn)定性,企業(yè)需要在組網(wǎng)、硬件、軟件、工程化等方面做大量工作。King Cui強調,在選擇Infra團隊時,穩(wěn)定性比單價低的GPU硬件更為重要。選擇具有軟件加持和極強運營能力的云平臺,比單純選擇價格低的GPU硬件更具性價比。
GMI Cloud作為一個全棧AI應用平臺,在GPU硬件架構層和IaaS層擁有完全自研和掌控的硬件和云平臺。GMI Cloud致力于支持AI應用開發(fā)者,提供高穩(wěn)定性的GPU集群,以提高AI應用的研發(fā)效率和產(chǎn)品競爭力。其Cluster Engine是一個端到端的全棧AI應用平臺,從底層GPU硬件架構層到應用層,提供統(tǒng)一的資源管理和調度。
GMI Cloud還具有獨特的雙驗證體系,通過Nvidia認證和內部測試,確保交付給客戶的集群是完全可用的狀態(tài)。GMI Cloud與GPU供應商、IDC合作伙伴間共筑了三角合作的關系,為客戶提供更高水平的服務和更貼近源頭的問題追溯。GMI Cloud提供24x7x365的全年全天候的監(jiān)控和支持服務,確保系統(tǒng)穩(wěn)定性。
GMI Cloud目前為AI Infra選型提供兩種方案:PRIVATE CLOUD和ON-DEMAND。PRIVATE CLOUD適用于需要長期占有一個獨立集群的企業(yè),GMI Cloud會幫助完成模型從底層到上層的全部優(yōu)化。而ON-DEMAND則適用于臨時使用一兩張卡、用幾天的情況,以節(jié)約成本。
GMI Cloud是一家領先的AI Native Cloud服務商,擁有遍布全球的數(shù)據(jù)中心網(wǎng)絡,為企業(yè)提供最新、最優(yōu)的GPU資源。其憑借高穩(wěn)定性的技術架構、強大的GPU供應鏈以及令人矚目的GPU產(chǎn)品陣容,確保企業(yè)客戶在高度數(shù)據(jù)安全與計算效能的基礎上,高效低本地完成AI落地。據(jù)悉,GMI Cloud在10月完成了A輪8200萬美元融資,這筆資金將用于科羅拉多州數(shù)據(jù)中心的建設,以強化GMI Cloud在全球AI算力服務方面的布局。