杭州,這座融合了古老韻味與創(chuàng)新活力的城市,再次成為了科技領域的焦點。今年,火山引擎Force Link AI創(chuàng)新巡展的首站便選擇在了這里,不僅吸引了新銳大模型獨角獸DeepSeek的目光,也讓老牌云計算巨頭阿里云倍感關注。火山引擎此行,不僅僅是展示其技術實力,更是為了傳遞一個更為深遠的信息。
火山引擎總裁譚待在一次發(fā)言中大膽預測:“如果說2024年是中國AI應用的元年,那么2025年,則極有可能是AI Agent應用的元年。”這一觀點不僅得到了火山引擎內部的認可,更成為了整個行業(yè)的共識。上一次大模型行業(yè)如此團結一致,或許還要追溯到那場轟轟烈烈的“百模大戰(zhàn)”。
然而,這種共識也帶來了雙刃劍效應。一方面,它使得產業(yè)方向更加明確,資源得以集中投入,促進了新技術的快速發(fā)展和新商業(yè)模式的誕生;另一方面,競爭也迅速從藍海轉變?yōu)榧t海,留給參與者的時間窗口日益緊迫。
火山引擎習慣于在產業(yè)共識中尋找機遇。最近,IDC發(fā)布的《中國公有云大模型服務市場格局分析,1Q25》報告顯示,2024年中國公有云大模型調用量中,火山引擎以46.4%的市場份額位居第一。這一數(shù)據(jù)僅計算了B端客戶的模型調用量,不包括海外用戶和C端應用,充分展現(xiàn)了火山引擎在B端市場的強大影響力。
在Agent元年共識的大背景下,火山引擎于4月17日面向企業(yè)市場發(fā)布了豆包1.5·深度思考模型,并同步升級了文生圖模型3.0、視覺理解模型,推出了OS Agent解決方案及AI云原生推理套件,旨在幫助企業(yè)更快、更省地構建和部署Agent應用。
巧合的是,同一天OpenAI也發(fā)布了其系列中能力最強的推理模型——o3模型和o4-mini模型。其中,o3模型是第一代能夠在思維鏈中使用圖像進行推理的模型,還能自主調用工具,并預告將推出一系列編程工具。這進一步證明了,大模型正在朝著更適合Agent化的方向演進。
譚待表示,要做好Agent,技術上需要做好三個準備:首先是擁有更強的模型,能夠思考、計劃和反思,并支持多模態(tài);其次是要有更好的架構和工具,支持大模型操作數(shù)字和物理世界;最后是通過AI云原生,不斷降低模型推理的成本和延遲,推動應用普及。
豆包深度思考模型正是為此而生。它采用了MoE架構,總參數(shù)為200B,但激活參數(shù)僅20B,能夠以較小的參數(shù)實現(xiàn)頂尖模型的效果。同時,基于高效算法,豆包1.5·深度思考大語言模型在提供極高并發(fā)承載能力的同時,實現(xiàn)了20毫秒的極低延遲,使得深度思考模型能夠在許多延遲敏感的場景中使用。
在專業(yè)領域的推理任務中,豆包1.5·深度思考模型表現(xiàn)出色。在數(shù)學推理AIME 2024測試中,其得分追平了OpenAI的o3-mini-high;在編程競賽和科學推理測試中,其成績也接近o1。在創(chuàng)意寫作、人文知識問答等通用任務上,該模型也展示了優(yōu)秀的泛化能力。
不僅如此,豆包1.5·深度思考模型還優(yōu)化了數(shù)據(jù)處理策略,融合了可驗證數(shù)據(jù)與創(chuàng)意性數(shù)據(jù),滿足了各類任務的需求。通過采用創(chuàng)新的雙軌獎勵機制,該模型有效實現(xiàn)了算法的可靠優(yōu)化,兼顧了“對錯分明”和“見仁見智”的任務。
豆包·文生圖模型也升級為3.0版本,正式向企業(yè)開放。該版本已在即夢AI、豆包產品上線,支持2K分辨率直出,在生圖結構準確性、小字生成與排版、美感、真實度等方面具有優(yōu)勢,并登上了權威競技場Artificial Analysis文生圖榜單的第一梯隊。
在Agent元年,用戶對模型的要求更高。那些在深度思考能力、多模態(tài)、推理成本、延遲等方面存在短板的模型,將承受來自客戶端的巨大壓力。這也是大模型落地過程中的一個確定趨勢。
值得注意的是,DeepSeek之后,一些模型廠商已經開始轉向垂類場景或應用領域,而云廠商則以更快的速度迭代。這是因為,DeepSeek的成功不僅僅是模型算法的更新,更是AI infra的全鏈路優(yōu)化。目前,在AI infra方面做得最好的,當屬云廠商。
譚待提到,傳統(tǒng)的云是伴隨著互聯(lián)網發(fā)展起來的,當時的云原生很多是互聯(lián)網應用(如web、APP)在實踐中涉及的中間件、數(shù)據(jù)庫、容器等方面?,F(xiàn)在范式發(fā)生了變化,以前是人通過編寫軟件規(guī)則、中間件等來實現(xiàn)對業(yè)務的抽象,現(xiàn)在則是利用數(shù)據(jù)加上模型自動去解決更多的問題。
在這種情況下,上層業(yè)務對云的要求越來越多,也催生出新的產品。火山引擎把這類產品叫做AI云原生。原來的云原生是為了適應互聯(lián)網發(fā)展,現(xiàn)在的AI云原生則是為了滿足AI和Agent發(fā)展的需求?;鹕揭嬉恢痹谝訟I云原生為理念推陳出新,如本次大會新發(fā)布的AI云原生推理套件ServingKit等。
火山引擎可能比所有云廠商更早看清AI云原生趨勢。字節(jié)跳動主營業(yè)務中的搜索、廣告、推薦等,都是基于人工智能技術實現(xiàn)的。這使得火山引擎對技術預判的感知具有天然優(yōu)勢。在大模型之前,外界或許對字節(jié)跳動為何涉足云計算行業(yè)感到不解,但火山引擎“等”到了大模型,新技術的發(fā)展脈絡自有其“巧合”。
火山引擎此前就表示,下一個十年,計算范式應該進入AI云原生的新時代。如今,這一觀點已經成為了一個顯學。當通算時代的云生態(tài)被拆解,智算時代的云生態(tài)應當如何構建?火山引擎給出了自己的答案。
云計算的能力決定大模型的天花板,大模型的能力上限決定應用的天花板,大模型的交付成本決定應用創(chuàng)新的加速度?;鹕揭娲蛟炝艘訟I負載為中心的基礎架構新范式,并圍繞AI云原生,在存儲、計算、數(shù)據(jù)、安全以及新的中間件等方面推出了一系列產品。
在本次大會上,火山引擎還推出了OS Agent解決方案,并演示了由Agent操作瀏覽器搜索商品頁實現(xiàn)iPhone比價的任務,甚至由Agent在遠程計算機上用剪映進行視頻編輯、配樂。這一方案包含了豆包1.5·UI-TARS模型以及veFaaS函數(shù)服務、云服務器、云手機等產品,可實現(xiàn)對代碼、瀏覽器、電腦、手機以及其他Agent的操作。
火山引擎的AI云原生推理套件ServingKit讓模型部署更快、推理成本更低,GPU消耗相比傳統(tǒng)方案大幅下降。在實際業(yè)務場景中,基于ServingKit的算子優(yōu)化,DeepSeek R1滿血版TPS提升超2.4倍;智能路由使TTFT降低60%;EIC在多輪次對話中,TTFT從3秒降低到1秒,長文本推理KVCache命中率提升了10倍以上。
自發(fā)布以來,豆包大模型的日均tokens調用量實現(xiàn)了高速增長。從去年的4萬億到今年3月底的超過12.7萬億,不到一年的時間里增長了超過106倍。金山辦公、梅賽德斯-奔馳、浙江大學、杭州銀行等不同行業(yè)的眾多客戶都在火山引擎上使用豆包大模型,打造自己的AI業(yè)務生態(tài)。
在AI時代,云競爭的終局是能夠在底層大模型到上層應用生態(tài)的極致優(yōu)化。這種價值才是難以復制的護城河。火山引擎在沉淀數(shù)年后,終于在大模型時代嶄露頭角。它不是在通算時代內卷,而是在智算時代,用AI價值反向補全自己的能力版圖。當大模型廠商再次踏入同一條河流,關鍵的勝負手已經不再是技術靈感的偶然,而是圍繞全棧AI深度能力的多維競爭。火山引擎,無疑在這場競爭中占據(jù)了有利地位。