在近期舉辦的FORCE原動力大會上,火山引擎總裁譚待的演講引發了行業廣泛關注。據統計,在半小時的演講中,他18次提及“Token”,而“云”僅被提到7次。這一細節折射出當前AI領域的發展重心正在發生微妙轉變。
火山引擎公布的最新數據顯示,其豆包大模型日均Token調用量已突破50萬億,較發布初期實現417倍增長,較去年同期增長超10倍。這一數據不僅使其穩居中國第一,更躍居全球第三,與谷歌10月公布的月均43萬億Token調用量(日均約1.43萬億)形成鮮明對比。在公有云大模型服務領域,火山引擎的市場份額從2024年的46.4%提升至49.2%,相當于中國每產生兩個Token就有一個來自其平臺。
技術迭代方面,豆包大模型1.8版本正式發布,延續All-in-One技術路線,將文字、代碼、Agent、音頻、圖視頻等能力整合于統一基礎模型。同步推出的Seedance 1.5 pro視頻生成模型,在音畫同步和方言處理領域達到世界領先水平。這些升級直接回應了當前Token消耗的結構性變化——推理需求取代訓練成為主要驅動力,多模態與Agent應用占據消耗主導地位。
火山引擎智能算法負責人吳迪指出,Token作為AI處理信息的基本單元,其數量增長與智能水平呈現正相關。盡管存在"一篇文章與一段代碼消耗相似Token"的爭議,但實際場景中,關鍵決策的得出往往需要海量前置計算。他預測,到2030年國內市場Token消耗量將達現有百倍以上,企業智能化程度的核心指標將從GPU數量轉向Token消耗總量,因其能同時反映模型能力、使用頻率和真實需求。
面對這種趨勢,火山引擎重構了云計算基礎設施。傳統IaaS、PaaS、SaaS分層架構被以模型為中心的AI云原生架構取代。新推出的"推理代工"服務允許企業托管訓練好的模型,按實際Token消耗付費;Agent開發套件(ADK)采用多會話共享模式,突破行業慣例的獨立運行時設計;智能端點支持模型路由,可自動分流至豆包、DeepSeek等多模型后端;方舟平臺升級后,客戶能在自有場景中進行RL強化學習微調。
這種技術路線與谷歌的全棧自研模式形成呼應。字節跳動將內部需求直接貫通至模型訓練層,火山引擎團隊與模型部門Seed保持緊密協作,市場需求反饋直接影響研發方向。例如,豆包大一統模型的設計源于客戶對版本過多的反饋,128k上下文等炫技功能因實際需求不足被舍棄,Seedance增加的Draft樣片功能則提升了用戶體驗。這種"需求驅動研發"的模式,在火山引擎服務的超100萬家企業中得到驗證,其中超百家企業累計Token使用量突破萬億。
定價模式創新方面,火山引擎推出"AI節省計劃",客戶僅需為實際使用的Token付費。這種變革預示著云計算市場正在經歷根本性轉變——從算力租賃轉向模型調用,從基礎設施提供轉向智能服務整合。正如譚待所言,當Agent普及后,Token將從底層原材料升級為智能單元,通過云平臺和中間件的組裝,形成可互通的工作流,最終以API或完整Agent形式創造更高價值。這種轉變或將催生規模達10萬億的Agent市場,重新定義智能經濟的邊界。









