6月11日,字節跳動(以下簡稱“字節”)旗下火山引擎舉辦Force原動力大會,發布豆包大模型1.6、視頻生成模型Seedance 1.0 pro等新模型,并上線火山引擎AI云原生系列產品,包括升級后的Agent(智能體)開發平臺,多模態數據湖,AI基礎設施的Agent套件、訓練套件、推理套件等,以幫助To B客戶更好地構建生產級Agent。
這也意味著,在AI Agent規?;逃迷?,國內第一梯隊的四大玩家悉數亮相完畢。
據IDC報告,作為坐擁中國公有云大模型市場46.4%份額的頭部玩家,豆包大模型“壓軸”出手雖稍晚幾天,卻也是最“軟硬兼施”“秀肌肉”的:技術能力上,豆包已涵蓋多模態、視頻、圖像、語音、音樂等模型品類,豆包1.6模型在復雜推理、競賽級數學、多輪對話和指令遵循等測試集上均躋身全球前列;行業應用上,豆包大模型已服務全球TOP10手機廠商中的9家、8成主流汽車品牌、70%的系統重要性銀行及超5成985高校;AI Agent“價值戰”普惠上,豆包大模型1.6采用創新的“區間定價”,客戶使用成本降至三分之一,全方位推進智能提升和應用落地。
“PC時代主體是Web,移動時代是App,AI時代則是Agent。Agent能夠自主感知、規劃和反思,完成復雜任務。從被動工具轉變為主動執行者。豆包大模型和AI云原生將持續迭代,助力企業構建和大規模應用Agent?!被鹕揭婵偛米T待認為,AI時代已推動開發范式與技術架構的全面升級,而只有通過技術和商業的雙重創新,才能推動Agent的規模化應用。
而面對行業頭部玩家的拼投入、拼研發、拼生態等的“拼刺刀”,字節CEO梁汝波表示:“字節致力成為優秀的創新科技公司,會堅定長期投入,追求智能突破,服務產業應用。通過火山引擎,持續把新模型、新技術開放給企業客戶?!?/p>
池大魚大,AI普惠戰略升級
2024年5月15日,火山引擎曾通過主力大模型降價,掀起了大廠主力大模型的降價潮。
當日發布會上,火山引擎宣布升級火山方舟、應用服務、機器學習平臺、云底座的同時,一口氣發布9款大模型,并巨幅調降主力大模型調用價格:豆包pro 32k模型推理輸入定價降至0.0008元/千tokens(文本基本處理單元),較同業價格“斷崖式”下降99.3%;豆包pro 128k模型正式定價0.005元/千tokens,較同業價格低95.8%。
雖然在豆包大模型降價前,國內大模型“六小虎”之一的智譜AI,早在5月11日就宣布了降價,將入門級大模型GLM-3-Turbo(上下文長度128k)的價格從0.005元/千tokens降低到0.001元/千tokens,開放平臺新注冊用戶獲贈從500 萬tokens提升至2500萬tokens(包含2000萬入門級額度和500萬企業級額度),但豆包的入場,仍是百度、阿里、騰訊等大廠全面跟進的“始作俑者”。
豆包降價后的5月21日,阿里云宣布通義千問主力模型Qwen-Long直降97%(0.0005元/千tokens)。降價后,阿里通義模型約為GPT-4價格的1/400,擊穿全球tokens底價的同時,較之5月15日豆包大模型的0.0008元/千tokens,價格又降了30%+。同日,百度宣布文心大模型的兩款主力模型ENIRE Speed、ENIRE Lite即刻起全面免費,開啟大模型API調用的“免費時代”。百度相關負責人還特意強調稱,這兩款模型支持128k、8k上下文長度,是目前百度文心大模型系列中服務用戶最多的模型型號。
一天后的5月22日,騰訊云將主力模型之一的混元-lite模型調整為全面免費;萬億參數模型混元-pro,API(應用程序編程接口)輸入價格從0.1元/千tokens降至0.03元/千tokens,降幅達70%。同日,大模型“國家隊”科大訊飛(002230)發布公告稱,訊飛星火API能力正式免費開放。其中,訊飛星火Lite API永久免費開放,訊飛星火Pro/Max API低至0.21元/萬tokens。
“以前企業做創新擔心 ROI (投資回報率)打不正,一來創新項目90%會失敗,二來創新按消耗100 億Tokens 算就要80萬元;現在成本只需要8000元,失敗也花不了多少錢,但剩下10%項目成功就可以把投入都賺回來,這無疑能幫助更多企業輕裝上陣,無負擔投身 AI 大潮?!弊T待說。
也正是基于此,在豆包跨過模型效果、推理成本、落地難度三道基本門檻后,把“蛋糕做大”成了火山引擎舉起價格“屠刀”的根本用意所在。
“對于大模型創業者來說,沒有哪家能靠To B業務賺很多錢,或者可以認為通過To B 服務把自己的大模型商業模式正循環此路不通。而現在還是大模型創業特別早期的階段,池塘大魚才大,要把蛋糕做大先要做到普惠,讓很多企業能以更低成本做各種創新,這是更重要的?!弊T待稱。
大模型一年來的飛速發展也表明,火山引擎堪稱是2024年國內大模型“唯二”影響了行業發展走向的公司之一,另一家是2024年底的DeepSeek。
數據顯示,豆包大模型日均Tokens調用量從2024年12月的4萬億飆升至2025年5月的16.4萬億,年增長率超300%,較2024年5月首次發布時增長137倍;穩居中國公有云大模型服務調用量第一,46.4%的市場份額超行業第二第三之和。
領先的市場份額之外,豆包模型企業級應用場景快速擴展、廣泛分布。AI 搜索、編程、視覺理解等場景Tokens消耗5個月增長4.4倍,其中K12在線教育增長12倍,智能巡檢、視頻檢索等新場景突破日均百億Tokens。
“豆包大模型1.6的價格體系,是火山引擎以技術創新為杠桿,打破行業定價規則,讓企業以更低成本獲取更強AI能力。正如豆包1.0開啟了大模型規模調用時代,豆包1.6將加速Agent的大規模落地,推動AI真正成為企業增長的核心引擎?!弊T待說,也正是從這個角度看,豆包大模型調用成本再降至原價1/3,既是火山引擎AI普惠的戰略升級,更是Agent商用加速推廣的“價值戰”而非“價格戰”。
技術驅動,首創“區間定價”模式
之所以認為此次降價是“價值戰”而非簡單的“價格戰”,加快Agent商業落地的原因之外,還有火山引擎通過技術驅動、首創大模型行業“區間定價”的引領意義。
IDC數據顯示,2024年中國AI Agent市場規模僅50億元,遠低于預期,反映出企業對高成本的觀望心態。而這一現象的核心矛盾在于模型價格與企業實際需求的錯配。行業統計表明,企業級Agent的實際應用成本壓力相當突出——單個Agent每日token消耗成本可達20美元。
據譚待介紹,以往的模型定價機制,是按大模型按tokens收費,輸入輸出的tokens數量直接決定成本。例如,輸入1000字的中文文本約生成1500個tokens,而輸出1000字則需約1500個tokens。這種計費模式下,上下文長度是成本的核心變量,而非模型是否開啟深度思考或多模態功能。
考慮到大模型的運行還有其“成本遞增效應”(隨著上下文長度增加,模型處理每個token的計算復雜度呈指數級上升),則單token的成本會更高。例如,有些模型在處理超過128K tokens時收費翻倍,因其注意力機制需與前文所有tokens進行關聯計算。
而火山引擎統計發現,當前,超過80%的企業調用請求集中在32K tokens以內。若能針對這一主流區間優化調度,可顯著降低企業整體成本。
基于此,火山引擎通過深度技術優化,首創豆包大模型1.6的“區間定價模式”,以精準匹配企業需求分布,實現企業Agent成本與性能的雙重突破。
“首先,我們打破行業慣例,采用統一定價,無論客戶是否開啟深度思考或多模態功能,豆包大模型1.6的token價格完全一致,讓客戶能夠以基礎語言模型的價格享受到高級功能?!弊T待告訴《財中社》,“其次,火山引擎通過分桶調度,精準匹配客戶需求,降低客戶調用成本?!?/p>
這其中,“分桶調度”技術的優化至關重要。通過分桶調度,豆包1.6將80%的請求導向0-32K主力需求區間,利用短文本處理的高并行性提升效率,降低單位成本。
當然,通過多模態原生支持,免掉客戶額外付費,按需調用圖文、音視頻等多模態能力,且性能優于豆包1.5和DeepSeek R1;依托火山引擎與字節國內業務并池的算力成本規模效應,同款GPU配置價格低于行業平均水平等舉措,同樣是客戶低價獲取高性能服務的關鍵。
此外,針對輸入32K、輸出200 tokens以內的請求,豆包1.6輸出價格進一步降至2元/百萬tokens,與豆包1.0持平,延續超低門檻,也是火山引擎通過設立特惠專區、覆蓋客戶非思考需求的“普惠”舉措組成部分。
而為了更好地支持Agent開發與應用,火山引擎AI云原生全棧服務升級,發布了火山引擎MCP服務、PromptPilot 智能提示工具、AI知識管理系統、veRL強化學習框架等產品,并推出多模態數據湖、AICC私密計算、大模型應用防火墻,以及一系列AI Infra套件。
“深度思考、多模態和工具調用等模型能力提升,是構建Agent的關鍵要素。同時,由于Agent每次執行任務都會消耗大量tokens,模型使用成本的降低,才能推動Agent的規?;瘧??!弊T待表示。
“中美作為唯二的人工智能玩家,形成了非對稱的技術路徑——中國更重視下游應用。想要發揮我們的比較優勢,就要降低應用開發的成本,而大模型的降價無疑最為直接?!睎|吳證券(601555)研究所計算機行業首席分析師王紫敬告訴《財中社》。