今天,在FORCE Link AI 創新巡展· 廈門站,火山引擎發布豆包·圖像編輯模型3.0、豆包·同聲傳譯模型2.0,豆包大模型1.6系列全新升級,滿足企業多元業務場景需求。面向 Agent 開發和落地,火山引擎持續優化AI云原生全棧服務,開源扣子核心能力,并發布企業自有模型托管方案、Responses API等多個模型服務和工具產品,為企業和開發者構建Agent、落地AI夯實基礎設施。

火山引擎總裁 譚待
豆包·圖像編輯模型3.0上線火山方舟
AI修圖“聽得懂、改得對、足夠美”
AI圖像編輯能大幅提升P圖效率,但在實際應用中常面臨三類典型難題:難以理解用戶真實需求,指令執行不到位;誤改了不該修改的地方;輸出圖像美感不夠,AI痕跡重。
為此,火山引擎正式發布豆包·圖像編輯模型SeedEdit 3.0,具備更強的指令遵循能力、圖像保持能力和更強的圖像生成質量。



用戶只需通過自然語言指令,即可完成消除多余內容、改變光影效果、替換文字等操作。同時,豆包·圖像編輯模型3.0具備對風格、結構與語義的精準控制力,能夠像人類大腦一樣理解指令、深度思考,解鎖更多創新的修圖場景,例如圖像風格轉換、變換材質、變化人物姿勢、根據提示詞進行推理等P圖玩法。
豆包·圖像編輯模型3.0可廣泛應用于影像創作、廣告營銷、游戲宣傳等領域,企業用戶可在火山方舟平臺調用該模型API,個人用戶可使用即夢或豆包app的“豆包P圖”功能體驗。
豆包·同聲傳譯模型2.0發布
3秒極低延遲,0樣本聲音復刻
傳統的翻譯系統通常依賴于“級聯模型”——多個模塊相互串聯,依次處理語音識別、翻譯、聲音復刻和語音合成等任務,翻譯結果不夠連貫、處理速度慢。
此次全新發布的豆包·同聲傳譯模型Seed-LiveInterpret 2.0,支持全雙工語音理解和生成框架,將傳統機器同傳的語音延遲從8-10秒降低到2-3秒,實現文本與語音的同步生成;無需提前錄制,一邊說話一邊采樣,實現0樣本聲音復刻,讓同一個人同音色開口說外語,帶來更沉浸的體驗。
豆包大模型1.6系列再升級
極速版延遲低至10ms
今年6月,豆包大模型1.6系列多個模型正式發布,為企業提供多樣化選擇。此次,極速版Doubao-Seed-1.6-flash模型在保持出色的視覺理解能力的同時,升級了代碼、推理、數學等大語言模型能力。
Doubao-Seed-1.6-flash模型,非常適合智能巡檢、手機助手、智能硬件等對模型效果、速度和成本都有要求的大規模商業化場景。該模型具有業界領先的極低延遲,TPOT僅10ms,并依然具備強大的視覺理解能力。
價格上,Doubao-Seed-1.6-flash在輸入文本長度0-32k的區間中(企業使用量最大),每百萬tokens輸入僅需0.15元,輸出僅1.5元。在真實的客戶案例中,該模型幫助客戶延遲下降60%,成本降低70%。
此外,火山引擎發布全模態向量化模型Seed1.6-Embedding,首次實現了“文本+圖像+視頻”混合模態的融合檢索,幫助企業構建更強大的多模態知識庫。在權威測評榜單中,該模型包攬了多模態全面任務、中文文本的 SOTA 成績。
AI云原生全棧服務持續優化
助力Agent開發落地
除了更好的基礎模型,Agent開發平臺和工具、支撐推理的算力基礎設施,同樣對構建AI應用至關重要。火山引擎持續優化AI云原生全棧服務,幫助企業實現端到端的Agent開發和落地。
扣子核心能力開源:在火山引擎可自動化部署
為加速AI落地、構建繁榮的AI生態,7月26日,Al Agent 開發平臺扣子將核心能力正式開源。
本次開源覆蓋扣子平臺最核心的兩個項目: 扣子開發平臺(Coze Studio)、 扣子羅盤(Coze Loop),并采用沒有任何附加條件的Apache 2.0許可證開源,用戶可在GitHub下載。
扣子開發平臺,是一站式的 AI Agent 可視化開發工具,可快速實現AI Agent 的創建、調試和部署。扣子羅盤,可以幫助開發者實現 Agent 從開發到運維的全鏈路管理。開源僅三天,Coze Studio在GitHub的stars數已經破萬, Coze Loop也有3000+ stars。
火山引擎也為Coze開源版提供了全面支持。企業AI平臺產品HiAgent,可調用Coze開源版提供的智能體搭建和運維能力,并通過共享Agent標準,支持扣子開源版智能體的納管。
火山引擎的云基礎產品,也將為扣子開源版提供高效、穩定、可靠的基礎設施支持,開發者可以一鍵拉起資源,完成部署。
企業自有模型托管方案發布:通過火山方舟模型單元部署
針對有模型定制需求的企業客戶,火山引擎發布企業自有模型托管方案:依托火山方舟模型單元,企業無需運維底層GPU資源,也不用進行復雜的網絡和調度配置,就能在火山方舟上實現自研模型的全托管,并在推理服務中享受火山方舟極致的彈性算力資源,大幅降本增效。
在算力成本上,企業可以自主選擇部署方式、機型、并設置彈性規則,更精細的控制首Token時延、模型吐字延遲,且無需為業務低谷期付費,實現更高的資源利用效率。
此外,全托管的企業自有模型,還能享受火山方舟上的全套開發工具、MCP服務等生態配套。目前,火山方舟模型單元已在火山方舟上開放邀測。
Responses API上線:支持多模態Agent高效開發
多模態模型統一、多模態模型API的統一,是當前大模型發展的重要趨勢。為此,火山方舟平臺升級了API體系,推出Responses API。
它具備原生上下文管理能力,支持多輪對話的鏈式管理,可以無縫銜接文本、圖像、混合模態數據。結合 cache 能力后,能降大幅低延遲和成本,在很多典型應用里,整體成本下降幅度可達80%。
此外,Responses API支持自主選擇調用工具,用戶發起單次請求,即可聯動多個內置工具、自定義函數及多輪模型組合響應,解決復雜Agent任務,讓Agent開發更加省時省力。