0
| 本文作者: 鄭佳美 | 2026-01-29 13:01 |
1 月 29 日,繼連續(xù)發(fā)布空間感知與VLA基座模型后,螞蟻靈波科技再次刷新行業(yè)預(yù)期,開源發(fā)布世界模型 LingBot-World。該模型在視頻質(zhì)量、動態(tài)程度、長時一致性、交互能力等關(guān)鍵指標(biāo)上均媲美 Google Genie 3,旨在為具身智能、自動駕駛及游戲開發(fā)提供高保真、高動態(tài)、可實時操控的“數(shù)字演練場”。
(圖說:LingBot-World在適用場景、生成時長、動態(tài)程度、分辨率等方面均處于業(yè)界頂尖水平)
針對視頻生成中最常見的“長時漂移”問題(生成時間一長就可能出現(xiàn)物體變形、細(xì)節(jié)塌陷、主體消失或場景結(jié)構(gòu)崩壞等現(xiàn)象),LingBot-World 通過多階段訓(xùn)練以及并行化加速,實現(xiàn)了近 10 分鐘的連續(xù)穩(wěn)定無損生成,為長序列、多步驟的復(fù)雜任務(wù)訓(xùn)練提供支撐。
交互性能上,LingBot-World 可實現(xiàn)約 16 FPS 的生成吞吐,并將端到端交互延遲控制在 1 秒以內(nèi)。用戶可通過鍵盤或鼠標(biāo)實時控制角色與相機視角,畫面隨指令即時反饋。此外,用戶可通過文本觸發(fā)環(huán)境變化與世界事件,例如調(diào)整天氣、改變畫面風(fēng)格或生成特定事件,并在保持場景幾何關(guān)系相對一致的前提下完成變化。
(圖說:一致性壓力測試,鏡頭最長移開60秒后返回,目標(biāo)物體仍存在且結(jié)構(gòu)一致)
(圖說:高動態(tài)環(huán)境下,鏡頭長時間移開后返回,車輛形態(tài)外觀仍保持一致)
(圖說:鏡頭長時間移開后返回,房屋仍存在且結(jié)構(gòu)一致)
模型具備 Zero-shot 泛化能力,僅需輸入一張真實照片(如城市街景)或游戲截圖,即可生成可交互的視頻流,無需針對單一場景進行額外訓(xùn)練或數(shù)據(jù)采集,從而降低在不同場景中的部署與使用成本。
為解決世界模型訓(xùn)練中高質(zhì)量交互數(shù)據(jù)匱乏的問題,LingBot-World 采用了混合采集策略:一方面通過清洗大規(guī)模的網(wǎng)絡(luò)視頻以覆蓋多樣化的場景,另一方面結(jié)合游戲采集與虛幻引擎(UE)合成管線,從渲染層直接提取無 UI 干擾的純凈畫面,并同步記錄操作指令與相機位姿,為模型學(xué)習(xí)“動作如何改變環(huán)境”提供精確對齊的訓(xùn)練信號。
具身智能的規(guī)模化落地面臨一個核心挑戰(zhàn)——復(fù)雜長程任務(wù)的真機訓(xùn)練數(shù)據(jù)極度稀缺。LingBot-World 憑借長時序一致性(也即記憶能力)、實時交互響應(yīng),以及對"動作-環(huán)境變化"因果關(guān)系的理解,能夠在數(shù)字世界中"想象"物理世界,為智能體的場景理解和長程任務(wù)執(zhí)行提供了一個低成本、高保真的試錯空間。同時,LingBot-World 支持場景多樣化生成(如光照、擺放位置變化等),也有助于提升具身智能算法在真實場景中的泛化能力。
隨著“靈波”系列連續(xù)發(fā)布三款具身領(lǐng)域大模型,螞蟻的AGI戰(zhàn)略實現(xiàn)了從數(shù)字世界到物理感知的關(guān)鍵延伸。這標(biāo)志著其“基礎(chǔ)模型-通用應(yīng)用-實體交互”的全棧路徑已然清晰。螞蟻正通過InclusionAI 社區(qū)將模型全部開源,和行業(yè)共建,探索AGI的邊界。一個旨在深度融合開源開放并服務(wù)于真實場景的AGI生態(tài),正加速成型。
目前,LingBot-World 模型權(quán)重及推理代碼已面向社區(qū)開放。
雷峰網(wǎng)版權(quán)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。