聞樂 發(fā)自 凹非寺
量子位 | 公眾號 QbitAI
物理學(xué)正在走向人工智能——
Meta開源發(fā)布V-JEPA 2世界模型:一個(gè)能像人類一樣理解物理世界的AI模型。
圖靈獎(jiǎng)得主、Meta首席AI科學(xué)家Yann LeCun親自出鏡宣傳,并稱:
我們相信世界模型將為機(jī)器人技術(shù)帶來一個(gè)新時(shí)代,使現(xiàn)實(shí)世界中的AI智能體能夠在不需要大量機(jī)器人訓(xùn)練數(shù)據(jù)的情況下幫助完成家務(wù)和體力任務(wù)。
那什么是世界模型呢?
簡單說,就是能夠?qū)φ鎸?shí)物理世界做出反應(yīng)的AI模型。
它應(yīng)該具備以下幾種能力:
- 理解:世界模型應(yīng)該能夠理解世界的觀察,包括識別視頻中物體、動(dòng)作和運(yùn)動(dòng)等事物。
- 預(yù)測:一個(gè)世界模型應(yīng)該能夠預(yù)測世界將如何演變,以及如果智能體采取行動(dòng),世界將如何變化。
- 規(guī)劃:基于預(yù)測能力,世界模型應(yīng)能用于規(guī)劃實(shí)現(xiàn)給定目標(biāo)的行動(dòng)序列。
V-JEPA 2(Meta Video Joint Embedding Predictive Architecture 2 )是首個(gè)基于視頻訓(xùn)練的世界模型(視頻是關(guān)于世界信息豐富且易于獲取的來源)
它提升了動(dòng)作預(yù)測和物理世界建模能力,能夠用于在新環(huán)境中進(jìn)行零樣本規(guī)劃機(jī)器人控制
V-JEPA 2一發(fā)布就引起了一片好評,甚至有網(wǎng)友表示:這是機(jī)器人領(lǐng)域的革命性突破!
62小時(shí)訓(xùn)練即可生成規(guī)劃控制模型
V-JEPA 2采用自監(jiān)督學(xué)習(xí)框架,利用超過100萬小時(shí)的互聯(lián)網(wǎng)視頻和圖像數(shù)據(jù)進(jìn)行預(yù)訓(xùn)練,不依賴語言監(jiān)督,證明純視覺自監(jiān)督學(xué)習(xí)可以達(dá)到頂尖表現(xiàn)。
上圖清晰地展示了如何從大規(guī)模視頻數(shù)據(jù)預(yù)訓(xùn)練到多樣化下游任務(wù)的全過程:
輸入數(shù)據(jù):利用100萬小時(shí)互聯(lián)網(wǎng)視頻和100萬圖片進(jìn)行預(yù)訓(xùn)練。
訓(xùn)練過程:使用視覺掩碼去噪目標(biāo)進(jìn)行視頻預(yù)訓(xùn)練。
下游應(yīng)用分為三類:
- 理解與預(yù)測:行為分類、物體識別、行為預(yù)測;
- 語言對齊:通過與LLM對齊實(shí)現(xiàn)視頻問答能力;
- 規(guī)劃:通過后訓(xùn)練行動(dòng)條件模型(V-JEPA 2-AC)實(shí)現(xiàn)機(jī)器人操作。
V-JEPA 2采用聯(lián)合嵌入預(yù)測架構(gòu)(JEPA),主要包含兩個(gè)組件:編碼器預(yù)測器
編碼器接收原始視頻并輸出能夠捕捉有關(guān)觀察世界狀態(tài)的語義信息的嵌入。
預(yù)測器接收視頻嵌入以及關(guān)于要預(yù)測的額外上下文,并輸出預(yù)測的嵌入。
研究團(tuán)隊(duì)用視頻進(jìn)行自監(jiān)督學(xué)習(xí)來訓(xùn)練V-JEPA 2,這就能夠在無需額外人工標(biāo)注的情況下進(jìn)行視頻訓(xùn)練。
V-JEPA 2的訓(xùn)練涉及兩個(gè)階段:先是無動(dòng)作預(yù)訓(xùn)練(下圖左側(cè)),然后是額外的動(dòng)作條件訓(xùn)練(下圖右側(cè))。
經(jīng)過訓(xùn)練后,V-JEPA 2在運(yùn)動(dòng)理解方面取得了優(yōu)異性能(在Something-Something v2上達(dá)到77.3的 top-1準(zhǔn)確率),并在人類動(dòng)作預(yù)測方面達(dá)到了當(dāng)前最佳水平(在Epic-Kitchens-100上達(dá)到39.7的recall-at-5),超越了以往的任務(wù)特定模型。
此外,在將V-JEPA 2與大型語言模型對齊后,團(tuán)隊(duì)在8B參數(shù)規(guī)模下多個(gè)視頻問答任務(wù)中展示了當(dāng)前最佳性能(例如,在PerceptionTest上達(dá)到84.0,在TempCompass上達(dá)到76.9)。
對于短期任務(wù),例如拾取或放置物體,團(tuán)隊(duì)以圖像的形式指定目標(biāo)。
使用V-JEPA 2編碼器獲取當(dāng)前狀態(tài)和目標(biāo)狀態(tài)的嵌入。
從其觀察到的當(dāng)前狀態(tài)開始,機(jī)器人通過使用預(yù)測器來想象采取一系列候選動(dòng)作的后果,并根據(jù)它們接近目標(biāo)的速度對候選動(dòng)作進(jìn)行評分。
在每個(gè)時(shí)間步,機(jī)器人通過模型預(yù)測控制重新規(guī)劃并執(zhí)行朝向該目標(biāo)的最高評分的下一個(gè)動(dòng)作。
對于更長期的任務(wù),例如拾取物體并將其放置在正確的位置,指定一系列機(jī)器人試圖按順序?qū)崿F(xiàn)的視覺子目標(biāo),類似于人類觀察到的視覺模仿學(xué)習(xí)。
通過這些視覺子目標(biāo),V-JEPA 2在新的和未見過的環(huán)境中拾取并放置新物體時(shí),成功率達(dá)到65%–80%。
物理理解新基準(zhǔn)
Meta還發(fā)布了三個(gè)新的基準(zhǔn)測試,用于評估現(xiàn)有模型從視頻中理解和推理物理世界的能力
雖然人類在所有三個(gè)基準(zhǔn)測試中表現(xiàn)良好(準(zhǔn)確率85%–95%),但人類表現(xiàn)與包括V-JEPA 2在內(nèi)的頂級模型之間存在明顯差距,這表明模型需要改進(jìn)的重要方向。
IntPhys 2是專門設(shè)計(jì)用來衡量模型區(qū)分物理上可能和不可能場景的能力,并在早期的IntPhys基準(zhǔn)測試基礎(chǔ)上進(jìn)行構(gòu)建和擴(kuò)展。
團(tuán)隊(duì)通過一個(gè)游戲引擎生成視頻對,其中兩個(gè)視頻在某個(gè)點(diǎn)之前完全相同,然后其中一個(gè)視頻發(fā)生物理破壞事件。
模型必須識別出哪個(gè)視頻發(fā)生了物理破壞事件。
雖然人類在這一任務(wù)上在多種場景和條件下幾乎達(dá)到完美準(zhǔn)確率,但當(dāng)前的視頻模型處于或接近隨機(jī)水平。
Minimal Video Pairs (MVPBench)通過多項(xiàng)選擇題測量視頻語言模型的物理理解能力。
旨在減輕視頻語言模型中常見的捷徑解決方案,例如依賴表面視覺或文本線索以及偏見。
MVPBench中的每個(gè)示例都有一個(gè)最小變化對:一個(gè)視覺上相似的視頻,以及相同的問題但答案相反。
為了獲得一個(gè)示例的分?jǐn)?shù),模型必須正確回答其最小變化對。
CausalVQA測量視頻語言模型回答與物理因果關(guān)系相關(guān)問題的能力。
該基準(zhǔn)旨在專注于物理世界視頻中的因果關(guān)系理解,包括反事實(shí)(如果……會發(fā)生什么)、預(yù)期(接下來可能發(fā)生什么)和計(jì)劃(為了實(shí)現(xiàn)目標(biāo)下一步應(yīng)該采取什么行動(dòng))相關(guān)的問題。
雖然大型多模態(tài)模型在回答視頻中“發(fā)生了什么”的問題方面能力越來越強(qiáng),但在回答“可能發(fā)生了什么”和“接下來可能發(fā)生什么”的問題時(shí)仍然存在困難。
這表明在給定行動(dòng)和事件空間的情況下,預(yù)測物理世界可能如何演變方面,與人類表現(xiàn)存在巨大差距。
One More Thing
Meta還透露了公司在通往高級機(jī)器智能之路上的下一步計(jì)劃。
目前,V-JEPA 2只能在單一時(shí)間尺度上學(xué)習(xí)和進(jìn)行預(yù)測。
然而,許多任務(wù)需要跨多個(gè)時(shí)間尺度的規(guī)劃。
所以一個(gè)重要的方向是發(fā)展專注于訓(xùn)練能夠在多個(gè)時(shí)間和空間尺度上學(xué)習(xí)、推理和規(guī)劃的分層次JEPA模型。
另一個(gè)重要的方向是多模態(tài)JEPA模型,這些模型能夠使用多種感官(包括視覺、音頻和觸覺)進(jìn)行預(yù)測。
項(xiàng)目地址:
GitHub:https://github.com/facebookresearch/vjepa2
Hugging Face:https://huggingface.co/collections/facebook/v-jepa-2-6841bad8413014e185b497a6
[1]https://ai.meta.com/blog/v-jepa-2-world-model-benchmarks/
[2]https://x.com/AIatMeta/status/1932808881627148450
[3]https://ai.meta.com/research/publications/v-jepa-2-self-supervised-video-models-enable-understanding-prediction-and-planning/
— 完 —
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.