新 聞①: 英偉達:計劃于 7 月開源全球最先進的物理引擎 Newton
5 月 19 日消息,在今日的臺北電腦展 2025 主題演講中,英偉達 CEO 黃仁勛表示,在物理世界中制造機器人“不切實際”,必須在遵循物理定律的虛擬世界中訓練它們。
英偉達與 DeepMind 和 Disney Research 研究合作開發了“全球最先進的物理引擎 Newton”,計劃于七月開源。
Newton 完全支持 GPU 加速,具有高度可微性和超實時操作能力,能夠通過經驗實現有效學習。其正在將該物理引擎整合進 Nvidia 的 ISAAC 模擬器,這一整合能夠以真實的方式讓這些機器人“活”起來。
IT之家從演講獲悉,黃仁勛還公布了NVDIA Isaac GROOT 開放式人形機器人開發平臺,包括開源基礎模型等。
黃仁勛還透露,英偉達正在將其 AI 模型應用于自動駕駛汽車,與梅賽德斯在全球范圍內推出一支車隊,使用端到端自動駕駛技術,今年即可實現。
原文鏈接:https://m.ithome.com/html/854101.htm
很難想象NVIDIA會走向開源大軍,但其實這也正常,NVIDIA若要鞏固其領先地位,自身生態的領先和穩固是最重要的。在美出口限制與NVIDIA利益相沖突的情況下,軟件上的開源推廣會比硬件的銷售更重要也更易于執行。而現在,NVIDIA的物理引擎 Newton將在7月份正式開源,還公布了 NVDIA Isaac GROOT 開放式人形機器人開發平臺。在這樣的開源動作下,NVIDIA的AI影響力可能還會進一步提高。
新 聞 ②:英偉達推出 NVLink Fusion:對外授權互聯 IP,支持半定制 AI 基礎設施
5 月 19 日消息,英偉達 CEO 黃仁勛在今日發表的 COMPUTEX 2025 臺北國際電腦展主題演講中宣布推出 NVLink Fusion,將已在全英偉達方案 AI 生態內得到廣泛驗證的 NVLink 高速互聯擴展到更廣領域。
NVLink Fusion 的出現意味著客戶可構建英偉達 + 第三方的半定制混合 AI 基礎設施,搭載 NVLink Fusion IP 的 ASIC、CPU、加速器能與英偉達第一方硬件無縫通信。
IT之家獲悉,英偉達此次列出的 NVLink Fusion 合作方包括 AIChip(世芯電子,ASIC 設計企業)、AsteraLabs、Marvell、富士通、聯發科、高通、Cadence、Synopsys。
黃仁勛特別提到,富士通和高通將設計搭載 NVLink Fusion IP、適用于英偉達生態系統的 CPU。
原文鏈接:https://m.ithome.com/html/854106.htm
另外,NVIDIA硬件獨有的高速互聯技術NVLink,也被NVIDIA放了出來,推出了開放授權的NVLink Fusion技術。這意味著NVIDIA芯片與其他AI芯片的高速互聯成為了可能,而NVIDIA也宣布富士通和高通將設計搭載 NVLink Fusion IP、適用于英偉達生態系統的 CPU,會成為最早的一批合作者,這種技術倒確實是有不小的應用前景啊。
新 聞 ③ : 英偉達合作推出 Fast-dLLM 框架,AI 擴散模型推理速度最高飆升 27.6 倍
6 月 3 日消息,科技媒體 marktechpost 昨日(6 月 2 日)發布博文,報道稱英偉達聯合麻省理工學院(MIT)、香港大學,合作推出 Fast-dLLM 框架,大幅提升擴散模型(Diffusion-based LLMs)的推理速度。
擴散模型被認為是傳統自回歸模型(Autoregressive Models)的有力競爭者,采用雙向注意力機制(Bidirectional Attention Mechanisms),理論上能通過同步生成多個詞元(Multi-token Generation)加速解碼過程。
不過在實際應用中,擴散模型的推理速度往往無法媲美自回歸模型,每次生成步驟都需要重復計算全部注意力狀態,導致計算成本高昂。此外,多詞元同步解碼時,詞元間的依賴關系易被破壞,生成質量下降,讓其難以滿足實際需求。
IT之家援引博文介紹,英偉達組建的聯合團隊為解決上述瓶頸,研發了 Fast-dLLM 框架。該框架引入兩大創新:塊狀近似 KV 緩存機制和置信度感知并行解碼策略。
KV 緩存通過將序列劃分為塊(Blocks),預計算并存儲其他塊的激活值(KV Activations),在后續解碼中重復利用,顯著減少計算冗余。其 DualCache 版本進一步緩存前后綴詞元(Prefix and Suffix Tokens),利用相鄰推理步驟的高相似性提升效率。
而置信度解碼則根據設定的閾值(Confidence Threshold),選擇性解碼高置信度的詞元,避免同步采樣帶來的依賴沖突,確保生成質量。
Fast-dLLM 在多項基準測試中展現了驚人表現。在 GSM8K 數據集上,生成長度為 1024 詞元時,其 8-shot 配置下實現了 27.6 倍加速,準確率達 76.0%;在 MATH 基準測試中,加速倍數為 6.5 倍,準確率約為 39.3%;在 HumanEval 和 MBPP 測試中,分別實現了 3.2 倍和 7.8 倍加速,準確率維持在 54.3% 和基線水平附近。
整體來看,Fast-dLLM 在加速的同時,準確率僅下降 1-2 個百分點,證明其有效平衡速度與質量。這項研究通過解決推理效率和解碼質量問題,讓擴散模型在實際語言生成任務中具備了與自回歸模型競爭的實力,為未來廣泛應用奠定了基礎。
原文鏈接:https://m.ithome.com/html/857949.htm
最后,NVIDIA再度與多家高校合作,推出了Fast-dLLM 框架,其AI 擴散模型推理速度最高提升27.6 倍。而在此之前,NVIDIA就已經與其他合作伙伴一起推出了開源模型 Llama-Nemotron,也是當前最強的AI模型之一,但也并未用上Fast-dLLM 框架,而是Puzzle 框架,或許新架構的潛力會更大!
【新】電腦吧評測室QQ一群:1031441642
文章轉載自網絡(鏈接如上)。文章出現的任何圖片,標志均屬于其合法持有人;本文僅作傳遞信息之用。如有侵權可在本文內留言。
引用文章內容與觀點不代表電腦吧評測室觀點。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.