出品 | 網易科技《態度》欄目
作者 | 袁寧
“我們已經進入了AI Agent時代,正在見證AI系統如何以全新方式幫助我們解決問題。”
昨晚,微軟2025年Build大會上,微軟正式亮出其面向未來的AI戰略藍圖。
AI不再只是一個工具,而正在成為擁有自主感知與執行能力的“數字代理”,重塑軟件開發、工作流程乃至整個商業邏輯。
除了微軟 CEO 納德拉和 CTO Kevin Scott 齊上陣,“AI三巨頭”也以連線形式齊聚:OpenAI CEO山姆·奧特曼、英偉達CEO黃仁勛,以及xAI創始人埃隆·馬斯克。
以“開放的 Agentic Web”為核心議題,微軟試圖講述一個關于AI未來的完整敘事——一個由模型、算力、工具鏈和開發者共同構成的,針對未來AI代理(Agent)的未來格局。
連線一:山姆·奧特曼,關于AI開發的下一站
納德拉與奧特曼的對話,集中落在AI Agent生態系統的進展上。
“現在是做開發者的絕佳時機,”納德拉表示,“這些工具正在變得越來越強大,但真正重要的,是它們能彼此協作,構建出前所未有的創造力。”
納德拉特別提到 OpenAI 剛剛于上周五發布的 Codex Agent:一個能理解自然語言指令、操作系統和開發工具的智能體,正是開發者工具從“助手”向“協作者”演進的標志。
值得一提的是,微軟自家的 Coding Agent 也首次亮相,它讓GitHub上的Issue分配邏輯直接“智能化”:開發者只需像分配任務給隊友一樣,直接指派任務給Copilot。背后則是230,000家企業已在使用Copilot Studio定制自家代理,微軟預計到2028年,這一數字將達到13億個AI代理。
從對話式助手,到可執行任務的Agent,再到能多智能體協作的系統級產品,微軟在以一種更強悍的方式定義“Copilot”。
納德拉:Sam,你一直在關注軟件開發中各種交互形式的演變,從命令行,到聊天界面,再到今天的編碼代理。你能和我們談談,你對軟件工程未來的發展方向有怎樣的設想?以及,開發者如何在不同交互方式之間自由切換、高效協同,來充分利用這些智能工具?
Sam Altman:這其實是我們早在2021年推出初版 Codex 時就在設想的路徑。當時我們與 GitHub 團隊合作,最初的目標之一,就是希望有朝一日能構建出一個多模態、可協作的開發平臺,讓 AI 成為每位開發者真正意義上的“虛擬搭檔”。
今天我們終于邁出了這一步,能實現這樣的編碼代理體驗,對我來說依然有些不可思議。我認為這是我所見過的編程方式中最具變革意義的一次。開發者如今可以真正擁有一個能接收任務的“虛擬隊友”——你可以讓它繼續處理你剛才在做的工作,也可以讓它著手更復雜的任務。甚至未來有一天,你可以對它說:“我有個大膽的想法,你去花幾天把它實現出來。”
而且這只是開始,未來只會越來越強大。最令人興奮的是,它已經和 GitHub 深度集成。你可以授權它訪問特定的代碼庫和運行環境,然后,它就能完成一些真正令人驚嘆的工作。現在,開發者可以在保持完整思維流的狀態下,與 AI 編程代理自然協作,就像與人類搭檔一起開發一樣。而整個開發流程和生命周期,也因此被大大加快了。
納德拉:你們團隊還在同步推進很多模型的研發,而且表現非常出色。我們也有機會在第一時間體驗你們構建的各種模型。能不能和大家分享一下接下來模型路線圖上有哪些值得期待的新進展?
Sam Altman:我們的模型已經非常聰明了,而且還會持續進化。但我覺得最值得期待的一點是:它們將變得越來越易用。未來你不需要在一堆模型中挑來選去,它們會自動做出合理決策,更加可靠,適用范圍也會更廣。
同時,模型還會具備更多能力,比如更自然的多模態交互、更強的工具調用能力、更豐富的集成方式。我們希望它越來越接近“開箱即用”的體驗。你可以直接和它對話,讓它完成復雜的編程任務,并且真正值得你信任。我相信大家會對我們在這些方向上的推進速度感到驚喜。
納德拉:對于正在構建大規模、高可用、狀態持久的代理式應用的開發者來說,你有什么建議嗎?畢竟你們已經在這個領域走在了前面。
Sam Altman:我覺得最大的挑戰是如何應對技術進化的速度。你回頭看兩年前、一年前能做的事情,再看看今天已經實現的,再想象一下未來一年、兩年還能做到什么——這是一次真正意義上的能力躍遷。
我們需要為這種飛躍做好規劃,重新思考人們將如何構建產品、開發軟件、創辦公司,并積極擁抱新的工具和工作流。像這樣深刻的技術變革在歷史上并不常見,但每一次,當你越早全力投入其中,就越有可能收獲最大的回報。
連線二:埃隆·馬斯克,關于底層物理與Agent哲學
如果說奧特曼講的是技術演進,那么馬斯克講的,是AI代理構建的“哲學基礎”。
納德拉與馬斯克的對話,圍繞xAI旗下 Grok 3模型在Azure平臺的部署展開。Grok 3及其輕量版本Grok 3 Mini,如今已納入 Azure AI Foundry,將為微軟客戶提供與自研模型等價的SLA保障。
但馬斯克沒有止步于合作內容,他在連線中強調,xAI正加快推進Grok 3.5的開發,準備在反饋驅動下持續迭代,這也呼應了他一直強調的“工程真實感”和“用戶場景反饋優先”。
值得注意的是,微軟將其與馬斯克的合作定位為“開放智能體網絡”中的一環——不同模型廠商之間的Agent將逐漸打破孤島,互相通信、協作執行任務。這正是“Agentic Web”的最本質內涵。
納德拉:非常感謝你,埃隆,來到 Build 大會。我記得你最初是在微軟實習,還是一位 Windows 開發者。現在你依然是個 PC 游戲迷吧?能跟我們分享一下你當年在 Windows 平臺上的經歷,還有你當時開發的一些項目嗎?
埃隆·馬斯克:其實在接觸 Windows 之前,我是從 MS-DOS 開始的。我有一臺早期的 IBM PC,最開始只有128K 內存,后來我自己加到256K,當時覺得這已經是巨大的升級了。我用 DOS 寫過一些小游戲。然后進入 Windows 時代——你還記得 Windows 3.1嗎?那是一個令人難忘的階段。
納德拉:我還記得我們上次聊天時,你還在聊 Active Directory 的那些復雜機制。你今天能來我們的開發者大會,真的太好了。對我們來說,最令人興奮的事情之一,就是 Grok 即將在 Azure 上發布。我知道你對 AI 的未來有著深刻的理解,而這也是你打造 Grok 的初衷。這個模型家族兼具響應和推理能力,并且你們還有一個非常激動人心的發展藍圖。能和我們分享一下你的愿景,以及你們是如何提升模型能力和效率的嗎?
埃隆·馬斯克:有關 Grok,尤其是即將發布的 Grok 3.5,我們正在嘗試讓模型從“第一性原理”出發進行推理——也就是說,借助物理學的思維方式去構建 AI。比如,在探索真理時,我們會嘗試將一個問題拆解成最基本、最可靠的公理化元素,然后從這些出發進行推演,最后再用這些原理去驗證結論。
就像在物理學中,如果你提出了一個違反能量守恒或動量守恒定律的理論,那你要么準備拿諾貝爾獎,要么就是你搞錯了——而且大概率是后者。
所以我們希望通過引入這些物理學的方法論,讓 Grok 更接近于一種“誤差最小化的推理系統”。我們知道 AI 不可能完美,但我們努力在每一次推理中,盡可能接近事實,同時也能夠在發現偏差時快速糾正。我一直高度關注 AI 安全,而“誠實是最好的策略”這句話,在這個領域依然成立。
我們非常重視開發者社區的反饋。我們想知道你們真正需要什么,我們哪里還可以改進。Grok 的目標是成為一個開發者愿意使用、也能推動他們效率的工具,而這個過程,需要你們的參與。
納德拉:我們非常期待看到開發者社區如何使用 Grok,以及它會怎樣融入他們的產品和工作流。所以,感謝你今天抽時間加入我們,埃隆。我們對這次合作充滿期待,歡迎 Grok 加入 Azure。
馬斯克:我也是,非常感謝邀請我參加這次活動。我想再強調一下,我們非常歡迎開發者的反饋。你們希望模型具備什么能力?哪些地方需要改進?告訴我們,我們會盡最大努力把它實現出來。
連線三:黃仁勛,關于性能、協同與算力地基
相比其他兩位更關注AI智能體的軟件維度,黃仁勛的登場帶來的是底層算力支撐的“暴力美學”。
他在連線中提到,英偉達的最新AI芯片系統GB200已進入大規模部署階段,其中大部分部署都將在微軟Azure 平臺上完成。
黃仁勛表示Hopper架構過去兩年性能提升了40倍,而所有這些都不是硬件單打獨斗的勝利,而是軟硬協同的成果。
納德拉:Jensen,說到底,我們的共同目標就是為這個世界帶來更多“智能”。某種程度上,我們追求的是——每花一美元、每用一瓦電,能帶來盡可能多的計算能力。我很想聽聽你對這個方向的看法,也許可以從我們的老話題“摩爾定律”談起。
黃仁勛:其實就在兩年前,我們剛剛在 Azure 上合作打造了全球最大規模的 AI 超級計算機。這代表了計算方式的一次飛躍。你們在 Azure 上打造的新一代 AI 基礎設施,加上我們在 CUDA 算法、模型架構方面的最新突破,讓這套系統的性能相比過去的 Hopper 架構提升了40倍。這么大的提速,在短短兩年內實現,真的非常驚人。
如果說硬件是“肌肉”,那軟件的協同效應才是讓整個系統跑起來的“神經系統”。我們仍然需要統一的架構和穩定的生態系統,這樣開發者的投入才不會浪費——無論是訓練模型的研究者,還是部署系統的企業客戶。
納德拉:你能不能談談在 Azure 上,如何通過任務的多樣性和更高的資源利用率,進一步把價值發揮到極致?
黃仁勛:CUDA 的一個優勢是它已經有龐大的用戶群,另一個是它既可以加速,也具備高度通用性,適合各種工作負載。我們正在努力把像視頻轉碼、圖像處理這些任務的效率提升20倍甚至50倍。我們要做的,是確保整個數據中心的每一個任務、每一項資源都能被充分利用,真正實現物盡其用。
所以,這不僅僅是看“能生成多少 tokens”,更是看“在單位成本和功耗下,我們能加速多少種不同的AI任務”。而這一切,都離不開我們在硬件和軟件兩方面持續的協同創新。
感謝你們的合作、你們的領導力,也感謝我們共同的愿景——打造世界上最先進的 AI 基礎設施。我相信,真正令人激動的時代,還在前面。
納德拉:謝謝你,Jensen。實際上,我們正在 Azure 上部署全球最大規模的 GB200超級計算機,這將是我們在性能和規模上的又一次飛躍。我們也非常期待將這些能力帶給全球的開發者。
微軟的AI戰略意圖:打造一個開放、協同的智能體未來
三場連線只是Build大會的一部分。從整場大會來看,微軟正在構建這樣一個未來:AI 智能體不僅服務于個人用戶的日常任務,更能夠在組織、團隊乃至整個企業流程中充當“數字員工”,協同決策、自動執行,成為全新生產力引擎。
微軟的愿景是推動一個“開放智能體網絡”的形成。這個網絡不僅強調跨平臺、跨場景的互通性,也依托統一標準與協議(如 MCP),實現智能體之間的安全協作與資源共享。通過這一架構,AI 智能體將能夠代表用戶在數字世界中進行深度互動和操作,重構信息獲取與問題解決的方式。
為了實現這一愿景,微軟正在將智能體能力全面嵌入其核心平臺:
- GitHub Copilot 正從“輔助寫代碼”進化為具備協同理解與決策能力的“編程伙伴”;
- Microsoft 365 Copilot 日益深入企業日常工作流程,成為知識工作者的“業務副駕駛”;
- Azure AI Foundry 則作為智能體開發與部署的統一底座,賦能開發者構建企業級智能體系統。
與此同時,微軟還推動智能體開發方式的變革——從模型訓練、部署到協同編排、安全治理,開發者無需從零構建,即可使用平臺化、模塊化能力靈活組裝智能體,并確保其在企業內部安全運行。
可以說,微軟不僅在重構軟件開發,也在重塑數字世界的基本運行邏輯。其最終目標是:讓每一位開發者、每一家企業,都能擁有可控、可信、可協作的AI智能體。