近期,大模型和人形機器人備受社會各界關注,很多人在思考:如何讓二者有效“融合”切實推動具身智能的發展?顧名思義,具身智能是具有“身體”的人工智能。具身智能為大模型的應用提供了更廣闊的平臺,使之從“賽博空間”走向物理世界;具身智能讓機器人變得更“聰明”,與人類的交流更為順暢。具身智能的發展給哲學反思帶來不少挑戰,本組筆談聚焦具身智能的定義、本質特征、類型和實現的可能性等基本理論問題,以期推動該領域研究的進一步發展。閆宏秀、宋勝男認為,具身智能面臨認知偏差、語義鴻溝和價值判斷三大對齊難題,可通過“認知—語言—價值”三重對齊框架及世界模型、語義扎根、倫理準則具身化等具體方法,積極探索構建協同、可信的具身智能系統,推進人機深度協作。
本系列文章原刊《福建論壇(人文社會科學版)》2025年第4期,澎湃新聞經授權轉載。
【摘要】具身智能發展面臨的對齊難題制約了人機協作的可能性。其中,由物理世界引發的認知偏差、由人機語言隔閡引發的語義奠基問題、由人機存在差異引發的價值對齊挑戰是具身智能對齊難題的三大表征。從“認知—語言—價值”三重對齊框架來看,我們通過世界模型和因果推理構建智能體對物理規律的常識性理解,可為智能體的行動提供可靠的認知理論體系;借助語義扎根與意圖理解,尋找自然語言處理的更好迭代,有助于實現更通暢的人機語言互譯,可為智能體打通語義方面的人機協作通道;通過倫理準則具身化、倫理指令客觀化等方式,可有效促使具身智能的行動符合以人為本、技術向善的終極倫理指南。
一般而言,對齊可與價值對齊等同。這是因為從技術價值論來看,價值對齊直接體現了對齊的核心目標,即確保人工智能系統的行為與人類的價值觀、意圖和利益保持一致;而從狹義的技術研究視角來看,“在人工智能系統生命周期中的對齊保證,包括安全評估、可解釋性和人類價值契合性驗證”,即價值對齊可被視為對齊的一種。不過,具身智能的對齊比這種一般意義上的對齊有更繁雜和特殊的含義。與傳統人工智能不同,具身智能重在利用“身體”與“智能”的有效融合,從而感知環境和理解世界。這種融合實際上就是力圖將多方要素對齊。易言之,具身智能需要實現從初步認知物理規律到深入理解人類概念、從計算機語言和人類語言的隔閡到無障礙溝通、從人機差異難題到智能體與物理交互意圖相一致等多個維度的對齊。因此,具身智能對齊不僅指的是價值對齊,同時也指具身智能之“智能”所包含的認知、語言方面的對齊。基于“認知—語言—價值”的對齊框架,進而實現具身智能“身體”與“智能”的協同,最終實現整體性對齊,這是構建可信任的協同具身智能的有效路徑。
一、具身智能對齊難題
在具身智能的進一步發展中,當“通過數據向機器人傳授物理定律是阻礙機器人在日常生活中廣泛應用的直接障礙”時,采用基于“身體”的方式代替傳統的數據訓練將成為一種重要的路徑。隨著具身智能技術不斷向工業制造場景和服務業場景的延伸,“身體”的重要性日益凸顯。為避免具身智能技術在與人類協作過程中因“身體”在物理環境中的操作失誤而對人類造成傷害,就必須確保具身智能對齊,而對具身智能對齊難題的考察恰恰是實現上述對齊的必要條件。具體而言,這種考察可以以難題的緣起與表征為切入點。
(一)由物理世界復雜性引發的認知偏差
在人工智能領域,對物理世界運動規律的精準把握一直是研究者們追求的目標。而在具身智能領域中,作為這種追求更深刻的反映,研究者們在感知技術、數據處理與分析、算法與控制、交互與適應等方面表現出迫切的理論和技術需求。與此同時,由于具身的特殊性,人工智能體對物理世界運動規律的理解變得比以往更加重要。以往人工智能的理解錯誤只表現為文本或者視頻產生的邏輯矛盾和規律混淆,并不會導致嚴重后果,但是我們對具身智能的要求卻不能有絲毫怠慢。具身智能體需要在真實的物理環境中完成動作,稍微的認知偏差都可能危及人類的生命和財產,如機械臂的抓取失誤造成物件損壞、運輸機器人失控碰撞行人、具身穿戴式設備產生異常動作從而直接造成人體損傷等。這類錯誤如果不能及時修復,還會對人機交互的基礎信任環境造成破壞。為了避免嚴重后果,“將工人從危險的工作環境中解放出來,轉而安排他們從事更安全、更具戰略意義的工作;讓工人遠離高風險工作,轉而擔任監督崗位來提高生產力”,但這只是對技術脆弱性的補充和修正,并沒有消除癥結。因為此種認知偏差主要源于人工智能對人類的模擬尚有缺陷。
自人工智能概念誕生以來,模擬人類大腦的實驗探索便從未停止。像人類那樣通過對世界的持續觀察進行歸納和演繹,并且通過概念進行交流和思考,仍然是人工智能的發展方向,但現有的具身人工智側重于從模仿人類行為的角度出發,忽視了思維的非邏輯性和感性特質。在未來,具身智能體的應用場景將擴展至家庭服務、工業制造、醫療養護、教育娛樂和公共服務等領域,這意味著具身智能與人類的交互程度將會逐步加深。因此,具身智能的研究會更加注重具身智能與環境的互動,以及“身體”在認知過程中的作用,這也意味著具身智能終將超越以人類經驗和認知學習為中心的模擬方法,實現新的人類認知模擬系統。
(二)由人機語言隔閡引發的語義奠基問題
語言是認知過程中不可或缺的要素,它使具身智能在理解的基礎上推動“身體”去執行復雜的任務,與人類進行有效的互動。然而,從認知科學的角度來看,人們對于自身所處世界的常識性概念描述與計算機所掌握的語言概念之間很難取得一致。這種不一致在具身智能領域尤為突出,具身智能模擬人類通過“身體”進行認知的方式存在明顯的概念互通問題,這又對深度學習等技術過程產生影響,因此,人類語言與機器語言的交互也存在不可避免的理解問題。
在ChatGPT出現以前,“學術界和工業界普遍認為,在感知智能和創作智能之間,還需要經過認知智能和決策(預測)智能的發展階段”。然而,技術的高速進展使得大語言模型的能力取得了跨越式進步。例如,Sora的推出實現了“在未顯式引入現實世界物理定律的基礎上,僅通過在大量數據上的學習,就實現了對現實世界物理現象的模擬和仿真,進一步拉近了虛擬和現實之間的距離”。從當前的技術發展態勢來看,大語言模型已經具備了生成聲音、圖像、文字、視頻等多種模態作品的能力。但若深究的話,大語言模型實際上對人的指令的理解程度很有限,并且時常會給出與人類期望相差較大的答案,甚至在一些簡單的問題理解上也有較大偏差。所以,這類使用場景就要求使用者具有能夠發出使大語言模型更加讀得懂的指令的能力,進而增加了使用門檻。事實上,大語言模型主要是依賴海量數據的訓練來模擬人類的表達與產出,而非真正參透人類語言的內在邏輯、語義情境及文化內涵,即僅僅是基于數據規律的機械模仿。在具身智能領域中,由于大語言模型的嵌入和更加專門化、場景化的具身智能應用,這一局限性將會更加明顯。
(三)由人機存在差異引發的價值對齊挑戰
在概念、語言和認知交互的基礎之上,我們會要求具身智能的價值判斷與人類一致,并且能夠在實際行動中切實體現這些價值判斷。“數字計算機能否向我們作出關于人心的正確描述?”這一關鍵性問題直擊計算機與人類之間的本質差異,即心腦構造的基質差異。毫無疑問,在當下,憑借數據驅動,計算機確實能夠在很大程度上模擬人類的智能行為,如精準地完成各類復雜任務、對信息進行快速處理等。然而,由電子元件、芯片等構成的計算機與由血肉、神經元等組成的人類截然不同。計算機若要與人類實現真正意義上的協作,必須能夠精準地識別并理解人類內心的真實意圖,并且在價值觀層面與人類達成一致,這是具身智能建立人機信任的重要基礎。
為具身智能系統制定一套普遍且通用的價值規范存在較大挑戰。一方面,價值觀是復雜且多維的,無法用清單的方式針對不同的場景和問題向機器逐一列明和展現。另一方面,“對我們的終極目標識別和編碼都非常困難,因為人類目標的表現形式非常復雜”。顯然,用數據訓練的方式要求計算機理解人類語言中的幸福、道德、責任等概念在技術實現上有很大局限。大量的數據實例只是讓計算機習得解決模式,而非理解語言,行動目的的達成并不代表行動邏輯的一致和理解的實現。
二、具身智能對齊的“認知—語言—價值”三重框架
人機在認知、語言和價值判斷上的本質差異將影響最終的整體性對齊。“具身”意味著“感知與運動(motor)過程、知覺與行動本質上在活生生的(lived)認知中是不可分離的”。這種不可分離需要高度的統一與協同。不難發現,“認知—語言—價值”恰恰是蘊藏在其“身體”背后的核心框架。
(一)認知對齊:從行為模仿到概念理解的有效轉換
從人工智能的發展史來看,抽象符號如何通過物理交互轉變為真實語義,一直是人工智能研究需要攻克的核心問題。由于具身智能的突破性進展,這個曾經象征著質性跨越(從外在模仿到內在理解)的難題或許在不久的將來不再困擾研究者。正如波士頓動力的Atlas機器人通過28個自由度(新版本的Atlas機器人的自由度數據未公開)的動態平衡獲得空間認知,特斯拉的Optimus在操作物體時建構物理直覺,此類技術突破印證了梅洛-龐蒂的知覺現象學論斷——認知是“身體”投射到環境中的具身化實踐——正是解題的正確思路。不過,計算機系統對生物認知的模擬仍面臨本質上的局限。現有的具身認知研究一方面關注“身體”的感知和“身體”在運動過程中與世界的交互,另一方面憑借深度學習的技術使用多層神經網絡來模擬人類大腦的思維過程,這看似雙管齊下、相得益彰,實際上使“身體”與“大腦”的協同或者說模塊整合變得比以往更加復雜了。可以說,相關的研究越深入,所呈現的機器與碳基生物的差別就越明顯。從技術路徑來看,要使計算機系統與心智相連,似乎只能通過創新和強化算法從而加強概念的關聯與調節來實現,但由“暴力計算”構建的超強智能認知模式很可能更難以對齊人類的認知模式。
(二)語言對齊:從語言形式到語義表達的有效切換
在具身智能的發展中,語言對齊是實現跨模態交互的關鍵挑戰之一。良好的語言能力是智能的標志,因而從語義的有效切換到無縫對接是具身智能未來發展的目標之一。生成式大語言模型的突破性進展引發了我們對機器“語言掌握”的重新審視。“在人機對話過程中,大語言模型通過識別人類主體的意圖來回應人類對話者,這也是人機成功溝通的關鍵。”從約翰·塞爾提出的“強人工智能”的視角看,大語言模型的開放域對話能力表明其初步具備了意圖識別和心理狀態的推理能力。但是,具身智能在語言理解方面不能僅僅停留在文本交互的層面。在真實的物理場景中,自然語言需要準確地轉化為具體的動作指令,這對我們完成不同模態間的語義對齊任務提出了更高的要求。畢竟,計算機語言與人類自然語言存在異構性,其表現為:一方面,從自然語言到動作指令的轉換需要解決人類語義的模糊性問題;另一方面,通過傳感器接收到的多模態語言表征需要進一步協同。人類語言通過文化語境構建意義,而計算機語言依賴形式化邏輯系統進行表征。因此,實現計算機語言與人類自然語言對齊的關鍵在于確保大語言模型的輸出符合人類的期望和價值觀。當前計算機的“反饋—強化”機制是幫助計算機不斷習得人類偏好設置的有效途徑,該機制在最終決策上似乎可以做到無限接近,但為了適應更開放、更隨機的場景,更為重要的是在指令輸入的階段能找到使計算機語言與人類自然語言對齊的有效方法。
(三)價值對齊:從純智能體到物理交互的有效設計
安全可信的具身智能構建必須考慮其負面效應。“對技術的負面效應進行技術防范、控制以及制度層面的規約,只能解決表層問題,更為深層的解決方案則在于價值觀的轉換。”針對上述對齊難題及其表征,具身智能的價值對齊需在認知和語言對齊的基礎上,打通更高層級的對齊通路。因此,必須基于具身智能對齊難題與“認知—語言—價值”三重對齊框架的關聯性(見表1)構建三位一體的對齊框架。
表1
具身智能通常要面對大量物理介入的場景。在諸如使用機械臂、輔助人體增強功能的穿戴設備等類型的簡單使用場景中,具身智能的設計被要求以人類生命安全為宗旨,形成設計的硬約束。而在更復雜的應用場景中,來自人類反饋的強化學習(RLHF)技術展示出極大潛力。“反饋是為了使人工智能系統與人類意圖相符而提供給人工智能系統的信息”,系統通過大量的使用反饋進行反向推理,從而調整策略,修正具身智能體的行為,使其逐漸接近人類的價值行為模式并從行為結果上倒推出應該遵循的人類價值規范。在這一過程中,人類也應該相應地樹立正確的價值觀念,并且梳理自己的價值指令,提供給人工智能可靠的價值選擇與判斷指南。如果把具身智能的價值對齊作為一項框架性任務的話,認知對齊和語言對齊應該作為能夠使具身智能體與人類之間實現順暢語言交互與意圖理解的基礎對齊層級;而價值對齊作為頂層約束層級,確保具身智能體在深層的倫理和道德層面與人類保持一致,從而在復雜開放的環境中做出符合人類利益和價值的決策。
三、基于協同視角破解具身智能的對齊難題
具身智能在認知、語言和價值層面與人類的差異使得單向的對象化處理方式和單一的技術化處理方式都難以滿足我們的對齊需求。若想確保具身智能在認知層面精準地理解世界、在語言層面與人類有效溝通、在價值層面符合人類的利益和倫理準則,我們就必須基于協同視角破解對齊難題。
(一)促進協同秩序的進化發展
具身智能的產生意味著人工智能認識世界的范式發生了變化。首先,不同類型的智能對象與日俱增。例如,智能體(Agent)、具身智能(Embodied Artificial Intelligence,EAI)、大語言模型(Large Language Models,LLM)等已經相繼出現。其次,不同智能之間的交互形式變得越發復雜,人工智能與人類的交互方式呈現出多模態(Multimodal)、具身化(Embodied)、嵌入式等新的特點。最后,由于智能對象和交互環境的多樣性,以及協同經驗的缺乏,研究合作的局限性問題日漸凸顯。
“自然界萬事萬物通過‘自組織’(Self-organizing)合作,產生協同秩序效果”,具身智能的研究必然也會經歷從無序走向有序的過程。目前具身智能發展正處于大膽探索期,無序現象在所難免,此時的協同并非多方能力的簡單疊加,而是具有“多方協作、系統運行和整體高效”等特征的合作。這種合作基于智能對象不斷增多和智能交互復雜度增加所提出的方案,需要主體間緊密的協調與配合,在訓練過程中不斷根據整體的情況對各部分進行克制與增強。通過理論與系統、系統與環境、人類與機器、感知與決策、決策與執行、倫理與責任、多模態呈現等多方面的協同,我們可以預見具身智能的研究最終會走向有序和可靠。
(二)確保可信任的人機協同
具身智能通過“身體”進行感知,為人工智能的發展帶來了新的范式可能,促使研究者在人與人工智能的合作方式上作出改變。具身智能的傳感系統、控制系統等成為人們理解世界的新的工具,具身智能通過“身體”形成的認知方式為人們改進自身的認知方式提供了某種參照。由于人與機器的構成基質不同,具身智能獲得關于世界的認知在某些方面要遠超人類,今后的具身智能不再被人們視為簡單工具,而是能夠與人類共同協作、各取所長的合作伙伴。
為了避免具身智能在人機合作中對人類造成傷害,研究者需要加強具身智能的操作可信度。“可信任人工智能的構建發端于人對技術倫理旨趣的審度,可信任的存在邏輯在于人工智能創建了基于任務和基于目標信任得以產生的可能條件,并在與人類的交互之中呈現出某種關聯性的信任。”具身智能在達成人類目標的過程中必須適應其“身體”帶來的新的合作方式和對齊要求,以避免對人類產生實體侵害和倫理侵害。因此,人類對具身智能提出可信的需求是協同運作的必然保證。不過,可以預見的是,在具身智能快速發展的過程中,我們不得不面對一個問題:如何在系統的脆弱性與目標對齊之間找到平衡,實現有效的人機協同,構建可信任的具身智能系統?這個問題的答案很可能與世界模型有關。
(三)重視世界模型的模擬機制
相較于抽象的算法主義,具身智能的技術路線呈現出更加鮮明的實在論特征,其發展需要物理“身體”隨著周邊環境的變化而實現動態耦合,如機械臂的觸覺反應等,而非將智能化簡化為脫離現實載體的純算法邏輯。這種具身實在論導向的技術路線,本質上是對傳統人工智能封閉訓練環境的變革,即通過多模態的感知,從局部模塊化協作走向系統的人機協同。
在這一過程中,世界模型(World Model)提供給具身智能較好的虛擬現實條件,幫助具身智能獲得對真實世界的理解。“世界模型”最早由何大衛(DavidHa)和尤爾根·施密德胡伯(Jürgen Schmidhuber)提出,但他們并未明確“世界模型”的具體含義。一般認為,“世界模型可以被理解為心智模型的一個計算實例,這是一個借用自認知心理學的概念。心智模型是一個關于世界動態的預測模型,也就是說,是我們基于自身感知所建立的一種抽象表征”。易言之,它通過內部表征來預測環境的動態變化,從而幫助AI系統在復雜環境中進行決策和規劃。這一概念逐漸在具身智能領域獲得重視,可以幫助具身智能在虛擬環境中學習,并將學到的知識運用于現實世界,完成虛擬空間訓練與實際環境操作的順暢切換。如果說,推理、預測以及快速反應是生物在長期進化過程中逐漸發展出來的關鍵能力的話,那么世界模型就為具身智能系統提供了具備這種能力的可能。同時,具身智能在掌握這種能力的基礎上利用技術優勢突破人類感官的生理局限,可以對世界的抽象規律作出更好的推理和預測,最終代替人類進行判斷和決策,實現從真實環境學習到虛擬環境訓練再到真實環境操作的跨空間協同的一系列進化。”
來源:閆宏秀(上海交通大學馬克思主義學院、數字化未來與價值研究中心教授、博士生導師)、宋勝男(上海交通大學馬克思主義學院博士研究生)
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.