北大鄧小鐵課題組 投稿
量子位 | 公眾號 QbitAI
給大模型當老師,讓它一步步按你的想法做數(shù)據(jù)分析,有多難?
結果是,連Claude-3.7和Gemini-2.5 Pro這樣的頂尖選手,都開始“不聽話”了。
在一個全新的測試基準中,它們面對多輪、不斷演進的指令,最終的任務成功率最高僅有40%。
這項名為IDA-Bench的新基準,就是為了模擬真實世界中這種“邊想邊改”的分析場景而生。
它不再是給模型一道題,讓它一口氣算完;而是模擬一位真實的數(shù)據(jù)分析師,在對話中不斷給出新指令,考察Agent在多輪交互中的真實能力。
可以說,專治各種“自作主張”和“一意孤行”的AI。
值得一提的是,這項工作由一支星光熠熠的團隊打造,匯集了北京大學與加州大學伯克利分校的頂尖學者,其中不乏機器學習泰斗Michael I. Jordan教授,仿真科學領域專家鄭澤宇 (Zeyu Zheng)副教授,以及ACM/IEEE Fellow鄧小鐵 (Xiaotie Deng)教授的身影。
“不聽話”的AI,問題出在哪?
目前,我們看到的很多大模型數(shù)據(jù)分析工具,比如OpenAI、Gemini和Claude的網(wǎng)頁應用,能力已然非常強大。
但現(xiàn)有的評估基準,大多側重于單輪互動:用戶給出一個明確的、預設好的任務,然后看Agent能否成功執(zhí)行。
可現(xiàn)實世界的數(shù)據(jù)分析,遠非如此。
真實的數(shù)據(jù)分析師,工作流程是迭代式、探索性的。他們會先查看數(shù)據(jù)分布,再決定如何處理異常值;會根據(jù)初步結果,調整后續(xù)的分析策略。這些決策充滿了基于領域知識的“主觀性”,指令也是一步步演進的。
現(xiàn)有基準恰恰忽略了這種動態(tài)交互過程,因此無法全面評估Agent在真實協(xié)作場景下的可靠性。
IDA-Bench:給AI一場真實的“隨堂測驗”
為了解決這一痛點,IDA-Bench應運而生。它旨在忠實地反映真實數(shù)據(jù)分析的主觀性和交互性特征。
整個測試框架包含四大核心組件:
- 指令材料 (Instruction Materials):從真實的、復雜的Kaggle數(shù)據(jù)分析項目(Python notebooks)中提取,包含背景知識、分析目標和專家的“主觀洞察”。
- 模擬用戶 (Simulated User):由一個大模型扮演,它會參照指令材料,像真人一樣逐步向Agent下達指令,甚至會提出模糊或不斷變化的要求。
- Agent:即被測試的大模型,它的任務是嚴格遵循“用戶”的指令,通過編寫和執(zhí)行代碼來完成任務。
- 沙盒環(huán)境 (Sandbox Environment):一個安全隔離的環(huán)境,Agent可以在其中執(zhí)行代碼、訪問數(shù)據(jù),并像在Jupyter中一樣保持上下文。
△圖1:(左) IDA-Bench的測試場景 ,(右) IDA-Bench中的任務軌跡示例
為了確保任務的真實性和時效性,防止數(shù)據(jù)污染,IDA-Bench的構建流程完全自動化。它能持續(xù)從Kaggle上發(fā)布的最新項目中提取任務,經(jīng)過篩選、預處理和人工檢查后,生成新的測試用例。
△圖2: IDA-Bench的自動化構建流程
Agent慘遭滑鐵盧,最高分僅40
在這樣一套“嚴刑拷打”下,各大模型紛紛現(xiàn)出原形。
初步評估結果顯示,即便是最先進的大模型,成功率也不足50%。
具體來看,Gemini-2.5-Pro、OpenAI o4-mini和Claude-3.7-Sonnet-Thinking表現(xiàn)位列第一梯隊,但其“基準達成率”(即結果達到或超過人類基準)也僅為40%。
而DeepSeek系列中,作為指令模型的DeepSeek-V3(24%)表現(xiàn)明顯優(yōu)于其“思考型”模型DeepSeek-R1(12%),這揭示了一個核心挑戰(zhàn):在遵循指令和自主推理之間取得平衡,對當前Agent來說非常困難。
△表1: 各大模型在IDA-Bench上的表現(xiàn)
此外,Agent們在任務中還會犯下各種低級錯誤,導致提交結果無效。其中最主要的原因是根本沒有生成提交文件,這往往源于模型的“幻覺”。
“自信”的Claude vs “謹慎”的Gemini
深入分析失敗案例,研究團隊發(fā)現(xiàn)不同模型展現(xiàn)出了迥異的“性格”。
Claude-3.7和DeepSeek-R1表現(xiàn)得像個“過度自信”的實習生。
它們不怎么遵循用戶的具體指令,而是主動推進分析流程,結果常常因為“自作主張”而錯過了關鍵步驟和信息。比如,用戶建議用一種新方法改進模型,Claude-3.7不等嘗試就直接否定,并提交了之前效果較差的結果。
相比之下,Gemini-2.5-Pro則像一個“過度謹慎”的助理。它每走一步都要反復向用戶尋求確認,有時一個簡單的數(shù)據(jù)清洗操作能來回溝通30輪,最終因超過回合數(shù)限制而任務失敗。
- 幻覺或夸大:許多Agent會聲稱執(zhí)行了并未進行的操作,比如號稱“優(yōu)化”了參數(shù),但實際只是隨機設置;更有甚者,憑空捏造從未生成的代碼和不存在的數(shù)字結果。
- 格式錯誤:提交文件的列名大小寫弄反,或數(shù)據(jù)類型不對(如在二分類任務中,要求提交標簽“0”或“1”,模型卻提交了標簽為“1”的概率),都是常見的低級錯誤。
- 固守首次嘗試:一些Agent在初期會做出一個簡單粗暴的嘗試(比如在預測任務中,模型在初期會直接用訓練集的中位數(shù)作為預測值),然后就“固執(zhí)己見”,在后續(xù)交互中不再根據(jù)新指令開發(fā)更復雜的模型。
- 級聯(lián)錯誤:當一個代碼塊中途執(zhí)行失敗時,Agent有時會“假裝”它成功了,導致后續(xù)代碼塊因為引用不存在的變量而出錯,引發(fā)連鎖反應。
這些發(fā)現(xiàn)凸顯了當前LLM Agent在真正成為可靠數(shù)據(jù)分析助手之前,仍需在理解、遵循和交互能力上進行大量改進。
論文鏈接:
https://arxiv.org/abs/2505.18223
項目主頁:
https://github.com/lhydave/IDA-Bench
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.