"讓我用AI寫一下論文吧,反正老師看不出來。"
"月底匯報會議用AI做個PPT,真是省時省力。""不知道這個歷史典故?問問AI一定有答案。"
隨著ChatGPT、文心一言、DeepSeek等大語言模型的普及,我們似乎進入了一個用AI解決一切問題的新時代。無論是工作匯報、學術論文、生活常識,只要動動手指,AI就能秒回一份看起來無比專業的答案。
然而,最近越來越多的用戶開始分享他們被AI"坑"的經歷,從被編造的詩句出處到不存在的法律條文,再到憑空捏造的歷史解讀,AI的"胡編亂造"引人深思。
AI為何會胡編亂造?普通用戶要怎么預防這種情況?開發者有辦法解決這個問題嗎?
信了AI的邪
社交媒體上有大量用戶分享了AI背刺的經歷:DeepSeek編造了"郭沫若在甲骨文研究中對'各'的含義進行考釋",豆包在被問及《水滸傳》不同版本的譯者時張冠李戴,更離譜的是,有網友發現DeepSeek連法條也能胡編亂造,"援引的法律法規全是錯的,甚至有幾句是編的,編得有模有樣"。
甚至在日常生活中使用AI也不一定靠譜。有B站UP主做了一期關于用DeepSeek推薦汕頭特產的視頻,AI不僅給出了看似專業的分類推薦,還附上了具體的店鋪名稱和地址。然而事實證明,這些店鋪統統不存在,就是從頭到尾胡編亂造的。
AI的"憑空污蔑"問題尤為可怕。在2023年的一個真實事件中,某美國教授意外得知自己被卷入一場數字誹謗。他的律師朋友通知他,ChatGPT竟將其列入"有性騷擾行為的法學界人士"名單。
更為嚴重的是,這款AI不僅捏造了罪名,還添加了細節構陷:聲稱這位特利教授在組織阿拉斯加學生旅行期間,不僅言語上有不當性暗示,還企圖對學生有身體接觸。為使謊言顯得可信,ChatGPT甚至引用了一篇完全虛構的《華盛頓郵報》報道作為所謂"證據"。
此類AI虛構內容的危害遠不止于此,它們可能通過社交媒體快速擴散并造成實質性傷害。2025年初發生的一起案例就印證了這一點:公安部網安局在3月公布了一項調查,揭露了一則引發廣泛恐慌的虛假信息的源頭。
該案中,網民夏某在其發布的《80后到底還剩多少人》視頻中引用了令人震驚的統計數據:"截至2024年末,80后死亡率已達5.2%,意味著每20位80后中就有1人已離世"。這一觸目驚心的數據在網絡上迅速傳播。
然而,經公安機關深入調查后證實,這些所謂的"統計數據"完全是AI系統生成的虛假信息,沒有任何科學依據。最終,散布這些不實信息的夏某因此受到了行政處罰。
這一事件凸顯了AI生成內容缺乏事實核查機制的嚴重后果,以及我們在信息時代需要保持的警覺性。
人工智能變"人工智障"?
為什么看起來無所不知的AI會如此自信地胡編亂造?這就要從AI的技術原理說起了。
大多數生成式AI(如ChatGPT、文心一言、DeepSeek等)的核心是大型語言模型(LLM)。這些模型通過分析海量文本數據,學習語言的模式和規律,從而能夠生成連貫、流暢甚至看起來很專業的文本。但問題在于,它們并不真正"理解"文本的含義,也沒有人類那樣的常識和判斷力。
具體來說,AI的"胡編亂造"現象主要源于以下幾個方面:
訓練數據的局限性是一大問題。AI只能基于它被訓練過的數據生成內容,如果訓練數據本身存在錯誤、偏見或過時的信息,AI就會繼承這些問題。例如,很多模型的訓練數據截止于2022年或2023年,對于此后發生的事件,它們就沒有準確的信息來源,只能根據舊數據進行推測或干脆編造。
AI的核心功能實際上是"預測下一個詞"。大語言模型本質上是在做一件事:根據已有的文本序列,預測最可能出現的下一個詞。這種機制使得AI在面對不確定的情況時,會傾向于生成看起來合理的回答,而不是承認自己不知道。它們被設計成要給出某種回答,而不是"無可奉告"。
缺乏實時驗證能力也是AI的一大短板。與搜索引擎不同,大多數AI模型無法實時獲取和驗證信息。它們無法像人類那樣在不確定時查閱資料或咨詢專家,只能依賴自己的"記憶"(訓練數據)來回答問題。當被問到超出其知識范圍的問題時,AI往往會通過"編造"來填補自己的知識空白。
另外,AI通常被優化為產生流暢、有說服力的回答,而不是最準確的回答。如果一個模型被訓練成總是給出肯定、詳細的回答,它就會傾向于編造細節來滿足這一要求,即使這意味著提供虛假信息。
當直接向DeepSeek詢問"為什么AI會胡編亂造"時,它坦誠地表示這通常源于其技術原理的固有特點以及訓練數據的局限性。
有趣的是,AI在解釋自己的缺陷時往往異常清晰準確,但在實際使用過程中卻無法避免這些問題。這就像一個知道自己有說謊習慣的人,他能很清楚地解釋為什么自己會說謊,但在面對特定情境時依然會不自覺地撒謊。
信AI不如信自己
面對AI可能的"胡編亂造"現象,我們該如何保護自己?這里有一些實用建議。
永遠保持懷疑態度是與AI打交道的基本原則。無論AI的回答看起來多么專業、多么詳盡,都要有一定的懷疑精神,尤其是當它提供具體數據、引用來源或歷史事件時。記住,AI擅長生成看起來合理的內容,但這些內容不一定真實。
交叉驗證是避免被AI誤導的重要手段。對于重要的信息,最好通過多個渠道進行驗證。可以使用傳統的搜索引擎、查閱權威資料或咨詢相關領域的專家。特別是對于學術研究、法律文件或醫療決策等關鍵領域,AI的回答應該只作為初步參考,而不是最終依據。
提問方式的優化也能顯著提高AI回答的質量。AI的回答很大程度上取決于你的提問方式。具體的、明確的問題通常能得到更準確的回答。你也可以明確告訴AI,如果不確定答案,應該直接表示不知道,而不是編造。
例如,與其問"王安石有什么著名的詩?",不如問"請列出王安石公認的最著名的詩作,如果不確定,請明確說明"。這樣的提問方式可以減少AI編造的可能性。
AI的迭代能力也是我們可以利用的。AI通常能夠根據反饋改進回答。如果你懷疑AI的回答不準確,可以提出質疑或要求它重新考慮。多輪對話往往能幫助AI提供更準確的信息,就像我們通過交流澄清誤解一樣。
最重要的是保持自己的判斷力和批判性思維。技術再先進也只是工具,最終的判斷和決策權應該在人的手中。不要因為AI的便捷而放棄自己的思考能力。
AI的未來會變好嗎?
面對AI的"胡編亂造"現象,我們既不應該過度恐慌,也不應該完全放棄使用這項技術。正如歷史上的每一項新技術一樣,AI的發展也需要時間來完善。
技術在不斷進步。研究人員正在開發更先進的方法來減少AI的"幻覺"問題,比如增強模型的事實性驗證能力、改進訓練方法、增加實時知識檢索功能等。一些AI已經開始整合搜索引擎功能,可以在回答問題時引用最新的網絡信息,從而減少過時或錯誤信息的產生。
同時,我們人類也在適應與AI共處的新環境。越來越多的人開始了解AI的局限性,學會如何更好地利用這一工具。教育機構開始教授學生如何批判性地評估AI生成的內容,媒體也在加強對AI相關問題的報道和討論。
每當新技術出現,總會引發一些恐慌和焦慮。從印刷術到互聯網,從電視到智能手機,人類總是在擔心新技術會如何改變我們的生活方式和思維方式。對AI的焦慮,某種程度上也是這一歷史模式的重演。
現在,大部分AI都在界面上明確提醒了"內容由AI生成,請仔細甄別"。如果一味盲目迷信AI,最終背刺的,可能不是AI,而是我們自己對技術的過度依賴和放棄思考的惰性。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.