又到了一年畢業(yè)季
屏幕前的你是否還在為寫畢業(yè)論文發(fā)愁?
然而,把論文寫出來只是第一步,論文還要通過查重檢測(cè)才行。于是各種降重方法都被安排上了,翻譯轉(zhuǎn)換、同義詞替換、調(diào)換語序......
好不容易把論文的查重率降下來了,以為這就結(jié)束了?不!部分學(xué)校為了防止AI代寫畢業(yè)論文,在原有查重檢測(cè)的基礎(chǔ)上,還增加了AIGC檢測(cè)!
1
AIGC是什么
你可能沒聽過AIGC,但你一定用過它。AIGC全稱為“Artificial Intelligence Generated Content”,翻譯過來就是“人工智能生成內(nèi)容”,即利用人工智能技術(shù)來生成各種形式的內(nèi)容,包括文字、音樂、圖像、視頻等等。所以我們平時(shí)用ChatGPT、Deepseek、豆包等等軟件來生成文本都是使用的AIGC技術(shù)。
AIGC被認(rèn)為是繼“專業(yè)生成內(nèi)容(PGC)”和“用戶生成內(nèi)容(UGC)”之后,利用人工智能技術(shù)自動(dòng)生成內(nèi)容的新型生產(chǎn)方式,它的出現(xiàn)標(biāo)志著人工智能進(jìn)入全新發(fā)展時(shí)期。AIGC主要由三個(gè)關(guān)鍵組件組成:數(shù)據(jù)、硬件和算法。高質(zhì)量的音頻、文本和圖像等數(shù)據(jù)是訓(xùn)練算法的基石,數(shù)據(jù)集的規(guī)模大小將直接影響訓(xùn)練模型的準(zhǔn)確性,通常樣本量越大模型越精準(zhǔn)。這就需要硬件系統(tǒng)需能夠處理TB級(jí)海量數(shù)據(jù)以及包含數(shù)百萬參數(shù)的復(fù)雜算法,面對(duì)如此龐大的數(shù)據(jù)量,高性能的芯片與云計(jì)算平臺(tái)深度整合,為解決這一問題提供了算力保障。
(硬件、算法和數(shù)據(jù)之間的關(guān)系)
算法性能則直接決定內(nèi)容的生成質(zhì)量。如今AIGC之所以能被人們廣泛應(yīng)用,離不開機(jī)器學(xué)習(xí)、深度學(xué)習(xí)以及生成式對(duì)抗網(wǎng)絡(luò)(GAN)等算法的發(fā)展。下面介紹一下AIGC的主要算法:
基于生成式對(duì)抗網(wǎng)絡(luò)(GAN)
正是有了GAN技術(shù),AI才能夠生成逼真的圖像、音頻和文本。GNA由兩個(gè)“競(jìng)爭(zhēng)”的神經(jīng)網(wǎng)絡(luò)——生成器和判別器組成。生成器負(fù)責(zé)生成內(nèi)容,它接受一組隨機(jī)噪聲向量并輸出與真實(shí)數(shù)據(jù)分布相似的生成數(shù)據(jù)。判別器負(fù)責(zé)評(píng)估生成數(shù)據(jù)的真實(shí)性,同時(shí)接受真實(shí)數(shù)據(jù)和生成數(shù)據(jù)并嘗試區(qū)分它們。生成器和判別器之間的訓(xùn)練就是一個(gè)博弈過程,生成器不斷改進(jìn),以生成能夠欺騙判別器的數(shù)據(jù);而判別器不斷優(yōu)化,以提高其辨別能力,在它們不斷的較量中生成器的內(nèi)容會(huì)越來越逼真。
基于自編碼器(Autoencoder)
自編碼器是一種利用反向傳播算法使得輸出值等于輸入值的神經(jīng)網(wǎng)絡(luò),包括編碼器和解碼器兩個(gè)部分。編碼器能將輸入的數(shù)據(jù)壓縮成低維度的潛在表示,而解碼器能將潛在表示重構(gòu)回原始數(shù)據(jù),從而實(shí)現(xiàn)數(shù)據(jù)的生成與重建。AE的用途主要有兩個(gè)方面,其一是數(shù)據(jù)去噪,其二是為了可視化對(duì)數(shù)據(jù)降維。
(Autoencoder模型)
基于變換器(Transformer)
變換器模型廣泛應(yīng)用于自然語言處理(NLP)任務(wù)中,如文本生成、機(jī)器翻譯等。近年來,變換器架構(gòu)也被用于圖像生成和其他多模態(tài)任務(wù)中。它的核心在于自注意力機(jī)制,能夠捕捉輸入序列中不同位置特征之間的依賴關(guān)系,而不僅僅是局部上下文。這使得變換器在處理長(zhǎng)序列數(shù)據(jù)時(shí)能夠表現(xiàn)出色。Transformer通常由編碼器和解碼器兩個(gè)部分組成,編碼器將輸入序列轉(zhuǎn)換為隱層表示,解碼器則根據(jù)隱層信息生成輸出序列。
2
AIGC檢測(cè)是怎么做的
既然AIGC功能如此強(qiáng)大,那么用它寫論文豈不是分分鐘就搞定。正是為了避免這種學(xué)術(shù)不端行為的發(fā)生,許多平臺(tái)開始推出AI生成內(nèi)容檢測(cè)功能,部分高校也把AIGC檢測(cè)結(jié)果作為論文能否通過的要求之一。面對(duì)AI生成的文本,我們都看不出來和自己寫的有啥區(qū)別,電腦又是怎么判斷的呢?
首先我們要清楚地認(rèn)識(shí)到,目前任何一種AI檢測(cè)手段都無法保證100%認(rèn)出哪個(gè)是機(jī)器寫的,哪個(gè)是人類寫的。因此,通常會(huì)給出一個(gè)AIGC值,表示一段文本有多大概率是AI寫的。
目前的AIGC檢測(cè)算法主要可以分為三類:
基于訓(xùn)練的分類器
(在人機(jī)文本二元數(shù)據(jù)上微調(diào)預(yù)訓(xùn)練模型)
這種方法基于深度學(xué)習(xí)的二分類模型,是目前AIGC檢測(cè)的主流方法。收集大量AI生成的文本與人類寫作的文本,把它們喂給同一個(gè)模型,這個(gè)新的模型就可以用這兩種數(shù)據(jù)進(jìn)行訓(xùn)練,經(jīng)過不斷地優(yōu)化、迭代,最后得到一個(gè)分類器。通過向分類器輸入一段文本,它就能輸出這段文本是AI生成的概率。由于檢測(cè)器不知道你是用哪種AI模型生成的,所以這屬于未知源的黑盒檢測(cè),模型性能僅受限于訓(xùn)練數(shù)據(jù)的覆蓋范圍。如果訓(xùn)練數(shù)據(jù)涵蓋多模型、多領(lǐng)域,檢測(cè)的準(zhǔn)確性和泛化性就更強(qiáng),反之則可能因數(shù)據(jù)偏差導(dǎo)致漏檢或誤判。
零樣本檢測(cè)器
(利用大語言模型固有性質(zhì)進(jìn)行自檢測(cè))
顧名思義,零樣本檢測(cè)不需要大量數(shù)據(jù)來訓(xùn)練判別器,而是利用AI生成文本與人類撰寫文本之間的固有區(qū)別,使得檢測(cè)器無需訓(xùn)練就能進(jìn)行分類。它的優(yōu)勢(shì)在于無需額外的數(shù)據(jù)收集和模型調(diào)整,這大大提高了模型對(duì)新數(shù)據(jù)分布的適應(yīng)性。AI生成的文本與人類寫作在語言風(fēng)格、句式復(fù)雜程度、重復(fù)率等方面存在統(tǒng)計(jì)學(xué)差異,AIGC檢測(cè)正是利用這種差異特征建模。AI生成的文本常呈現(xiàn)句式工整但缺乏靈活性、局部重復(fù)率高、信息熵低的特點(diǎn),如反復(fù)使用“綜上所述”、“基于以上分析”等模板化表達(dá)。
水印技術(shù)
(在生成文本中嵌入可追溯的標(biāo)識(shí)信息)
我們都聽過圖片能加水印,沒想到文字也能加水印。這里的水印不是人能夠閱讀出來的,它是一種統(tǒng)計(jì)學(xué)規(guī)律。舉一個(gè)簡(jiǎn)單的例子,某個(gè)詞語在文中出現(xiàn)的頻率分布就可以當(dāng)作文字水印。然而實(shí)際的應(yīng)用中,水印算法的設(shè)計(jì)更為復(fù)雜。其中一個(gè)關(guān)鍵的挑戰(zhàn)就是在不扭曲原始文本的含義或可讀性的前提下嵌入水印。傳統(tǒng)的方法,如同義詞替換、語法樹操作、段落重組等方式很難在修改文本的同時(shí)做到較好的語義保持,而大語言模型(LLMs)的出現(xiàn)改變了這一現(xiàn)狀。它的核心優(yōu)勢(shì)在于通過深度學(xué)習(xí)自動(dòng)實(shí)現(xiàn)語義保持與水印嵌入的平衡,根據(jù)植入水印對(duì)象的不同可以分為兩大類:向現(xiàn)有文本中植入水印(Watermarking for Existing Text)和向大模型中植入水印(Watermarking for LLMs)。目前文本水印技術(shù)廣泛應(yīng)用在版權(quán)保護(hù)、維護(hù)學(xué)術(shù)誠(chéng)信和虛假新聞檢測(cè)等場(chǎng)景。
3
AIGC檢測(cè)靠譜嗎
隨著AI的發(fā)展,各行各業(yè)的工作者開始使用AI輔助工作,其中學(xué)生利用AI工具進(jìn)行論文寫作成為了高校面臨的現(xiàn)實(shí)課題,為此不少高校推出了針對(duì)AIGC的畢業(yè)論文考核標(biāo)準(zhǔn)。目前,很多我們耳熟能詳?shù)恼撐臋z測(cè)機(jī)構(gòu),比如知網(wǎng)、萬方、維普、Turnitin等等都推出了AIGC檢測(cè)。
AIGC檢測(cè)真的靠譜碼?有同學(xué)表示,自己純手寫的論文,AI重復(fù)率竟高達(dá)60%,為了滿足畢業(yè)要求,不得不把強(qiáng)邏輯語句改成不通順的句子。甚至有人把朱自清的名篇《荷塘月色》與劉慈欣的《流浪地球》片段進(jìn)行AIGC檢測(cè),結(jié)果顯示,這兩篇經(jīng)典作品總體AI生成疑似率分別達(dá)到了62.88%和52.88%。這樣的檢測(cè)結(jié)果,也讓學(xué)生們普遍多了“論文被AI”誤判的擔(dān)憂。在各大社交媒體平臺(tái)上,“論文AI率高到離譜”成熱門話題。
(《流浪地球》的AIGC檢測(cè)高達(dá)52.88%)
前面提到過,目前任何AIGC檢測(cè)都無法100%認(rèn)出哪個(gè)是機(jī)器寫的,哪個(gè)是人類寫的,如果你寫的論文包含大量規(guī)范表述,或者個(gè)人寫作風(fēng)格接近AI模式,就可能會(huì)被誤報(bào)。相反,如果AI生成的文本經(jīng)過巧妙的潤(rùn)色,也可能導(dǎo)致漏報(bào)。這里給大家介紹幾種降A(chǔ)I率的小技巧,在使用它之前,請(qǐng)各位一定要遵守《學(xué)位法》,確保論文中數(shù)據(jù)、圖表、文字的真實(shí)性。
翻譯大法
簡(jiǎn)單來講就是將所寫的文字翻譯成另外一門語言,然后再翻譯回來,如果效果不佳,還可以增加中間翻譯的次數(shù)。經(jīng)過幾次翻譯轉(zhuǎn)換,文本的AIGC檢測(cè)率可以大大降低。
更改句型結(jié)構(gòu)
在AI給出的內(nèi)容中,句型構(gòu)成會(huì)具備一些比較相似的特點(diǎn)。仔細(xì)觀察你會(huì)發(fā)現(xiàn),AI喜歡用“無論、隨著、此外、綜上、同時(shí)”等類似的詞匯,回答問題時(shí)喜歡用序號(hào)+標(biāo)題+冒號(hào)+回答的形式,而且每個(gè)短句、段落的長(zhǎng)度字?jǐn)?shù)差不多。所以想要降A(chǔ)I就要避免使用AI大模型常用的詞匯和句式,合并一些沒有必要分開的短句和段落。或者多使用倒裝句、問句或口語化表達(dá),這都能很好地降A(chǔ)I。
(AI的回答有喜歡的句式)
豐富文本內(nèi)容
AI寫的論文總是讓人看上去很有道理,但實(shí)際上沒什么實(shí)質(zhì)內(nèi)容,也沒有體的例子。所以想要降低AI,就要加入一些干貨和實(shí)例,這樣文章才不會(huì)看上去像AI寫的。
用AI降A(chǔ)I
AI比人更懂AI檢測(cè)背后的原理,用魔法打敗魔法。至于AI降A(chǔ)I這事靠譜嗎,小編我沒試過,感興趣的同學(xué)可以試試。
4
講在最后
關(guān)于AI生成內(nèi)容檢測(cè)技術(shù)在畢業(yè)論文審查中的應(yīng)用,目前仍存在較大爭(zhēng)議。這項(xiàng)技術(shù)的初衷是為了維護(hù)學(xué)術(shù)誠(chéng)信,但實(shí)際應(yīng)用效果卻難以令人滿意。教育的本質(zhì)目標(biāo)在于培養(yǎng)學(xué)生的創(chuàng)新思維和問題解決能力,而非過度關(guān)注工具的使用方式。在人工智能快速發(fā)展的時(shí)代背景下,我們不僅需要建立防范技術(shù)濫用的機(jī)制,更應(yīng)當(dāng)從根本上重構(gòu)教育評(píng)價(jià)體系,建立以能力為導(dǎo)向、能真實(shí)反映學(xué)生學(xué)術(shù)素養(yǎng)的多元化評(píng)估標(biāo)準(zhǔn)。
5
參考資料
Yang, Xianjun, et al. "A survey on detection of llms-generated content." arXiv preprint arXiv: 2310.15654 (2023).
編輯:Sid
1.2.
3.
4.
5.
6.
7.
8.
9.
10.
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.