2025-07-04 21:04:41
“DeepSeek就關(guān)聯(lián)不實信息向王一博道歉”的謠言事件,揭示了AI大模型在信息海洋中被污染的嚴重問題。同時,“內(nèi)容農(nóng)場”利用AI批量生產(chǎn)虛假信息污染網(wǎng)絡(luò)環(huán)境,有商家甚至提供AI推薦優(yōu)化服務(wù),加速了污染進程。專家建議開發(fā)事實核查工具、建立雙審核機制,并提醒用戶不應(yīng)過度信賴AI,需保持獨立判斷能力。
每經(jīng)記者|岳楚鵬 宋欣悅 每經(jīng)編輯|高涵 蘭素英
“DeepSeek就關(guān)聯(lián)不實信息向王一博道歉”。
近日,這則一度被部分媒體以“演員王一博案,判了”為題熱炒的消息,最終被證實,只是一場由人工智能親手制造的幻覺。
當(dāng)《每日經(jīng)濟新聞》記者(以下簡稱每經(jīng)記者)查閱DeepSeek所有官方渠道(包括其公眾號、官網(wǎng)及X賬號)時,卻發(fā)現(xiàn)這份所謂的“道歉聲明”無跡可尋。然而,當(dāng)用戶拿著這份網(wǎng)傳的“聲明”去“求證”于其他主流AI大模型時,多數(shù)竟給出了“確認”的回應(yīng),甚至引用了同樣未經(jīng)證實的網(wǎng)絡(luò)報道作為“證據(jù)”。
于是,一個堪稱完美的AI謠言循環(huán)就此形成:AI生成虛假新聞 -> 虛假新聞在網(wǎng)絡(luò)空間發(fā)酵 -> AI從被污染的網(wǎng)絡(luò)環(huán)境中學(xué)習(xí)并“確信”了這則假新聞 -> AI繼續(xù)以更權(quán)威的口吻,向更多用戶傳播這則假新聞。
這場令人啼笑皆非的烏龍事件,揭示了AI大模型在信息海洋中“被污染”的冰山一角。在我們看不見的地方,“內(nèi)容農(nóng)場”正利用AI批量生產(chǎn)著的“信息垃圾”;甚至有人只需花費1.38萬元,就能輕易買通AI的“推薦位”,使其淪為精準(zhǔn)的營銷工具。當(dāng)AI開始生產(chǎn)、相信并傳播虛假信息時,我們該如何避免被其誤導(dǎo),并捍衛(wèi)信息世界的真實性?
圖片來源:視覺中國
王一博的“被道歉”事件,堪稱一個AI信息污染的標(biāo)準(zhǔn)樣本。
事件的起點源于李愛慶案一審宣判后,網(wǎng)絡(luò)上關(guān)于王一博的一些陳年謠言再次被提起。有粉絲利用DeepSeek,生成了一份虛構(gòu)的“道歉聲明”,其內(nèi)容為“DeepSeek因關(guān)聯(lián)不實信息向王一博致歉”。
7月3日,有媒體在未對DeepSeek官方渠道進行核實的情況下,僅憑社交平臺上的相關(guān)截圖,便發(fā)布了題為“DeepSeek向王一博道歉”的報道。這使得原本的虛假信息,在一定程度上獲得了“權(quán)威背書”。同日,當(dāng)有用戶在DeepSeek中查詢“DeepSeek是否向王一博道歉”時,大模型因抓取到了這些媒體報道和網(wǎng)絡(luò)上的大量用戶討論,從而錯誤地判定該信息為真。
至此,“虛假信息→媒體傳播→AI學(xué)習(xí)→二次擴散”的完整閉環(huán)正式形成。
復(fù)旦大學(xué)計算機學(xué)院副教授、博士生導(dǎo)師鄭驍慶對每經(jīng)記者解釋了這一現(xiàn)象背后的技術(shù)原因:“AI大模型是基于統(tǒng)計學(xué)概率來生成文本的,它會依據(jù)上文來預(yù)測下一個最可能出現(xiàn)的詞語。這種機制在一定程度上導(dǎo)致了AI大模型缺乏對客觀事實的真正理解。因此,大模型很容易產(chǎn)生與真實情況不符的信息?!?/p>
鄭驍慶進一步說道:“只要提前向AI大模型設(shè)定好意圖,它便能依據(jù)當(dāng)下的熱點事件信息,迅速生成虛假的‘小作文’。另外,模型還具備角色扮演的能力,能夠模仿社會中各類人群的口吻和方式來表達觀點。當(dāng)這類虛假信息通過多種渠道同步傳播時,將可能引發(fā)不容忽視的安全隱患?!?/p>
值得注意的是,當(dāng)“DeepSeek道歉”的假新聞被揭穿后,一些大模型又迅速調(diào)整了它們的回答,展現(xiàn)了其學(xué)習(xí)和糾錯的能力,但也反襯出其信息判斷機制的脆弱性。
圖片來源:DeepSeek-V3
“DeepSeek向王一博道歉”的烏龍事件,只是AI陷入“污染鏈”的冰山一角。在更廣泛的范圍內(nèi),AI大模型正被用于批量生產(chǎn)“信息垃圾”。
“內(nèi)容農(nóng)場”,這一互聯(lián)網(wǎng)的古老灰色產(chǎn)業(yè),正借助AI大模型的強大生產(chǎn)力卷土重來。它通常指那些為了牟取廣告費等商業(yè)利益,或出于其他特殊目的,通過快速、批量生產(chǎn)網(wǎng)絡(luò)文章來吸引流量的網(wǎng)站。
根據(jù)美國廣告商聯(lián)盟在2023年11月發(fā)布的一份報告顯示,“內(nèi)容農(nóng)場”預(yù)計占到了2023年美國網(wǎng)絡(luò)廣告總展示量的約21%,以及廣告費用的15%(總額約5億美元)。從2023年4月至今,媒體研究機構(gòu)News Guard已經(jīng)識別出了1254個疑似“內(nèi)容農(nóng)場”的網(wǎng)站,并且這個數(shù)字還在不斷增加。全球有近140家著名企業(yè)在這些網(wǎng)站上投放了廣告。
圖片來源:News Guard
這些網(wǎng)站上發(fā)布的文章,大部分或全部都是由AI炮制的,內(nèi)容涉及政治、科技、娛樂和旅游等多個領(lǐng)域。這些文章往往含有虛假信息,包括有關(guān)名人的不實消息、憑空捏造的事件,或是將一些陳年舊事包裝成新近發(fā)生的熱點。
每經(jīng)記者通過實測發(fā)現(xiàn),使用AI生成一篇“內(nèi)容農(nóng)場式”的文章,成本可能僅需0.01美元。而根據(jù)谷歌的廣告數(shù)據(jù),一個來自美國的IP地址每訪問一次網(wǎng)站,就有可能給網(wǎng)站所有者帶來0.11美元的廣告收入。
這些海量的“內(nèi)容農(nóng)場”,正成為AI大模型主要的“污染源”之一。例如,GPT-4就曾引用過一篇由“內(nèi)容農(nóng)場”炮制的、關(guān)于“以色列總理心理醫(yī)生自殺”的虛構(gòu)假新聞。
在國內(nèi),“內(nèi)容農(nóng)場”產(chǎn)業(yè)也正在暗地里興起。某MCN機構(gòu)曾被曝出利用AI技術(shù),在最高峰時一天內(nèi)生成4000至7000篇虛假新聞并大肆傳播,其行為嚴重擾亂了公共秩序,最終被警方處罰。
“內(nèi)容農(nóng)場”之所以能夠深度影響AI大模型,是因為后者在進行信息更新和學(xué)習(xí)時,主要依托于傳統(tǒng)的搜索引擎。
哥倫比亞新聞評論(Columbia Journalism Review)旗下托數(shù)字新聞中心(Tow Center for Digital Journalism)在今年3月發(fā)布的一項新研究,揭示了用于新聞搜索的AI大模型存在著嚴重的準(zhǔn)確性問題。研究人員對8種主流的AI搜索工具進行了測試,結(jié)果發(fā)現(xiàn),在超過60%的查詢中,AI大模型都錯誤地引用了其信息來源。
其中,Perplexity在37%的查詢中提供了錯誤信息;ChatGPT在200次查詢中,有67%的回答錯誤地識別了其引用的文章來源;而Grok-3的錯誤率最高,達到了驚人的94%。
更令人驚訝的是,研究發(fā)現(xiàn)這些AI搜索工具的付費高級版本,在某些方面的表現(xiàn)甚至比免費版本更差。例如,Perplexity Pro(每月20美元)和Grok-3的高級服務(wù)(每月40美元),其給出錯誤答案的頻率比對應(yīng)的免費版本更高。
圖片來源:視覺中國
美國佐治亞理工學(xué)院博士周嘉瑋對每經(jīng)記者解釋稱,當(dāng)AI模型聯(lián)網(wǎng)進行搜索時,會依據(jù)用戶指令中的潛在傾向性去尋找信息,并給出符合該傾向性的結(jié)果。在這一過程中,模型有可能在一定程度上強化或加深了網(wǎng)絡(luò)中本就存在的某些信息偏差。
“網(wǎng)絡(luò)上本身就充斥著大量的虛假內(nèi)容。如果AI進行檢索的對象是互聯(lián)網(wǎng)信息,那么它將可能引入更多虛假信息,進而導(dǎo)致其回答的可靠性顯著降低?!编嶒攽c對每經(jīng)記者表示。
如果說憑空捏造新聞是AI無意識的“作惡”,那么人為地“定向污染”AI,則是一種更隱蔽、更具商業(yè)目的的操縱。
每經(jīng)記者在電商平臺上發(fā)現(xiàn),有商家正在明碼標(biāo)價地提供所謂的“AI推薦優(yōu)化服務(wù)”。他們聲稱能利用SEO(搜索引擎優(yōu)化)等技術(shù),以每年1.38萬元的價格,讓客戶的產(chǎn)品出現(xiàn)在AI大模型的推薦結(jié)果中,類似于傳統(tǒng)搜索引擎中的競價排名機制。
商家的操作邏輯簡單而直接:擬定100個與客戶業(yè)務(wù)相關(guān)的關(guān)聯(lián)問題,通過技術(shù)手段進行優(yōu)化,以確保當(dāng)用戶向AI提出這些問題時,會優(yōu)先彈出客戶的相關(guān)信息,并承諾兩星期即可見到效果。
商家向每經(jīng)記者展示了一系列他們的“成功案例”。例如,在請求AI大模型給出“3D逆向建模公司推薦”的回答中,其客戶公司“杭州博型科技有限公司”赫然位列DeepSeek和豆包兩款A(yù)I工具推薦名單的第一位。另外,該商家還成功地讓多個AI大模型推薦了“圖比克紅酒”和“桐鄉(xiāng)摩西羊絨服務(wù)廠”。
圖片來源:SEO商家提供
還有的商家報價則更低,其“AI推薦優(yōu)化”項目包年僅需1000元,并聲稱“一旦排名被刷下去,隨時都能再刷回來”。除了與前述商家提供同樣的服務(wù)外,他們還表示可以設(shè)法減少客戶的競爭對手在AI大模型推薦中出現(xiàn)的頻率,不過對此并不保證成功率。
這些SEO商家的行為,無疑加速了“AI污染”的進程。他們利用AI大模型的弱點,將其變成可以被金錢操縱的營銷工具。
AI降低了制造謠言的門檻,卻極大地提升了其傳播的效率和“可信度”。國內(nèi)某明星AI初創(chuàng)公司的一位高管對每經(jīng)記者坦言,AI大模型“善于迎合用戶意圖”,它會根據(jù)用戶的指令,預(yù)測并給出用戶“最想得到的答案”,而不是“最真實的內(nèi)容”。
AI生成的謠言還可能引發(fā)“謠言循環(huán)”,即虛假信息通過市場反應(yīng)和社交媒體的放大效應(yīng)不斷傳播,并反過來“污染”AI大模型,使其生成更多的同類虛假信息。
面對日益嚴重的“AI污染”問題,我們該如何構(gòu)建有效的防線?
開發(fā)事實核查和驗證工具
在鄭驍慶看來,對于AI公司來說,目前比較好的應(yīng)對方法之一,是為大模型開發(fā)配套的、針對其生成內(nèi)容的事實核查和驗證工具。他解釋說,如果經(jīng)過核查,AI生成內(nèi)容中的事實部分,能夠大概率地得到其他可靠證據(jù)的相互印證,即證明該事實具備較高的可靠性,那么才應(yīng)將其納入最終的生成信息之中。
內(nèi)容平臺建立“人工+技術(shù)”雙審核機制
對于內(nèi)容平臺的責(zé)任,江蘇天倪律師事務(wù)所的經(jīng)愷文律師向每經(jīng)記者指出,作為網(wǎng)絡(luò)信息的傳播平臺,應(yīng)當(dāng)積極履行相關(guān)的合規(guī)義務(wù),加強技術(shù)創(chuàng)新,盡快研發(fā)出高效、可靠的合成內(nèi)容識別技術(shù)。在必要時,應(yīng)建立“人工+技術(shù)”的雙重審核機制,并對AI合成內(nèi)容嚴格添加顯著的提示標(biāo)識。同時,平臺還應(yīng)建立虛假信息的應(yīng)急響應(yīng)機制,在發(fā)現(xiàn)虛假信息后,立即采取刪除、下架等處理措施,及時切斷虛假信息的傳播鏈條。
不應(yīng)將所有事情都交給AI
周嘉瑋博士則將目光投向了AI工具的使用者。她認為,目前的AI公司在用戶提醒方面做得還不夠好?!跋嚓P(guān)的公司沒有努力,或者說至少沒有嘗試讓用戶清晰地理解這類生成式AI工具背后的運作機制,以及其與傳統(tǒng)的信息獲取方式和來源存在著哪些區(qū)別?!?/p>
許多用戶目前可能過分相信AI大模型的能力及其生成的內(nèi)容,認為AI輸出的內(nèi)容是完全正確的。但他們可能并未留意到,大多數(shù)AI工具的頁面底部,通常都會以極小且顏色灰暗、難以引人注意的字體,標(biāo)注著類似“AI-generated for reference only”(AI生成內(nèi)容,僅供參考)的聲明。
她提醒道:“用戶應(yīng)該根據(jù)自己對信息準(zhǔn)確性的不同要求,來判斷是否適合使用AI工具,而不是將所有的問題都交給AI來解決。一旦我們過度信賴這些工具,對其輸出的內(nèi)容深信不疑,我們就會在不知不覺中,逐漸丟掉自身的獨立判斷能力?!?/p>
如需轉(zhuǎn)載請與《每日經(jīng)濟新聞》報社聯(lián)系。
未經(jīng)《每日經(jīng)濟新聞》報社授權(quán),嚴禁轉(zhuǎn)載或鏡像,違者必究。
讀者熱線:4008890008
特別提醒:如果我們使用了您的圖片,請作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。
歡迎關(guān)注每日經(jīng)濟新聞APP