加入星計(jì)劃,您可以享受以下權(quán)益:

  • 創(chuàng)作內(nèi)容快速變現(xiàn)
  • 行業(yè)影響力擴(kuò)散
  • 作品版權(quán)保護(hù)
  • 300W+ 專業(yè)用戶
  • 1.5W+ 優(yōu)質(zhì)創(chuàng)作者
  • 5000+ 長(zhǎng)期合作伙伴
立即加入
  • 正文
    • 歡迎來(lái)到AI技術(shù)的“黑暗面”
    • 為什么AI謠言傳播如此迅速?
    • 鑒別AI還得靠AI
  • 相關(guān)推薦
  • 電子產(chǎn)業(yè)圖譜
申請(qǐng)入駐 產(chǎn)業(yè)圖譜

造謠一等一,ChatGPT被徹底玩壞!

2023/02/20
1427
閱讀需 9 分鐘
加入交流群
掃碼加入
獲取工程師必備禮包
參與熱點(diǎn)資訊討論

來(lái) 源:雷科技互聯(lián)網(wǎng)

編 輯:一位天明

毫無(wú)疑問(wèn),AI已經(jīng)取代了VR、加密貨幣、區(qū)塊鏈、元宇宙和NFT,在2023年2月就提前鎖定了互聯(lián)網(wǎng)的年度熱詞。而在一系列AI工具中,擁有真正對(duì)話能力的ChatPT自然也成為了這場(chǎng)關(guān)于AI狂歡的主角。

從搜索引擎到語(yǔ)言模型、從新聞媒體到社交平臺(tái),我們幾乎可以在互聯(lián)網(wǎng)的任何一個(gè)角落看到ChatGPT的具體應(yīng)用:有的自媒體用AI工具優(yōu)化寫作,有的品牌利用AI工具充當(dāng)“智能客服”甚至是假冒人工客服,有的企業(yè)更是直接使用AI工具生成游戲人物的背景資料或是對(duì)白。但很顯然,并不是所有人在拿到如此強(qiáng)大的AI工具時(shí)都會(huì)想著如何提高生產(chǎn)力。比如在2月16日,一則利用ChatGPT杭州市政府通告的新聞稿就被推上了熱搜。

2023年2月16日,杭州某小區(qū)一位業(yè)主就將利用ChatGPT仿寫的“市政府新聞稿”分享到了業(yè)主群中。該新聞稿模仿了杭州市政府的語(yǔ)言習(xí)慣,宣布“杭州即將取消限行”。盡管該業(yè)主稱自己是在開(kāi)玩笑,且在網(wǎng)傳的聊天記錄中該業(yè)主“直播”了利用ChatGPT生成該消息的全過(guò)程,以表明該消息為偽造的新聞稿。但依舊有業(yè)主將演示視頻中的內(nèi)容信以為真,在脫離了上下文的情況下轉(zhuǎn)發(fā)至該微信群外,并引起了互聯(lián)網(wǎng)的“軒然大波”。

圖片來(lái)源:知乎

由于事件影響范圍較大,當(dāng)?shù)鼐窖杆俪吻逑嚓P(guān)“新聞稿”系偽造,且對(duì)事件展開(kāi)調(diào)查,相關(guān)調(diào)查結(jié)果還需要后續(xù)處理。不過(guò)話又說(shuō)回來(lái),盡管當(dāng)事人并無(wú)惡意,但此次事件依舊暴露出了AI時(shí)代的“黑暗面”,當(dāng)事人“沒(méi)有惡意”就已經(jīng)鬧出了這么大麻煩,要是ChatGPT這樣的工具落入不懷好意的不法分子手中,那我們?cè)撛趺崔k。要是有人想用AI工具害我呢?

歡迎來(lái)到AI技術(shù)的“黑暗面”

雖然剛剛的說(shuō)法有些危言聳聽(tīng),以ChatGPT為例,就小雷這段時(shí)間的體驗(yàn)來(lái)說(shuō),ChatGPT網(wǎng)站穩(wěn)定性還不足以支撐電信詐騙。但就像“技術(shù)無(wú)罪”背后的潛臺(tái)詞一樣,一切工具都有自己的兩面性,石器時(shí)代的“鋒利石頭”是這個(gè)道理,互聯(lián)網(wǎng)時(shí)代的AI工具同樣是這個(gè)道理。

以剛剛介紹到的AI語(yǔ)言模型ChatGPT為例,利用ChatGPT“作惡”最簡(jiǎn)單的方式自然是用它來(lái)模仿他人的語(yǔ)言習(xí)慣,以在互聯(lián)網(wǎng)上冒充他人。目前,AI可以使用深度學(xué)習(xí)等技術(shù),通過(guò)學(xué)習(xí)某個(gè)人的大量語(yǔ)言數(shù)據(jù),生成與該人語(yǔ)言風(fēng)格相似的文字。這種技術(shù)被稱為文本生成或語(yǔ)言模仿。

舉個(gè)例子,OpenAI曾經(jīng)開(kāi)發(fā)了一個(gè)名為“GPT-3”的模型,它可以模仿幾乎任何人的語(yǔ)言風(fēng)格,只需輸入一些該人的文字或樣本即可。該模型已經(jīng)應(yīng)用于各種領(lǐng)域,如自動(dòng)回復(fù)電子郵件、自動(dòng)生成新聞報(bào)道等。而利用語(yǔ)言訓(xùn)練模型模仿他人語(yǔ)言習(xí)慣,這只是利用AI“作惡”的開(kāi)始。借助AI語(yǔ)音模型,我們可以從一段音頻中提取出具有某個(gè)人音色特點(diǎn)的聲音素材,再聯(lián)合語(yǔ)言訓(xùn)練模型合成出具有某人音色,用詞習(xí)慣的音頻文件。再配合上AI換臉的視頻,用AI“偽造一個(gè)人”從未如此簡(jiǎn)單。

為什么AI謠言傳播如此迅速?

話題回到剛剛提到過(guò)的“AI謠言”上,此次ChatGPT“替市政府取消限行”之所以會(huì)有如此高的傳播效率,這也和這則謠言本身的特點(diǎn)有關(guān)。一般來(lái)說(shuō),謠言傳播具有快速、煽動(dòng)、匿名、非正式這四個(gè)特征:“快速”很好理解,因?yàn)槿藗兏菀紫嘈?、傳播和分享那些能夠引起共鳴、好奇心或恐懼感的信息。“煽動(dòng)”的特點(diǎn)雖然沒(méi)有在此次“新聞稿”中直接體現(xiàn),但取消限行行為本身就具有“慫恿”他人違反規(guī)定的特性。“匿名”也是同樣的道理,借助AI工具,謠言的制造者可以有效隱藏自己的身份。而“非正式渠道傳播”的特點(diǎn)也讓這些在社交媒體中流行的謠言無(wú)法通過(guò)有效的官方渠道驗(yàn)證。在過(guò)去的謠言中,“快速”“煽動(dòng)”“非正式”這三個(gè)要素非常好滿足,但由于謠言的產(chǎn)生難免會(huì)暴露制造者自己的語(yǔ)言習(xí)慣,因此過(guò)去能廣泛傳播的謠言通常都秉承著“字?jǐn)?shù)越少越好”的特點(diǎn),畢竟字?jǐn)?shù)越少,謠言制造者自身就越不容易暴露自己的語(yǔ)言習(xí)慣,讓謠言看起來(lái)“更加真實(shí)”,同時(shí)也更容易傳播。

而ChatGPT這類AI寫作工具改變了謠言的生產(chǎn)模式:制造者不再需要費(fèi)盡心思為自己維持一個(gè)“匿名人士”的身份,可以直接通過(guò)語(yǔ)言模型模仿他人的寫作習(xí)慣,直接冒充他人制造、傳播謠言。此外,AI工具的出現(xiàn)讓制造者只需要提供謠言的主題或相關(guān)信息,然后讓AI生成相應(yīng)的謠言內(nèi)容。這將大幅降低制造謠言的門檻,也一定會(huì)導(dǎo)致帶來(lái)更多的網(wǎng)絡(luò)謠言。

那么該如何應(yīng)對(duì)未來(lái)由AI制造的謠言呢?解鈴還需系鈴人,我們也可以用AI反制謠言。

鑒別AI還得靠AI

盡管AI可以通過(guò)訓(xùn)練來(lái)模擬真實(shí)人類的寫作,并學(xué)習(xí)、模仿這些樣本的語(yǔ)言特征和風(fēng)格,但歸根結(jié)底,AI的寫作方式始終與人類不同。比如一些AI工具生成的文本可能會(huì)具有一些特征,如語(yǔ)法、用詞和表達(dá)方式的錯(cuò)誤或不連貫性。這種現(xiàn)象對(duì)我們?nèi)祟悂?lái)說(shuō)可能不容易察覺(jué),但對(duì)于AI來(lái)說(shuō),想要分辨一段文字是否由AI生成,這并不是不可能的事情。首先,AI可以使用統(tǒng)計(jì)語(yǔ)言模型來(lái)分析一段文字的概率分布。由于AI語(yǔ)言模型是通過(guò)大量的文本數(shù)據(jù)訓(xùn)練出來(lái)的,因此它們能夠識(shí)別常見(jiàn)的語(yǔ)言結(jié)構(gòu)和模式。如果一段文字的概率分布與常見(jiàn)的人類寫作樣本不匹配,那么AI就可能判斷這段文字是由AI生成的。其次,AI可以通過(guò)對(duì)一段文字的內(nèi)容進(jìn)行分析來(lái)判斷它是否由AI生成。例如,AI可以識(shí)別一些常見(jiàn)的話題、主題和表達(dá)方式,并嘗試確定這段文字是否符合人類的寫作風(fēng)格和語(yǔ)言特征。AI還可以利用網(wǎng)絡(luò)熵分析一段文字的制造、傳播方式。如果這段文字具有異常的傳播路徑、速度或者與其他謠言存在相似的傳播軌跡,那么AI就有可能分辨出這段文字是由AI生成的。

只不過(guò)受技術(shù)限制,用AI識(shí)別AI的成功率還有有待提升。以剛剛提到的統(tǒng)計(jì)模型和內(nèi)容分析為例,訓(xùn)練一個(gè)這樣的AI需要大量有AI生成的文本,而由AI生成的文本只會(huì)讓AI進(jìn)一步提高自己的寫作水平,讓AI寫作更難分辨。而針對(duì)來(lái)自AI的謠言,我們除了提高自己的知識(shí)水平、判斷和求證能力之外,還需要從法律和社會(huì)層面入手。AI開(kāi)發(fā)者和使用者應(yīng)當(dāng)承擔(dān)起相應(yīng)的法律和道德責(zé)任,加強(qiáng)對(duì)AI技術(shù)的監(jiān)管和管理,防范惡意使用AI語(yǔ)言工具生成謠言的行為;而政府、學(xué)界、媒體和社會(huì)組織也應(yīng)該加強(qiáng)合作,共同打擊謠言,促進(jìn)信息公正和公開(kāi),引導(dǎo)社會(huì)積極的輿論環(huán)境。當(dāng)然了,這一切也離不開(kāi)你我共同的努力。AI說(shuō)到底只不過(guò)是一種工具,如何利用還得看我們自己。“警惕智械危機(jī)”,從你我做起,從不用ChatGPT制造謠言做起。

相關(guān)推薦

電子產(chǎn)業(yè)圖譜