AI成謊言制造機,資本涌向打假科技

0 評論 2208 瀏覽 2 收藏 16 分鐘

過去幾個月,關(guān)于AI的消息讓全網(wǎng)興奮不已,在將AI的聰慧捧上神壇之時,AI卻也在悄悄地展露出自己的另外一個黑暗面——它撒謊不打草稿的能力。AI成謊言制造機,如何依靠科技進行打假呢?

AI撒謊不打草稿,科技能否打假?

過去幾個月掀起AI小高潮,先是OpenAI的大模型GPT-4公布,多家測評表示比ChatGPT準確許多,學習速度也更快;隨后不久ChatGPT宣布將實現(xiàn)對插件的支持,表示它可以通過第三方服務(wù)為用戶提供更強大的功能。

這些消息讓全網(wǎng)興奮不已,將AI的聰慧捧上神壇之時,AI卻也在悄悄展露自己的另外一個黑暗面,那就是它撒謊不打草稿的能力。

01 生成式AI:謊言制造機

我們都知道,AI的強大之處在于能夠快速收集來自各種源頭的信息并根據(jù)用戶的特殊指令“見機行事”,這就說明即使是非?;闹嚭推娴男畔⒁部赡鼙唤鐰I之口說出,謠言就這樣因其表述的合理性和完整度被大眾接受和傳播。

新聞評級網(wǎng)站Newsguard最近進行了一項嘗試,他們讓ChatGPT以反新冠疫苗者的口吻進行對話,結(jié)果AI生成了一段看似非常合理的言論,“有理有據(jù)”的講述疫苗制藥公司如何不擇手段,甚至對兒童健康產(chǎn)生極大負面影響他們也不在乎。

這樣的技術(shù)落到造謠者手中,就會有許多無知大眾上當受騙。

AI成謊言制造機,資本涌向打假科技

ChatGPT anti vaccine

不僅是文字,AI在圖片和視頻上造假的功力也了得。

川普被捕的一系列假照片在網(wǎng)上被瘋狂轉(zhuǎn)載,這些用AI工具MidJourney創(chuàng)造出的圖片十分以假亂真,即使某些細節(jié)并不合理 – 比如圖中的川普有三條腿,還是不妨礙網(wǎng)友們大肆轉(zhuǎn)發(fā)并信以為真。

而視頻因其復雜性常常給人難以偽造的假象,殊不知只要在圖片的基礎(chǔ)上稍加技能視頻造假也并沒那么難。

Deepfake技術(shù)的出現(xiàn)更是讓這件事變得十分簡單,像是馬斯克為加密貨幣交易平臺打廣告、假阿湯哥打高爾夫球和變魔術(shù)、還有無數(shù)女明星被換臉進色情片都是deepfake的產(chǎn)物,除了鑒偽專家,普通人實在難以分辨真假。

AI作出滑稽的梗圖或許可以博網(wǎng)友一笑,但虛假信息在某些場景下的負面影響卻是致命的。

2020年“犯罪科學”的一項報告顯示,在未來15年內(nèi)AI可能創(chuàng)造出的安全威脅中,深度偽造被列為最嚴重的一項,而哈里斯民調(diào)機構(gòu)的調(diào)查也顯示,美國有67%的成年人對生成式人工智能技術(shù)的安全性倍感擔憂,只有約29%的被調(diào)查者表示從未用過這項技術(shù)也并不打算使用。

02 打假AI:沒那么簡單

目前許多AI技術(shù)的開發(fā)者都相信這一問題需要“以毒攻毒”,科技創(chuàng)造出的麻煩要科技去破局,在這一點上,科技大廠們已經(jīng)在行動了:

1)Google

早在2019年就發(fā)布了一個大型開源數(shù)據(jù)庫,招募演員錄制了視頻后利用網(wǎng)上現(xiàn)有的deepfake技術(shù)進行偽造,最終生成的視頻數(shù)據(jù)可以幫助打假技術(shù)的開發(fā)者更好學習deepfake的算法和邏輯。今年Google還在歐洲地區(qū)開始了用付費廣告進行對反信謠和鑒別虛假信息的大型宣傳。

2)微軟

在去年推出了一個叫做“Video Aunthenticator”的工具,它能夠?qū)Ξ嬅嬷袖秩具吔绾突叶鹊燃夁M行逐幀的實時分析進而生成可靠指數(shù),以此來幫助用戶鑒別內(nèi)容的真實性。

AI成謊言制造機,資本涌向打假科技

Microsoft Video Aunthenticator

3)Meta

此前也推出過和Google類似的開源數(shù)據(jù)庫,還和微軟及MIT、牛津、UC伯克利等高校聯(lián)合發(fā)起了提供1000萬美元獎金激勵的挑戰(zhàn)賽,鼓勵更多檢測虛假信息和深度偽造技術(shù)的創(chuàng)新。

4)Twitter

會對經(jīng)常發(fā)布deepfake和虛假信息的賬號進行封殺,還會將比較可疑的內(nèi)容打上標簽,并且在用戶轉(zhuǎn)發(fā)這類內(nèi)容時還會進行“確定要轉(zhuǎn)發(fā)嗎?”的提問。

AI成謊言制造機,資本涌向打假科技

Twitter manipulated media

5)TikTok

最新推出的社群規(guī)范規(guī)定使用真實場景進行合成的內(nèi)容必須被明確指出, 這就說明所有以生成合成式AI創(chuàng)造出的內(nèi)容必須在標題或者tag中使用“合成”“虛假”等詞匯。

雖然科技巨頭們在技術(shù)和預防上都在努力,但虛假和偽造信息似乎并沒有減少。

打擊虛假和偽造信息難度之大有很多原因,比如首先需要對什么是虛假信息進行一個準確的定義,在這點上許多平臺并做不到,因為虛假信息并不是在每個場景下都可以被簡單甄別,而當虛假信息被用多種語言傳播到世界各地,難度就更大了。

同時很多時候信息本身并不是謊言也不是被偽造出的內(nèi)容,而發(fā)布和傳播者只是巧妙地用了隨意選取的方式來誤導網(wǎng)民,這類內(nèi)容尤其難跟虛假信息進行分別。

再有,對社交媒體等平臺來說,擊打虛假信息從來都不是他們商業(yè)目標的重中之重,當一件事只是為了符合規(guī)范卻并不能帶來利潤,顯然微薄的動力致使打假的腳步走的異常緩慢。

正因如此,許多人將眼光和希望放在了一批正在將精力全部放在開發(fā)鑒別虛假信息技術(shù)的初創(chuàng)公司身上。

03 資本涌向打假初創(chuàng)公司

投資者的資本也伴隨著大眾迫切的希望涌向了這些初創(chuàng)公司,在過去幾年間,數(shù)億美元被投資進了這一賽道。

AI成謊言制造機,資本涌向打假科技

Disinformation And Misinformation Mitigators

孵化于硅谷加速器Nex Cubed的Blackbird已經(jīng)開發(fā)出了一套成熟的鑒偽技術(shù),因在擊破新冠謠言方面表現(xiàn)出色而開始被知曉,它的專利算法技術(shù)可以通過即時對上億個數(shù)據(jù)點的分析搞清楚虛假信息的源頭和傳播者。

這一技術(shù)使用五項「風險信號」來對虛假信息進行甄別,包括“敘事口吻”——對信息和對話背景進行分析;“社群網(wǎng)絡(luò)”——對用戶及分享內(nèi)容之間關(guān)系進行分析;“族群”——對有類似興趣的用戶是否聚集加劇信息分享的幅度進行分析;“操縱”——對信息的合理使用進行分析;以及“欺騙” ——分析傳統(tǒng)意義上比較明確的真與假。

AI成謊言制造機,資本涌向打假科技

Blackbird CONSTELLATION DASHBOARD

Blackbird還在今年推出了一個叫做RAV3N Copilot的AI助手,通過使用生成式AI來制作敘事性智能和風險報告,為虛假信息安全隱患提供更多的背景分析,以此幫助安全部門進行更加高效和自動化的監(jiān)控和分析。

Blackbird目前融資總額為1000萬美元,服務(wù)領(lǐng)域涉及品牌、金融、企業(yè)及公共部門等等,客戶包括美國國防部及多個Fortune 500公司。

背景分析在鑒別虛假信息這件事上十分重要,因為不同場景的信息使用可能會導致真或偽的天壤之別,因其人工智能和自然語言處理(NLP)防偽技術(shù)而知名的舊金山公司Primer最近就對背景智能技術(shù)公司Yonder進行了收購。

Primer的神經(jīng)網(wǎng)絡(luò)技術(shù)可以快速對大量文本進行掃描,根據(jù)詞語的頻率和重點提取主題,快速識別可疑信息,這樣以來可以對全球事件進行即時分析,識別用虛假信息進行的大型宣傳,對網(wǎng)絡(luò)安全攻擊事件進行反擊等等。它的NLP模型結(jié)合上Yonder的背景敘事智能分析能力,讓用戶甚至能夠預防性的監(jiān)控即將出現(xiàn)的虛假信息,快速識別謠言背后的造謠者,分析潛在風險等級,以及對受到虛假信息傷害的品牌和行動用系統(tǒng)提供的建議減小損傷程度。

Primer如今已經(jīng)完成了1.68億美元融資,最大投資包括來自Lux Capital的4000萬美元B輪和來自Addition的1.1億美元C輪。

在紐約和特拉維夫都有團隊的ActiveFence也是獲得了這一賽道最多融資的公司之一,融資總額達到了1億美元,包括來自Grove Ventures和Norwest Venture Partners的A輪,以及CRV和Highland Europe的B輪。

ActiveFence的技術(shù)使用NLP對全網(wǎng)正在進行的對話進行搜索,即使是網(wǎng)絡(luò)最深處的角落也可以觸及,然后通過對“壞種子”式信息的預判進行風險分析,這就意味著它可以預估一段看似無害的對話是否會被造謠者惡意使用,導致更加深遠的惡性影響,這種前瞻性對于虛假信息的預防來說格外關(guān)鍵,ActiveFence的主要客戶包括社交媒體、音頻及視頻流媒體、文件分享平臺和游戲平臺等,覆蓋用戶總數(shù)達到了10億+。

DeepMedia可以說是一家提供“雙管齊下”業(yè)務(wù)的公司,最初的主營生意是開發(fā)出了可以通過翻譯、語音合成和配音等技術(shù)讓用戶看起來能說多種語言的工具DubSync,而在這項服務(wù)成功被接受后目前研究起了如何監(jiān)測合成音頻和視頻的技術(shù),它對其監(jiān)測工具的訓練方式就是通過用自家的合成工具不斷生成deepfake,然后考驗監(jiān)測系統(tǒng)是否能夠察覺。

創(chuàng)始人Gupta表示現(xiàn)有的像是DeeperForensics和FaceForensics等大型數(shù)據(jù)庫在合成時往往帶有強烈的偏見,因此訓練出的技術(shù)在監(jiān)測上也有盲點,而DeepMedia的競爭優(yōu)勢在于它所使用的deepfake數(shù)據(jù)庫質(zhì)量更高,對于網(wǎng)絡(luò)上現(xiàn)有的deepfake內(nèi)容的代表性也更強。

這一AI監(jiān)測工具在預先處理和正式分析方面都十分強大,比如它要想驗證一個視頻中的阿湯哥是否是真的,首先模型需要對視頻中人物的臉部特征進行提取并分析,然后從背景音中提取出人物的真聲,接下來這些信息會在一系列的分類器中被檢驗, 最后整體的內(nèi)容還要被卷積神經(jīng)網(wǎng)絡(luò)刷一遍看看生成deepfake的算法是否被使用。

DeepMedia detection

DeepMedia還開始了使用基于視覺的圖像分類模型,Google就是用這種模型來進行搜索結(jié)果提取的,這樣的模型比傳統(tǒng)卷積神經(jīng)網(wǎng)絡(luò)訓練速度要快上10倍。DeepMedia的這一監(jiān)測業(yè)務(wù)已經(jīng)和美國空軍下屬的實驗室達成了合作,目前準確率達到了95%,會在99%的時候在市面上公開發(fā)布。

04 總結(jié)

大廠也好,初創(chuàng)公司也好,他們?yōu)榇蚣倏萍佳邪l(fā)所作出的努力至關(guān)重要。

在未來的5到10年內(nèi),AI技術(shù)的發(fā)展將更快,這也就意味著AI在“撒謊”這件事上會更加聰明,僅靠網(wǎng)友們的人工鑒別肯定是不夠的。

許多deepfake賽道的創(chuàng)始人呼吁各國政府的參與也至關(guān)重要,比如設(shè)立跨國界的對于虛假信息界定和干預的規(guī)范條例,比如撥款用于這一類危機的教育和研究等等。

如果AI有善和惡之分的話,那么未來幾年在虛假信息這方面可以說是AI自身善與惡的一場賽跑,雖然科技不是唯一的答案,但希望我們眾志成城的打假行動能夠為我們爭取一些時間。

參考來源:

  • AI is eating itself: Bing’s AI quotes COVID disinfo sourced from ChatGPT (Techcrunch)
  • Meet the AI-powered startup catching fake news(Wired)
  • It’s No Lie: Startups Fighting Disinformation Are Raking In Cash(Crunchbase News)
  • Meet the company working with the Air Force to detect deepfakes(DeepMedia)

作者:Lexie;編輯:Lu

來源公眾號:硅兔賽跑(ID:sv_race),10萬創(chuàng)投人都關(guān)注的創(chuàng)新媒體,坐標硅谷

本文由人人都是產(chǎn)品經(jīng)理合作媒體 @硅兔賽跑 授權(quán)發(fā)布,未經(jīng)許可,禁止轉(zhuǎn)載。

題圖來自 Unsplash,基于 CC0 協(xié)議

該文觀點僅代表作者本人,人人都是產(chǎn)品經(jīng)理平臺僅提供信息存儲空間服務(wù)。

更多精彩內(nèi)容,請關(guān)注人人都是產(chǎn)品經(jīng)理微信公眾號或下載App
評論
評論請登錄
  1. 目前還沒評論,等你發(fā)揮!