反思 Youtube 算法:個性化內(nèi)容推薦能毀掉你的人格
編者按:《衛(wèi)報》近日發(fā)表了一篇長文,披露了Youtube的算法是怎樣歪曲事實的。
洛根·保羅(Logan Paul),一個Youtube上的大V,在日本以自殺聞名的森林中偶然發(fā)現(xiàn)了一個掛在書上的死人。一開始剛剛22歲的他顯然被嚇到了,然后他竟然被這一情形逗樂了?!盎镉?,他的手是紫色的,”他說,然后轉(zhuǎn)向他的朋友們咯咯地笑。“你從來沒有站到過一個死人旁邊吧?”
保羅將這個場景拍了下來,傳到了YouTube上。他的YouTube頻道有1600萬名青少年用戶訂閱,24小時后,他在激烈的發(fā)對聲中將視頻刪除。在這段時間內(nèi),視頻獲得了600萬的點擊量,并且在?YouTube 上令人垂涎的熱門視頻排行榜上占據(jù)了一席之地。
第二天,我在YouTube上看了這個視頻的“復(fù)制”版。然后我點擊視頻播放器右側(cè)展示的推薦視頻縮略圖。 這種默認情況下自動播放的方式,是為了引誘我們在Google的視頻廣播平臺上花更多的時間。我很好奇他們會把我引向何方。
答案是一系列關(guān)于男人嘲笑洛根·保羅青少年粉絲的視頻,接著是閉路電視監(jiān)控系統(tǒng)(CCTV)里孩子們偷東西的鏡頭,幾段是視頻之后,是孩子們用奇怪的自制的小玩意兒拔掉牙齒的視頻。
我清除了我的歷史記錄,并刪除了我的cookie,打開了一個私人瀏覽器,以確保YouTube不會針對我進行個性化推薦。然后,它們的算法就帶我走上了它的意志之旅。最后的一個視頻是兩個男孩,大約五六歲, 互相拳打腳踢。
“我要把它傳到Y(jié)ouTube上,”一個十幾歲的女孩說,聲音聽起來像是她的姐姐。“轉(zhuǎn)過身去,狠狠地揍那個小男孩?!彼麄兣ご蛄藥追昼?,直到一個人把對方的牙齒打掉了。
人工智能算法驅(qū)動下的推薦系統(tǒng)
世界上有15億的YouTube用戶,遠遠超過了擁有電視的家庭數(shù)量。他們觀看的視頻是由算法塑造的,這個算法掃描并排列了數(shù)十億的視頻,來確定用戶“接下來”的20個視頻片段,這些視頻都與之前的視頻有關(guān)聯(lián),從統(tǒng)計數(shù)據(jù)上來看,也極有可能是為了讓人著迷。
Youtube公司的內(nèi)部人士告訴我,該算法是YouTube增長的最重要的引擎。關(guān)于這個算法如何運作的公開解釋并不多,一篇學術(shù)論文概述稱,這個算法背后的深層神經(jīng)網(wǎng)絡(luò),分析了大量關(guān)于視頻的數(shù)據(jù)和觀看者的數(shù)據(jù)——YouTube的工程師將其描述為“現(xiàn)存規(guī)模最大和最復(fù)雜的工業(yè)推薦系統(tǒng)”之一。
推薦算法似乎并沒有為民主的真實、平衡或健康而優(yōu)化。
——前谷歌工程師紀堯姆·查斯洛特(Guillaume Chaslot)
最近,它成為了最具爭議性的話題之一。這個算法被發(fā)現(xiàn)是在宣揚有關(guān)拉斯維加斯大規(guī)模槍擊案的陰謀論,并通過推薦來激勵發(fā)展一種亞文化,這種亞文化以兒童為目標,內(nèi)容令人不安。例如, 英國兒童角色帕帕豬吃掉父親或喝漂白劑的視頻。
充滿猥褻和暴力的視頻也已經(jīng)被算法分發(fā)到了專門針對兒童的應(yīng)用程序YouTube Kids上。?一位 YouTube 創(chuàng)作者被禁止從他那些奇怪的視頻中獲得廣告收入——這些視頻描述了他的孩子接受流感疫苗、去除耳垢和為死去的寵物哭泣。他告訴記者,這一切都是在迎合谷歌的算法。“這是讓我們突破粉絲圈,并獲得大量觀看的方式,”他說。“我們學會了怎么利用算法,并盡一切努力來取悅算法?!?/p>
谷歌對這些爭議做出了“打地鼠”式的回應(yīng):擴大人類版主的隊伍,刪除記者所發(fā)現(xiàn)的那些令人不快的YouTube視頻,并將創(chuàng)建這些視頻的頻道降級。但這些舉措都沒有削弱人們的擔心,即人工智能給YouTube帶來了巨大的負面影響。
關(guān)于Facebook和Twitter對政治的影響,已經(jīng)有了很多報道。但最近幾個月,學者們推測,YouTube的算法可能在2016年總統(tǒng)大選期間助長了虛假信息?!癥ouTube是2016年最被忽視的故事,”廣受尊敬的社會學家和技術(shù)評論家澤奈普·圖費克奇(Zeynep Tufekci)去年10月在Twitter上寫道?!八乃阉骱屯扑]算法是錯誤信息傳播的引擎?!?/p>
如果YouTube的推薦算法真的進化到能夠分發(fā)更多的令人不安的內(nèi)容,那么這是怎么發(fā)生的呢?它對我們的政治有什么影響?
“就像現(xiàn)實一樣,但是歪曲了”
要回答這些問題并不容易。像所有大型科技公司一樣,YouTube不允許我們看到影響我們生活的算法。它們是秘密的公式,專有軟件,有專門的工程師被委托來處理這個算法。擁有人工智能博士學位的36歲法國程序員紀堯姆·查斯洛特就是其中之一。
在谷歌工作的三年時間里,他和一個YouTube工程師團隊一起工作了幾個月,他們正在研究推薦系統(tǒng)。這段經(jīng)歷讓他得出結(jié)論,YouTube研究出的算法的優(yōu)先級是有危險的。
“YouTube上的東西看起來就像現(xiàn)實,但這里面的現(xiàn)實被扭曲了,讓你花更多的時間在網(wǎng)上?!碑斘覀冊诩又莸牟死娒鏁r,他告訴我?!巴扑]算法似乎并沒有為民主的真實、平衡或健康而優(yōu)化?!?/p>
查斯洛特解釋說,算法永遠不會保持不變。它不斷地改變它給不同信號的權(quán)重:例如,用戶的觀看模式,或者在有人點擊之前視頻被觀看的時間長度。
與他一起工作的工程師負責不斷嘗試新的公式,通過延長人們觀看視頻的時間來增加廣告收入?!坝^看視頻的時間是優(yōu)先考慮的事,”他回憶道?!捌渌囊磺卸急徽J為是一種干擾?!?/p>
2013年,谷歌解雇了查斯洛特,表面上因為效率問題。他堅持認為,自己之所以被解雇,是因為在公司內(nèi)部與志同道合的工程師合作,提出可以讓人們看到的內(nèi)容多樣化的變革。
他尤其擔心的是,過分關(guān)注向人們分發(fā)他們不可抗拒的視頻,會扭曲現(xiàn)實,并創(chuàng)造出過濾泡沫,因為算法只是向人們展示能夠強化他們現(xiàn)有世界觀的內(nèi)容。他說,他提出的修復(fù)方案沒有被采納。“YouTube可以通過多種方式改變算法,以抑制虛假新聞,提高人們看到的視頻質(zhì)量和多樣性,”他表示。“我試著從內(nèi)部改變YouTube,但沒有任何作用。”
YouTube告訴我,公司的推薦系統(tǒng)已經(jīng)發(fā)生了變化,現(xiàn)在已經(jīng)再像之前那樣過多關(guān)注觀看時間了。該公司表示,在2016年,該公司開始考慮用戶的“滿意度”,例如,通過調(diào)查,或者觀察一段視頻收到多少“贊”,以“確保人們對他們觀看的內(nèi)容感到滿意”。YouTube補充說,在2017年還實施了一些額外的措施,以改善搜索和推薦內(nèi)容中出現(xiàn)的新聞內(nèi)容,并阻止推廣含有“煽動性的宗教或至上主義”內(nèi)容的視頻。
但該公司并沒有說2006年收購 YouTube 的谷歌為什么要等上10年才做出這些改變。查斯洛特認為,這種改變主要是表面上的,并沒有從根本上改變算法中演化出來的一些令人不安的偏見。在2016年夏天,他建立了一個計算機程序來進行調(diào)查。
查斯洛特寫這個程序的初衷是為YouTube不透明的推薦引擎,提供世界上第一個窗口。這個程序模擬了一個用戶的行為,他從一段視頻開始,然后按照一系列推薦視頻進行操作,來追蹤數(shù)據(jù),就像我看完洛根·保羅視頻后所做的那樣。
它通過一個單詞搜索找到視頻,首先選擇一個“種子”視頻,并記錄下YouTube在“下一個”欄目中推薦的幾層視頻。它沒有瀏覽歷史記錄,確保被檢測到的視頻是YouTube的一般性推薦,而不是個性化的推薦。它重復(fù)了上千次這個過程,積累了大量關(guān)于YouTube推薦的數(shù)據(jù),從而建立了算法的偏好圖。
在過去的18個月里,查斯洛特利用這個程序探索了YouTube在法國、英國和德國的選舉、全球變暖和大規(guī)模槍擊事件中分發(fā)的視頻的偏見,并在他的網(wǎng)站Algotransparency.org上發(fā)表了他的研究成果。每項研究都發(fā)現(xiàn)了一些不同的東西,但研究表明YouTube的推薦系統(tǒng)放大了那些引起分裂、轟動和陰謀的視頻。
當他的程序通過搜索“誰是米歇爾·奧巴馬(Michelle Obama)”的問題找到了一個種子視頻后?!跋乱粋€”欄目中的推薦視頻中,大多數(shù)都說她“是個男人”。關(guān)于教皇的視頻中,有超過80%的視頻將這位天主教領(lǐng)袖描述為“邪惡的”或“反基督者”。上傳到 YouTube 上的視頻數(shù)以百萬計,?以滿足算法對聲稱地球是平的內(nèi)容的興趣?!霸赮ouTube上,小說超越了現(xiàn)實,”查斯洛特說。
他認為,最令人震驚的例子之一是他在2016年總統(tǒng)大選前發(fā)現(xiàn)的。正如他在唐納德·特朗普(Donald Trump)當選后發(fā)表的一篇簡短、基本上不被注意的博文中所指出的,在總統(tǒng)競選期間,YouTube 推薦算法的影響并不是中性的:它分發(fā)的視頻主要對特朗普有利,對希拉里·克林頓(Hillary Clinton)不利。
“這很奇怪,”他向我解釋道?!盁o論你從哪里開始,無論搜索特朗普還是搜索克林頓,推薦算法都更有可能將你推向支持特朗普的方向?!?/p>
因為在三個搖擺州獲得了8萬張選票,特拉普贏得了大選。在美國有超過1.5億 YouTube 用戶。在查斯洛特的Youtube推薦選舉視頻數(shù)據(jù)庫中,這些視頻在2016年11月的投票前,總共被觀看了超過30億次。
哪怕在視頻中出現(xiàn)一點小小的偏見也是有意義的。“塑造我們所看到內(nèi)容的算法會產(chǎn)生很大的影響,尤其是對那些還沒有做出決定的人,”牛津大學數(shù)字倫理實驗室的教授盧西亞諾·弗洛里迪(Luciano Floridi)說,他專門研究人工智能的倫理問題?!皽厝帷⒑?、安靜的推動,會讓我們逐漸走向我們原本可能無法做出的選擇?!?/p>
促進陰謀論
查斯洛特向我提供了一個數(shù)據(jù)庫,里面有在總統(tǒng)大選前的三個月里,更多經(jīng)Youtube 推薦的視頻。它包含了超過8000個視頻——所有這些視頻都是在他的程序中發(fā)現(xiàn)的,在經(jīng)過了對“特朗普”和“克林頓”的搜索次數(shù)相等的情況下。
這不是一套完整的視頻,也可能不是一個完美的代表性樣本。不過,查斯洛特表示,這是一個此前從未見過的數(shù)據(jù)集,顯示了YouTube向那些對候選者內(nèi)容感興趣的人推薦的內(nèi)容——換句話說,就是該算法的偏好。
Tow Center for Digital Journalism研究主管喬納森·奧爾布萊特(Jonathan Albright)對查斯洛特使用的代碼進行了審核。他表示,這是一款相對簡單的軟件,方法論有比較可靠。“這項研究抓住了YouTube政治生態(tài)系統(tǒng)的明顯方向,”他說?!耙郧皬奈从腥诉@樣做過?!?/p>
我和調(diào)查記者、數(shù)據(jù)庫分析專家艾琳·麥考密克(Erin McCormick)花了幾個星期的時間來對這些珍貴的視頻資料進行了觀察、整理和分類。從一開始,我們就被系統(tǒng)推薦的許多極端的和陰謀論的內(nèi)容震驚了,而且?guī)缀跛械囊曨l都是針對克林頓的。
YouTube推薦的一些視頻是我們期待看到的:總統(tǒng)辯論、電視新聞剪輯等等。也有兩位候選人演講的視頻——盡管我們發(fā)現(xiàn),這個數(shù)據(jù)庫中對特朗普演講推薦的 比克林頓多得多的演講。
但最引人注目的是,查斯洛特的程序在其他的視頻的旁邊也發(fā)現(xiàn)了大量的反克林頓視頻。
有幾十個視頻片段顯示,克林頓患有精神疾病,說她患有梅毒或帕金森氏癥,指控她與小野洋子(Yoko Ono)有過秘密性關(guān)系。許多人甚至更加黑暗,他們編造了維基解密披露的內(nèi)容,編造毫無根據(jù)的指控,指控克林頓參與謀殺,或者把她與邪教組織和戀童癖聯(lián)系在一起。
查斯洛特的數(shù)據(jù)顯示,有一段視頻被YouTube的算法大力推廣了。這是一部奇怪的1小時電影,宣稱特朗普的崛起在以賽亞45中就被預(yù)言。
數(shù)據(jù)庫中有太多的視頻了,所以我們把重點放在了分發(fā)次數(shù)做多的1000個視頻上。我們逐一篩選了這些內(nèi)容,以確定這些內(nèi)容是否有利于特朗普或克林頓。超過三分之一的視頻要么與選舉無關(guān),要么包含了大體中立或不偏不倚的內(nèi)容。在剩下的643個視頻中,有551個支持特朗普,只有92個支持克林頓。
我們看過的視頻樣本表明,查斯洛特的結(jié)論是正確的:YouTube的推薦視頻對特朗普更加有利。YouTube可能從來沒有想過將它的算法程序設(shè)計成讓其中的一個總統(tǒng)候選人受益。但至少從這些證據(jù)來看,確實發(fā)生了這樣的事情。
Youtube的回應(yīng)
“我們非常尊重衛(wèi)報作為新聞媒體和機構(gòu)的地位,”在我轉(zhuǎn)發(fā)了我們的調(diào)查結(jié)果后,一位YouTube的發(fā)言人給我發(fā)了電子郵件?!叭欢覀儚娏曳磳κ褂眠@種方法論、數(shù)據(jù),以及他們的研究得出的結(jié)論?!?/p>
這位發(fā)言人補充道:“我們的搜索和推薦系統(tǒng)反映了人們搜索的內(nèi)容、可用的視頻數(shù)量以及人們在YouTube上觀看的視頻。這并不是對某一特定候選人的偏見,而是反映了觀眾的興趣。”
這是一個奇怪的回應(yīng)。YouTube似乎是在說,它的算法是對使用它的人的欲望的中立反映——如果我們不喜歡它所做的事情,我們也有責任。YouTube怎們能將其解讀成“觀眾的興趣”——而不是“人們選擇觀看的視頻”是否會受到該公司分發(fā)的影響?
如果有選擇,我們可能會本能地點擊一段在日本森林中死去男子的視頻,或者是一段假新聞,聲稱比爾克林頓強奸了一名13歲的男孩。但那時的沖動真的反映了我們想要得到的內(nèi)容嗎?
幾個月前,社會學家圖費克奇對YouTube可能對選舉產(chǎn)生的影響發(fā)出了警告。他告訴我,YouTube的推薦系統(tǒng)很可能已經(jīng)發(fā)現(xiàn),令人不安和充滿仇恨的內(nèi)容正在吸引人們的關(guān)注?!斑@有點像學校里的自助販賣餐廳,發(fā)現(xiàn)孩子們已經(jīng)有蛀牙了,而且還喜歡高脂肪和高鹽的食物?!彼f:“所以餐廳依舊提供這樣的食物,當年輕人面前的薯片或糖果被吃掉的時候,就自動裝上?!?/p>
然而,一旦這種情況恢復(fù)正常, 那么在某種程度上更加前衛(wèi)或怪誕的東西就會變得更加新奇和有趣。圖費克奇說,“因此,食物中糖、脂肪和鹽的含量越來越高——這是人類天生渴望的東西——而YouTube推薦的視頻和自動播放的視頻變得越來越怪誕或充滿仇恨?!?/p>
但是,這些怪誕的視頻是怎么讓一個候選人受益的呢?這取決于候選人。如果特朗普的精選不是那么怪誕的話,就沒有什么意義了。圖費克奇指出,有研究表明,“錯誤信息”在大選前很大程度上是反克林頓的。她說,“虛假新聞提供者”發(fā)現(xiàn),與支持克林頓的視頻相比,假的反克林頓材料在支持特朗普上的表現(xiàn)要好得多。
她補充道:“擺在我們面前的問題是,促使人們進入充滿了錯誤和謊言的兔子洞的道德規(guī)范,僅僅因為它能增加人們在網(wǎng)站上花費的時間——而且確實有效?!?/p>
圖費克奇是我與我們共同研究的幾位學者之一。研究了選舉期間的虛假信息是如何傳播的牛津互聯(lián)網(wǎng)研究所教授菲利普·霍華德(Philip Howard)也是其中一位。他質(zhì)疑是否有進一步的因素在起作用?!斑@是一項重要的研究,因為它似乎是第一次系統(tǒng)地研究YouTube是如何被操縱的,”他說,并提出了一種可能性,即該算法和Twitter和Facebook上的算法可能是相似的。
在對眾議院情報委員會的證詞中,谷歌的法律總顧問肯特·沃克(Kent Walker)淡化了莫斯科的宣傳工作滲透到Y(jié)ouTube的程度。他在去年12月向委員會表示,公司的內(nèi)部調(diào)查只發(fā)現(xiàn)了18個YouTube頻道和1100個疑似與俄羅斯虛假信息活動有關(guān)的視頻,而且這些視頻的瀏覽量也相對較小。他補充道:“我們認為,他們的活動受到限制,是因為我們在2016年大選前制定了各種保障措施,使得在谷歌的產(chǎn)品中,不會出現(xiàn)那種病毒式傳播。”
Twitter、Facebook和谷歌的總顧問準備在眾議院情報委員會就俄羅斯利用社交媒體影響選舉的聽證會作證。
沃克沒有提到Y(jié)ouTube采取了什么做法。然而,就在前不久公開的信件中,情報委員會的資深民主黨參議員馬克·沃納(Mark Warner)后來寫信給該公司,稱該算法“特別容易受到外國勢力的影響”。這位參議員要求了解該公司的具體做法,以防止YouTube的推薦系統(tǒng)遭到“惡意入侵”。沃克在他的書面回復(fù)中沒有提供任何細節(jié),但他表示,YouTube擁有“一個復(fù)雜的垃圾郵件和安全漏洞檢測系統(tǒng),以識別異常行為和惡性入侵”。
特里斯坦·哈里斯曾是谷歌的內(nèi)部人士(Tristan Harris),后來成為一名科技告密者。他喜歡將Facebook描述為聯(lián)邦調(diào)查人員無法進入的“2016年大選中活生生的犯罪現(xiàn)場”。Youtube 的情況也是如此。在查斯洛特提供的在大選過程中被推薦的視頻數(shù)據(jù)庫中,現(xiàn)在已經(jīng)從YouTube上消失了有大約一半——其中很多都是由創(chuàng)作者們刪除的。查斯洛特一直認為這很可疑。這些視頻的標題是基本上都有“必須觀看?。∠@铩た肆诸D試圖禁止這段視頻”,但在這視頻消失之前,已經(jīng)被人觀看了數(shù)百萬次?!盀槭裁从腥艘獎h除一個被觀看了數(shù)百萬次的視頻呢?”他問道。
我找到了一份題為“這段視頻會讓唐納德·特朗普當選”的視頻的拷貝,它引發(fā)了病毒式的傳播,在從YouTube上消失之前,它已經(jīng)被觀看了超過1000萬次。內(nèi)容是一段溫和的蒙太奇式的特朗普的歷史片段剪輯, 伴隨著柔和的鋼琴音樂。但當我慢鏡頭播放這段視頻時, 我發(fā)現(xiàn)里面有麥莉·賽勒斯(Miley Cyrus)舔鏡子的奇怪畫面突然閃過。這似乎是一種非專業(yè)的、怪異的嘗試,試圖插入一種潛意識的、性化的圖像。但這也突顯出,我們對任何可能想要利用YouTube來影響公眾輿論的人的監(jiān)管是多么的少。
我與商業(yè)分析公司Graphika的首席執(zhí)行官約翰·凱利(John Kelly)分享了這8000個Youtube推薦視頻的數(shù)據(jù)庫。該公司一直在追蹤政治信息造謠活動。他將這些視頻與自己在大選期間簡歷的數(shù)據(jù)庫進行了比對,得出結(jié)論稱其中很多視頻似乎是由Twitter的馬甲和由支持特朗普的數(shù)字顧問(來自俄羅斯的“主動性提供幫助”)控制的機器人所推動的。
“我沒有證據(jù)證明誰登錄了這些賬戶,”他說?!暗珡奈覀冎翱吹降倪@些賬戶的歷史來看,以及它們在Twitter和互聯(lián)方面的特點,它們是由某個人來控制的——他的工作就是讓特朗普當選。”
查斯洛特以及和我交談過的一些學者認為,社交媒體活動意義重大。YouTube的算法可能已經(jīng)發(fā)展出了它的偏見,但它是否也會被利用進一步推動這些視頻的傳播呢?“如果一個視頻的數(shù)據(jù)開始飆升,毫無疑問,YouTube的算法將會開始進一步分發(fā)它,”奧爾布萊特說。
YouTube并未否認社交媒體宣傳可能會影響推薦系統(tǒng),但它淡化了這種可能性,并強調(diào)其推薦系統(tǒng)“不會根據(jù)Twitter或Facebook的流量來進行調(diào)整”。“衛(wèi)報似乎試圖將研究、數(shù)據(jù)和他們的結(jié)論硬塞進一個關(guān)于科技在去年選舉中所扮演角色的共同敘述中,”發(fā)言人補充說?!叭欢?,我們系統(tǒng)的工作原理卻根本不支持這個前提?!?/p>
前不久,美國參議院就俄羅斯可能干預(yù) YouTube 的推薦算法與谷歌的通信公開后,YouTube向我發(fā)送了一份新的聲明。它強調(diào)了在2017年做出的改變,以阻止推薦系統(tǒng)推廣某些類型的有問題的內(nèi)容?!拔覀兒苄蕾p衛(wèi)報的工作,讓人們注意到這個具有挑戰(zhàn)性的問題,”聲明中補充說?!拔覀冎?,還有更多事情要做,我們期待著在未來幾個月發(fā)布更多的聲明?!?/p>
內(nèi)容創(chuàng)建者
Next News Network一段視頻中的截圖,對比爾·克林頓(Bill Clinton)的指控。
由于圖片和主持人看上去都很華麗,Next News Network看起來像是Youtube上一個可靠的新聞頻道。但這都是表面現(xiàn)象,幕后的操作卻讓人感到可疑。它從極右派的出版物、假新聞網(wǎng)站和俄羅斯媒體上獲取新聞,來做成視頻。
該頻道由主持人加里·弗蘭奇(Gary Franchi)運營,他曾是“聲稱美國政府正在為其公民設(shè)立集中營”陰謀的主要支持者。
盡管弗蘭奇堅稱他不是一個假新聞創(chuàng)建者,但是Next News Network曾經(jīng)報道了關(guān)于比爾·克林頓強奸一名青少年的捏造指控。(他告訴我,他更喜歡把自己的頻道看作是“對保守新聞和觀點的評論”。)
在選舉前的幾個月里,Next News Network變成了一個反克林頓新聞和輿論的工廠,每天制作幾十個視頻,并吸引到了大量的觀眾。
查斯洛特的研究表明,弗蘭奇的成功很大程度上要歸功于YouTube的算法,該算法不斷地分發(fā)他的視頻,使其在“接下來”欄目中播放。YouTube對查斯洛特的研究進行了猛烈的抨擊。
我聯(lián)系了弗蘭奇,看看誰是對的。他給我發(fā)了一些數(shù)據(jù)截圖,這些數(shù)據(jù)是給Youtube內(nèi)容創(chuàng)建者看的,包括他們的觀眾是如何找到他們的視頻片段的數(shù)據(jù)。比爾·克林頓強奸視頻的最大流量來源是YouTube的推薦。該視頻在大選前的一個月里被觀看了240萬次。
弗蘭奇給我發(fā)送的所有視頻數(shù)據(jù)中,除了一個視頻之外,其他都有同樣的情況。弗蘭奇分享的數(shù)據(jù)顯示,在大選前的一個月里,73%的視頻流量都來自于YouTube的推薦。外部流量僅占3%。
弗蘭奇是一個靠自己的Youtube頻道謀生的職業(yè)人士,但我采訪過的反克林頓視頻的許多其他創(chuàng)建者都是業(yè)余的偵探或兼職陰謀論者。通常情況下,他們的視頻可能會收到數(shù)百次的點擊,所以當他們的反克林頓視頻開始接收到數(shù)百萬的瀏覽量時,他們會感到震驚,就好像他們被一股無形的力量所推動了。在每一種情況下,最大的流量來源——無形的力量——來自Youtube推薦。來自南加州的神秘調(diào)查員威廉·拉姆塞(William Ramsey)上傳了一個名為“無可辯駁的證據(jù):希拉里克林頓患有癲癇癥!”的視頻,在YouTube給他發(fā)郵件說這違反了規(guī)則之后,推薦算法研究在分發(fā)這個視頻。拉姆塞的數(shù)據(jù)顯示,在大選日前, 美國用戶觀看視頻的次數(shù)為240萬次?!皩τ谙裎疫@樣的無名小卒來說,這已經(jīng)很多了,”他說。“足以左右選舉,對吧?”
來自南卡羅來納的陰謀論者丹尼爾·亞歷山大·坎農(nóng)(Daniel Alexander Cannon)告訴我:“我發(fā)布的所有關(guān)于克林頓夫婦的視頻, YouTube 都會把它推到屋頂上。”他的最佳視頻是一段名為“‘希拉里和比爾·克林頓’你必須看的10張照片”的視頻,其實就是他本人根據(jù)這些照片對克林頓夫婦健康狀況的揣測(似乎篡改過)??厕r(nóng)表示, YouTube上的瀏覽次數(shù)為370萬次, 其中290萬次是來自算法推薦。
查斯洛特不僅讓人們注意到隱藏在幕后的一系列反克林頓的陰謀視頻。他的研究也做了一些更重要的事情:揭示我們的生活是如何被人工智能所調(diào)節(jié)的。
在不到一代人的時間之前,選民們對政客的看法主要是由成千上萬的報紙編輯、記者和電視臺高管塑造的。如今,大型技術(shù)平臺背后隱藏的代碼已經(jīng)成為新的王者。
原文鏈接:https://www.theguardian.com/technology/2018/feb/02/how-youtubes-algorithm-distorts-truth
譯者:chiming,由36氪編譯組出品。編輯:郝鵬程
譯文地址:http://36kr.com/p/5118920.html
本文由 @郝鵬程 授權(quán)發(fā)布于人人都是產(chǎn)品經(jīng)理,未經(jīng)作者許可,禁止轉(zhuǎn)載。
題圖來自StockSnap.io,基于 CC0 協(xié)議
不過辦法改變規(guī)范
沙發(fā)
算法本身無罪,罪在人心
個性化推薦本身沒問題,問題在推薦池的過濾和人工惡意調(diào)權(quán)