人美聲甜總被惦記?“寡姐”遭OpenAI背刺,律師解讀AI“犯罪”背后的新法案
自從ChatGPT之類的生成式AI興起之后,人工智能的倫理就是一個大家避而不談的問題。在法律層面,也很難為此類事情定性。而這一次,OpenAI發(fā)布的新模型中,直接模仿了斯嘉麗·約翰遜的聲音,當(dāng)事人也提起了訴訟,這一次,是否會推動AI的立法情況呢?
OpenAI闖禍了,他們在未經(jīng)美國演員“寡姐”斯嘉麗·約翰遜的同意模仿其聲音,已經(jīng)收到律師函。
美國女演員斯嘉麗·約翰遜就OpenAI聊天機器人使用酷似她聲音的Sky語音一事發(fā)表聲明,對該公司否認刻意“模仿”她聲音的說法提出了質(zhì)疑。
在約翰遜的聲明發(fā)布后不久,OpenAI作出回應(yīng),宣布為尊重斯嘉麗·約翰遜,決定暫停使用Sky語音。此舉顯示出OpenAI對此次爭議的重視,并愿意采取積極措施以平息事態(tài)。但隨著AI技術(shù)不斷演進,這類事件也絕不會停息,我們應(yīng)該怎樣應(yīng)對呢?
一、“寡姐”遭遇OpenAI背刺
不久前,OpenAI的現(xiàn)場演示后,許多觀察者將其與斯嘉麗在2013年斯派克·瓊斯(Spike jones)執(zhí)導(dǎo)的浪漫科幻電影《她》(Her)中的配音進行了對比。該影片講述了一個男子與電腦操作系統(tǒng)女聲之間產(chǎn)生情感糾葛的故事。
OpenAI的首席執(zhí)行官山姆·奧特曼(Sam Altman)曾公開表示,《她》是他鐘愛的電影之一。在ChatGPT新版本發(fā)布后,他還在社交媒體上提到了“她”這個詞,這無疑加劇了人們的聯(lián)想。然而,OpenAI的高層隨后否認了斯嘉麗與這款新語音助手有任何直接聯(lián)系。
OpenAI首席技術(shù)官米拉·穆拉蒂(Mira Murati)表示,公司并未刻意模仿斯嘉麗在電影中的性感電腦配音。她補充說:“這更多地體現(xiàn)了我們的想象力,以及我們作為一個社會的共同故事,而非技術(shù)本身。我們在開發(fā)這項技術(shù)時,并未受到電影或科幻故事的啟發(fā),而是致力于創(chuàng)造能夠思考并對世界有深刻理解的機器。對于斯嘉麗的聲音,我事先并不了解,甚至我后來還去聽了她的聲音?!?/p>
隨后,斯嘉麗·約翰遜針對這一事件發(fā)表了聲明,盡管拒絕了向OpenAI提供聲音的邀約,但她仍然發(fā)現(xiàn),ChatGPT最新發(fā)布的大模型GPT-4o使用了高度類似自己聲音的Sky語音。對此斯嘉麗·約翰遜表示,震驚、憤怒和難以置信,并向OpenAI發(fā)送律師函,要求說明Sky確切的創(chuàng)造過程。
就在斯嘉麗·約翰遜聲明發(fā)布不久后,OpenAI宣布撤下GPT-4o語音交互功能中的“Sky”聲音,并用另一種名為“Juniper”的語音代替。OpenAI在聲明中明確指出:“我們認為AI聲音不應(yīng)該刻意模仿名人獨特的聲音——Sky的聲音不是模仿斯嘉麗·約翰遜,而是屬于不同專業(yè)女演員使用她自己自然說話的聲音。”
但是,對于Sky音色是否與斯嘉麗相近,網(wǎng)友眾說紛紜,有人認為這純屬巧合,還有人認為OpenAI先訓(xùn)練了類似斯嘉麗的聲音,在遭到拒絕后稍作修改就進行了發(fā)布。
其實這不是斯嘉麗·約翰遜第一次受到來自科技的傷害了,2017年,斯嘉麗就曾成為Deepfake視頻的受害者,這些視頻在網(wǎng)絡(luò)上廣泛傳播,給她的聲譽和隱私造成了嚴重損害。
事實上,類似的事件已經(jīng)屢見不鮮。越來越多的公眾人物和普通民眾都成為人工智能技術(shù)濫用的受害者。這不僅侵犯了個人隱私,也對社會秩序造成了極大沖擊。
斯嘉麗·約翰遜進一步發(fā)出呼吁,指出大家正在積極應(yīng)對AI造假的問題,以維護個人的圖像、藝術(shù)品,甚至身份的完整性。她強調(diào)這些疑慮應(yīng)當(dāng)?shù)玫矫鞔_和解決。她期盼這些問題能以透明性的方式得到解決,并通過恰當(dāng)?shù)牧⒎ù胧┍U纤腥说臋?quán)益。
元宇宙新聲認為,面對互聯(lián)網(wǎng)上泛濫的違法和不當(dāng)內(nèi)容,個人的維權(quán)之路往往艱難而漫長。要從根本上解決這一問題,還需要依靠法律手段。
近年來,世界各國已經(jīng)意識到人工智能倫理規(guī)范的重要性,一些國家和地區(qū)著手制定相關(guān)法律法規(guī)。但總的來說,這一進程仍然較為緩慢。人工智能技術(shù)日新月異,而法律的完善需要一定的時間,這導(dǎo)致了當(dāng)前人工智能倫理“真空地帶”的出現(xiàn)。
二、AI生成的聲音也可能違法
其實斯嘉麗·約翰遜的案例并不是孤案,在我國已經(jīng)出現(xiàn)了第一例AI生成聲音人格權(quán)侵權(quán)案。
2024年4月23日,北京互聯(lián)網(wǎng)法院對全國首例“AI聲音侵權(quán)案”進行一審宣判,認定作為配音師的原告,其聲音權(quán)益及于案涉AI聲音,被告方使用原告聲音、開發(fā)案涉AI文本轉(zhuǎn)語音產(chǎn)品未獲得合法授權(quán),構(gòu)成侵權(quán),書面賠禮道歉,并賠償原告各項損失25萬元。
原告殷某是一名配音師,她意外發(fā)現(xiàn)自己的聲音被AI化后,在一款名為“魔音工坊”的APP上以“魔小璇”的名義對外出售。殷某以被告行為侵害其聲音權(quán)為由,將“魔音工坊”的運營主體北京某智能公司等五被告起訴到北京互聯(lián)網(wǎng)法院,要求五被告停止侵權(quán)、賠禮道歉及賠償原告經(jīng)濟損失、精神損失的侵權(quán)責(zé)任。
不過,五被告均否認侵權(quán)。北京某智能科技有限公司認為,其APP中的聲音產(chǎn)品有合法來源,來自被告某軟件公司。軟件公司稱它使用的聲音來源于被告影音文化傳媒有限公司。影音公司認為它與原告有過合作,約定經(jīng)原告錄制形成的作品著作權(quán)歸屬其所有。被告平臺運營商與涉案產(chǎn)品的經(jīng)銷商,也稱自己不構(gòu)成侵權(quán)。
針對這起案件,法官強調(diào),聲音作為一種人格權(quán)益,具有人身專屬性,任何自然人的聲音均應(yīng)受到法律的保護,對錄音制品的授權(quán)并不意味著對聲音的授權(quán),未經(jīng)許可,擅自使用、許可他人使用錄音制品中的聲音,構(gòu)成侵權(quán)。
元宇宙新聲咨詢了北京鼎世律師事務(wù)所執(zhí)行主任孫亮律師,他表示:“《民法典》第四編為人格權(quán)編,在該編中就涉及自然人的肖像權(quán)、名譽權(quán)、隱私權(quán)、聲音權(quán)益等民事權(quán)利進行了專門的規(guī)定。相關(guān)主體在利用AI技術(shù)進行創(chuàng)作的過程中,要對此予以重視,避免侵犯自然人的民事權(quán)益?!?/strong>
經(jīng)過查詢,民法典第1023條規(guī)定,對自然人聲音的保護參照適用肖像權(quán)的保護,明確將聲音權(quán)益作為特殊的人格利益予以保護。但隨著AI語音合成技術(shù)的廣泛應(yīng)用,聲音被收集、合成、制作、模仿甚至篡改的現(xiàn)象越來越普遍,這對聲音權(quán)益的保護提出了前所未有的挑戰(zhàn)。
孫亮律師表示:“AI產(chǎn)品的開發(fā)者或者使用者,在利用AI技術(shù)生成人物形象、聲音或者信息時,如果上述數(shù)據(jù)生成物可以識別到現(xiàn)實中的具體自然人,建議開發(fā)者或者使用者取得相關(guān)主體關(guān)于肖像權(quán)、聲音、個人信息等進行AI化的明確授權(quán)?!?/strong>
目前,我們看到《民法典》明確將“聲音”作為一種民事人格權(quán)益予以保護。但隨著AI技術(shù)迅速發(fā)展,還將會出現(xiàn)各種此前我們無法預(yù)測的“新案件”出現(xiàn),我們希望法律更進一步完善,以保護人們在AI時代的財產(chǎn)和安全。
三、寫在最后
人工智能技術(shù)是一把雙刃劍。在給人類生活帶來便利的同時,它也帶來了諸多倫理困境。斯嘉麗事件再次敲響了警鐘,提醒著我們直面人工智能帶來的種種挑戰(zhàn)。不過,這需要全社會的共同努力,需要企業(yè)、學(xué)界、立法機構(gòu)等各方攜手,在發(fā)展人工智能的同時,為之設(shè)置必要的“防火墻”。唯有如此,我們才能真正駕馭這一劃時代的技術(shù),讓它更好地造福和幫助人類。
作者:賈桂鵬;公眾號:元宇宙新聲
本文由 @元宇宙新聲 授權(quán)發(fā)布于人人都是產(chǎn)品經(jīng)理。未經(jīng)許可,禁止轉(zhuǎn)載。
題圖來自Pexels,基于CC0協(xié)議
該文觀點僅代表作者本人,人人都是產(chǎn)品經(jīng)理平臺僅提供信息存儲空間服務(wù)。
- 目前還沒評論,等你發(fā)揮!