謹防“AI換臉”騙局!看完這篇你就不會上當了!
隨著真假難辨的AI技術的發(fā)展,網(wǎng)上詐騙的識破難度達到更加困難的等級。隨著一起數(shù)額極高的AI詐騙事件的披露,大家都對這類案件嗤之以鼻,本文為大家?guī)鞟I騙局的細節(jié)介紹,并為大家講述識破方法。
“陷阱”無處不在, “面具”難辨真?zhèn)?!聽說了嗎!又一起令人發(fā)指的AI換臉詐騙事件在5月25日被媒體曝光了!這一次,詐騙金額竟然高達245萬,而且整個詐騙過程時間更短,只有9秒鐘!簡直是讓人瞠目結舌!難道我們的財產安全已經無處不在受到威脅了嗎?!趕緊來了解這些新騙局,以免成為下一個受害者!
繼此前發(fā)生的“10分鐘被AI換臉騙走430萬元”事件引起社會廣泛關注之后,5月25日,又一起AI換臉詐騙事件被曝光,令人倍感驚恐。據(jù)報道,這次詐騙金額高達245萬元,更可怕的是整個過程只用了短短的9秒鐘。
這兩起事件再次警示人們,隨著人工智能技術的廣泛運用,網(wǎng)絡詐騙手段也在不斷升級,需要更加警惕和謹慎,掌握和識別“AI換臉”陷阱,以免自己成為下一個受害者。
01 套路如出一轍: “熟悉的朋友+熟悉的聲音”
近日,包頭市公安局通報了一起利用人工智能(AI)實施電信詐騙的案例。2023年4月20日中午,福州市某科技公司法人代表郭先生接到好友微信視頻電話,對方稱需要430萬元保證金,并要求轉賬至公對公賬戶。
由于過于相信好友,加上對方使用了智能AI換臉和擬聲技術,郭先生二話沒說便在10分鐘內將430萬元分兩筆轉賬至對方銀行卡上。事后郭先生撥打好友電話,才知道被騙,但已來不及挽回損失。隨后福州、包頭兩地警方迅速啟動止付機制,成功止付攔截了336.84萬元,但仍有93.16萬元被轉移。
無獨有偶。據(jù)澎湃新聞5月25日報道,5月22日,安徽安慶的何先生也遭遇了類似的詐騙。當天何先生接到一個熟人視頻電話,讓他幫忙轉一筆賬。但9秒之后,對方以“在開會”為由,迅速掛斷了電話,還稱“微信和電話不能說,加一下QQ” 。
隨后, “好友”在QQ上告訴何先生,目前有一個項目招標需要周轉資金,希望何先生先行幫忙墊付。 “因為打了視頻電話又是熟人”,“我就沒多想,就轉賬了”,基于對“熟人”的信任,何先生沒有猶豫,立刻讓家人將245萬元到對方指定的賬號上,直到事后撥打對方電話才得知被騙。
安徽安慶受害人何先生微信截圖(圖源:大皖)
幸運的是,發(fā)現(xiàn)被騙之后,何先生迅速報警,專案民警第一時間凍結相關賬戶,連夜趕赴北京市抓獲3名涉詐嫌疑人,追回何先生被騙的132萬元。
回顧兩起事件可以發(fā)現(xiàn),當騙子們使用智能AI換臉和擬聲技術時,他們可以模仿熟悉的朋友或家人的聲音和形象,讓受害者產生信任感。這種“身份欺詐”的手法很容易讓人掉入陷阱,因為人們通常更容易相信自己認識的人。
在這兩起案件中,騙子們都采用了類似的套路:通過微信電話和好友身份進行切入,然后使用AI技術偽裝成受害者熟悉的人物,從而獲得受害者的信任并引導他們轉賬。這種手法讓受害者很難辨別真假,因為智能AI換臉和擬聲技術可以使騙子們的外貌和聲音與受害者熟悉的人物非常相似。
制圖:文化產業(yè)評論 史欣怡
因此,在日常生活中,我們應該保持警惕,不要輕易相信微信或其他社交媒體上的陌生人,并且要注意確認對方的真實身份。如果懷疑有詐騙嫌疑,一定要及時報警并尋求幫助。同時,政府和相關部門也應該加強監(jiān)管和技術防范,以打擊這種智能AI換臉和擬聲技術的電信詐騙行為。
02 AI換臉技術詐騙的四大顯著特征
AI換臉技術主要通過軟件將一個人的面部特征、表情和動作等信息轉移到另一個人的照片或視頻中,實現(xiàn)真實的換臉效果。
目前,AI換臉技術已經被廣泛應用于影視制作、數(shù)字娛樂、虛擬現(xiàn)實等領域,為人們帶來了更加豐富多彩的視聽體驗。然而,這種技術也為一些不法分子提供了可乘之機,成為網(wǎng)絡欺詐和身份盜竊等犯罪活動的利器。與傳統(tǒng)的電信詐騙相比較,AI換臉詐騙具有以下四個顯著特征:
1. 成本投入更低
傳統(tǒng)電信詐騙通常需要一定的人力和物力成本,如招募電話銷售人員、租賃辦公場所等,同時也需要一定的時間和空間來進行策劃和詐騙。相比之下,AI換臉詐騙則可以通過一部手機或一臺電腦和一些軟件來實現(xiàn),成本較低,而且可以快速進行詐騙。這也意味著,詐騙者可以更加快速地獲取利益,而且難以被追查。
制圖:文化產業(yè)評論 史欣怡
2. 成功機率更高
傳統(tǒng)電信詐騙通常采用冒充公檢法、銀行客服或兌獎平臺等方式進行恐嚇或誘騙,成功率相對較低;AI換臉通過打情感牌的詐騙手法更加真實,更容易讓受害者掉進陷阱。這種手法往往切中對方的情感軟肋,如說自己有病需要治療、公司競標重大項目需要支持等等,讓受害者產生同情心理上當受騙。這也導致了AI換臉詐騙的成功率更高,受害者更容易被欺騙。
制圖:文化產業(yè)評論 史欣怡
3. 角色偽裝更多
除了之前提到的利用AI換臉技術冒充熟人或好友進行詐騙外,一些不法分子利用AI技術偽裝成領導的QQ或微信賬號進行詐騙,通過添加下屬或服務對象獲得信任后,以親戚或家中急需用錢要求對方幫忙周轉或轉賬到指定賬戶上。受害人敬畏上級,不敢質疑指示,極易上當受騙。近期,貴州三都縣公安局成功破獲一起冒充領導微信詐騙案件,并追回被騙資金19萬元。
以上為微信詐騙參考圖片(圖源:網(wǎng)絡)
4. 防范難度更大
近年來國家和地方對傳統(tǒng)電信詐騙已經有了一些成熟的防范措施,尤其是金融機構對傳統(tǒng)電信詐騙防范手段更加多樣化,社會層面防范意識也不斷增強。但是,對于AI換臉詐騙,目前還沒有很好的解決方案。因為詐騙者可以利用各種社交媒體平臺進行詐騙,而且很難通過簡單的判斷來辨別真?zhèn)?,短時間難以追蹤和抓捕。
制圖:文化產業(yè)評論 史欣怡
03 識別和警惕AI詐騙的6種新伎倆
綜上所述,AI換臉詐騙相比傳統(tǒng)電信詐騙成本更低、時速更快、角色更多、機率更高和防范更難等特點,對社會造成的危害也更大。因此,我們要高度警惕基于AI詐騙的6種新伎倆。
1. 虛假音頻詐騙
利用AI技術生成虛假的語音信息,冒充親戚、朋友等身份進行詐騙。比如,不法分子使用AI技術生成了一段虛假的親屬語音信息,聲稱家中告急亟需緊急轉賬。受害者因為聽到了親屬的聲音,從而引起恐慌和焦慮,沒有多想就進行了轉賬。
圖片來源:新華網(wǎng)
2. 虛假視頻詐騙
利用AI技術生成更加逼真的虛假視頻,制造更加真實的人物或情境,讓受害者更容易上當受騙。例如,近年來,有不法分子將現(xiàn)實中的一個人臉替換成了電影明星的臉,并通過社交媒體傳播,誘導用戶和粉絲點擊鏈接下載惡意軟件或輸入個人信息。
3. 虛假恐嚇詐騙
據(jù)光明網(wǎng)披露,近日,多名網(wǎng)友收到同一條虛假恐嚇詐騙短信。短信聲稱對方因信貸詐騙已經被執(zhí)法機關定位,要求當日14點前結清全部欠款,否則將會遭到上門強制“槍斃”。然而,這種“低智商”的詐騙手段,極有可能是AI篩選出最容易上當?shù)娜巳?,特別是那些文化程度不高、社會閱歷單薄的弱勢人群。
圖片來源:新華網(wǎng)
4. 虛假客服詐騙
利用AI技術生成虛假的客服對話框,冒充銀行、支付機構等身份進行詐騙。例如,在一次詐騙事件中,騙子冒充銀行客服,通過微信聯(lián)系受害人,謊稱對方銀行賬戶異常,讓受害人輸入銀行卡密碼,導致受害人銀行卡被盜刷。
騙子冒稱京東客服進行詐騙的對話(圖源:深圳反詐中心)
5. 網(wǎng)絡釣魚詐騙
利用AI技術生成虛假的網(wǎng)站、郵件等,誘導用戶輸入個人信息或下載惡意軟件。例如,在一次網(wǎng)絡釣魚事件中,黑客使用AI技術生成了一個虛假的銀行網(wǎng)站,通過短信形式告知對方打開某銀行網(wǎng)站,讓受害人輸入銀行卡號和密碼進行驗證,導致受害人銀行卡被盜刷。
6. 進行定向攻擊
黑客可以使用AI技術分析目標用戶的行為特征和個人信息,進行精準定向攻擊,竊取個人敏感信息。例如,在一次定向攻擊事件中,黑客使用AI技術制作了虛假的社交媒體賬號,并通過該賬號發(fā)送釣魚鏈接,成功竊取了目標用戶的個人信息。
這些新的詐騙手段可能會更加隱蔽和高效,對公眾造成更大的威脅。因此,我們需要加強對AI技術的監(jiān)管和管理,提高公眾的安全意識,共同應對未來可能出現(xiàn)的新型詐騙手段。
04 AI換臉等詐騙防范指南及措施
5月24日,中國互聯(lián)網(wǎng)協(xié)會發(fā)布公告表示,伴隨著深度合成產品和服務逐漸增多,利用“AI換臉”“AI換聲”等虛假音視頻進行詐騙、誹謗的違法行為屢見不鮮。廣大公眾需提高警惕,加強防范。
對此,文化產業(yè)評論(ID:whcypl)認為,防范和應對基于AI換臉等詐騙伎倆,需要從個人、政策和技術等多個維度同步發(fā)力,才能有效防范或減少類似詐騙案件的發(fā)生。
1. 個人層面做到“八不要”“三不怕”
對于個人而言,除了在形形色色的“人皮面具”中保持清醒,避免陷入虛假宣傳,更重要的是面對花樣翻新的AI詐騙,必須保持防范意識,切實做到“不聽不信不轉賬”。
(1)保護個人信息,做到“八個不要”
一是不要輕易提供人臉、指紋等個人生物信息;二是不要輕易透露自己的身份證、銀行卡、驗證碼等信息;三是不要把身份證、銀行卡照片等直接存放于手機內;四是不要點陌生鏈接;五是不要下載陌生軟件(APP);六是不要隨便加陌生好友;七是不要隨便掃不明二維碼;八是不要向陌生人開啟手機屏幕共享。
制圖:文化產業(yè)評論史欣怡
(2)識別虛假身份,做到“三個不怕”
如果有人自稱“親友”“老師”“上級”等身份,通過微信電話、視頻或QQ等社交軟件聯(lián)系你,并以“情況緊急”“領導私事”“遭遇不幸”等理由讓你轉賬匯款,請第一時間保持警惕。在任何情況下,無論對方是誰,都要不怕麻煩、不怕得罪人、不怕耽誤事,務必多途徑核驗對方身份,千萬不要隨意轉賬打款。請記住, “寧繞百步走,不落一險棋”。
圖片來源:新華網(wǎng)
2. 在政策層面應做到“四個加強”
2022年12月,國家互聯(lián)網(wǎng)信息辦公室等三部門發(fā)布《互聯(lián)網(wǎng)信息服務深度合成管理規(guī)定》,對人臉生成、替換、操控,合成人聲、仿聲等都有明確約束。但就目前AI換臉詐騙形勢和手段,還需要進一步加強防范和治理。
(1)加強對AI換臉技術的監(jiān)管
進一步豐富完善相關法律法規(guī),科學規(guī)范AI換臉技術的開發(fā)、使用和管理閉合措施,明確AI換臉技術的合法使用范圍,嚴厲打擊利用AI換臉技術進行詐騙、網(wǎng)絡暴力、侵犯隱私等違法行為。
(2)加強技術防范措施的開發(fā)
加大對AI換臉技術的技術研究和防范措施的開發(fā)力度,提高AI換臉技術的安全性和可靠性,研發(fā)更加智能化的識別系統(tǒng)用于用于辨別真?zhèn)?,減少此類詐騙行為的生存空間。
(3)加強跨部門的協(xié)同合作
公安機關、網(wǎng)絡安全部門和金融機構等部門之間應該加強溝通和協(xié)作,形成合力,共同維護互聯(lián)網(wǎng)生態(tài)和社會和諧穩(wěn)定。例如,金融機構應通過客戶證件、手機號碼、郵箱等信息進行多重驗證,及時發(fā)現(xiàn)和處理異常交易。
(4)加強公眾安全意識教育
AI合成的人臉和虛假音視頻通常會有一些特征,如畫面不真實、語音不連貫等。相關部門要加強AI換臉技術進行犯罪的案例宣傳,增強公眾的安全意識和自我保護意識,避免成為詐騙的受害者。
圖片來源:新華網(wǎng)
總之,AI換臉詐騙是一種新型的網(wǎng)絡犯罪方式,具有嚴重的社會危害性。為此,除個體提高防范意識外,還需要從技術、政策、執(zhí)法、教育等方面進行綜合施策,加強對AI技術的監(jiān)管和犯罪行為的打擊,才能有效地減少類似事件的發(fā)生,保障公眾的合法權益和社會的安全穩(wěn)定。
作者:小軍哥;編審:時光;編輯:半島
來源公眾號:文化產業(yè)評論(ID:whcypl),中國文化產業(yè)頂尖新媒體。
本文由人人都是產品經理合作媒體 @文化產業(yè)評論 授權發(fā)布,未經許可,禁止轉載。
題圖來自 Unsplash,基于 CC0 協(xié)議
該文觀點僅代表作者本人,人人都是產品經理平臺僅提供信息存儲空間服務。
母親前幾天清晨和我通電話為了確認前一天打電話的人是我自己,還是AI,或者騙子,,,技術發(fā)展的同時便利與危機共生,相關制度希望可以早日得到健全