AI成精?和AI網聊9秒被騙132萬 全網震驚(組圖)


這兩天一則AI詐騙震驚全網。圖片為中國演員楊冪。(圖片來源:Edi Chen/Getty Images for Michael Kors)

【看中国2023年5月25日讯】(看中國記者黎紫曦綜合報導)近來AI越來越盛行,因為它的技術不僅能解決很多問題,甚至逐漸取代人們的部份工作,但這兩天2則AI詐騙震驚全網,不禁讓網友們直呼,「AI詐騙成精了?」

AI成精?安徽男9秒被騙132萬

5月22日,安徽發生一起AI換臉詐騙案件。這次金額達到132萬,且整個詐騙過程只有9秒鐘。

事件起因是,安徽安慶何姓男子接到熟人視頻電話,讓他幫忙轉一筆賬。但9秒之後,對方卻以「在開會」為由,迅速掛斷電話,還稱「微信和電話不能說,加一下QQ」。也就是說,短短9秒鐘,何男被騙132萬元。

此前,央視也曾報導一起金額高達430萬元的AI換臉詐騙,過程與此案相似,詐騙者都運用AI換臉以及擬聲技術:4月20日,福建某科技公司法人代表郭先生好友突然用微信視訊聯繫他,透過短暫聊天后,基於對視訊聊天的信任,郭先生10分鐘內慘被騙走人民幣430萬元,最後發現騙子竟是透過AI換臉技術,佯裝成好友誘使他上當。

相關消息傳出後,直接衝上熱搜第一。中國網友大呼說,「AI詐騙成精了?」、「離大譜啊!不敢接電話了。」也有人質疑說,「AI這麼好訓練?這需要掌握個人的大量信息吧。」


和AI網聊10分鐘被騙430萬,真實詐騙案震驚全網。(圖片來源:網絡圖片)


和AI網聊10分鐘被騙430萬,真實詐騙案震驚全網。(圖片來源:網絡圖片)

據現有相關數據顯示,AI技術新騙局來襲後,詐騙成功率幾乎可達到100%。

事實上,目前AI換臉技術不僅被運用於電信詐騙,還出現在明星直播帶貨中。此前有網友反映,有主播盜用明星的臉進行商業帶貨,「點進直播間一看,迪麗熱巴、楊冪、Angelababy居然在直播賣貨」,定睛一看才識出破綻。

對此,網友也不禁感概說,「AI正成為騙子高手新一代工具」。


有網友感概表示,「AI正成為騙子高手新一代工具」。(圖片來源:網絡圖片)

新詐騙核心涉AI換臉、語音兩技術

目前了解到,上述幾起詐騙案,AI核心涉及換臉以及語音合成這兩個技術。而大眾所熟知的AI換臉方面,即便一張2D照片就能讓口型動起來。

新華每日電訊曾報導,合成一段動態視頻,成本僅需要2元至10元。曾有涉案嫌疑人透露,「客戶」往往是成百上千購買,牟利空間巨大。至於面向大型直播平台,視頻實時換臉的全套模型購買價格在3.5萬元,且不存在延遲、也不會有bug。而具備語音合成功能的工具Bark,更是曾登頂GitHub榜首,除了聲色接近真人,還能加入背景噪音和高度擬真的笑聲、嘆息和哭泣聲等。操作者只需一個軟件應用程序,就可在視頻通話中使用任意視頻資源。

而這種核心技術由於門檻低,給了犯罪分子可乘之機。

AI新騙局成功率近100%

事實上,AI加持下的新型網絡詐騙,並不止這一種操作。它小到在網絡購物、兼職刷單,大到冒充客服、投資理財人員等身份,獲取銀行卡賬號密碼直接轉一大筆賬。

據南京警方消息,此前還發生一起被QQ視頻AI詐騙3000元的案例。當事人小李表示,自己的大學同學小王通過QQ向他借3800元,稱自己很著急,因為表姐住院。

小李懷疑了小王的身份,但小王很快給她傳來一個4至5秒左右的動態QQ視頻,不僅背景在醫院,且還打了聲招呼。

這讓小李打消疑慮小王身份的念頭,並轉給他3000元,然而,隨後小李發現對方已經將她刪除拉黑,發來的視頻則是AI偽造而成。

對此,武漢市反電信網絡詐騙中心也提醒,現在AI技術新騙局來襲,詐騙成功率接近100%。


現在AI技術新騙局來襲,詐騙成功率接近100%。(圖片來源:網絡截圖)

本文留言

相關文章


近期讀者推薦