盜用你聲音僅需5美元2分鐘:揭秘AI語音克隆詐騙(圖)
利用AI語音克隆技術進行詐騙,是騙徒的新花招。(圖片來源:Adobe Stock)
【看中國2024年5月20日訊】(看中國記者高芸綜合報導)人工智慧的發展帶來了諸多便利,然而也為詐騙犯提供了新的手段。AI語音克隆技術便是一例,在這類詐騙中,犯罪份子會仿造你親朋好友的聲音,發出求助信號,讓你誤以為是真實的呼救,當你匯出資金時,才意識到這是一個騙局。
美國聯邦貿易委員會的數據顯示,過去四年間,涉及商業身份盜用的詐騙事件有所增加,僅去年就造成了超過7.52億美元的經濟損失。
克隆一個人的聲音有多容易?
根據CBS新聞的調查,通過AI克隆一個人的聲音非常容易。AI語音技術雖然為失去聲音的人提供了發聲的可能,但同時也被不法份子用來進行詐騙。
如今,人們輕易能在網上找到能克隆語音的AI服務,僅需支付5美元並提供短短30秒的音頻樣本,就能在2至4分鐘內複製出任何人的聲音。
騙子可能會通過社交媒體上的視頻或語音郵件獲取你的聲音,甚至可能直接電話錄音,使你防不勝防。這些克隆的聲音逼真到連經驗豐富的人也難以辨別真偽。
律師險些被AI騙局愚弄:「我知道那是我兒子」
一位曾差點成為聲音克隆騙局受害者的律師加里.希爾霍恩(Gary Schildhorn),講述了他的經歷。某天,他接到一個聲稱是他兒子的電話,對方描述了一系列緊急情況,聲音聽起來極其真實。
「他說,‘爸爸,我遇到麻煩了,我出了事故。我想我鼻子骨折了。我撞到了一名孕婦。他們逮捕了我,我進了監獄。你需要幫助我。’」希爾霍恩說,「我知道那是我的兒子,我心裏毫無疑問。」
希爾霍恩立即行動,他趕緊開車去銀行提取9000美元現金,同時向兒子的妻子通報最新情況,幸虧希爾霍恩的兒子佈雷特及時通過FaceTime聯繫了他,避免了財產損失。
由於希爾霍恩沒有損失金錢,所以沒有法律追索權。他聯繫了執法部門,但被告知由於犯罪分子使用了一次性手機進行詐騙,騙子無法被追蹤。
如何防範語音克隆詐騙?
面對日益猖獗的AI詐騙,美國眾議院人工智慧工作組成員伊維特.克拉克(Yvette D.Clarke)提出立法,要求對AI生成的內容標注數字水印。
如果該法案獲得通過,消費者將被警告他們正在聽假的語音,如果他們受到假語音內容的傷害,他們可以提起訴訟。
為防範此類詐騙,執法部門建議公眾設置一個緊急情況下的驗證密碼,並與家人分享。
攔截垃圾電話是防止接收到潛在詐騙電話的有效策略。檢查你的電話服務商是否提供攔截服務。如果提供,考慮將其加入手機服務套餐中。
儘管可能安裝了攔截服務,偶爾還是會接到垃圾電話。建議盡量不接聽來自未知號碼的電話,原因有二:首先,接聽這些電話可能增加遭遇詐騙的風險;其次,詐騙者可能利用對話內容錄音,進而使用AI技術仿造你的聲音進行詐騙。
此外,如果接聽了來自未知號碼的電話,先不要急於開口,等待來電者先發言。如果對方沉默不語,應立即挂斷。如果對方確實說了話,應核實對方的信息。比如,如果來電者自稱是遇到緊急情況的親人,應在採取任何行動前先通過簡訊等方式與該家庭成員確認情況的真實性。
常見的AI語音詐騙場景
以下是一些典型的AI語音詐騙場景:
祖父母詐騙:此類詐騙通常針對老年人,詐騙者冒充受害者的孫子孫女,假裝處於緊急狀況以騙取錢財。老年人由於不熟悉AI語音克隆技術,容易上當受騙。
虛假綁架詐騙電話:詐騙者使用AI技術模仿熟人的聲音,假裝該熟人被綁架,通常目標是父母,因為他們在聽到孩子可能被綁架的消息後,更可能迅速反應並轉賬。
虛構的家庭緊急情況:這種詐騙利用AI克隆技術模仿家庭成員的聲音,讓受害者相信對方遭遇了如車禍或被捕等緊急情況,從而誘使受害者匯款或提供敏感信息。