盗用你声音仅需5美元2分钟:揭秘AI语音克隆诈骗(图)
利用AI语音克隆技术进行诈骗,是骗徒的新花招。(图片来源:Adobe Stock)
【看中国2024年5月20日讯】(看中国记者高芸综合报导)人工智能的发展带来了诸多便利,然而也为诈骗犯提供了新的手段。AI语音克隆技术便是一例,在这类诈骗中,犯罪分子会仿造你亲朋好友的声音,发出求助信号,让你误以为是真实的呼救,当你汇出资金时,才意识到这是一个骗局。
美国联邦贸易委员会的数据显示,过去四年间,涉及商业身份盗用的诈骗事件有所增加,仅去年就造成了超过7.52亿美元的经济损失。
克隆一个人的声音有多容易?
根据CBS新闻的调查,通过AI克隆一个人的声音非常容易。AI语音技术虽然为失去声音的人提供了发声的可能,但同时也被不法分子用来进行诈骗。
如今,人们轻易能在网上找到能克隆语音的AI服务,仅需支付5美元并提供短短30秒的音频样本,就能在2至4分钟内复制出任何人的声音。
骗子可能会通过社交媒体上的视频或语音邮件获取你的声音,甚至可能直接电话录音,使你防不胜防。这些克隆的声音逼真到连经验丰富的人也难以辨别真伪。
律师险些被AI骗局愚弄:“我知道那是我儿子”
一位曾差点成为声音克隆骗局受害者的律师加里・希尔霍恩(Gary Schildhorn),讲述了他的经历。某天,他接到一个声称是他儿子的电话,对方描述了一系列紧急情况,声音听起来极其真实。
“他说,‘爸爸,我遇到麻烦了,我出了事故。我想我鼻子骨折了。我撞到了一名孕妇。他们逮捕了我,我进了监狱。你需要帮助我。’”希尔霍恩说,“我知道那是我的儿子,我心里毫无疑问。”
希尔霍恩立即行动,他赶紧开车去银行提取9000美元现金,同时向儿子的妻子通报最新情况,幸亏希尔霍恩的儿子布雷特及时通过FaceTime联系了他,避免了财产损失。
由于希尔霍恩没有损失金钱,所以没有法律追索权。他联系了执法部门,但被告知由于犯罪分子使用了一次性手机进行诈骗,骗子无法被追踪。
如何防范语音克隆诈骗?
面对日益猖獗的AI诈骗,美国众议院人工智能工作组成员伊维特・克拉克(Yvette D.Clarke)提出立法,要求对AI生成的内容标注数字水印。
如果该法案获得通过,消费者将被警告他们正在听假的语音,如果他们受到假语音内容的伤害,他们可以提起诉讼。
为防范此类诈骗,执法部门建议公众设置一个紧急情况下的验证密码,并与家人分享。
拦截垃圾电话是防止接收到潜在诈骗电话的有效策略。检查你的电话服务商是否提供拦截服务。如果提供,考虑将其加入手机服务套餐中。
尽管可能安装了拦截服务,偶尔还是会接到垃圾电话。建议尽量不接听来自未知号码的电话,原因有二:首先,接听这些电话可能增加遭遇诈骗的风险;其次,诈骗者可能利用对话内容录音,进而使用AI技术仿造你的声音进行诈骗。
此外,如果接听了来自未知号码的电话,先不要急于开口,等待来电者先发言。如果对方沉默不语,应立即挂断。如果对方确实说了话,应核实对方的信息。比如,如果来电者自称是遇到紧急情况的亲人,应在采取任何行动前先通过短信等方式与该家庭成员确认情况的真实性。
常见的AI语音诈骗场景
以下是一些典型的AI语音诈骗场景:
祖父母诈骗:此类诈骗通常针对老年人,诈骗者冒充受害者的孙子孙女,假装处于紧急状况以骗取钱财。老年人由于不熟悉AI语音克隆技术,容易上当受骗。
虚假绑架诈骗电话:诈骗者使用AI技术模仿熟人的声音,假装该熟人被绑架,通常目标是父母,因为他们在听到孩子可能被绑架的消息后,更可能迅速反应并转账。
虚构的家庭紧急情况:这种诈骗利用AI克隆技术模仿家庭成员的声音,让受害者相信对方遭遇了如车祸或被捕等紧急情况,从而诱使受害者汇款或提供敏感信息。