手机 App 已上线
点我下载

谨防诈骗!骗子用AI模仿朋友声音 男子被骗八千元

Thu Aug 24 2023 10:11:20 GMT-0700 (Pacific Daylight Time)

cover

近日安省一名男子陷入人工智能(AI)新骗局。骗子用AI模仿男子朋友声音,男子被骗8,000元。

这名男子是安省旺市居民,只愿透露自己名叫山姆(Sam)。山姆向CTV透露,前不久他接到一个电话,对方自称是他朋友,他和这名朋友曾约好近期内一起去钓鱼。

骗子在电话中说,他开车发短信发生严重车祸被警察逮捕,需交近8,000元保释金。山姆表示,电话中骗子声音和朋友声音如出一辙,说话神态也一样,他才没有怀疑。

紧接着,山姆又接到自称是朋友律师的多个电话,最后稀里糊涂地给骗子转了8,000元。随后骗子又编造其他借口索取更多钱,山姆开始起疑,打电话给朋友,朋友说一切安好,啥事没有,他才发现自己被骗子耍得团团转。

后来骗子又打来电话,山姆告诉对方他已发现对方根本不是他朋友,骗子停顿一会,随后声音恢复原样,不再是人工智能辅助篡改后的声音。

如何避免上当受骗

联邦贸易委员会(FTC)数据显示,近来加美国两国越来越多犯罪分子利用人工智能克隆声音,冒充他人亲朋友好友进行诈骗,委员会收到海量这类投诉,去年消费者被骗金额总计26亿元。

FTC市场部助理主管格雷斯曼(Lois Greisman)提醒,人工智能声音克隆问题严重,消费者应察觉和警觉,防止上当受骗。骗子会截取受害人一段声音片段,然后利用人工智能进行复制,复制后的声音和原声基本可以假乱真。

格雷斯曼介绍,克隆他人声音,骗子只需截取几秒钟的声音,可通过录音、从社媒上截取或从电话留言中截取他人声音。这类骗局共同点是骗子声称出了急事、急需用钱,接到这类急需用钱、急需电子转账、礼品卡甚至现金的电话,应立即引起警觉,不要立即上当,而是直接打电话给家人或朋友确认。

专家提醒,骗子不仅会冒充他人家人和朋友,还会冒充公司老板称急需用钱。要避免上当受骗,最好有些暗语,只要心中起疑,立即挂断电话然后直接联系当事人确认。

骗子用AI模仿朋友声音 男子被骗八千元

联邦贸易委员会(FTC)数据显示,近来加美国两国越来越多犯罪分子利用人工智能克隆声音,冒充他人亲朋友好友进行诈骗。(Shutterstock)



分享到微信: 分享
【郑重声明】温哥华天空刊载此文不代表同意其说法或描述,仅为提供更多信息,也不构成任何投资或其他建议。 本网站有部分文章是由网友自由上传,对于此类文章本站仅提供交流平台,不为其版权负责; 部分内容经社区和论坛转载,原作者未知,如果您发现本网站上有侵犯您的知识产权的文章,请及时与我们联络,我们会及时删除或更新作者。谢谢!

我要评论: