wxshare

太吓人了,30秒就能复制你声音骗人去了

阅读量:1282 评论数:2
版权归Vansky所有,转载请标注链接。
你有没有经常接到一种电话,你接了,喂?然后对方就挂了。
大家都很莫名其妙,有人说,这个是提取你语音的。
吓不吓人?
据报道,诈骗集团只要3秒时间,就能透过AI复制真人声音诈骗。 
AI 技术日新月异,虽然提升了工作效率,却也成为有心人士用来诈骗 的工具。
 
据「太阳报」(The Sun)报导,AI风险评估公司Blackbird.AI共同创办人哈利德(Wasim Khaled)表示,目前有诈骗集团 利用AI技术,复制他人声音进行「语音诈骗」,这种诈骗技巧称之为「AI语音复制人」,通常被用来窃取使用者的银行资讯、身份或密码 。
 
哈立德说,「AI语音复制人」的声音不只跟真人难以区别,政商名流等公共人物更容易陷入被复制的危机。因为公共人物的语音样本较多,让AI更能透过深度学习做出真假难辨的音档。
 
不仅如此,由于AI技术发展神速,只要在网路上搜寻就能找到许多低成本甚至免费的供应商。防毒软体McAfee 的研究人员也发现,诈骗集团只需要花3秒钟,就有办法复制真人的声音,利用这种技巧打给家人朋友来骗人。
 
要避免语音诈骗,在亲朋好友打电话紧急要求汇款、给予物品或其他金援时,应进一步跟本人确认。除此之外,也应尽量不要在网路上分享个人资讯,以免遭诈骗集团利用。
 
现在不少电话银行是用声音确认你的身份的,有点让人怀疑他们的辨识能力。但还真的方便,省得问来问起那么麻烦了。
 
以后碰到金钱问题,即使是打电话,也要谨慎一些了,提防对面的“亲友”,是个坏人操纵的机器人。
 
 
版权归Vansky所有,转载请标注链接。
版权归Vansky所有,转载请标注链接。
分享到微信: 分享到微信
相关文章



我来说两句
发布者: 游客     
Avatar
游客   1年前
AI智能就是傻子智能不懂得甄别。
   0    0
Avatar
游客   1年前
AI智能就是傻子智能不懂得甄别。
   0    0