AI新玩法!AI电话诈骗?完美复制家人声音让人难以分辨 | ai 复制
人阅读 2023-05-12 06:31:59
【AI新玩法!AI电话诈骗?完美复制家人声音让人难以分辨 | ai 复制】lot物联网小编为你整理了的相关内容,希望能为你解答。
过去的电话诈骗常用手法是,会听见有不认识的人假装是自己的家人在求救,并紧急需要有人汇款。而现在科技的进步,让人更需要担忧的是,AI科技可以将人的声音完美复制,成为新的诈骗手法。在此提供两招可以防范的关键,第一是「不在社群上发布自己的声音影片」,第二是「避免公开自己的电话号码」。
近日国外一位母亲现身说法,她亲身遭遇可怕的电话诈骗,案件涉及了AI仿声技术,求救电话那头传出她15岁女儿的本人声音,她遭到勒索,女儿将会性命不保,幸好有尽速确认到女儿的安全,显示出是诈骗勒索的电话。但让她惊讶的地方是,电话中跟女儿几乎相似的声音,因此出面向大众提出警告。
目前国外已经发生相当多的类似案例,有人利用AI复制声音来进行电话诈骗,成为新型态的诈骗手法,诈骗集团可以利用短短3秒钟就可以模仿制作出本人的声音,
现在新型诈骗越来越多,时代在进步,诈骗手法也在进步(毕竟有人还得靠这个吃饭)。
最后呼吁大家注意个人隐私,警惕小心别上当
以上内容为【AI新玩法!AI电话诈骗?完美复制家人声音让人难以分辨 | ai 复制】的相关内容,更多相关内容关注lot物联网。