人工智能语音克隆让“祖父母骗局”更难辨认

【大澳门威尼斯人赌场官网2023年11月10日讯】(大澳门威尼斯人赌场官网记者田磊综合报导)加州圣地亚哥ABC10电视台近日报导,当地一位祖母差一点在一个AI人工智能语音克隆支持下的“祖父母骗局”中遭受损失。

这位祖母告诉ABC10电视台,她收到一个电话,对方是她熟悉的声音——是她孙子的声音。

这位祖母说,“电话那头的声音说:‘奶奶,奶奶。我有麻烦了。 我需要你的帮助。’”

电话那边她熟悉的声音告诉她,他出了车祸,被警察抓了,需要8200美元的保释金。而且不一会儿,一个律师也打来电话说需要交保释金,并且告诉她,不能告诉任何人。

这位祖母说,她很警觉“祖父母骗局”,但是电话那边的声音确实是她的孙子,因此她相信了,去取了钱。
但在把现金交出去之前,她还是给女儿打了个电话,才发现受骗了。

这位祖母对ABC10电视台说,“我对那是他的声音毫无怀疑,这是令人可怕的部分。”

联邦贸易委员会(FTC)今年3月就发表通告警告民众,诈骗者正在利用一种叫作“语音克隆(voice cloning)”的人工智能技术,来增强他们的“家庭紧急情况”骗局。

FTC说,“人工智能不再是科幻电影中遥不可及的想法。 我们此时此地就生活在其中。诈骗者用人工智能来克隆您所爱之人的声音。”

FTC说,“骗子所需要的只是家庭成员声音的简短音讯片段(他可以从网上发布的内容中获得)和一个声音克隆程式。当诈骗者打电话时,他听起来就像是您所爱的人。”

FTC给民众的建议是,当遇到要钱的电话时,应该打回你熟悉的电话亲自核对,或者打电话给另外的亲人,让他们帮助核对。不要听信电话那边告诉你“不要告诉别人”的话。

FTC并说,欺诈者通常会让潜在受害者用一种很难追回的方式付钱,比如电汇,加密货币,或购买礼品卡,或者是向他们提供信用卡或其他号码、密码等,这些都可能是诈骗的迹象,民众遇到这样的要求时应格外谨慎。#

责任编辑:郑念启

相关新闻
年损31亿美元 针对老人的诈骗猖狂
中国女子越洋约会南加州失踪 警方发现新遗骸
圣地亚哥县禁止协助联邦对移民执法
圣地亚哥男子因多起枪击和劫车被判60年监
如果您有新闻线索或资料给大澳门威尼斯人赌场官网,请进入。
评论