变脸又换声 “外孙”来骗钱

发布时间:2024-04-28 07:10:52 来源: sp20240428

  耳听可能为虚 眼见未必是实

  变脸又换声“外孙”来骗钱

  一位老人接到电话,对方自称是其战友,说自己因生病想借钱。老人熟悉这位战友的声音,先后汇款2000元、8000元到对方银行账户。没想到,钱刚到对方账户,“战友”就消失了,老人这才发现自己被骗了……近日,一则“声音合成”骗局登上了热搜。

  随着AI(人工智能)合成技术日益发展,一些不法分子也开始利用其合成音视频实施诈骗。“AI换脸换声”难度大吗?能有多逼真?

  诈骗

  “外孙”打电话来要钱

  “你姥姥接到了一个电话,是你表哥的声音,说是闯了祸,问你姥姥、姥爷要钱。”不久前,正在国外留学的小张从妈妈口中得知,姥姥接到了一通电话,有人用“表哥”的声音说,自己把同学打进医院了,要赔十几万元。“表哥”以此向姥姥、姥爷要钱,还让他们千万不要告诉自己的妈妈——也就是小张的大姨。

  “我姥姥、姥爷大吃一惊,但还是信了。不过,觉得不能不告诉其他人,于是告诉了我妈。”小张解释道,两位老人日常是独自生活,只有小张的母亲每周去看望几次。由于两位老人习惯于什么电话都接,此前就遇到过诈骗电话,这让一家人始终提心吊胆。

  小张觉得电话那头是骗子,“声音肯定是合成的”。初步推断后,小张给正在外地上学的表哥打了多个电话,终于取得了联系,果然表哥对于姥姥接到的电话也全然不知。

  “鸡飞狗跳折腾了一圈,安抚了惴惴不安的我妈,叮嘱了不听劝的姥姥、姥爷。一到涉及晚辈的事,这两位老人就跟喝了迷魂汤似的。”小张无奈地说,除了“AI合成语音诈骗”,欺骗性更强的“AI合成视频诈骗”更让人担忧。对于这些骗局,小张感到十分愤怒,但又不知该如何杜绝。

  乱象

  假博主只为真“圈钱”

  保护好了手机号,就能避免被人利用AI技术“圈钱”吗?在互联网上,还有很多博主利用假视频来吸引流量、虚假宣传。

  “有福气的奶奶您来了……”一个幼童双手合十,讲着一大段“正能量”语录,这样不符合常理的视频,却获得颇高人气。打开评论区,有不少头像为中老年人的账号留言称赞“小孙子说得好”。

  “这类视频播放高,涨粉快。”相关视频博主介绍,除了儿童形象,智者老人、外国人等形象说语录的视频也受欢迎。“粉丝以中老年人为主。”

  “很多人问我,为什么不回国发展,要在中国待着……”视频中,一位名叫“Wendy”的“外国女孩”用流利的中文侃侃而谈。和她用着“同一张脸”的账号有好几个,有的叫“阿琳娜”,有的叫“娜塔莎”。事实上,这些账号的“脸”都来自一位乌克兰网红博主Olga Loiek,不久前她发布视频称,她的面孔被他人盗用,并利用AI技术生成了视频。

  在短视频平台上,这类假冒外国人的账号还有不少。他们或发表鸡汤语录,或讨论争议性话题,以此为噱头来吸粉。3月27日,抖音发布《关于不当利用AI生成虚拟人物的治理公告》,针对站内仍有不当使用AI技术生成虚拟人物发布内容的账号进行处置,但目前平台上依然存在相关账号和视频。

  点进这些账号的主页,其中很多写着“收徒”“合作”,并附有联系方式。记者加上一个微信后,对方发来了数字人生成教程的信息,其中包括AI最新玩法等内容,报价1288元。这位商家还向记者强调,AI和短视频结合的“威力”很大。“现在流量就是钞票,你会搞流量还怕不能盈利吗?”

  体验

  一句话即可克隆一万句

  利用AI技术来换脸换声、合成视频的难度大吗?实际上,使用门槛和技术门槛都不高。

  记者以“AI克隆声音”“AI视频生成”等为关键词在电商平台搜索,出现不少提供相关服务的商家。有些提供专业的声音定制模型,价格需要几百元到数千元不等。有些则直接出售相关教程,部分价格低至9.8元。商家表示,这类教程适合于对AI这类工具该兴趣的人,并且要愿意学习和摸索。

  即便是没有任何技术背景也没关系,目前市面上已经有多款软件可以快速实现AI换脸、AI克隆声音、数字人生成等功能。在一款生成视频数字人的软件中,提供了电商、金融理财、医疗保健、教育培训等领域的数字人视频素材,输入文字即可合成配音。此外,还可以利用照片定制专属的数字人形象,生成视频。

  这类几分钟即可生成的AI换脸视频、数字人视频制作较为粗糙,看起来“一眼假”,但却在很多短视频平台上被网友信以为真。一位制作相关视频的博主直言:“很多年轻人都迷糊,中老年人更分辨不出来了。”

  AI克隆声音实现起来更为简单。记者下载了一款可以AI克隆声音的软件。打开后根据提示,只需要提供某人一句话的声音素材,即可生成“专属克隆声音”,随后输入任何文字,发出的都是这个人的声音。记者体验发现,多款软件都可以轻松克隆。尽管有部分软件提示“若使用他人声音,请确认已获取他人授权”,但平台并无法限制声音来源。

  测试

  10位老人均未能正确分辨

  记者在采访中了解到,有不少老人没听过AI合成的声音,想象不出其与真人说话的相似程度。为此,记者利用三款软件,分别生成了一段语音,又录制了一段真人语音,随机向10位老人进行了测试。

  “第一段挺柔和的,像是真人说话”“最后一段接近人的嗓音”……老人们听完四段语音,从中选择“真人声音”,并且给出了判断的理由。结果显示,参与测试的老人都没能成功辨别出“真人”。

  即便是熟悉的人的声音,老人也很容易被迷惑。记者特意用蔡大爷孙女的声音,同样制作了一组语音来测试。第一段合成语音播放后,蔡大爷立刻说:“这是我孙女说的!”四段语音播放完毕,蔡大爷对每一段都感到熟悉和亲切,“我听着都是她真人说的,不像有电脑合成的。”

  AI合成的声音、照片、视频,有办法辨别吗?记者了解到,语音可以流畅度、自然度来分辨出来,照片、视频则可以通过瞳孔、耳朵等细节来判定。不过,据多位AI技术从业人员介绍,随着技术发展,AI图像“手部不自然”“光线错乱”等问题,正在逐渐得到改善,“现在越来越真了。”

  在实际生活中,老年人也很难按照这样的标准来判断。王阿姨表示,由于自己听力不好,电话里的声音听不太清,很容易被蒙骗。同样的,王阿姨在和子女视频时,也只是看个大概,“哪儿仔细看过耳朵眼睛啊!”

  北京反诈中心官方公众号也曾发布提醒,在涉及转账交易等行为时,要格外留意,可以通过电话、视频等方式确认对方是不是本人;在无法确认对方身份时,可以将到账时间设定为“2小时到账”或者“24小时到账”,以预留处理时间。同时,要谨防各种信息泄露。 本报记者 相旭阳

  (北京晚报) 【编辑:唐炜妮】