最近,有网友发消息询问:“张文宏是不是带货了?”这位网友转发的视频中,张文宏在卖一种蛋白棒。该网友称,家里的老人信以为真已经下单,还转发了很多微信群。
在一个名为“般画234”的账号上,有一条“张文宏”反复介绍一种产品的视频,口型和声音都和真实的张文宏很像。真正的张文宏是复旦大学附属华山医院感染科主任,在传染病防治等领域贡献突出,在新冠疫情期间,其凭借专业讲解为大众熟知。稍微了解AI的人一眼就能分辨出这是AI合成的视频。目前,这段视频已在该账号内不可见,但商品橱窗内还保留着蛋白棒售卖的页面,并显示已售出1266件。
近年来,AI剪辑冒充明星的案例屡见不鲜,也有不少人因此上当。今年11月,江西一位老人来到银行办理银行卡,但手续不全又不肯离开,警方到现场后,老人表示要贷款200万元给自己的男朋友“靳东”拍戏。民警随即拿起老人的手机进行查看,发现老人所谓的大明星“靳东”是骗子冒充的,其所发布的视频是由AI合成。最终,民警通过向老人展示网络上一些冒充“靳东”诈骗的新闻和现场利用AI合成照片等方式,老人才幡然醒悟,表示不会再相信网络上的“靳东”,并放弃了开卡贷款的念头。
>3招识别AI换脸换声
在视频对话的时候,可以要求对方在脸部面前挥手,因为在挥手的过程中会造成面部的数据干扰,对方所伪造的人脸会产生一定的抖动、闪现,或是一些其他异常情况。
在点对点的沟通过程中,可以问一些只有双方知道的问题,验证对方的真实性;可以让对方通过按鼻子、按脸的方式,观察其面部变化,真人的鼻子和脸按下去会变形,但AI生成的鼻子和脸并不会。
值得注意的是,以上鉴别方式都是基于现有算法的局限性。未来随着AI技术的发展,上述鉴别方法可能会失效。所以,防范AI诈骗,还是要从自己出发,做好信息保护,提高警惕。同时,在涉及资金交易等场景下,需要多留心眼,不轻易相信视频、声音。很多时候,传统的识别方式要比技术识别更有效。
据封面新闻、中国青年报、大皖新闻


