警惕!视频通话“AI换脸”新型诈骗!相似度可达80%→
最近视频网站的脸被人工智能改变了,国产影视剧里的主角用英语说台词。通过小程序,用户还可以把自己变成电影中的角色。新技术在带来欢乐的同时,也带来了一种名为“人工智能变脸诈骗”的新花样。不久前,国家金融监督管理总局北京监管局发出警告,对"人工智能变脸"等新型诈骗方式进行风险预警。
青岛一大学生和他在网上认识的“女朋友”视频聊天,对方说需要资金周转。男孩付完钱后,发现被骗了。
广东深圳某科技公司产品经理梁雅婷:通过取证发现,跟他聊天的并不是他女朋友,而是对方在通过一个具有AI变脸功能的虚拟摄像头跟他聊天。
AI如何在视频通话中变脸?记者在一家为公安机关提供技术支持的科技公司看到了演示,相似度可以达到80%。
记者在现场看到,一台高配置的电脑合成一段10秒的变脸视频只需要一两分钟。随着技术的发展,在上述情况下实时改变视频聊天的面貌并不难。
【/h/】广东深圳某科技公司产品经理刘远洋:照片上传后,大概需要30秒的时间来识别照片的特征,然后进行建模。建模后可以实时转换。无论是你的头像,还是你在朋友圈的小照片,都可以直接上传。
【/h/】AI生成技术在不断更新迭代,比如性别交换和语音转换,可以同时进行。因为算法是开源的,也就是说一个普通的工程师就可以做一个变脸软件,这就给控制源码带来了很大的困难。