3月5日,在全国政协十四届三次会议的政协小组讨论会上,全国政协委员靳东回应了AI换脸导致的诈骗问题。他说:“一些喜欢我影视剧的观众,被AI换脸视频骗得很惨,这个性质非常恶劣,希望能建立更好的规则。”
就在前一天,全国人大代表、小米集团董事长兼CEO雷军在其建议案中也提到,“AI换脸拟声”的不当滥用成了违法侵权行为的重灾区。
对此
不少网友表示
希望尽快立法
AI剪辑冒充明星的案例屡见不鲜
2024年11月,江西一位老人来到银行办理银行卡,但手续不全又不肯离开,警方到现场后,老人表示要到银行贷款200万元给自己的男朋友“靳东”拍戏。
民警随即拿起老人的手机进行查看,发现老人所谓的大明星“靳东”是骗子冒充的,其所发布的视频也是由电脑AI合成的,但老人对网络知之甚少,对于骗子所说所做深信不疑。
最终,民警通过向老人展示网络上一些冒充“靳东”诈骗的新闻和现场利用AI合成照片等方式,老人才幡然醒悟,表示不会再相信网络上的“靳东”,并放弃了开卡贷款的念头。
快速AI“换脸”
仅通过一张照片就可完成
为了了解AI换脸到底能有多么逼真,央视记者经过与专业技术人员合作,深度体验了AI换脸技术。
技术人员首先用手机给记者拍了一张脸部照片,导入到AI人工智能软件后,让记者惊讶的是,虽然电脑摄像头前的是技术人员,但是输出的却是记者的照片,几乎可以说是“一键换脸”,不需要复杂的环境和解压操作。
更令人惊讶的是,随着技术人员面部表情的变化,照片上记者的脸也跟着一起发生了相应变化。
记者:为什么技术人员这张脸动,我的照片会跟着动呢?
中国网络空间安全协会人工智能安全治理专委会专家 薛智慧:人脸处理系统通过动态面部检测技术实时追踪面部区域,随后运用特征点定位算法精准提取眼、鼻、嘴等核心区域的关键生物特征,最终基于几何变形与图像融合算法对原始面部结构进行智能优化重构,实现高效的面部特征处理流程。
记者:通过这张照片还可以做到什么?
中国网络空间安全协会人工智能安全治理专委会专家 薛智慧:当前通过这张照片技术人员已经让这张照片能够动起来,活起来了,而如果更进一步地将这张照片存下来,能够存储大量照片的话,后期可以把这张照片合成一段简短的视频发布出来。
人工智能人脸检测技术主要通过深度学习算法实现,这种技术能够识别出面部特征并对其进行精准的分析。可以将一个人的面部表情从一张照片或视频中提取出来,并将其与另一个人的面部特征进行匹配。专家告诉记者,如果想要实现视频实时通话时采用人工智能AI换脸技术,一张照片是远远不够的,那就需要不同角度的近千张照片的采集。
中国网络空间安全协会人工智能安全治理专委会专家 薛智慧:如果要实时点对点交流的话,需要再采集更多的照片,之后再进行深度学习算法模型的训练,训练出来这个模型以后灌到咱们这个视频里去,就可以做实时的变化跟转换了。这种情况下,就可以做到实时的变脸。声音的交流也可以,需要预先采集一些目标人群当中的声音,然后进行模型的训练,就够把目标人群的声音还原出来了。
AI生成仿真度极高视频
难度高投入大
专家介绍,以诈骗为目的,实施点对点视频通话,需要AI人工智能生成仿真度极高的视频。想要达到以假乱真效果用于诈骗,难度不小。
中国计算机学会安全专业委员会数字经济与安全工作组成员 方宇:针对诈骗,其实主要是通过点对点的视频通话,这时候如果采用换脸技术和声音合成做实时的换脸诈骗的话,想要完成这些技术操作,就需要投入很强的技术支持。
目前AI“换脸”
更多应用于娱乐视频录制
除了一些不法分子企图利用AI技术实施诈骗,事实上,近年来,AI技术更多地被应用于短视频的二次创作,属于娱乐性质,越来越多的名人AI换脸视频出现在网络上,不少网友感叹,这类视频“嘴型、手势都对得上,太自然了,差点儿以为是真的。”
比如这款软件,拍下记者面部照片后,就能录制生成出一段记者秒变赛车手的视频。
网友发布的女士系丝巾原版视频
需要变换的脸的照片
生成视频
中国计算机学会安全专业委员会数字经济与安全工作组成员 方宇:AI技术目前我们常看到的主要是短视频换脸,通过做一些特定的动作,跳舞啊等等。这些视频其实看起来是有一些不自然的,本身也是纯属于娱乐性质的换脸。
中国网络空间安全协会人工智能安全治理专委会专家 薛智慧:如果从娱乐大众的角度来说的话,现在市面上也有很多的这些软件和工具,能够达到AI换脸的效果,但是仿真度只有六七分的样子,大众直接就能看出来。但是如果要生成一个诈骗视频来说话,就要生成咱们仿真度极高的这种点对点视频。
AI技术“换脸换声”
可能存在法律风险
那么,在网络购物平台使用AI深度合成技术,制作出售名人的音视频,是否触犯相关法律呢?专家表示,相关法律法规明确规定,未经授权,不得深度合成制作发布他人信息。网店接单AI深度合成制作名人视频,已经属于侵权行为,并应该承担相应的法律责任。
中国计算机学会计算机安全专业委员会委员吕延辉表示,《中华人民共和国民法典》规定,自然人享有肖像、声音等权益,任何组织或个人利用信息技术伪造都是侵权行为。2023年国家网信办、工信部、公安部联合发布出台的《互联网信息服务深度合成管理规定》要求,任何组织和个人不得利用深度合成服务制作、复制、发布、传播法律、行政法规禁止的信息。2024年网信办发布的《人工智能生成合成内容标识办法(征求意见稿)》也提出,对AI生成合成内容要进行标识,以便公众识别和区分,防止误导性信息传播。
AI诈骗的常用手法
骗子通过骚扰电话录音等来提取某人声音,获取素材后进行声音合成,从而可以用伪造的声音骗过对方。
第二种:AI换脸
人脸效果更易取得对方信任,骗子用AI技术换脸,可以伪装成任何人,再通过视频方式进行信息确认。
骗子首先分析公众发布在网上的各类信息,根据所要实施的骗术,通过AI技术筛选目标人群。在视频通话中利用AI换脸,骗取信任。
第三种:转发微信语音
骗子在盗取微信号后,便向其好友“借钱”,为取得对方的信任,他们会转发之前的语音,进而骗取钱款。
尽管微信没有语音转发功能,但他们通过提取语音文件或安装非官方版本(插件),可以实现语音转发。
第四种:AI程序筛选受害人
骗子利用AI来分析公众发布在网上的各类信息,根据所要实施的骗术对人群进行筛选,在短时间内便可生产出定制化的诈骗脚本,从而实施精准诈骗。
例如实施情感诈骗时,可以筛选出经常发布感情类信息的人群;实施金融诈骗时,可以筛选出经常搜索投资理财信息的人群。
学会几招
轻易识别AI“换脸换声”
AI换脸这一技术的出现,导致耳听为虚、眼见也不一定为实了。那我们该如何防范呢?专家表示,其实AI人工换脸无论做得多么逼真, 想要识别视频真假还是有一些方法的。
中国计算机学会安全专业委员会数字经济与安全工作组成员 方宇:实际上从我目前看到的深度伪造的实时视频上来看,其实还是可以通过一些方式,去进行一些验证的。
比如说我们可以要求对方在视频对话的时候,在面前通过挥手的方式,去进行一个识别,实时伪造的视频,因为它要对这个视频进行实时的生成和处理及AI的换脸。
那么在挥手的过程中,就会造成这种面部的数据的干扰,最终产生的效果就是我们看到的这样,挥手的过程中,他所伪造的这个人脸会产生一定的抖动或者是一些闪现,或者是一些异常的情况。
第二个就是点对点的沟通中可以问一些只有对方知道的问题,验证对方的真实性。
提高防范意识
避免个人生物信息泄露
如果有人要求你分享个人身份信息,如你的地址、出生日期或名字,要小心。
对突如其来的电话保持警惕,即使是来自你认识的人,因为来电显示的号码可能是伪造的。
网络转账前要通过电话等多种沟通渠道核验对方身份,一旦发现风险,及时报警求助。
如果有人自称“熟人”“领导”通过社交软件、短信以各种理由诱导你汇款,务必通过电话、见面等途径核实确认,不要未经核实随意转账汇款,不要轻易透露自己的身份证、银行卡、验证码等信息。
保护信息,避免诱惑
不轻易提供人脸、指纹等个人生物信息给他人,不过度公开或分享动图、视频等。
陌生链接不要点,陌生软件不要下载,陌生好友不要随便加,防止手机、电脑中病毒,微信、QQ等被盗号。
提高安全防范意识
公检法没有安全账户,警察不会网上办案,如果有网络警察说你犯事了,让他联系你当地的派出所,你也可以主动打110咨询。
如不慎被骗或遇可疑情形,请注意保护证据立即拨打96110报警。
技术发展不可逆
但守住真实有办法
提高警惕
让AI造福而非作恶
来源:央视新闻、中国日报、人民网、法治进行时等