□ 王小霞
俗话说“眼见为实”,但在AI时代,眼睛看见的也不一定是真实的。
随着AI“换脸”技术的发展精进,通过APP操作,一个人就能在视频里被轻易地替换成另一个人,表情、动作、姿态几乎能够达到完全同步。
快速发展的AI造假令安全问题凸显。一方面,AI“换脸”掀起了一场色情视频造假的黑产狂欢。另一方面,Deepfake(深度伪造)技术将让仿冒身份或用户授权被盗用等安全问题产生隐患,严重威胁到公民人身安全和金融安全。
与此同时,AI造假还将导致信息不实,引发秩序混乱。一段关于政客受伤、重病的假视频可能引起国内的金融动荡。一段假冒权威人士发布恐怖袭击、疾病灾害等假消息的视频会引起群众恐慌甚至暴力冲突。
而更为深远的影响,就是对于整个社会公信力的影响。当前,越来越多的人通过社交媒体获得第一手的信息。假视频泛滥让信息真伪难辨,比如,刻意伪造的假新闻、模仿领导人或权威专家的信息。数以亿计缺乏专业辨识能力的老百姓容易轻信而被欺骗,从而引发更大的公信力危机。
正是意识到AI造假可能带来的诸多风险,一些国际科技巨头企业开始推出反Deepfake策略。2019年11月12日,推特正式发布首个反Deepfake策略草案。该公司表示,如果Deepfake内容威胁到某人的人身安全或可能造成严重伤害,他们会将该内容从推特上删除。目前,推特已开始就此项草案向公众征集意见。另外,Facebook表示,将禁止发布由人工智能深度操纵的视频;谷歌则联手Google Research、马里兰大学等多家研究机构,开发了一个名为Assembler的实验平台,旨在帮助记者们通过简单的操作,快速识别Deepfake。
各国政府也纷纷出手。2019年6月,美国国会提出《深度伪造责任法案》,旨在通过限制深度伪造合成技术,打击虚假信息的传播。2019年年底,我国相继发布《网络音视频信息服务管理规定》《网络信息内容生态治理规定》等法规,规范相关行为;2020年1月,欧盟委员会草拟一项计划,考虑在3年~5年时间里禁止在包括火车站、运动场和购物中心等公共场所使用人脸识别技术。
中国信息安全研究院副院长左晓栋建议,要加快建立人工智能算法的安全评估制度,对不同场景下AI“换脸”技术进行评估,解决相关技术滥用问题。
AI技术本身不存在原罪,但我们必须要制定配套的规则、规范和保护措施,才能有效避免技术滥用的情况发生,并且将发生时的损失降到最低。