兰德公司报告分析深度伪造技术的影响与危害
7月6日,美国兰德公司发布《人工智能、深度伪造与虚假信息》研究报告[1],概述了深度伪造(Deepfake)可能带来的威胁以及可以减轻此类威胁的因素,并为政策制定者提出建议。
一、深度伪造的关键
报告指出,目前各种人工智能技术已经成熟,较常见的基于人工智能的虚假信息工具技术有深度伪造视频、深度伪造图像和生成文本、语音克隆等。可能被对手或有害行为者武器化的4种深度伪造关键方式包括:①操纵选举:例如,在选举前夕,可能会出现一段视频,显示候选人从事邪恶或性行为或发表特别有争议的声明。②加剧社会分化:美国公众在日益激烈的党派辩论的推动下,经常采用各种类似宣传的策略来抹黑、攻击和诽谤那些政治对立面人士。③降低人们对机构和政府的信任:例如,使用种族主义语言都可能对当局的信任产生破坏性影响。④破坏新闻及可靠的信息来源:随着高度可信的深度伪造的出现,即使是准确的视频内容或录音也可能被诽谤为深度伪造。
同时,报告也提出几个可以减轻深度伪造的关键路径:①优先解决更能代表当前威胁的“浅度”造假:如经手动更改或选择性编辑误导观众的视频。②提高高质量视频的获得难度:创建高度逼真的视频内容需要高成本的设备、大量的培训视频内容库、专业的技术实力以及有表演才能的个人。③花费较长的时间成本:深度伪造视频可能需要几个月的时间才能创建,这意味着必须至少提前几个月开始计划。④进行大量的数据训练:高质量的深度伪造目前需要“数千张”训练数据图像,这也是为什么此类视频通常以名人和政治家为主角。
二、保护信息完整性的方法
鉴于深度伪造看似不可避免的兴起,为减轻对信息完整性的威胁,目前受到重点关注的5种方法是:①检测:开发和实施可以检测深度伪造视频的自动化系统。②内容出处:通过开发一种在智能手机上使用安全模式的方法,将关键信息嵌入到数字图像的元数据中。③监管举措:制定刑事法规;④开源情报技术(OSINT)及新闻工具:开发和共享可用于识别深度伪造和其他虚假信息相关内容的开源工具。⑤媒体素养:媒体素养计划旨在帮助受众对信息来源感到好奇,评估其可信度,并对所呈现的材料进行批判性思考。
三、未来针对深度伪造问题的行动建议
根据对技术和相关问题的简要回顾,报告提出5项具体建议:
1、对抗性使用深度伪造。涉及权衡机会、利益和风险的决策推演,这种决策可以通过战争游戏和其他演习进行建模,美国应该进行兵棋推演并确定可能影响外国对手决策的威慑战略。
2、继续投资并采取其他措施来提高检测技术水平。美国政府、研究界、社交媒体平台和其他私人利益相关者共同努力,关键步骤包括创建已知深度伪造内容的信息库(Deepfake zoo),进而为检测技术的发展提供信息。
3、继续努力提高媒体素养。这种媒体素养工作可能需要通过两条渠道展开,一是提高广泛的媒体素养技能,建立抵御虚假信息的能力;二是继续努力更直接地警告观众深度伪造技术的现实,以及此类技术用于宣传虚假信息的前景。
4、继续努力开发新的开源情报技术。帮助记者、媒体组织、公民行动者和其他非技术专家检测和研究深度伪造内容,这些参与者的首要需求是获得高质量的基于生成对抗网络(GAN)的检测器。
5、扩大采用基于来源的方法很重要。内容来源和真实性联盟(C2PA)已经开发并发布了必要的技术规范,它应该与其他主要利益相关者一起扩大推广并促进该技术的使用。 (李宏 丁上于 马廷灿)
[1] Artificial Intelligence, Deepfakes, and Disinformation. https://www.rand.org/content/dam/rand/pubs/perspectives/PEA1000/PEA1043-1/RAND_PEA1043-1.pdf