美国兰德公司报告指出通用人工智能在国家安全方面的问题
针对日益兴起的通用人工智能(AGI)技术,兰德公司研究了其对国家安全的潜在影响。2月10日,兰德公司发布了该研究的结果[1]。
一、AGI发展存在着极大的不确定性
全球领先的人工智能实验室都在热切追求AGI,前沿人工智能模型的训练耗资数亿美元,算法改进及相关技术进步虽为AGI突破提供助力,但其性能是否随计算量增长而持续提升,仍充满不确定性。随着AGI技术的不断进步,政策制定者将面临多重战略机遇和潜在拐点,这要求他们制定灵活的安全战略,以应对技术发展带来的不确定性。
二、AGI可能产生的五大问题
问题一:AGI有可能为率先掌握它的国家带来显著优势
未来,AGI可能通过技术突破发明一种“奇迹武器”或系统,这些武器或系统可以带来巨大的军事优势,例如:识别并利用敌方网络防御的漏洞;模拟复杂场景并提高精度预测结果,大幅提升军事行动的规划和执行能力;开发高度先进的自主武器系统,提供军事主导权。同时,AGI也可能通过制造某种战争迷雾而使战场信息变得不可信,从而削弱军事优势。这种首发优势将会破坏关键战区的军事力量平衡,引发一系列扩散风险,加速技术竞争态势。
问题二:AGI可能引起国家权力工具或国家社会竞争基础的系统性转变而改变全球力量平衡
AGI通过增强影响军事竞争的关键要素,有能力颠覆现有的军事平衡。AGI可能通过先进的宣传技术操纵公众舆论而威胁民主决策,从而削弱国家的社会基础,危及民主;AGI可能通过大幅提升生产力或科学创新引发经济领域的系统性转变。
问题三:AGI的发展赋予非专业人士恶意开发大规模杀伤性武器的能力
基础模型能清晰给出非专业人士开发危险武器的步骤,从而扩大潜在威胁制造者的范围;同时,人工智能代理与物理世界的频繁互动,进一步扩大了具备相关知识并试图开发此类武器的人才库,这构成了重大挑战,值得高度警惕。
问题四:AGI的发展可能削弱人类的地位,使独立的AGI或人工智能社区成为有权实体
其最有害的影响之一,便是人类对技术的过度依赖,导致自主能力下降,人类与机器决策间的界限愈发模糊;此外,单一的AGI或人工智能群体可能成为国际舞台上的行动者,但它们存在巨大的错位风险,极端情况下甚至可能导致失控。
问题五: AGI发展的过程中存在很大的不稳定性
追求AGI的过程是不稳定的,国家和企业竞相在这一变革中占据主导地位,这种竞争可能导致紧张局势加剧,引发冲突;同时,误解和误判也可能引发先发制人的战略或军备扩张,从而破坏全球安全。
三、应对AGI安全问题的稳健策略
美国政策鼓励前沿人工智能模型的安全开发,以避免灾难性的AGI滥用、失调或失控所带来的严重后果;启动并运行人工智能安全研究所以重点关注人工智能安全,评估非国家行为者试图使用前沿人工智能模型开发生物武器或新型网络恶意软件的风险。同时,美国采取了一系列应对AGI潜在威胁的战略,包括投资STEM(科学、技术、工程和数学)教育和劳动力发展、提高技术对技术现状和应用的态势感知、进一步促进对人工智能安全和协调的研究等;美国正在推动由美国主导的全球技术生态系统的建立。美国政府还需考虑后AGI的未来,并进行情景演习和国家安全影响预测。 (李宏 赵梦珂)
[1] Artificial General Intelligence's Five Hard National Security Problems. https://www.rand.org/pubs/perspectives/PEA3691-4.html#document-details