徐晓强(台大经济、巴黎政治学院欧洲事务硕士毕业,曾在欧盟机构、智库、政治顾问公司以及立法院服务。目前为战略顾问公司“台湾战略模拟学会”分析师。希望能透过文字分享自己对国际关系、地缘政治变化的观察和分析。)
可以自主学习并持续进化的人工通用智慧(AGI)是当前许多国家科研的目标,率先掌握的国家可能取得近乎垄断的优势。图/美联社
人工智能的快速进展已经彻底改变了我们对科技的想像。从语言模型到影像生成,AI正在渗透工作、教育、娱乐与国防。但若有一天,人类跨越门槛,创造出能够自主学习并持续自我进化的人工通用智慧(AGI),模拟人类大脑的认知能力,那么我们将不再只是见证新一轮的产业革命,而是直面一场关乎国际安全与地缘政治的根本性巨变。
近似人类能力的 AGI目前仍只是理论性概念和研究目标,但美国智库兰德(RAND)在近期一份研究中警告,率先掌握 AGI的国家,可能取得近乎垄断性的权力优势。这种优势不仅会使竞争者望尘莫及,还可能被视为对其他国家的“存在性威胁”,足以改变大国间的互动逻辑。换言之,AGI的到来不只是科学与技术的突破,更是国际政治的新挑战。
四重影响:从武器到经济,全面颠覆国际秩序
AGI的战略意涵可概略分为四个层面。首先是军事与网络上的进攻性能力。倘若 AGI能协调数以万计的自主化无人机群,或设计出远超人类构想的新型武器,那么任何传统的防御体系都可能瞬间失效。更进一步,AGI若能在网络战场上同时监测并渗透数以亿计的设备,其攻击能力将远远超过现有的网络部队。
其次是战略防御。核武时代的恐怖平衡依赖于“彼此皆可互相毁灭”的假设,但如果一国凭借 AGI研发出近乎完美的反导系统,或透过 AI强化的网络防护使自身接近无懈可击,那么这个平衡将被打破。拥有 AGI的国家,或许会认为自己已经能够“免疫”报复,这会让它在面对其他国家时更具冒险心态。
第三是经济层面的爆炸性增长。AGI若能自我迭代算法、加速科研突破,甚至直接取代大量高阶人力,将会推动产业与科技的倍速发展。这种增长不只是 GDP的提升,而是国际经济结构的重塑。若美国凭借硅谷与算力优势率先实现 AGI,它可能在十年内获得类似二战后的“超级大国红利”。
最后则是资讯与政治的操控能力。AGI能在瞬间生成数以亿计的深度伪造(deep fake)影像与文本,并透过算法精准锁定受众,这种规模化的舆论操纵可能让传统的民主制度不堪一击。换句话说,AGI不只是战场武器,也是颠覆政体的“隐形干预工具”。
这四重风险交叠,使得 AGI并非一项中立技术,而是一种直接触动国家安全的战略资产,即便这些威胁尚未真正实现,它们的潜在可能性已足以塑造各国的行为模式。
日本软银执行长孙正义曾在2023年语出惊人表示,AGI非常强大,10年内将在所有领域超越人类智慧。图/路透社
美中赛局:优势与劣势者的抉择
若美国在 AGI竞赛中领先,中国会怎么办?反之,若中国率先突破,美国又会如何反应?这样的情境将成为地缘政治不稳定的根源。
对于优势国而言,首要课题是如何维持垄断。最直接的手段是加强封锁与出口管制。例如,今天美国对中国的芯片禁令,就是希望切断对手取得高阶算力的管道,以拖慢追赶的速度。更激烈的手段则可能是网络攻击或破坏对手的 AI训练设施。历史上,美国在冷战初期也曾考虑过对苏联发动预防性打击,以避免对手取得核武,但最终因风险过高而作罢。
对于劣势国而言,选项则包括加速追赶、进行破坏,或寻求妥协。中国近年大力投入人工智能产业政策,正是希望透过“追赶战略”来缩短与美国的差距。同时,情报窃取与供应链渗透,也可能是隐蔽性的破坏手段。若情势无望,劣势国可能会寻求谈判与合作,确保自身不会在新时代被彻底边缘化。
这些策略在历史上并非没有先例。以色列在1981年轰炸伊拉克的核子反应炉、2007年空袭叙利亚的核设施,甚至到今年6月的美国轰炸伊朗核设施,都是典型的“延缓对手”行动。冷战时期的“多边出口管制协调委员会”(CoCom),以及今日美国针对中国的半导体限制,也属于非军事性的预防性措施。这些案例显示,国家是否会采取激烈行动,往往取决于三个因素:成功的可能性、冲突的代价,以及领导人对未来威胁的认知。
2025年6月美国轰炸伊朗多处核设施,图为伊斯法罕核子科技中心遭轰后的卫星图。图/路透社
核武与 AGI:相似与差异
由于核武曾经深刻塑造了20世纪的国际秩序,AGI自然也常被拿来与核武相提并论。两者确实有相似之处:都可能造成颠覆性的权力转移,也都会让国家思考是否应该阻止对手率先取得。然而,两者之间仍然存在根本性差异。
核武的功能单一而明确,唯一的作用是毁灭。因此战略计算相对清晰,形成了“相互毁灭保证”的稳定结构。AGI则不同,它不只是武器,而是一个多用途的系统,能同时带动经济繁荣、科技进步、军事优势与资讯控制,这种多重属性让它的战略效果更为复杂,也更难预测。
此外,核武的研发需要稀缺的铀、钚原料与专业设施,因此扩散速度相对缓慢,监管也有迹可循。AGI则建立在算力与算法之上,扩散速度更快,监管难度更高。这意味着,传统的军备控制机制可能无法套用在 AGI上。最后,核武虽然恐怖,但“按钮”仍牢牢掌握在国家手中,而 AGI则存在失控的风险,甚至可能被非国家行为者使用,这些差异使得 AGI的威胁更难纳入传统的威慑逻辑。
核武曾经深刻塑造了20世纪的国际秩序。图为1945年7月16日,理论物理学家奥本海默与团队在美国新墨西哥州首度试爆原子弹。图/美联社
能否复制“核武式稳定”,抑或走向不确定的未来?
冷战经验显示,即便核武带来毁灭性威胁,美苏两国最终仍建立了一种“恐怖平衡”。那么,AGI是否可能走向类似的稳定?
一方面,如果 AGI的军事化速度极快,且优势足以碾压对手,那么失败方的恐惧或许会迫使他们接受新的均势思维。换言之,当双方都意识到“没有任何一方能完全垄断 AGI”时,或许也可能会逐步形成某种稳定架构。另一方面,AGI涉及的不仅是军事,还包括经济、资讯与社会渗透,这些影响难以量化,也难以转化为单一的威慑逻辑。核武的稳定性来自毁灭的确定性,而 AGI的特性则是充满不确定。
因此,未来的稳定若要实现,恐怕需要新的治理机制。这可能包括国际间的 AI军备管制、透明化措施,甚至依赖非正式的默契与单边克制。冷战中经验显示,最有效的稳定措施,其实并非来自正式条约,而是源于默契与政治实践,或许 AGI的治理也将走向相似的道路。
AGI并非单纯的技术突破,而是一场可能重塑权力格局的战略革命,它的潜在风险跨越军事、经济与社会层面,其多用途性与扩散性使它比核武更难以监管与控制。历史告诉我们,冲突并非必然,但潜在威胁足以改变国家行为。
总而言之,AGI对国际秩序的挑战既巨大又复杂,它可能带来人类繁荣的新契机,也可能成为全球安全最深沉的威胁。在这场尚未完全展开的“AI冷战”中,我们需要的不只是技术上的突破,更是政治智慧与国际合作的创新,唯有如此,才能避免人类重蹈覆辙,并在新的科技时代找到稳定与和平的可能性。
2025年2月巴黎举行人工智能行动峰会,多国领袖、科技巨头、音乐与时尚人士等各家人马齐聚,探讨AI对世界的影响。图/路透社