人工智能主权困局:国家安全叙事如何吞噬AI的公共价值?

【来源:虎嗅网】

所谓的“人工智能主权”,就是对关键的人工智能投入实现完全的国内控制。中国、美国、印度、日本和加拿大等国家的政策讨论都在朝着这个方向加速推进。

这是一个令人担忧的趋势。广泛追求强有力的人工智能主权是两败俱伤之举:一方面增加了全面人工智能军备竞赛的可能性,各国将发展策略重点放在国家安全利益上;另一方面又挤占了旨在服务于更广泛公共利益的人工智能工具的发展空间。

本文简要解析人工智能主权的内涵,探讨主要参与者追求强人工智能主权的影响,并提出减缓这一趋势的解决方案。

一、解析人工智能主权

人工智能主权(AI Sovereignty),是指国家对国内“人工智能堆栈”的控制,即控制用于训练模型的数据、支撑模型运行的计算资源、完善模型所需的人才以及推广模型所需的能源

在此定义基础上,“强人工智能主权”要求所有要素完全本土化,而“弱人工智能主权”则允许通过可信赖的盟友实现部分控制。

在人工智能发展的萌芽阶段,多数国家接受弱人工智能主权作为合理选择——例如依赖英伟达芯片或中国开源模型。但拜登政府末期,美国开始从“可靠技术栈提供者”的角色中抽离。其算力扩散政策将世界划分为三个等级:第一梯队含英国、法国、德国等18国)可无限制获取美国芯片;第二梯队(全球多数国家)面临芯片数量上限;第三梯队(25个受武器禁运的敌对国家)则被全面禁止进口美国芯片。

而特朗普政府似乎准备全力迈向强人工智能主权,推行“美国优先”的人工智能战略。副总统万斯在“美国活力峰会”上批评前任政府“将工业基础拱手让与他国”,呼吁在本土完成人工智能的制造、设计和扩散。OpenAI在提交给科技政策办公室的文件中敦促政府提升本土芯片产能,警告中国已在该领域占据战略优势。Anthropic公司则主张强化出口管制,将更多芯片纳入禁运范围。美国新安全中心和商业圆桌会议等机构强调,美国必须建立自主的人工智能基础设施。

这些迹象表明,美国正从弱人工智能主权转向强人工智能主权模式,而其他国家很可能会马上竞相效仿。

强人工智能主权的扩散 

强人工智能主权的典型表现是,国家支持的人工智能项目激增,而这些项目通常将国家利益置于国际合作之上。中国则通过直接注资和优先算力支持,推动深度求索(DeepSeek)等本土企业突破技术瓶颈。欧盟和法国对米斯特拉尔人工智能公司(Mistral AI)的支持体现了这一趋势,该公司已成为法国对抗美国人工智能主导地位的回应。

人工智能与军事系统和关键基础设施的整合,进一步加速了实现强大人工智能主权的动力。实际上,美国的盟友已经开始担忧美国系统在联合防御中的可靠性,并产生了实质影响:加拿大等国开始质疑是否继续采购需在美国维护的F-35战机。这种对依赖美国军事技术的日益警惕代表着与前几十年相比的明显转变,

技术壁垒即语言限制,同样影响主权化进程。非英语国家面临语言数据集劣势,阿拉伯语、泰语等语言的AI系统表现显著落后,迫使这些国家创建本土语言数据集。从长远来看,对更多数据的控制可能会维持这种对强人工智能主权的初步追求。

数据价值的指数级增长也重塑了主权定义。金融交易、医疗记录等数据不再是简单的隐私问题,而是训练预测模型的战略资源。数据价值通过推理能力呈指数级增长——一个控制着海量金融交易、医疗记录或电信元数据的国家,就具备能够开发出超级人工智能的基础。这意味着控制存储和处理位置的数据主权框架正在迅速扩展,涵盖整个人工智能价值链——从原始数据收集到模型训练再到推理部署。

大规模人工智能部署带来的巨大能源需求是另一个关键的主权因素。许多国家发现,依赖外国能源基础设施来训练前沿模型会带来不可接受的漏洞。因此,从韩国到沙特阿拉伯,各国正在斥巨资建设专门用于处理人工智能工作负载的发电设施。因此,韩国、沙特等国正斥巨资建设专用能源设施,而法国、意大利等能源匮乏国不得不与资源富集国合作。这种能源依赖从根本上破坏了人们对强大人工智能主权的渴望,迫使人们做出务实的妥协,在国家控制力和运营可行性之间取得平衡。

人才短缺是另一大障碍。现实情况是,全球人工智能人才分布高度集中。传统技术中心以外的国家,尤其是发展中地区,在组建能够构建具有竞争力的基础模型或在政府和军事环境中实施复杂人工智能应用的团队方面面临严重限制。对于这些国家而言,允许外国专家协助人工智能开发不仅仅是一种偏好,而是一种必要,即使这可能带来潜在的漏洞。

然而,各国在关键人工智能投入方面对外部来源的依赖不太可能长期持续下去。任何对其他国家的依赖——无论是人才、能源还是其他关键人工智能投入——都代表着一种战略弱点,随着人工智能在国家实力中地位的不断上升,这种弱点将越来越难以被各国政府所容忍。泰国的 Siam AI和韩国的 Naver Corp.等人工智能公司将人工智能主权视为商业要务,并已寻求国家支持以实现这些目标。

目前依赖弱人工智能主权安排的国家,似乎正逐渐过渡到更强的自主控制形式。这表明当前的合作格局并非稳定的均衡状态,而仅仅是全球人工智能主权运动的一个过渡阶段。

强人工智能主权引发的问题

将人工智能定义为国家权力的首要议题,即人工智能的安全化和中心化将成为一个复杂的地缘政治发展问题。

随着各国优先考虑强大的人工智能主权,主权化通过两种机制导致过度集中化:国家安全需求催生严苛监管框架,使AI研发集中于安全许可机构;巨额资金自然有利于大型政府支持的实体或与国防机构关系密切的政企实体。

这种中心化过程形成了一个自我强化的循环,当人工智能被主要概念化为战略资产而非社会资源时,该技术的发展路径就会缩小,倾向于增强国家权力的应用,而不是满足更广泛的人类需求。

最终的风险在于,人工智能的安全化会成为一个自我实现的预言。随着越来越多的国家采取防御性的人工智能主权姿态,国际合作逐渐减少,最终导致各国最初担忧的、竞争性且可能充满对抗性的国际人工智能格局。这种动态可能会将原本可能是人类最有力的集体解决问题工具,转变为一种主要为民族国家之间的竞争而优化的技术。

随着各国政府越来越多地从国家安全的角度看待人工智能,开源人工智能项目(Llama 、Mistral 和 Stable Diffusion 等)的可行性可能会受到冲击。原本可能跨境自由流动的研究成果,却可能被封闭在严格安全协议下运作的国家实验室内,实现社会效益的应用被降到了次要地位。当人才和算力向主权项目倾斜,公共利益导向的AI发展将付出难以察觉的机会成本。

结论

向强大的人工智能主权转变标志着人工智能发展轨迹的关键时刻,将人类共同命运带至关键十字路口:人工智能发展的安全化可能会将资源转移到军事应用和国家控制上,而牺牲开放创新和公共利益。若将AI困于地缘竞争的牢笼,我们可能错失应对全球性挑战的良机。

真正的挑战不在于人工智能技术本身,而在于我们如何选择治理它:是将其作为国家权力的武器,还是作为集体进步的力量。过度的条块分割只会割裂人工智能研究,减缓技术进步,并导致效率低下,从而延迟关键突破;而通过促进战略性国际合作、实施周到的治理以及利用联合技术方法,各国才有机会在主权与合作进步之间取得平衡。

创新需要开放与交融,而孤立主义政策终将扼杀变革潜力。

本文来自微信公众号:Internet Law Review,作者:凯文·弗雷泽(Kevin Frazier,美国德州大学奥斯汀法学院的人工智能创新与法律研究员),编译:互联网法律评论