今天,白宫颁布《美国AI行动计划》,剑指中美对抗
Just like we won the space race, it is imperative that the United States and its allies win this race.
正如我们曾赢得太空竞赛,美国及其盟友也必须赢得这场AI竞赛
美国必须利用已有优势,建立一个持久的全球联盟,同时防止对手搭乘我们的创新和投资便车
It is imperative that the United States leverage this advantage into an enduring global alliance, while preventing our adversaries from free-riding on our innovation and investment
公众号回复「美国AI行动计划」,可获得原始 pdf,以下为要点总结:
1. 美国加速AI,不再等市场自发
白宫明确由政府出面主导AI节奏,从取消监管、指导标准,到动用财政、税收、采购等手段推动AI落地
从另一个角度说,这是对国家层面战略资源配置的全面回归
2. 芯片、电力、数据中心成硬战场
美国正为AI重新布局“新基建”——芯片工厂、电网升级、数据中心扩建全线提速,能源与算力开始绑定,“建电厂=建AI”
白宫已指示用联邦土地建数据中心,直接绕过地方审批
3. 开源AI成为地缘武器
美国计划用“开放模型”制定全球AI规则,鼓励企业公布模型参数与代码,拉拢全球开发者形成技术生态
这是一次数字时代的新规则战,也反映出其对封闭技术出口限制的补位思路
4. 用标准控制AI内容走向
白宫要修改AI评估框架,去掉“多元”“公平”等内容,改为确保AI「不带偏见」
采购也倾向只用“政治中立”的模型。换句话说,政府要亲自决定AI说什么、不说什么
5. 全链条控制半导体外溢
从“芯片不外流”到“设备子系统也不能出境”,美国开始控制整个半导体制造链条的零部件和工艺
不仅锁死芯片,还要管住工具和知识,意在彻底掐断对手造芯可能
6. 政府大规模上AI,自用带动产业
联邦部门被要求全面上马AI系统,从文书处理到司法证据评估,都要嵌入AI工具。还要建立跨部门人才调配机制
政府自己用AI,自己造市场、立标准、扶生态
7. “AI红利”必须落到美国工人手里
行动计划明确要求:AI必须“辅助而非取代”美国工人
劳工部牵头制定AI再培训计划,推动职业教育与在职技能更新。就业稳定成为AI政策的底线红线,这是选票结构所决定的刚性约束
8. 深度伪造与虚假信息成为司法难题
特朗普政府高度关注AI生成内容对司法系统的冲击。白宫正推动出台深度伪造(DeepFake)证据认定指南,同时让AI技术成为法庭证据链的一部分
这是AI应用进入法治基础设施的信号
9. 高风险AI由国家直接评估
美国计划建立国家安全级别的模型评估制度,针对能生成生化武器、网络攻击方案等内容的AI,安排政府亲自检测、亲自限制
前沿AI能力不再视为普通商品,而是战略武器
10. 技术出海将带绑定协议
未来美国向盟友输出AI系统时,不只是卖产品,更要输出一整套标准、接口、规则与内容审查机制
技术变成地缘政治的工具包,买AI就要接受美国的安全要求与意识形态框架
以下是译文 & 原文

美国AI行动计划
2025年7月
白宫
“今天,科学发现的新前沿正展现在我们面前,它由人工智能(AI) 等变革性技术所定义。这些领域的突破性进展,有潜力重塑全球力量格局,催生全新产业,并彻底变革我们的生活和工作方式。鉴于全球竞争对手正竞相利用这些技术,对美国而言,实现并维持无可置疑、无可挑战的全球技术主导地位,是一项国家安全当务之急。为确保我们的未来,我们必须充分发挥美国创新的全部力量。”
唐纳德·J·特朗普
美国第45任及第47任总统

目录
引言
其一:加速AI创新
* 消除繁文缛节和繁重监管
* 确保前沿AI保护言论自由和美国价值观
* 鼓励开源和开放模型权重AI
* 推动AI应用
* 赋能AI时代的美国工人
* 支持下一代制造业
* 投资AI赋能的科学
* 建设世界级科学数据集
* 推进AI科学
* 投资AI可解释性、可控性与鲁棒性突破
* 建设AI评估生态系统
* 加速政府部门AI应用
* 推动国防部内部AI应用
* 保护商业和政府AI创新
* 打击法律系统中的合成媒体
其二:建设美国AI基础设施
* 简化数据中心、半导体制造设施和能源基础设施建设许可审批,同时确保安全
* 发展电网以匹配AI创新速度
* 恢复美国半导体制造业
* 为军事和情报界用途建设高安全数据中心
* 培养AI基础设施熟练劳动力
* 加强关键基础设施网络安全
* 推广安全设计AI技术与应用
* 提升联邦政府AI事件响应成熟能力
其三:引领国际AI外交与安全
* 向盟友和合作伙伴出口美国AI
* 反制中国在国际治理机构中的影响力
* 加强AI计算出口管制执法
* 堵塞现有半导体制造出口管制漏洞
* 在全球范围内统一保护措施
* 确保美国政府在评估前沿模型国家安全风险方面处于最前沿
* 投资生物安全

引言
美国正处于一场竞逐人工智能(AI)全球主导地位的竞赛之中。谁拥有最庞大的AI生态系统,谁就能制定全球AI标准,并从中获得广泛的经济和军事利益。正如我们曾赢得太空竞赛,美国及其盟友也必须赢得这场AI竞赛。
特朗普总统上任伊始便采取了果断措施,迈出了实现这一目标的关键一步。他签署了《EO 14179号行政命令——消除美国在AI领域领导地位的障碍》,明确呼吁美国在这场全球竞赛中保持主导地位,并指示制定一项AI行动计划。
赢得AI竞赛将为美国人民开启人类繁荣、经济竞争力与国家安全的新黄金时代。
-
• AI将带来一场工业革命:它将使美国人能够发现新材料、合成新化学品、制造新药物,并开发利用能源的新方法。 -
• AI将带来一场信息革命:它将催生彻底的教育、媒体和通信新形式。 -
• AI将带来一场文艺复兴:它将实现全新的智力成就,例如解读一度被认为无法阅读的古代卷轴,在科学和数学理论上取得突破,以及创造新型数字和实体艺术。
一场工业革命、一场信息革命和一场文艺复兴——这一切同时发生。这就是AI所蕴含的巨大潜力。摆在我们面前的机遇既令人振奋,也令人敬畏。我们必须抓住它,否则将错失良机。
《美国AI行动计划》 包含三大核心支柱:创新、基础设施以及国际外交与安全。
首先,在各个领域的新AI技术开发和推广方面,美国需要比竞争对手更快、更全面地进行创新,并拆除阻碍私营部门发展的非必要监管壁垒。正如副总统万斯在2月巴黎AI行动峰会上所言,用繁重监管限制AI发展,“不仅会不公平地使现有企业受益,更意味着扼杀我们几十年来所见最有前途的技术之一。”这正是特朗普总统在就职第一天就废除了拜登政府危险举措的原因。
其次,我们需要建设并维护庞大的AI基础设施及其所需的能源。为此,本届政府将一如既往地,自就职日起便持续拒绝激进的气候教条和官僚繁文缛节。简而言之,我们需要“大建特建!”
最后,我们需要将美国的AI技术——从先进的半导体到模型再到应用——确立为全球AI的黄金标准,并确保我们的盟友以美国技术为基础进行建设。
贯穿这三大支柱,有几项核心原则:
-
1. 美国工人是特朗普政府AI政策的核心。 本届政府将确保我国工人及其家庭从这场技术革命创造的机遇中获益。AI基础设施的建设将为美国工人创造高薪就业机会。而AI将在医学、制造业以及许多其他领域实现的突破,将提高所有美国人的生活水平。AI将通过辅助工作而非取代工作来改善美国人的生活。 -
2. 我们的AI系统必须摆脱意识形态偏见,在用户寻求事实信息或分析时,应以追求客观真相而非社会工程议程为目标。AI系统正成为不可或缺的工具,深刻塑造着美国人获取信息的方式,但这些工具也必须是值得信赖的。 -
3. 我们必须防止先进技术被恶意行为者滥用或窃取,并警惕AI带来的新兴和不可预见的风险。做到这一点需要持续的警惕性。
本行动计划为联邦政府的近期执行设定了明确的政策目标。它旨在阐明本届政府可为美国人民实现的政策建议,以达成总统关于全球AI主导地位的愿景。AI竞赛是美国必将赢得的,本行动计划是我们通向胜利的路线图。
迈克尔·J·克拉西奥斯
总统科学技术助理
大卫·O·萨克斯
AI和加密技术特别顾问
马可·A·卢比奥
总统国家安全事务助理


其一:加速AI创新
美国必须拥有世界上最强大的AI系统,同时也要在全球AI系统的创新和变革性应用方面保持领先。实现这些目标需要联邦政府为私营部门主导的创新蓬勃发展创造条件。
消除繁文缛节和繁重监管
为保持AI领域的全球领导地位,美国私营部门必须摆脱官僚繁文缛节的束缚。特朗普总统已为此采取多项措施,包括废除了拜登政府的EO 14110号行政命令,该命令预示着一个繁重的监管制度。AI在早期阶段至关重要,不应被官僚体制所扼杀,无论是州级还是联邦级。联邦政府不应允许将与AI相关的联邦资金导向那些拥有繁重AI法规、导致资金浪费的州,但也不应干预各州通过不 unduly restrictive to innovation 的审慎法律的权利。
建议政策行动
-
• 在科学技术政策办公室(OSTP) 的领导下,面向企业和公众启动信息征集(Request for Information),收集当前阻碍AI创新和应用的联邦法规信息,并与相关联邦机构合作采取适当行动。 -
• 在管理和预算办公室(OMB) 的领导下,并与《EO 14192号行政命令——通过放松管制释放繁荣》保持一致,与所有联邦机构合作,识别、修订或废除不必要阻碍AI开发或部署的法规、规章、备忘录、行政命令、指导文件、政策声明和机构间协议。 -
• 在OMB的领导下,与拥有AI相关自由裁量资助计划的联邦机构合作,确保在适用法律允许的范围内,其在做出资助决定时考虑各州的AI监管环境,并在州的AI监管制度可能阻碍资助或奖励效力的情况下限制资金。 -
• 在联邦通信委员会(FCC) 的领导下,评估各州的AI法规是否干扰了该机构履行《1934年通信法》规定的义务和权限。 -
• 审查上届政府启动的所有联邦贸易委员会(FTC) 调查,确保它们不推行不当阻碍AI创新的责任理论。此外,审查所有FTC最终命令、同意令状和禁令,并在适当情况下,寻求修改或撤销任何不当阻碍AI创新的命令。

确保前沿AI保护言论自由和美国价值观
AI系统将在我们教育子女、完成工作和获取媒体信息方面发挥深远作用。至关重要的是,这些系统应从设计之初就考虑到言论自由和表达,并且美国政府政策不应干预这一目标。我们必须确保言论自由在AI时代蓬勃发展,并确保联邦政府采购的AI客观反映真相,而非社会工程议程。
建议政策行动
-
• 在商务部(DOC) 通过美国国家标准与技术研究院(NIST) 的领导下,修订NIST AI风险管理框架,消除对错误信息(misinformation)、多元化、公平与包容(Diversity, Equity, and Inclusion)以及气候变化的提及。 -
• 更新联邦采购指南,确保政府仅与那些确保其系统客观且没有自上而下意识形态偏见的前沿大型语言模型(LLM)开发商签订合同。 -
• 在DOC通过NIST的AI标准与创新中心(CAISI) 的领导下,进行研究并在适当情况下发布对中华人民共和国前沿模型与中国共产党宣传论调和审查制度一致性的评估报告。
鼓励开源和开放模型权重AI
开源(Open-Source) 和开放模型权重(Open-Weight)AI模型由开发者免费提供,供世界各地任何人下载和修改。以这种方式发布的模型对创新具有独特价值,因为初创企业可以灵活使用它们,而不必依赖封闭模型提供商。它们还有利于商业和政府对AI的应用,因为许多企业和政府拥有敏感数据,无法发送给封闭模型供应商。它们对于学术研究也至关重要,学术研究往往依赖于获取模型的权重和训练数据来进行严谨的科学实验。
我们需要确保美国拥有基于美国价值观的领先开放模型。开源和开放模型权重模型可能成为全球某些商业领域和学术研究的全球标准。因此,它们也具有地缘战略价值。虽然是否以及如何发布开放或封闭模型的决定根本上取决于开发者,但联邦政府应为开放模型创造一个支持性环境。

建议政策行动
-
• 通过改善计算资源金融市场,确保初创企业和学术界能够获取大规模计算能力。当前,寻求使用大规模计算能力的公司通常必须与超大规模服务商(hyperscalers) 签订长期合同——这远远超出了大多数学术机构和许多初创企业的预算范围。美国以前通过金融市场解决了其他商品的问题,例如大宗商品现货和远期市场。通过与行业、DOC的NIST、OSTP以及国家科学基金会(NSF) 的国家AI研究资源(NAIRR)试点项目的合作,联邦政府可以加速健康计算资源金融市场的成熟。 -
• 与领先科技公司合作,作为NAIRR试点项目的一部分,增加研究界对世界级私营部门计算、模型、数据和软件资源的访问。 -
• 为精简且可持续的NAIRR运营能力奠定基础,使其能够连接全国范围内越来越多的研究人员和教育工作者,获取关键AI资源。 -
• 在OSTP的领导下,发布新的国家AI研发(R&D)战略计划,指导联邦AI研究投资,以继续推动下一代AI突破。 -
• 在DOC通过国家电信和信息管理局(NTIA) 的领导下,召集利益相关者,帮助推动中小型企业(small and medium-sized businesses) 采用开源和开放模型权重模型。
推动AI应用
如今,释放AI全部潜力的瓶颈并非模型、工具或应用的可用性。相反,是AI应用范围的有限和速度缓慢,尤其是在大型、成熟组织内部。美国许多最关键的部门,如医疗保健,由于对技术的不信任或缺乏理解、复杂的监管环境以及缺乏明确的治理和风险缓解标准等多种因素,应用速度尤其缓慢。一项协调一致的联邦努力将有助于在美国各行业建立一种动态的“先试先行”文化,以推动AI的应用。
建议政策行动
-
• 在全国范围内建立监管沙盒或AI卓越中心(AI Centers of Excellence),供研究人员、初创企业和成熟企业快速部署和测试AI工具,同时承诺开放共享数据和结果。这些工作将由食品药品监督管理局(FDA) 和证券交易委员会(SEC) 等监管机构推动,并得到DOC通过其NIST的AI评估计划的支持。 -
• 在DOC的NIST的领导下,启动多项特定领域行动(例如,在医疗保健、能源和农业领域),召集广泛的公共、私营和学术利益相关者,加速AI系统国家标准的制定和应用,并衡量AI在这些领域实际任务中提高生产力的程度。 -
• 在国防部(DOD) 与国家情报总监办公室(ODNI) 的协调下,定期更新DOD-情报界(IC)联合评估,以衡量美国、其竞争对手及其对手国家安全机构对AI工具的相对应用水平,并根据这些AI综合评估,制定DOD和IC各自AI应用举措的持续适应方法。 -
• 通过IC、能源部(DOE)、DOC的CAISI、国家安全委员会(NSC) 和OSTP之间的协作,优先收集和分发可能具有国家安全影响的外国前沿AI项目情报。

赋能AI时代的美国工人
特朗普政府支持以工人为中心的AI议程。 通过加速生产力并创造全新的产业,AI可以帮助美国建立一个为美国工人提供更多经济机会途径的经济体。但它也将改变所有行业和职业的工作方式,需要严肃的劳动力应对措施来帮助工人应对这一转型。特朗普政府已在这方面迈出重要步伐,包括2025年4月签署的《EO 14277号行政命令——推进美国青年的AI教育》 和《EO 14278号行政命令——为未来高薪技能贸易工作培养美国人》。为继续实现这一愿景,特朗普政府将推进一系列优先行动,以扩大AI素养和技能发展,持续评估AI对劳动力市场的影响,并试点新创新,以快速再培训并帮助工人在AI驱动的经济中蓬勃发展。
建议政策行动
-
• 在劳工部(DOL)、教育部(ED)、NSF和DOC的领导下,将AI技能发展作为相关教育和劳动力资金流的核心目标。这应包括促进AI技能发展融入相关项目,包括职业和技术教育(CTE)、劳动力培训、学徒制以及其他联邦支持的技能倡议。 -
• 在财政部的领导下,发布指导意见,阐明鉴于AI对所有行业和职业所需任务和技能的广泛重塑影响,许多AI素养和AI技能发展项目可能符合《国内税收法》第132条规定的合格教育援助。在适用情况下,这将使雇主能够为AI相关培训提供免税报销,并有助于扩大私营部门在AI技能发展方面的投资,从而为美国工人保留就业机会。 -
• 在劳工统计局(BLS) 和DOC通过人口普查局(Census Bureau) 和经济分析局(BEA) 的领导下,利用它们已经收集的关于这些主题的数据,例如人口普查局在其《商业趋势与展望调查》中追踪的企业级AI应用趋势,研究AI对劳动力市场的影响。这些机构随后可以提供关于AI应用、就业创造、取代和工资影响的分析。 -
• 在DOL下建立AI劳动力研究中心(AI Workforce Research Hub),在BLS和DOC通过人口普查局和BEA的协作下,领导一项持续的联邦努力,评估AI对劳动力市场和美国工人体验的影响。该中心将定期进行分析,为一系列潜在的AI影响水平进行情景规划,并产生可操作的见解,为劳动力和教育政策提供信息。 -
• 在DOL的领导下,在适当情况下,利用可用的自由裁量资金,为受AI相关就业岗位流失影响的个人提供快速再培训。发布澄清性指导意见,帮助各州识别因AI应用而经历重大结构性变化的行业中符合条件的失业工人,以及澄清各州“快速响应(Rapid Response)” 资金如何用于主动提升面临未来失业风险工人的技能。 -
• 在DOL和DOC,快速试点解决AI带来的劳动力挑战的新方法,这可能包括工人流失驱动的快速再培训需求以及入门级职位技能要求变化等领域。这些试点应由各州和劳动力中介机构利用《劳动力创新和机会法案》和《公共工程和经济发展法案》下的现有授权进行,并应旨在识别可扩展的、绩效驱动的策略,以帮助劳动力系统适应AI驱动的劳动力市场变化的速度和复杂性。

支持下一代制造业
AI将促成物理世界中一系列新的创新:自主无人机、自动驾驶汽车、机器人技术以及其他尚未有专有名词的发明。至关重要的是,美国和我们值得信赖的盟友必须成为这些下一代技术的世界级制造商。AI、机器人技术及相关技术为制造业和物流业创造了新的能力,包括那些应用于国防和国家安全的能力。联邦政府应优先投资这些新兴技术,并开启一场新的工业复兴。
建议政策行动
-
• 通过DOD、DOC、DOE、NSF及其他联邦机构,利用小型企业创新研究计划(Small Business Innovation Research program)、小型企业技术转让计划(Small Business Technology Transfer program)、研究拨款、CHIPS研发(R&D)计划、《史蒂文森-怀德勒技术创新法》(Stevenson-Wydler Technology Innovation Act)授权、《国防生产法》(Defense Production Act)第三章、其他交易授权(Other Transaction Authority) 以及其他授权,投资开发和扩大基础和转化制造技术。 -
• 在DOC通过NTIA的领导下,召集行业和政府利益相关者,识别美国机器人和无人机制造面临的供应链挑战。

投资AI赋能的科学
像许多其他领域一样,科学本身也将被AI所改变。AI系统已经能够生成蛋白质结构、新型材料等模型。日益强大的通用模型有望用于形成假设和设计实验。这些新生的能力有望加速科学进步。然而,只有在科学进行方式发生关键变化,包括启用科学基础设施的情况下,它们才能实现这一点。如果科学家无法同时扩大实验规模,那么AI赋能的预测作用甚微。当今的基础科学通常是一个劳动密集型过程;AI时代将需要更多的科学和工程研究,将理论转化为工业规模的企业。反过来,这将需要新的基础设施和对新型科学组织的支持。
建议政策行动
-
• 通过NSF、DOE、DOC的NIST及其他联邦合作伙伴,投资于一系列科学领域的自动化云端实验室,包括工程学、材料科学、化学、生物学和神经科学,由私营部门、联邦机构和研究机构酌情与DOE国家实验室(DOE National Laboratories) 协调合作建设。 -
• 利用长期协议支持重点研究机构(Focused-Research Organizations) 或其他类似实体,利用AI和其他新兴技术取得基础科学突破。 -
• 通过在审查新项目提案时考虑研究人员先前资助项目中的科学和工程数据集的影响,激励研究人员公开更多高质量数据集。 -
• 要求联邦资助的研究人员在研究和实验过程中,披露AI模型使用的非专有、非敏感数据集。

建设世界级科学数据集
高质量数据已成为国家战略资产,因为各国政府都在追求AI创新目标并利用该技术的经济效益。包括我们对手在内的其他国家在积累大量科学数据方面已经超越我们。美国必须引领世界创建规模最大、质量最高的AI就绪科学数据集,同时尊重个人权利并确保公民自由、隐私和保密保护。
建议政策行动
-
• 指示国家科学技术委员会(NSTC) 机器学习和AI小组委员会就生物、材料科学、化学、物理及其他科学数据模态在AI模型训练中使用时的最低数据质量标准提出建议。 -
• 颁布《2018年保密信息保护和统计效率法案》中OMB要求的关于可访问性推定和扩大安全访问的法规,这将降低获取联邦数据的壁垒并打破信息孤岛,最终促进统计机构更好地利用AI进行证据建设,同时保护机密数据免遭不当访问和使用。 -
• 在NSF和DOE内部建立安全计算环境,以实现对受限联邦数据进行受控访问的AI用例。 -
• 为NSF的国家安全数据服务(NSDS)示范项目创建一个在线门户,为公众和联邦机构提供一个访问涉及受限联邦数据受控访问的AI用例的“前门”。 -
• 在NSTC的领导下,探索为联邦土地上的生命创建一个全基因组测序计划的可能性,并包括美国农业部、DOE、国立卫生研究院(NIH)、NSF、内政部以及合作生态系统研究单位(Cooperative Ecosystem Studies Units) 的成员,以合作开发一项倡议,建立一个针对联邦土地上生命(包括所有生物领域)的全基因组测序计划。这些新数据将成为训练未来生物基础模型的宝贵资源。
推进AI科学
正如大型语言模型(LLM) 和生成式AI系统代表着AI科学的范式转变一样,未来的突破也可能类似地改变AI的可能性。美国必须保持在此类突破中的领先地位,而这始于对前沿最有前景路径的战略性、定向投资,并将其体现在即将发布的国家AI研发(R&D)战略计划中。
建议政策行动
-
• 优先投资理论、计算和实验研究,以保持美国在发现新颖和变革性范式以提升AI能力方面的领导地位,并在即将发布的国家AI研发(R&D)战略计划中体现这一优先事项。
投资AI可解释性、可控性与鲁棒性突破
如今,前沿AI系统的内部运作机制尚不清楚。技术人员大致了解LLM的工作原理,但通常无法解释模型为何会产生特定输出。这使得预测任何特定AI系统的行为变得困难。这种缺乏可预测性反过来又使得在国防、国家安全或其他涉及生命安危的应用中使用先进AI具有挑战性。如果我们能在这些研究问题上取得根本性突破,美国将能更好地在高风险国家安全领域充分发挥AI系统的潜力。
建议政策行动
-
• 由国防高级研究计划局(DARPA) 牵头,与DOC的CAISI和NSF合作,启动一项技术开发计划,以推进AI可解释性、AI控制系统和对抗鲁棒性。 -
• 将AI可解释性、可控性和鲁棒性的基础进步作为即将发布的国家AI研发(R&D)战略计划的一部分优先考虑。 -
• DOD、DOE、DOC的CAISI、国土安全部(DHS)、NSF和学术合作伙伴应协调一项AI黑客马拉松倡议,征集美国学术界最优秀的人才,以测试AI系统的透明度、有效性、使用控制和安全漏洞。

建设AI评估生态系统
评估是AI行业衡量AI系统性能和可靠性的方式。 严谨的评估可以成为在受监管行业中定义和衡量AI可靠性和性能的关键工具。随着时间的推移,监管机构应探索在其适用现有法律于AI系统时,使用评估。
建议政策行动
-
• 通过DOC的NIST(包括CAISI),发布指南和资源,供联邦机构根据其独特的任务和操作以及符合现有法律进行自身AI系统评估。 -
• 由DOC的NIST、DOE、NSF及其他联邦科学机构牵头,支持AI模型测量和评估科学的发展。 -
• 在DOC的CAISI主持下,每年至少召开两次会议,供联邦机构和研究界分享AI评估建设方面的经验和最佳实践。 -
• 通过DOE和NSF,投资开发AI测试平台,用于在安全、真实环境中试点AI系统,使研究人员能够原型化新AI系统并将其转化为市场。此类测试平台将鼓励广泛的多利益相关方团队参与,并涵盖AI所涉及的各种经济垂直领域,包括农业、交通和医疗保健交付。 -
• 在DOC的领导下,召集NIST AI联盟,以赋能协作建立新的计量科学,从而识别经过验证、可扩展和可互操作的技术和指标,以促进AI发展。

加速政府部门AI应用
随着AI工具的应用,联邦政府可以以更高的效率和效能为公众服务。用例包括加速缓慢且通常是手动进行的内部流程、简化公共互动等等。总而言之,AI的变革性应用有助于提供美国人民期望和应得的高度响应型政府。OMB已经通过减少拜登政府施加的繁重规则,推动了政府AI的应用。现在是时候在此成功基础上再接再厉。
建议政策行动
-
• 将首席人工智能官委员会(CAIOC) 正式化,作为机构间AI应用协调和协作的主要场所。通过CAIOC,启动与相关联邦行政委员会的战略协调和协作,包括:总统管理委员会(President’s Management Council)、首席数据官委员会(Chief Data Officer Council)、首席信息官委员会(Chief Information Officer Council)、机构间统计政策委员会(Interagency Council on Statistical Policy)、首席人力资本官委员会(Chief Human Capital Officer Council)和联邦隐私委员会(Federal Privacy Council)。 -
• 在人事管理办公室(Office of Personnel Management) 的建议下,创建一个人才交流计划,旨在允许联邦工作人员快速借调到需要专业AI人才(例如,数据科学家和软件工程师)的其他机构。 -
• 创建一个由总务管理局(GSA) 与OMB协调管理的AI采购工具箱,以尽可能地促进联邦企业范围内的统一性。该系统将允许任何联邦机构轻松选择多种模型,同时符合相关隐私、数据治理和透明度法律。机构还应拥有充足的灵活性来根据自身需求定制模型,并查看其他机构的AI使用目录(基于OMB现有的AI Use Case Inventory)。 -
• 与GSA合作实施一项先进技术转移和能力共享计划,以在机构之间快速转移先进AI能力和用例。 -
• 强制要求所有联邦机构,在最大程度上,确保所有其工作可从前沿语言模型中受益的员工都能够访问并获得此类工具的适当培训。 -
• 在OMB的主持下,召集一批拥有高影响力服务提供者(High Impact Service Providers) 的机构,试点并增加AI的使用,以改善对公众的服务交付。

推动国防部内部AI应用
AI有潜力改变DOD的作战和后台运营。美国必须在其武装部队内部积极采用AI,以保持其全球军事领先地位,同时确保,如本行动计划所概述,其AI使用是安全可靠的。由于DOD在联邦政府中拥有独特的作战需求,因此其AI应用值得采取具体的政策行动。
建议政策行动
-
• 识别DOD劳动力大规模利用AI所需的才能和技能。在此识别基础上,实施人才发展计划,以满足AI劳动力需求并推动AI赋能能力的有效运用。 -
• 在DOD建立AI与自主系统虚拟试验场(AI & Autonomous Systems Virtual Proving Ground),首先要确定该设施所需的技术、地理、安全和资源要求。 -
• 在DOD内部制定一个简化流程,用于分类、评估和优化其主要作战和使能功能中的工作流程,旨在制定一份优先自动化AI工作流程清单。当一个工作流程成功实现自动化后,DOD应努力尽快将该工作流程永久性过渡到基于AI的实施方案。 -
• 优先与云服务提供商、计算基础设施运营商及其他相关私营部门实体签订DOD主导的协议,以在国家紧急状态下制定计算资源的优先访问权,从而使DOD在重大冲突期间能够充分利用这些技术。 -
• 将我们的高级军事院校(Senior Military Colleges) 发展成为AI研究、开发和人才培养的中心,向未来世代传授核心AI技能和素养。在高级军事院校的各专业中,培养AI特定课程,包括AI使用、开发和基础设施管理。
保护商业和政府AI创新
维护美国在AI领域的领导地位,要求美国政府与行业密切合作,妥善平衡尖端AI技术的传播与国家安全关切。同时,美国政府也必须有效应对美国AI公司、人才、知识产权和系统面临的安全风险。
建议政策行动
-
• 在DOD、DHS、DOC的CAISI及IC其他适当成员的领导下,与领先的美国AI开发商合作,赋能私营部门积极保护AI创新免受安全风险,包括恶意网络行为者、内部威胁等。
打击法律系统中的合成媒体
许多美国人已经意识到AI的一个风险是恶意深度伪造(deepfakes),无论是音频、视频还是照片。虽然特朗普总统已经签署了《TAKE IT DOWN法案》,该法案由第一夫人梅拉尼娅·特朗普倡导,旨在防止色情、非自愿的深度伪造,但仍需要采取额外行动。特别是,AI生成媒体可能对法律系统带来新的挑战。例如,虚假证据可能被用来试图剥夺原告和被告的公正。本届政府必须为法院和执法部门提供应对这些新挑战所需的工具。
建议政策行动
-
• 在DOC的NIST的领导下,考虑将NIST的《法证证据守护者》(Guardians of Forensic Evidence) 深度伪造评估计划发展为正式指南和配套的自愿性法证基准。 -
• 在司法部(DOJ) 的领导下,向从事裁决的机构发布指导意见,探讨采用类似于证据规则咨询委员会(Advisory Committee on Evidence Rules) 正在审议的拟议《联邦证据规则》第901(c)条的深度伪造标准。 -
• 在DOJ法律政策办公室的领导下,就《联邦证据规则》中任何拟议的深度伪造相关增补提交正式意见。


其二:建设美国AI基础设施
AI是现代生活中第一个挑战美国需要建设比目前规模大得多的能源生产能力的数字服务。自20世纪70年代以来,美国的能源容量停滞不前,而中国则迅速扩大了其电网规模。美国实现AI主导地位的道路取决于改变这一令人担忧的趋势。
简化数据中心、半导体制造设施和能源基础设施建设许可审批,同时确保安全
像过去大多数通用技术一样,AI将需要新的基础设施——芯片生产工厂、运行这些芯片的数据中心,以及为所有这些提供动力的新能源。美国的环保许可审批制度和其他法规使得在美国以所需的速度建设这些基础设施几乎不可能。此外,这些基础设施的建设绝不能使用任何可能损害美国AI主导地位的对手技术。
幸运的是,特朗普政府在改革这一制度方面取得了前所未有的进展。自上任以来,特朗普总统已经改革了几乎所有相关联邦机构的《国家环境政策法》(NEPA) 法规,启动了许可技术现代化计划,创建了国家能源主导委员会(NEDC),并启动了美国投资加速器(United States Investment Accelerator)。现在是时候在此基础上再接再厉了。
建议政策行动
-
• 根据NEPA设立新的分类豁免(Categorical Exclusions),涵盖通常对环境没有重大影响的数据中心相关行动。在可能的情况下,采用其他机构已设立的分类豁免,以便每个相关机构能够以最高效率进行。 -
• 扩大FAST-41流程的使用范围,涵盖《2015年美国地面交通法案》(Fixing America’s Surface Transportation Act of 2015)中所有符合条件的数据中心和数据中心能源项目。 -
• 探讨是否有必要为数据中心设立全国范围的《清洁水法》(Clean Water Act)第404条许可,如果采纳,则确保该许可不要求施工前通知(Pre-Construction Notification),并涵盖与现代AI数据中心规模相符的开发场地。 -
• 通过简化或减少根据《清洁空气法》(Clean Air Act)、《清洁水法》、《综合环境响应、赔偿和责任法》(Comprehensive Environmental Response, Compensation, and Liability Act)及其他相关法律颁布的法规,加快环境许可审批。 -
• 通过指示拥有大量土地的机构识别适合大规模开发的地点,开放联邦土地用于数据中心建设以及为这些数据中心建设发电基础设施。 -
• 维护安全护栏,禁止对手向此类基础设施注入敏感输入。确保国内AI计算堆栈建立在美国产品之上,并且支持AI开发的能源和电信等基础设施免受外国对手信息和通信技术与服务(ICTS)——包括软件和相关硬件——的影响。 -
• 扩大将AI应用于加速和改进环境审查的工作,例如通过扩大参与DOE的PermitAI项目的机构数量。

发展电网以匹配AI创新速度
美国电网是地球上最大、最复杂的机器之一。它也需要升级以支持数据中心和未来其他能源密集型产业。电网是现代经济的命脉和国家安全的基石,但它正面临多重挑战,需要战略远见和果断行动。电气化和AI技术进步带来的需求升级正在增加电网压力。美国必须制定一项综合战略,以增强和扩展电网,这不仅是为了应对这些挑战,更是为了确保电网未来的持续强大和容量增长。
建议政策行动
-
• 尽可能稳定当前的电网。 这一初始阶段承认需要保障现有资产,并确保不间断且可负担的电力供应。美国必须防止关键发电资源过早退役,并探索创新方式利用现有容量,例如利用现有备用电源在用电高峰期增强电网可靠性。稳定电网的关键要素是确保电网的每个角落都符合全国范围内的资源充足性标准,并确保全国范围内始终有充足的发电能力。 -
• 尽可能优化现有电网资源。 这包括实施策略以提高输电系统的效率和性能。美国必须探索诸如先进电网管理技术和输电线路升级等解决方案,这些方案可以增加沿现有线路输送的电量。此外,美国应研究大型电力消费者在电网关键时期管理其用电量的新颖方式,以增强可靠性并释放系统中的额外电力。 -
• 优先互联可靠、可调度电源,并拥抱技术前沿的新能源发电来源(例如,增强型地热、核裂变和核聚变)。改革电力市场,使财政激励与电网稳定目标保持一致,确保对发电的投资反映系统的需求。 -
• 创建一份战略蓝图,以应对21世纪复杂的能源格局。通过稳定当前电网、优化现有电网资源,并为未来发展电网,美国能够迎接赢得AI竞赛的挑战,同时为所有美国人提供可靠且可负担的电网。

恢复美国半导体制造业
美国通过半导体的发明开启了现代技术时代。现在,美国必须将半导体制造业带回美国本土。一个重振的美国芯片产业将创造数千个高薪工作,巩固我们的技术领先地位,并保护我们的供应链免受外国对手的干扰。特朗普政府将领导这场复兴,同时避免为美国纳税人带来糟糕的交易,或将广泛的意识形态议程强加于企业。
建议政策行动
-
• 在DOC重组后的CHIPS计划办公室的领导下,继续专注于为美国纳税人带来强劲的投资回报,并取消CHIPS资助半导体制造项目的所有无关紧要的政策要求。DOC及其他相关联邦机构还应合作简化阻碍半导体制造工作的法规。 -
• 在DOC的领导下,审查半导体拨款和研究计划,确保它们加速先进AI工具融入半导体制造。
为军事和情报界用途建设高安全数据中心
由于AI系统在处理原始情报数据方面特别适用,并且考虑到AI系统未来可能拥有的极大扩展能力,AI很可能会与美国政府最敏感的数据一起使用。部署这些模型的数据中心必须能够抵御最坚定和最有能力的国家级行为者的攻击。
建议政策行动
-
• 在DOD、IC、NSC和DOC的NIST(包括CAISI)的领导下,与行业以及适当的联邦资助研究与开发中心(Federally Funded Research and Development Centers)合作,为高安全AI数据中心创建新的技术标准。 -
• 推进机构采用涉密计算环境,以支持可扩展和安全的AI工作负载。

培养AI基础设施熟练劳动力
为了建设支持美国AI未来的基础设施,我们还必须投资于将建设、运营和维护这些基础设施的劳动力——包括电工、高级暖通空调技术人员以及许多其他高薪职业。为解决这些关键岗位中的许多短缺问题,特朗普政府应识别支撑AI基础设施的优先职位,开发现代化技能框架,支持行业驱动的培训,并通过通识教育、职业和技术教育(CTE) 和注册学徒计划(Registered Apprenticeships)扩大早期人才储备,以推动美国AI领导地位。
建议政策行动
-
• 在DOL和DOC的领导下,发起一项国家倡议,识别对AI相关基础设施建设至关重要的高优先级职业。这项工作将召集雇主、行业团体和其他劳动力利益相关者,以开发或识别这些职位的国家技能框架和能力模型。这些框架将提供自愿性指导,可为课程设计、证书开发以及劳动力投资的协调提供信息。 -
• 通过DOL、DOE、ED、NSF和DOC,与州和地方政府以及劳动力系统利益相关者合作,支持创建行业驱动的培训项目,以满足与优先AI基础设施职业相关的劳动力需求。这些项目应由雇主和培训伙伴共同开发,以确保完成项目的个人具备就业能力并与招聘流程直接相关。还可以探索激励雇主提升在职工人技能以适应优先职业的模型。DOC应将这些培训模型作为其基础设施投资计划的核心劳动力组成部分。该战略的资金分配将根据项目弥补已识别的人才缺口和交付与雇主需求对齐的人才产出的能力进行优先排序。 -
• 在DOL、ED和NSF的领导下,与教育和劳动力系统利益相关者合作,扩大早期职业接触计划和预备学徒计划,吸引初中生和高中生参与优先AI基础设施职业。这些努力应侧重于提升对这些工作的认知和热情,与当地雇主需求对齐,并提供进入高质量培训和注册学徒计划的通道。 -
• 通过ED的职业、技术和成人教育办公室,向州和地方CTE系统提供指导,说明如何更新学习计划以与优先AI基础设施职业对齐。这包括更新课程、扩大双重入学选择以及加强CTE项目、雇主和为AI基础设施职业服务的培训提供者之间的联系。 -
• 在DOL的领导下,扩大注册学徒计划在对AI基础设施至关重要的职业中的使用。努力应侧重于简化新项目在优先行业和职业的启动,并消除雇主采用的障碍,包括简化注册、支持中介机构,以及使项目设计与雇主需求对齐。 -
• 在DOE的领导下,利用其国家实验室在AI方面的专业知识和能力,扩大本科生、研究生、博士后学生和教育工作者的实践性研究培训和发展机会。这应包括与社区学院和技术/职业学院合作,培养新工人并帮助现有劳动力过渡到关键AI岗位。

加强关键基础设施网络安全
随着AI系统在编码和软件工程能力方面的进步,它们作为网络攻防工具的效用将得到扩展。保持强大的防御态势对于关键基础设施所有者而言尤为重要,其中许多所有者的财政资源有限。幸运的是,AI系统本身就是出色的防御工具。通过持续采用AI赋能的网络防御工具,关键基础设施提供商可以领先于新兴威胁。
然而,在网络和关键基础设施中使用AI会使这些AI系统面临对抗性威胁。所有在安全关键或国土安全应用中对AI的使用,都应包含对安全设计、鲁棒和弹性AI系统的使用,这些系统应配备工具以检测性能变化,并警示潜在恶意活动,如数据投毒或对抗性样本攻击。
建议政策行动
-
• 建立AI信息共享与分析中心(AI-ISAC),由DHS牵头,与DOC的CAISI和国家网络总监办公室合作,促进美国关键基础设施部门之间AI安全威胁信息和情报的共享。 -
• 在DHS的领导下,发布并维护向私营部门实体提供的关于修复和响应AI特有漏洞和威胁的指导意见。 -
• 确保联邦机构内部已知的AI漏洞,酌情以协作和整合的方式与私营部门共享。这一过程应利用现有的网络漏洞共享机制。
推广安全设计AI技术与应用
AI系统易受某些类别的对抗性输入影响(例如,数据投毒和隐私攻击),这使得它们的性能面临风险。美国政府有责任确保其依赖的AI系统——特别是用于国家安全应用的——免受虚假或恶意输入的侵害。虽然在AI保障(AI Assurance) 领域已做了大量工作,但促进弹性且安全的AI开发和部署应是美国政府的核心活动。
建议政策行动
-
• 在DOD与DOC的NIST和ODNI的合作下,继续完善DOD的负责任AI和生成式AI框架、路线图和工具包。 -
• 在ODNI的领导下,并与DOD和DOC的CAISI协商,根据《情报界指令505号:人工智能》发布一项情报界AI保障标准。

提升联邦政府AI事件响应成熟能力
AI技术的扩散意味着需要审慎规划,以确保在系统故障时,对关键服务或基础设施的影响最小化,并确保响应及时。为应对此类情况,美国政府应推动将AI事件响应行动纳入现有事件响应原则和公共和私营部门的最佳实践中。
建议政策行动
-
• 在DOC的NIST(包括CAISI)的领导下,与AI和网络安全行业合作,确保AI被纳入事件响应团队的标准制定、响应框架、最佳实践和技术能力(例如,快速部署工具包)。 -
• 修改网络安全和基础设施安全局(Cybersecurity and Infrastructure Security Agency) 的《网络安全事件与漏洞响应手册》(Cybersecurity Incident & Vulnerability Response Playbooks),以纳入对AI系统的考量,并包括要求首席信息安全官(Chief Information Security Officers) 酌情与首席AI官(Chief AI Officers)、高级隐私事务官员(Senior Agency Officials for Privacy)、DOC的CAISI及其他机构官员协商。各机构应相应更新其下属手册。 -
• 在DOD、DHS和ODNI的领导下,与OSTP、NSC、OMB和国家网络总监办公室协调,鼓励负责任地共享AI漏洞信息,作为正在实施《EO 14306号行政命令——维持加强国家网络安全的特定努力并修订EO 13694和EO 14144号行政命令》工作的一部分。

其三:引领国际AI外交与安全
要在全球AI竞争中取得成功,美国不仅要在国内推广AI。美国还必须推动美国AI系统、计算硬件和标准在全球范围内的应用。美国目前在数据中心建设、计算硬件性能和模型方面处于全球领先地位。美国必须利用这一优势,建立一个持久的全球联盟,同时防止对手搭乘我们的创新和投资便车。
向盟友和合作伙伴出口美国AI
美国必须通过向所有愿意加入美国AI联盟的国家出口其完整的AI技术栈——硬件、模型、软件、应用和标准——来满足全球对AI的需求。未能满足这一需求将是一个不必要的失误,导致这些国家转向我们的竞争对手。美国技术的推广和扩散将阻止我们的战略对手使我们的盟友依赖外国对手技术。
建议政策行动
-
• 在DOC内部建立并运行一项计划,旨在收集行业联盟关于全栈AI出口方案的提案。一旦DOC选定联盟,经济外交行动小组(Economic Diplomacy Action Group)、美国贸易和发展署(U.S. Trade and Development Agency)、进出口银行(Export-Import Bank)、美国国际发展金融公司(U.S. International Development Finance Corporation) 和国务院(DOS) 应与DOC协调,促成符合美国批准的安全要求和标准的交易。
反制中国在国际治理机构中的影响力
联合国(United Nations)、经济合作与发展组织(Organisation for Economic Co-operation and Development)、G7、G20、国际电信联盟(International Telecommunication Union)、互联网名称与数字地址分配机构(Internet Corporation for Assigned Names and Numbers) 等众多国际机构都提出了AI治理框架和AI发展战略。美国支持志同道合的国家合作,鼓励AI发展与我们共同的价值观相符。但其中太多努力倡导繁重监管、推行不符合美国价值观的模糊“行为准则”,或受试图塑造人脸识别和监控标准的中国公司影响。
建议政策行动
-
• 在DOS和DOC的领导下,利用美国在国际外交和标准制定机构中的地位,积极倡导促进创新、体现美国价值观并反制威权主义影响的国际AI治理方法。

加强AI计算出口管制执法
先进的AI计算是AI时代的关键,它既能带来经济活力,又能催生新型军事能力。因此,阻止我们的外国对手获取这一资源,既是地缘战略竞争问题,也是国家安全问题。为此,我们应探索出口管制执法的创新方法。
建议政策行动
-
• 在DOC、OSTP和NSC的领导下,与行业合作,探索利用先进AI计算中新的和现有地理位置验证功能,以确保芯片未流向关注国家。 -
• 在DOC的领导下,建立一项新工作,与IC官员就全球芯片出口管制执法进行合作。这将包括监测AI计算领域新兴技术发展,以确保全面覆盖可能发生芯片转运的国家或地区。这种增强的监测可用于扩大和加强对先进美国原产AI计算高转运风险国家的最终用途监控,尤其是在工业与安全局(Bureau of Industry and Security) 没有出口管制官员驻扎的国家。
堵塞现有半导体制造出口管制漏洞
半导体是人类有史以来最复杂的发明之一。美国及其亲密盟友在半导体制造供应链中的许多关键零部件和工艺方面拥有接近垄断的地位。我们必须继续在半导体制造领域进行开创性研究和新发明方面引领世界,但美国也必须防止对手以损害我们国家安全的方式利用我们的创新。这需要采取新措施来弥补半导体制造出口管制中的空白,并加强执法。
建议政策行动
-
• 在DOC的领导下,制定针对半导体制造子系统的新出口管制。目前,美国及其盟友对半导体制造所需的主要系统实施出口管制,但并未管制许多零部件子系统。
在全球范围内统一保护措施
美国必须对敏感技术实施严格的出口管制。我们应鼓励合作伙伴和盟友遵循美国的管制,而不是填补空缺。如果他们这样做,美国应使用外国直接产品规则(Foreign Direct Product Rule) 和二级关税(secondary tariffs) 等工具,以实现更大程度的国际协同。
建议政策行动
-
• 在DOC和DOS的领导下,并与NSC、DOE和NSF协调,制定、实施和共享关于互补技术保护措施的信息,包括在基础研究和高等教育领域,以减轻来自战略对手和相关实体的风险。这项工作应建立在DOS和DOC现有努力的基础上,或者在必要时涉及新的外交行动。 -
• 制定一份AI全球联盟的技术外交战略计划,由DOS牵头,与DOC、DOD和DOE协调,旨在协调政府各部门的激励措施和政策杠杆,促使主要盟友在供应链中采用互补的AI保护系统和出口管制。该计划应旨在确保美国盟友不向美国寻求实施出口管制的对手供应技术。 -
• 扩展促进AI技术栈多边控制的新倡议,避免仅依赖多边条约机构实现这一目标,同时涵盖现有美国管制和未来所有管制,以平衡美国与盟友之间的管制水平。 -
• 在DOC和DOD的领导下,与盟友协调,确保他们采纳美国的出口管制,与美国合作开发新的管制,并禁止美国对手向其国防工业基础供应或获取国防供应商的控股权。

确保美国政府在评估前沿模型国家安全风险方面处于最前沿
最强大的AI系统可能在不久的将来带来新型国家安全风险,例如在网络攻击以及化学、生物、放射性、核或爆炸性(CBRNE)武器的开发等领域,以及新型安全漏洞。由于美国目前在AI能力方面处于领先地位,美国前沿模型中存在的风险很可能预示着外国对手未来将拥有的能力。了解这些风险的性质及其演变对国防和国土安全至关重要。
建议政策行动
-
• 与前沿AI开发商合作,评估前沿AI系统的国家安全风险,由DOC的CAISI牵头,并与在CBRNE和网络风险方面具有相关专业知识的其他机构合作。 -
• 在DOC的CAISI的领导下,与国家安全机构合作,评估和评测对手AI系统在关键基础设施和美国经济其他领域使用可能产生的潜在安全漏洞和恶意外国影响,包括后门及其他恶意行为的可能性。这些评估应包括对美国和对手AI系统能力、外国AI系统应用情况以及国际AI竞争状况的评估。 -
• 优先招募顶尖AI研究人员进入联邦机构,包括DOC内部的NIST和CAISI、DOE、DOD和IC,以确保联邦政府能够持续提供前沿的AI系统评估和分析。 -
• 通过DOC的CAISI、国家安全机构和相关研究机构之间的协作,建立、维护并根据需要更新国家安全相关的AI评估。

投资生物安全
AI将释放生物学领域近乎无限的潜力:治疗新疾病、新颖工业应用案例等等。同时,它也可能为恶意行为者合成有害病原体及其他生物分子创造新的途径。解决这个问题需要一种多层次的方法,旨在筛选恶意行为者,并提供更有效筛选的新工具和基础设施。随着这些工具、政策和执法机制的成熟,与盟友和合作伙伴合作以确保国际采纳将至关重要。
建议政策行动
-
• 要求所有接受联邦资金进行科学研究的机构,使用具备健全核酸序列筛选和客户验证程序的核酸合成工具和合成服务提供商。为此要求创建执法机制,而非依赖自愿性声明。 -
• 在OSTP的领导下,召集政府和行业参与者,开发一种机制,促进核酸合成服务提供商之间的数据共享,以筛选潜在欺诈性或恶意客户。 -
• 通过DOC的CAISI、国家安全机构和相关研究机构之间的协作,建立、维护并根据需要更新国家安全相关的AI评估。

(文:赛博禅心)