距离特朗普政府启动联邦政府 AI 发展计划已经不到一个月,而计划所依托的一套代码库却在 GitHub 上遭意外泄露,并在下线前被不少目光敏锐的观察者所发现。
泄露的信息核心是“AI.gov”项目:AI.gov 将成为政府机构在运营流程中引入 AI 的枢纽,由美国总务管理局(GSA)与技术转型服务局(TTS)小组,在 Thomas Shedd 的领导下合作开发。
泄露事件被曝光没多久,该代码仓库就从 GitHub 上消失了。不过有网友称,虽然 ai.gov 的 GitHub 代码仓库似乎不再显示,但也并没有完全隐藏——总务管理局方面只是把它移到了一大堆归档项目当中。有兴趣的读者朋友可以查看:https://github.com/gsa-tts-archived/ai.gov
泄露了哪些信息
从泄露的代码仓库信息来看技术转型服务小组负责人、马斯克的盟友 Thomas Shedd 在今年 1 月底接掌团队时就曾提出这一设想。
Shedd 的职业生涯主要是在特斯拉担任软件集成工程经理,之后被任命为技术转型服务负责人。他加入政府之初就将 AI 放在了首位。据报道,他希望总务管理局能够像初创软件公司那样运营,并提出了一项涵盖全政府且 AI 优先的战略,希望将目前联邦雇员的大部分工作转为自动化。
根据 GitHub 上托管的 AI.gov 网站暂存链接,Shedd 的任务将于 7 月 4 日正式启动——从现已隐藏的 GitHub 页面内相关问题帖判断,这也将是该网站的正式上线日期。值得注意的是,7 月 4 日也是美国独立日。
据开发者介绍,AI.gov 的计划上线日期为 7 月 4 日
从 ai.gov 基础阶段的实施来看,该项目共包含三大组件:
- 一款可以执行某些操作的聊天机器人;
- 一个“一体化 API”,允许各政府部门将其系统接入至 OpenAI、谷歌以及 Anthropic 模型;
- 一款名为“CONSOLE”的方案,页面将其描述为“分析机构整体实施情况的突破性工具”,CONSOLE 将允许各机构实时监控其内部的 AI 使用情况,以了解员工如何使用工具以及他们更喜欢哪些工具。
网站内容显示,总务管理局正与获得 FedRAMP 认证的供应商合作。根据 GitHub 页面上的 API 文档,AI.gov 将通过 Amazon Bedrock 提供 AI 模型,API 文档中列出的大部分模型均已获得 FedRAMP 认证,可供政府部门使用。此外,还可以看到,API 文档中还出现了企业级 AI 厂商 Cohere 的一款模型,而 Cohere 似乎并未获得 FedRAMP 认证。
根据 API 文档,AI.gov 网站将会推送部分 AI 模型列表
GitHub 文档还提到,该网站将发布大模型排名,但目前还不清楚具体排序标准。
政府决策靠 AI?
“他们的无能程度令人难以置信。”有网友愤怒地表示。
此次泄漏事件引发了人们对公共部门过度使用 AI 的不满。
“我在一家严重依赖人工智能的公司工作。每周都会有人多次找我,去解决他们因为盲目遵循大模型指示而搞砸的事情,这让我很震惊。”有网友在看到泄露消息后说道,可以看出其对 AI 处理工作的不信任。
联邦政府最近正大力宣传对 AI 技术的应用。相较于拜登政府,特朗普政府对 AI 的监管更加宽松,并试图取消各州一级监管,同时加大了对本土 AI 厂商的支持。
此外,特朗普政府及 DOGE 效率部积极推动 AI 应用,政府部门也越来越多采用 AI 来取代在大规模裁员中被裁撤的人手,甚至开始依靠 AI 进行关键决策。尽管马斯克最近离开了政府,并与特朗普“撕”了一场,但 AI.gov 项目表明,DOGE 的影响力仍在延续。然而,大力推行 AI 的 DOGE 此前在使用 AI 处理政府事务时就被公众质疑。
今年在特朗普政府准备取消退伍军人事务部(VA)的一些合同时,DOGE 团队里,直接让没有任何医疗或政府经验的软件工程师 Sahil Lavingia 开发了一个 AI 工具,用来识别哪些来自私营公司的服务是“非必要”的,这些合同会被标记为 “MUNCHABLE”。
使用结果就是错误百出。它会臆造合同金额、经常错误读取甚至夸大合同价值。比如,大模型认定有超过一千份合同的金额为 3400 万美元,而实际上其中有些合同仅值 3.5 万美元。
该 AI 工具最终将 2000 多份合同列为“MUNCHABLE”。外媒 ProPublica 从知情人士手中获得了这段 AI 代码及其标记的合同清单,并找了六位 AI 与政府采购方面的专家进行评价。所有专家一致认为该脚本存在严重缺陷。
专家表示,代码中出现的至少部分错误,是由于使用的 OpenAI 模型版本过旧,这些模型不具备处理复杂任务的能力。更严重的是,这个工具背后的指令本身就存在重大缺陷。记录显示,Lavingia 让 AI 系统只依据每份合同前几页的内容(大约 2500 个词)做出复杂判断,而这些内容往往只是概括性的摘要。
Lavingia 表示自己在入职第二天就完成了该工具的第一个版本,并使用 AI 辅助编写代码。他在 DOGE 工作了近两个月,本人也承认代码存在缺陷。“我可以肯定地说,确实有错误出现了。总是会有错误的。我绝不会建议任何人直接运行我的代码并照做。就像美剧《办公室》那一集,Steve Carell 因为谷歌地图指示要‘开进湖里’,他就真开进去了。‘不要开进湖里’。”
当时,许多人批评使用 AI 来主导 VA 预算削减的做法。“AI 完全不适合做这类事,”曾在奥巴马政府担任财政部 IT 合同监管员的 Waldo Jaquith 表示, “AI 经常会给出看起来很有说服力但其实错误的答案。这种工作必须由人来完成。”
据悉,今年 2 月,在 404 Media 获得了一段泄露的会议录音中,Shedd 告诉他的团队,他们将开发“AI 编码代理”,为整个政府编写软件,并表示他希望利用 AI 来分析政府合同。当时受访的一些政府雇员表示,Shedd 的计划在内部遭到“几乎一致反对”,彼时指出的多种可能出现的问题后来在实行中也出现了。
此外,公众担心的另一个问题是:“把一堆数据整合打包在一起,难道不会让黑客攻击的破坏性更大吗?”有网友列举了除此次泄露事件之外的其他案例:
国防部长(SecDef)的办公室里有一台未加密的私人电脑,连接的是私人、未加密的网络,而且他在上面运行 Signal。而他办公室本身是一个 SCIF(敏感隔离信息设施)——理论上是最应当安全的地方。
还有,如果你曾经使用过 Medicaid(联邦医疗补助),国土安全部(DHS)现在就拥有你的医疗记录,理由嘛……你自己猜。
再看看 DOGE,那边正在积累成一个庞大的“数据老鼠窝”,包括你的社会安全号,甚至一度打算把你的报税信息一并收集过去。这个 DOGE,根本算不上一个真正的政府机构,却由一些人掌控,比如那个现在已经升为 GS-15 级别公务员 的 “Big Balls”,他可是因为向竞争对手泄露商业机密被解雇过的人。
不仅如此,政府现在还雇用了 Palantir 来构建一个包含每个美国人隐私信息的数据库。所以,你完全不用担心了,这届政府正以一种“反向瑞士奶酪模型”(即满是漏洞)的方式来“保障”国家安全,几乎可以确定迟早会出现一场灾难级的安全泄露事件,并以各种方式危及美国人。
而一旦这种事情真的发生,要想弥补造成的伤害,可能就跟“想从大海里把尿提取出来”一样困难。
“他们无法雇佣到能通过忠诚度测试的优秀人才。人工智能是比他们更好的选择。”有网友吐槽道。
引发员工对 CEO 的吐槽
与吐槽特朗普政府“all in”人工智能相似,本次泄露事件还引发了网友们对工作中高层盲目推广 AI 使用的吐槽。
有网友以自己的工作为例,表达了自己使用 AI 编码的麻烦,“还不如自己直接写”:
我工作的公司正在极力推广 Copilot,但让我感到欣慰的是,我们大多数工程团队都在坚决抵制。我们 CEO 完全被 AI “神药”洗脑了,这让人特别恼火,因为你一听他谈 AI 能干什么,就知道他至少 20 年没写过代码了。他完全不了解现实情况,比如你经常得重新提示 AI 好几次才能勉强得到想要的结果(还不如自己直接写来得快),而且它的上下文也仅限于你当前操作的那个代码库。
只有等 AI 真正能理解并处理一个由复杂交织的微服务和内部工具库组成的系统时,我才会开始担心我的饭碗问题。
对此,有开发者跟帖吐槽:
当 AI“成功”时,高管们只听到“它能用”,然后就爱不释手。他们完全不知道其实花了好几次尝试才搞定,它可能非常脆弱,而且那个“写”出这段代码的开发人员之后也无法维护。他们天真地以为是一次就搞定的。
真正的问题会出现在需要修改代码的时候——几乎所有代码最终都要被改动,不管出于什么原因。到那时,整套东西就会彻底崩塌。
还有网友现身说法,指出“AI 提效工作量减少后去做更多事情”这一观点,在实践中并非总是如此:
我们上周开了一个会议,完美地展示了 CEO 们是怎么看待 AI 的。有人展示了他们如何用大约一周时间,把一个用 C# 写的大型项目转换成了 Java,而原本预计这项工作需要三个月才能完成(如果不用 AI 的话)。这相当于把所需工作量减少了约 90%。
这确实是一个 AI 能非常有用的优秀例子。问题在于,高管们看到这个之后就会想:“哇靠,我们可以把所有工作量都减少 90%,员工在同样的时间里就能做更多的事!”但事实根本不是这样的。
更别提编程只是软件工程师工作的一部分了。我都记不清我上一次整整 8 小时都在写代码是什么时候了,而当你不在写代码时,AI 的作用就会大打折扣。但这也是高管们拒绝承认的一件事,因为他们根本不想听这些。
另外,还有网友指出了过度使用 AI 给人类带来了“能力退化”的问题:
我工作用的是 Google 的办公套件和邮箱。最近我们公司开通了 Gemini Pro,从那之后就一团糟。
一开始,我们开发团队只是拿它玩玩,生成点搞笑图片,或者用来总结一些文档里没写清楚的库函数用法,轻度使用。但现在已经发展到除了我之外的所有人的其中一台显示器专门用来看 Gemini。他们现在都变成了“氛围编码”的信徒。就连最基础的、入门级的东西,他们也要先喂给 Gemini 一遍再动手。
我完全支持把 AI 当成工具来提升效率,但他们现在几乎已经完全不动脑子写代码了,我已经能看到“编程肌肉”开始退化的迹象了。
那么,你认为现在 AI 可以处理什么样的任务呢?你是主动拥抱 AI 还是被动的?欢迎在评论区分享你的想法~
参考链接:
https://www.theregister.com/2025/06/10/trump_admin_leak_government_ai_plans/
https://www.propublica.org/article/trump-doge-veterans-affairs-ai-contracts-health-care
本文来自微信公众号“AI前线”,整理:褚杏娟 核子可乐 ,36氪经授权发布。