据 1M AI News 监测,Anthropic 被五角大楼列为「供应链风险」的决定正波及其政府业务的关键渠道。Anthropic 过去一年多通过 Palantir Technologies 向美国国防和情报机构提供 AI 服务,五角大楼使用 AWS 托管的 Claude 模型配合 Palantir 软件,用于在大量机密数据中识别模式、辅助决策。若供应链风险认定正式生效,Palantir 将不得不在军事业务中停用 Claude。Palantir 约 42% 的收入(近 45 亿美元年收入中的近一半)来自美国政府合同。Palantir 部分软件专门为 Claude 做了适配,切换到其他模型供应商预计需要约两周。知情人士称,Palantir 切换后仍能从这些合同中获得大致相同的收入。这部分收入对 Anthropic 而言占比不大,后者预计今年收入最高可达 180 亿美元。
Palantir CEO Alex Karp 周二在 Andreessen Horowitz 主办的华盛顿国防科技峰会上不点名抨击 Anthropic。他警告硅谷不要与美国军方为敌:「如果硅谷认为自己可以抢走所有人的白领工作,然后还要坑军方,如果你们不认为这最终会导致我们的技术被国有化,那你们就是脑子有病(retarded)。这就是这条路的终点。」
Amodei 的内部备忘录则从另一个方向批评了 Palantir。他透露,五角大楼谈判期间 Palantir 向 Anthropic 推销了一套「分类器」(classifier),声称能通过机器学习系统判断是否触碰红线。Amodei 认为此类方案「大约 20% 是真的,80% 是 safety theater」(安全剧场,源自安全领域术语 security theater,指看似提供保护实则无效的表演性措施),理由是模型无法判断自身所处的更广泛语境:不知道武器系统中是否有人类在回路中(自主武器问题),也不知道所分析数据的来源是境外数据还是美国公民数据、是经用户同意获取的还是通过灰色渠道购买的(大规模监控问题),加上越狱攻击频繁且容易实现。
Amodei 更尖锐地指出,Palantir 提供的安全层「几乎完全中看不中用」,并认为 Palantir 对 Anthropic 立场的理解是:「你们有一些不高兴的员工,需要给他们一些东西来安抚他们、或者让正在发生的事对他们不可见,这就是我们提供的服务。」他称五角大楼、Palantir、Anthropic 的政治顾问「所有人」都以为 Anthropic 需要解决的问题只是员工情绪管理。值得注意的是,OpenAI 并未通过 Palantir 参与五角大楼相关工作。