
微新创想:美国司法部在近期的一份法庭文件中对 AI 初创公司 Anthropic 的诉讼作出了严厉回应
政府方面坚称 将该公司标记为“供应链风险”并未侵犯其第一修正案权利 并预测 Anthropic 的诉讼最终将以失败告终
这场纷争源于 Anthropic 试图限制其 Claude 模型在军事领域的用途
对此 政府采取了强硬立场 合规惩罚:政府辩称 由于 Anthropic 试图限制军方使用其 AI 模型的方式 政府依法将其列为风险对象是正当的
安全信任危机:司法部直言不讳地指出 鉴于 Anthropic 在军事合同谈判中表现出的限制性态度 该公司无法在作战系统中获得信任
特朗普政府此前已发布命令 计划将 Anthropic 排除在政府供应商名单之外
这一举动在行业内引发了剧烈震荡 十数十亿损失风险:Anthropic 高层警告 被贴上“供应链风险”标签已导致多家合作伙伴暂停合作 潜在损失可能高达数十亿美元
同行声援:包括 Google DeepMind 首席科学家 Jeff Dean 在内的多名来自 OpenAI 和谷歌的员工已提交法律文书 支持 Anthropic 反抗政府禁令
Anthropic 一直以“AI 安全”为核心标签 拒绝将其技术用于自主武器或政府监控
然而 这种坚持正使其面临被踢出价值不菲的军事合同市场的困境
与此同时 竞争对手如微软旗下的 OpenAI 技术已被证实正在接受五角大楼的测试 尽管其此前也曾有过类似的限制条款
