美国战争部将Anthropic列为供应链风险,原因是关于其人工智能模型Claude的使用谈判陷入僵局。争议焦点在于Anthropic拒绝允许Claude在两个领域使用:完全自主武器和大规模国内监控,理由是安全和权利问题。 这一指定——历史上仅保留给敌对势力——对于一家美国公司来说是前所未有的。Anthropic认为此举在法律上站不住脚,并将提起诉讼。 战争部表示,此指定将广泛限制与Anthropic的业务往来,但该公司澄清,该指定在法律上*仅*适用于Claude在战争部合同中的使用。 个人客户和拥有商业合同的客户将不受影响。 Anthropic仍然致力于支持美国军方,同时坚持其原则,并将继续在这些限制性应用之外提供对其人工智能工具的访问。
## 极简Transformer加法挑战:总结
这项挑战旨在发现能够准确加两个10位数字的最小Transformer模型(在包含10,000个数字的测试集上达到>=99%的准确率)。该项目最初由Claude Code和Codex发起,并在社区贡献下取得了显著进展,大幅减少了模型尺寸。
追踪两大类模型:**训练**模型(通过SGD等算法学习权重)和**手工编码**模型(分析性定义权重,证明架构能力)。目前领先的模型非常小巧——一个手工编码的解决方案仅用**36个参数**就实现了100%的准确率,而一个训练模型则利用秩3分解,以**311个参数**达到了99.999%的准确率。
推动这些结果的关键技术包括低秩投影、分解嵌入、自定义位置编码(如ALiBi)和课程学习。核心约束是真正的自回归Transformer——自注意力是*必需的*,并且进位必须从模型的生成过程中产生,而不是显式代码。这项挑战突出了大约800个参数附近的“参数悬崖”,并展示了秩3分解等技术对于可学习解决方案的强大作用。