请启用 JavaScript 并禁用任何广告拦截器。
请启用 JavaScript 并禁用任何广告拦截器。
特朗普总统下令禁止美国政府使用人工智能公司Anthropic的产品,五角大楼将其列为国家安全风险,加剧了关于军事人工智能使用的争端。这场冲突源于Anthropic拒绝允许其人工智能模型Claude被用于国内大规模监控或完全自主的武器系统,涉及潜在的2亿美元合同。 特朗普指责Anthropic试图“强迫”军队,而五角大楼辩称,它为了合法的防御目的需要对人工智能进行无限制的访问。Anthropic坚持认为,由于人工智能在这些应用中的当前不可靠性以及对侵犯基本权利的担忧,其限制是必要的。 Anthropic计划对这一认定提出法律挑战,认为五角大楼的行动树立了一个危险的先例。另一家与国防部签订合同的人工智能公司OpenAI也表达了类似的担忧。这种情况很不寻常,通常情况下,承包商不会规定其产品的用途,但专家指出,人工智能的新颖性使得此案有所不同。禁令出台之际,Anthropic正在准备首次公开募股(IPO),引发了人们对投资者反应的质疑。
## Gawk 5.4.0 发布 – 2026年2月22日 GNU Awk 5.4.0 版本现已发布,可从 [https://ftp.gnu.org/gnu/gawk](https://ftp.gnu.org/gnu/gawk) 下载,格式包括 `.tar.gz`、`.tar.xz` 和 `.tar.lz`。这是一个重要的发布版本,历经两年多的工作,并引入了重大更改。 关键更新是采用 Mike Haertel 的 **MinRX 正则表达式匹配器** 作为默认选项,提供完整的 POSIX 兼容性。现有的正则表达式引擎仍然可以通过 `GAWK_GNU_MATCHERS` 环境变量使用。其他改进包括新的 `@nsinclude` 指令、增强的 MinGW 和 OpenVMS 端口的 Unicode/UTF-8 支持,以及对持久内存处理的修复。 该版本还解决了几个错误,并包含更新的手册。错误报告应通过 `gawkbug` 脚本或发送至 `[email protected]` 提交,一般问题应发送至 `[email protected]`。鼓励开发者测试新的 MinRX 匹配器并报告任何问题。
美国战争部将Anthropic列为供应链风险,原因是关于其人工智能模型Claude的使用谈判陷入僵局。争议焦点在于Anthropic拒绝允许Claude在两个领域使用:完全自主武器和大规模国内监控,理由是安全和权利问题。 这一指定——历史上仅保留给敌对势力——对于一家美国公司来说是前所未有的。Anthropic认为此举在法律上站不住脚,并将提起诉讼。 战争部表示,此指定将广泛限制与Anthropic的业务往来,但该公司澄清,该指定在法律上*仅*适用于Claude在战争部合同中的使用。 个人客户和拥有商业合同的客户将不受影响。 Anthropic仍然致力于支持美国军方,同时坚持其原则,并将继续在这些限制性应用之外提供对其人工智能工具的访问。
启用 JavaScript 和 Cookie 以继续。
这封信旨在建立一个广泛的联盟,成员包括现任和前谷歌及OpenAI员工,他们对人工智能可能被滥用,损害美国人利益表示担忧。签署者无需在*所有*解决方案上达成一致,只需同意信中概述的核心原则。 这封信由不隶属于任何政治或公司组织的独立公民发起,并优先考虑签署者的隐私。接受匿名签名,个人数据将在24小时内删除,只有一位组织者拥有临时访问权限用于验证。公开签名将显示姓名和所属机构。 验证非常严格,使用@google.com或@openai.com电子邮件地址,或人工审核就业证明。虽然系统曾出现过轻微的验证错误(已迅速纠正),但持续的人工审核和系统改进旨在保持准确性。 该网站使用安全、位于美国的服务器基础设施(Fly.io、SQLite、Cloudflare),并避免使用分析/跟踪功能。签署者可以轻松地从匿名签名切换到公开签名。
## 广泛而深刻理解的价值 文章认为,真正的创新和深刻的思考源于对多个学科的广泛而深刻的理解——一种超越专业知识的“基础”。这并非关于收集框架,而是关于真正的好奇心和长期投入,从而建立一个稳健的内在世界模型。就像济慈所说“美即是真”,一种根本性的理解就足够了。 作者将这种理解与现代的“挂衣架”倾向形成对比——即在没有内化的前提下积累想法——而人工智能则加剧了这种倾向,它可以生成输出而无需真正的理解。真正的专业知识并非关于能动性或持续行动,而是关于拥有强大的“意识形态”——一种通过经验和批判性思维锻造的连贯世界观。 这种深度使个人能够驾驭复杂性,发现别人忽略的机会,并做出有意义的贡献。这关乎培养直觉,不仅仅通过信息,而是通过积极*解决*问题并被这个过程所塑造。最终,作者提倡一种文艺复兴式的求知欲,由内在动力驱动,作为应对日益复杂和快速变化的世界的关键。
## 掌控自我:雇佣你自己! hired.wtf 提供一个独特的“职位空缺”——你注定要扮演的角色,在你自己的生活中。这并非传统的雇主,而是你对自己做出的承诺。你定义角色,设定报酬(内在动力!),并完全负责实现自我设定的里程碑。 最近的“雇佣”包括“实际交付总监”(启动停滞的项目)和“规律睡眠副总裁”(每晚获得7小时以上睡眠)等职位。该网站提供正式合同,甚至有一封预先写好的解雇信……以备你最终想要放弃的时候。 流程很简单:定义你的角色,回答几个问题,签署合同,并对自己负责。这是一个免费、无附加条件的工具,旨在帮助你最终完成那些一直拖延的个人目标,并通过(自我施加的)解雇威胁来获得额外的动力。
## 极简Transformer加法挑战:总结
这项挑战旨在发现能够准确加两个10位数字的最小Transformer模型(在包含10,000个数字的测试集上达到>=99%的准确率)。该项目最初由Claude Code和Codex发起,并在社区贡献下取得了显著进展,大幅减少了模型尺寸。
追踪两大类模型:**训练**模型(通过SGD等算法学习权重)和**手工编码**模型(分析性定义权重,证明架构能力)。目前领先的模型非常小巧——一个手工编码的解决方案仅用**36个参数**就实现了100%的准确率,而一个训练模型则利用秩3分解,以**311个参数**达到了99.999%的准确率。
推动这些结果的关键技术包括低秩投影、分解嵌入、自定义位置编码(如ALiBi)和课程学习。核心约束是真正的自回归Transformer——自注意力是*必需的*,并且进位必须从模型的生成过程中产生,而不是显式代码。这项挑战突出了大约800个参数附近的“参数悬崖”,并展示了秩3分解等技术对于可学习解决方案的强大作用。
启用 JavaScript 和 Cookie 以继续。