一场新的、非法发动的战争——据美国战争部长皮特·海格塞斯称,这场战争“没有愚蠢的交战规则”——已经开始,以对伊朗一所小学的毁灭性导弹袭击为标志,近200名女孩和老师丧生。这场冲突严重依赖于先进的人工智能技术,特别是Anthropic的Claude,其资金部分来自亚马逊(及其所有者杰夫·贝佐斯,他最近解雇了《华盛顿邮报》的员工)。
《华盛顿邮报》赞扬了Claude在“精确”识别目标方面的作用,但未能将这种精确性与平民伤亡联系起来。作者认为,这凸显了一个令人不安的循环:大型科技寡头通过向军方出售有缺陷的人工智能来获利,他们的媒体机构随后宣传人工智能的有效性,同时淡化人为代价。
尽管投入了大量资金,人工智能对美国经济增长的贡献“基本为零”,但却被吹捧为军事成功的关键。作者警告说,对本质上容易出错的人工智能的依赖构成了日益增长的风险,将少数人的利润置于民主价值观和可持续进步之上。他呼吁抵制并支持致力于创造更具伦理未来的替代社区。
## 创新的双刃剑
纵观历史,旨在减轻苦难或实现和平的发明,常常被扭向破坏性的用途。理查德·加特林在1861年认为他的速射枪会*减少*军队数量,从而降低战争的代价。同样,20世纪20、30年代的早期火箭先驱,如奥伯特和VfR,梦想着太空探索,但他们的工作最终被韦尔纳·冯·布劳恩领导下的纳粹军方利用,最终导致了二战中的V-2火箭。
这种模式在其他创新中也得以延续。桑托斯-杜蒙设想飞机用于和平,但它们很快变成了战争工具。阿尔弗雷德·诺贝尔发明炸药,希望其巨大的威力能够*阻止*冲突,但它既推动了建设,也带来了破坏,使他内心备受煎熬。甚至原子弹,源于对纳粹德国的恐惧,也促使像西拉德这样的科学家警告说,一场毁灭性的军备竞赛即将到来,并呼吁进行国际控制——但这些警告不幸被忽视了。
就连AK-47的发明者米哈伊尔·卡拉什尼科夫,也一直在为他的创造所带来的道德影响而苦恼,尽管他本意是为他的国家提供防御,但他仍然质疑自己的罪责。这些故事揭示了一个反复出现的悖论:追求进步可能会无意中释放出具有不可预见且常常是毁灭性后果的力量,凸显了创新、意图和人类冲突之间复杂的关系。
## LLM 与正确性的错觉:数据库案例研究
最近的实验揭示了一个鲜明对比:在 SQLite 中对 100 行数据进行主键查找耗时 0.09 毫秒,而 LLM 生成的 Rust 重写版本却高达 1,815 毫秒——慢了 20,171 倍。尽管该重写版本可以编译、通过测试并正确处理 SQLite 文件格式,但它在基本操作上却彻底失败。
这并非编码错误,而是 LLM 优先考虑 *合理性* 而非 *正确性* 的体现。这段代码是对数据库的 576,000 行代码的重新实现,*看起来* 像一个数据库,但缺少关键的性能优化。具体来说,它未能识别 `INTEGER PRIMARY KEY` 列,导致进行全表扫描,而不是高效的 B 树搜索。
作者强调了一个更广泛的问题:LLM 擅长生成 *看起来* 可用的代码,但通常缺乏通过多年性能分析和优化获得的细致理解。研究证实了这一点,表明 AI 辅助开发会导致代码复制增加和稳定性降低。
关键要点?LLM 是强大的工具,但需要用户在代码生成 *之前* **定义明确的验收标准** 并严格验证输出。 否则,你可能会构建复杂、看似正确的系统,但实际上存在根本性缺陷。正确性不仅仅是关于通过测试;它还关于可证明的性能和对底层原理的深刻理解。