## 调试抽象层之下 作者利用最近的失业时间,尝试了Seiya Nuta的1000行操作系统教程,这与他们平时的高级应用编程有很大不同。这次经历凸显了一个关键的区别:在使用汇编和底层代码时,缺乏熟悉的抽象层。 调试比预期的更具挑战性。多年应用层调试的经验——追踪调用堆栈和调查逻辑错误—— оказались неэффективными。问题源于根本性的错误,例如缺少`ret`指令(导致意外的执行流程)以及打包结构体中不正确的数据类型大小。这些错误在C语言中编译,甚至*看起来*可以工作,但在汇编中由于手动偏移量计算而显现出来。 关键收获是一个严峻的认识:操作系统代码更接近硬件运行,需要直接检查汇编代码并关注内存布局。与高级语言不同,依赖抽象层来捕获错误的空间很小。虽然ChatGPT在RISC-V解释方面有所帮助,但它在调试方面遇到了困难,反映了作者最初以抽象为中心的调试方法。 尽管存在挑战,但这次经历令人鼓舞,与调试复杂应用框架的“魔法”相比,它提供了一种令人耳目一新的体验。
一场新的、非法发动的战争——据美国战争部长皮特·海格塞斯称,这场战争“没有愚蠢的交战规则”——已经开始,以对伊朗一所小学的毁灭性导弹袭击为标志,近200名女孩和老师丧生。这场冲突严重依赖于先进的人工智能技术,特别是Anthropic的Claude,其资金部分来自亚马逊(及其所有者杰夫·贝佐斯,他最近解雇了《华盛顿邮报》的员工)。
《华盛顿邮报》赞扬了Claude在“精确”识别目标方面的作用,但未能将这种精确性与平民伤亡联系起来。作者认为,这凸显了一个令人不安的循环:大型科技寡头通过向军方出售有缺陷的人工智能来获利,他们的媒体机构随后宣传人工智能的有效性,同时淡化人为代价。
尽管投入了大量资金,人工智能对美国经济增长的贡献“基本为零”,但却被吹捧为军事成功的关键。作者警告说,对本质上容易出错的人工智能的依赖构成了日益增长的风险,将少数人的利润置于民主价值观和可持续进步之上。他呼吁抵制并支持致力于创造更具伦理未来的替代社区。