## 结合人工智能代理的重新构想的文学编程 文学编程——将代码与解释性散文结合起来——旨在使代码库像叙述一样易于理解。虽然概念上很有吸引力,但历史上由于维护并行代码和文档的负担而受挫。像 Jupyter Notebook 和 Emacs Org Mode 这样的常见实现,虽然有用,但对于大型项目而言,往往会变得繁琐,需要持续的“解缠”(代码提取),并存在覆盖更改的风险。 然而,大型语言模型 (LLM) 代理的兴起正在重振这一概念。像 Claude 和 Kimi 这样的代理擅长理解和生成 Org Mode 等格式,有效地处理维护同步散文和代码的复杂性。 现在,代理可以*自动*管理解缠,将集成了散文的文件视为事实来源,并始终用自然语言重新解释代码更改。这消除了之前阻碍采用的核心工作。作者发现这对于测试和记录流程特别有效,并设想未来代码库可以轻松阅读的叙述,甚至可以通过上下文意图解释来提高代码质量。虽然目前在较小规模上进行测试,但大型、代理维护的文学代码库的潜力令人信服,即使存在格式限制(例如 Org Mode 与 Emacs 的关联)。
## 神经集群:从鸟群到“Noids”
受星形雀群(表现出无中心控制的协调运动的鸟群)的启发,“Noids”是一种被设计用来复制这种行为的神经网络。研究表明,星形雀大约会跟随7个附近的邻居,基于*拓扑*距离(排名,而非物理距离),即使在鸟群拉伸的情况下也能保持凝聚力。
传统的“Boids”使用手动编写的规则(分离、对齐、凝聚)来模拟鸟群。然而,“Noids”*学习*鸟群行为。每个Noid网络只有1,922个参数,接收输入,代表它自身的速度以及5个邻居的位置/速度,并输出一个转向力。
这种简化设计允许高效计算——利用GPU并行处理进行快速模拟。训练涉及模仿已建立的Boid规则,但由此产生的网络将行为体现为单个学习函数,反映了星形雀大脑的生物学合理性。涌现的鸟群行为展示了复杂行为如何从简单的、局部作用的个体和相对较少数量的学习参数中产生。代码是开源的,突出了可访问和可扩展的鸟群模拟的潜力。