在transformers中执行程序,实现指数级更快的推理。
Executing programs inside transformers with exponentially faster inference

原始链接: https://www.percepta.ai/blog/can-llms-be-computers

Percepta/实地笔记 加入我们 大型语言模型能成为计算机吗? 在Transformer中执行程序,推理速度呈指数级提升 Christos Tzamos 及 Percepta 的其他成员 · 2026年3月11日 条款与条件 职业生涯 © 2026 Percepta 版权所有。

Percepta.ai 开发了一种在 Transformer 模型*内部*执行程序的方法,从而显著提高了推理速度。其核心思想利用注意力机制,使模型能够在处理过程中“运行”代码,而不仅仅是预测下一个词。 Hacker News 上的早期反馈非常积极,评论者强调了提高模型可解释性的潜力——特别是如果模型行为依赖于伪符号处理。一位用户指出,这种方法验证了将工具直接集成到模型计算中的想法,而另一位用户则觉得这项工作令人着迷,尤其是内存实现方面。 虽然一位评论者质疑执行是否等同于理解,但总体情绪是这在人工智能领域是一项突破性的、令人兴奋的进展。
相关文章

原文

Can LLMs Be Computers?

Executing programs inside transformers with exponentially faster inference

Christos Tzamos together with others at Percepta · Mar 11, 2026
联系我们 contact @ memedata.com