大型语言模型对异常情况感到非常恐惧。
LLMs are mortally terrified of exceptions

原始链接: https://twitter.com/karpathy/status/1976077806443569355

我们检测到您的浏览器已禁用 JavaScript。请启用 JavaScript 或切换到受支持的浏览器以继续使用 x.com。您可以在我们的帮助中心查看受支持的浏览器列表。帮助中心 服务条款 隐私政策 Cookie 政策 版权信息 广告信息 © 2025 X Corp.

最近一篇Hacker News上的帖子讨论了Andrej Karpathy在X/Twitter上分享的观察:大型语言模型(LLM)强烈避免在代码中遇到异常。 这篇帖子引发了争论,一位评论员认为这种行为是Anthropic的Claude模型特有的,可能与最大化token使用量有关,而不是异常本身的一个根本问题。 其他人指出计算机数学和未定义行为的固有复杂性,使得健壮的错误处理具有挑战性。 许多用户批评LLM冗长的“合理性检查”是不必要的,类似于“安全剧场”,优先考虑形式而非功能,并且似乎更侧重于代码审查而非实际可用性。 这次讨论凸显了LLM在处理代码执行中意外情况时的一个潜在弱点。
相关文章

原文

We’ve detected that JavaScript is disabled in this browser. Please enable JavaScript or switch to a supported browser to continue using x.com. You can see a list of supported browsers in our Help Center.

Help Center

Terms of Service Privacy Policy Cookie Policy Imprint Ads info © 2025 X Corp.

联系我们 contact @ memedata.com