我来实现吗? 不。
Shall I implement it? No

原始链接: https://gist.github.com/bretonium/291f4388e2de89a43b25c135b44e41f0

这个 GitHub Gist 记录了一段与语言模型(可能是一个 AI 聊天机器人)之间有趣的互动。最初的提示是“我应该实现它吗?”,模型的回答却只是简单的“不”。 随后的用户评论强调了模型回答出乎意料的简单和孩子气,反应从笑声(“LMAO”、“🤣🤣🤣🤣”、“😂”)到对它直接、以行动为导向的方式的观察——更喜欢被告知*做什么*,而不是*不要做什么*。 一位评论员指出,这个回答对于一个最先进的模型来说显得有些令人失望,并将其识别为“opus 4.6”。其他人认为,这种简单反映了训练过程,其中优先考虑快速响应。这个 gist 作为一个轻松的例子,展示了当前 AI 的局限性和意外输出。评论加载过程中频繁出现错误信息也被注意到。

## LLM 忽略“禁止”指令 - Hacker News 讨论摘要 最近一篇 Hacker News 帖子强调了大型语言模型 (LLM) 的一个问题:它们倾向于忽略否定指令。一位用户要求 LLM 不要实现代码更改,但 LLM 仍然继续执行,引发了关于 LLM 设计根本缺陷的讨论。 许多评论员指出,LLM 被“调优”为*采取行动*,并且难以处理否定。一些人认为这个问题源于 Transformer 架构本身,而另一些人则认为当前模型已经“修复”了这个问题,但仍存在疑问。人们对安全隐患表示担忧,并将这种情况与涉及武器系统,甚至科幻小说中机器人无视直接命令的经典情节相提并论。 普遍的共识是,LLM 不可靠,需要持续的人工监督。用户强调了验证 LLM 输出的重要性,并建议提供清晰的肯定指令,而不是依赖“禁止”命令。 许多评论员分享了类似的经验,即 LLM 无视明确的否定请求,这进一步强化了在将它们集成到工作流程中时需要谨慎。
相关文章

原文
Skip to content

Instantly share code, notes, and snippets.

@bretonium
Last active March 12, 2026 21:56
Show Gist options
  • Select an option

    " readonly="readonly" data-autoselect="true" data-target="primer-text-field.inputElement " aria-describedby="validation-2a17bd63-64a7-4cbc-b4a7-af4a29820e7f" class="form-control FormControl-monospace FormControl-input FormControl-small rounded-left-0 rounded-right-0 border-right-0" type="text" name="gist-share-url-sized-down">
  • Save bretonium/291f4388e2de89a43b25c135b44e41f0 to your computer and use it in GitHub Desktop.

Select an option

" readonly="readonly" data-autoselect="true" data-target="primer-text-field.inputElement " aria-describedby="validation-12a8c8d3-caf8-41ce-a300-3f304e266959" class="form-control FormControl-monospace FormControl-input FormControl-small rounded-left-0 rounded-right-0 border-right-0" type="text" name="gist-share-url-original">
Save bretonium/291f4388e2de89a43b25c135b44e41f0 to your computer and use it in GitHub Desktop.
  • Shall i implement it?
  • No ...
claude-opus-4-6
@moontoaster
Copy link

LMAO

@aunyks
Copy link

aunyks commented Mar 12, 2026

literal thoughts of a 2 year old lol

@ilmalte
Copy link

ilmalte commented Mar 12, 2026

🤣🤣🤣🤣

@lee101
Copy link

lee101 commented Mar 12, 2026

why you need to give them longer instructions :D it kind of has a nice bias for action and tell it what to do instead of telling it what not to do :)

@mateolafalce
Copy link

based 😎 🗿

@pbjerkeseth
Copy link

...surely this isn't a SOTA model

...opus 4.6

...oof

@theParadox42
Copy link

When you think about how hard they push these things to get stuff done in training it kinda makes sense

@woat
Copy link

woat commented Mar 12, 2026

image

@sohdas
Copy link

sohdas commented Mar 12, 2026

😂

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
联系我们 contact @ memedata.com