- Shall i implement it?
- No ...
原始链接: https://gist.github.com/bretonium/291f4388e2de89a43b25c135b44e41f0
这个 GitHub Gist 记录了一段与语言模型(可能是一个 AI 聊天机器人)之间有趣的互动。最初的提示是“我应该实现它吗?”,模型的回答却只是简单的“不”。 随后的用户评论强调了模型回答出乎意料的简单和孩子气,反应从笑声(“LMAO”、“🤣🤣🤣🤣”、“😂”)到对它直接、以行动为导向的方式的观察——更喜欢被告知*做什么*,而不是*不要做什么*。 一位评论员指出,这个回答对于一个最先进的模型来说显得有些令人失望,并将其识别为“opus 4.6”。其他人认为,这种简单反映了训练过程,其中优先考虑快速响应。这个 gist 作为一个轻松的例子,展示了当前 AI 的局限性和意外输出。评论加载过程中频繁出现错误信息也被注意到。
literal thoughts of a 2 year old lol
🤣🤣🤣🤣
why you need to give them longer instructions :D it kind of has a nice bias for action and tell it what to do instead of telling it what not to do :)
based 😎 🗿
...surely this isn't a SOTA model
...opus 4.6
...oof
When you think about how hard they push these things to get stuff done in training it kinda makes sense
😂
LMAO