原文
| ||||||||||
| ||||||||||
![]() |
原始链接: https://news.ycombinator.com/item?id=43688005
这篇 Hacker News 帖子讨论了一篇文章,文章解释了作者为什么不使用大型语言模型 (LLM)。一个关键点是,LLM 通过肤浅的总结稀释了“深度”和“研究”等词的含义,其他一些人认为“人工智能”一词也被同样贬低了,这与他们的观点不谋而合。评论者分享了他们避免使用 LLM 的原因,包括 LLM 在解决复杂编码难题时无助的实例。一位评论者对作者的理由提出了质疑,认为每个人都知道 LLM 会出错,关键在于学习如何有效地使用它们。他们认为作者对 LLM 使用的理解可能仅限于为他人生成文本,忽略了其更广泛的潜力。他们进一步认为作者可能对其自身的知识过于自信,并强调应该将 LLM 与其他来源结合使用以进行验证。这位评论者总结道,当其他人正在积极改进提示以获得更好的结果时,不断抱怨 LLM 的错误是没有成效的。
| ||||||||||
| ||||||||||
![]() |
I suppose that's how I feel about calling LLMs "Artificial Intelligence" - it cheapens and degrades the goal. Broadly it feels like Marketing departments totally have the wheel with no pushback. Maybe it's always been so, though.
reply