## AI 在简单日期计算上遇到困难
一则 Hacker News 帖子指出,AI 模型在回答一个基本问题时表现出令人惊讶的困难:“2026 年是明年吗?” 谷歌的搜索 AI 和 ChatGPT 的初始回复都错误地回答“否”,尽管当前年份是 2025 年。ChatGPT 最初解释了其错误的逻辑,然后在被直接质疑后纠正了自己。
这场讨论引发了关于 AI 可靠性的争论。一些人认为,即使 AI 在提供信息方面有用,其概述也不可信。另一些人则认为,AI 代表了工作流程的必要转变,需要用户验证输出。许多评论者分享了类似的经历,即在试图纠正 AI 错误时,会遇到令人沮丧的循环逻辑。
进一步的测试显示,不同模型的表现各不相同——Grok 和 Claude 提供了正确的答案,而 GPT-5.1 也确认 2026 年是明年。一篇链接的 Substack 文章指出,问题源于“是/否”问题格式,迫使 AI 基于可能过时的训练数据做出决定。最终,这篇帖子提醒我们,尽管 AI 取得了进步,但仍然缺乏常识和批判性思维。
相关文章
原文
If you're having trouble accessing Google Search, please click here, or send feedback.