| |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
![]() |
原始链接: https://news.ycombinator.com/item?id=43275193
Hacker News 上的一个帖子讨论了一篇论文,该论文确定了人类专家解题者和成功的语言模型 (LLM) 使用的四种关键认知行为:验证、回溯、设定子目标和逆向推理。评论者分享了他们模仿 Deepseek R1 等 LLM 的推理过程如何提高他们自身解决问题能力的个人经验,尤其是在编程和考试准备方面。一些人将其比作“橡皮鸭调试法”,强调了将思维过程外部化的价值。 讨论还探讨了人工智能对人类认知的潜在影响,一些人担心过度依赖会阻碍批判性思维。另一些人指出,像写作这样的技术也曾因削弱记忆力而受到类似批评。讨论涉及到内心独白、感知觉缺失症和替代性思维模式的本质。此外,人工智能使用看似无意义的“神经语言”(Neuralese)进行内部推理也被提出作为一个潜在的担忧。该帖子强调了人类从人工智能的推理方法中学习的日益增长的趋势,并提出了关于人工智能时代人类智能未来的一些问题。
| |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
![]() |
As we make AI better, perhaps we'll inadvertently find ways to make HI (human intelligence) better too.
I had a personal experience with this when I was studying for an exam recently. As I read over practice questions, I spoke aloud, replicating the reasoning methods/personality of Deepseek R1. By spending a lot of time reading long verbose R1 outputs, I've essentially fine-tuned my brain for reasoning tasks. I believe this method contributed to my excellent score on that exam.
reply