## 外包思考的认知代价 这篇文章探讨了日益依赖大型语言模型(LLM),如聊天机器人,可能带来的潜在弊端,超越了简单的“有限的思考池”论点。虽然承认LLM可以释放精神空间,但作者认为*我们外包什么*至关重要。 文章借鉴了安迪·马斯利关于“认知总量谬误”的研究,认为思考常常会产生*更多*需要思考的事情,但警告不要认为所有思考都是一样的。对于构建“内隐知识”、表达真诚关怀、提供有意义的体验或维护信任——例如个人沟通——等至关重要的活动,应该谨慎防范自动化。 作者强调,语言不仅仅是传达意义的工具;语言*就是*意义,而让人工智能调解我们的表达会侵蚀真实性。此外,即使是看似平凡的任务的自动化,也会剥夺我们宝贵的学习机会和所有权感。 最终,这篇文章并非关于害怕LLM,而是关于有意识地实施。它呼吁我们考虑支撑我们选择的价值观,认识到自动化任务并非中立——它不仅塑造我们的效率,也塑造我们的人性。我们必须问自己,不仅仅是*是否可以*自动化某件事,而是*是否应该*,以及我们在此过程中可能失去什么。