## LLM“智能”的局限:从输出到对抗性推理
AIE迈阿密和欧洲的门票现已开售!最近的讨论强调了当前人工智能能力的一个关键差距:虽然大型语言模型(LLM)可以*生成*类似于专家作品的输出(代码、简报等),但它们缺乏在复杂现实世界场景中蓬勃发展的*对抗性推理*能力。
核心问题不在于智能,而在于**模拟深度**。专家不仅评估信息,还会模拟他人将如何反应和利用漏洞。LLM主要在静态数据和人类偏好上进行训练,难以模拟这些动态交互——本质上,它们不理解*自己*正在被模拟。
例如,撰写电子邮件:LLM可能会生成礼貌的请求,而经验丰富的专业人士会理解如何针对特定收件人进行措辞以确保回复。这种差异源于缺乏在代理适应和利用可预测性的环境中进行训练。当前的AI擅长于具有固定规则的“棋类”问题,但在具有隐藏信息和自利行为者的“扑克类”场景中表现不佳。
解决方案并非仅仅扩大LLM的规模,而是创建专注于多智能体交互并奖励结果——而不仅仅是看似合理输出的训练循环。人工智能的未来在于构建能够预测、适应并在每个人都在积极试图智胜对方的环境中保持稳健的模型。
## 开源图书馆志愿者构建全面的南希·德鲁系列藏书
开源图书馆的志愿者团队最近完成了一个历时数月的项目,将庞大的南希·德鲁系列图书整理成一个统一的、可公开访问的藏书。该项目由志愿者艾米丽发起,她是一位最近毕业的图书馆学专业学生,项目利用了她在教育中培养的协作精神。这个国际团队遍布东京、巴基斯坦和美国,通过Zoom连接,并使用详细的Google文档进行异步规划。
起初,团队考虑使用自动化方法,但最终选择手动添加元数据标签,以确保准确性和可访问性,尤其考虑到网络速度问题。这项工作涉及大量的元数据清理,包括更正“卡罗琳·基恩”笔名下的作者署名,并得到了开源图书馆工作人员的协助。
志愿者们受到怀旧之情、学习图书馆技能的愿望以及为他们喜爱的系列作品做出贡献的机会的激励。目前的工作包括完善系列顺序和添加特色藏书。艾米丽强调了人际连接的重要性,并建议未来的项目从现场元数据编辑演示开始,以简化流程。有兴趣贡献力量吗?开源图书馆网站上提供志愿者报名表。