Home
零对冲(ZeroHedge)
每日HackerNews
Learning from context is harder than we thought
原始链接:
https://hy.tencent.com/research/100025?langVersion=en
## 从上下文学习:人工智能的一项挑战性前沿 一篇最近的腾讯论文,在Hacker News上讨论,强调了大型语言模型(LLM)在“上下文学习”方面的困难。核心挑战在于让模型在新的领域中有效学习和专业化,尤其是在初始训练数据缺乏相关上下文的情况下。 提出的方法涉及持续再训练,由人类或专家反馈引导,以构建专业模型——模仿人类学习。然而,一个关键的障碍是在“事实”发生变化时更新模型;LLM 难以像人类一样轻松适应,人类可以批判性地评估新信息。 评论员指出,这是人工智能中一个长期存在的问题,称为持续学习,即使在小规模上尚未解决。对于研究成果存在怀疑,提醒人们要谨慎看待论文。人们也对在潜在“不可信”的用户提供的上下文中训练模型表示担忧,这可能会与安全和真实性的目标相冲突。讨论进一步深入探讨了仅仅依赖基于语言的学习的局限性,强调了感官体验的重要性,并质疑是否存在单一的“真实上下文”的概念。
相关文章
原文
联系我们 contact @ memedata.com