GLM-5.1:迈向长期任务
GLM-5.1: Towards Long-Horizon Tasks

原始链接: https://z.ai/blog/glm-5.1

(Empty input provided. There is nothing to translate.)

## GLM-5.1 性能问题与托管问题 Hacker News上的讨论显示,用户对GLM-5.1语言模型,特别是通过z.ai访问时,的不满情绪日益增长。虽然一些用户仍然认为它在TypeScript编码等任务上优于Opus或Codex等模型,但常见的抱怨是性能显著下降。 用户报告了连贯性问题,尤其是在较长上下文(超过60-128k tokens)的情况下,导致输出无意义和错误。一些人推测这些问题并非模型本身固有的,而是源于z.ai的托管基础设施——可能与KV缓存问题或尝试扩展上下文窗口有关。 另一些人指出最近稳定性的确有所提高,但仍然在100k token左右出现性能急剧下降的情况。人们还对潜在的虚假互动表示担忧,例如通过可疑的新账户推广服务,以及Reddit等平台上人工智能SaaS垃圾邮件的激增。由于可靠性差以及替代平台的成本上升,一些用户已经取消了订阅。
相关文章

原文
联系我们 contact @ memedata.com