Gemma 2:以实用的规模改进开放语言模型 [pdf]
Gemma 2: Improving Open Language Models at a Practical Size [pdf]

原始链接: https://storage.googleapis.com/deepmind-media/gemma/gemma-2-report.pdf

%PDF-1.5 % 294 0 obj > endobj 295 0 obj > /W [ 1 3 1 ] /Index [ 294 359 ] /Info 102 0 R /Root 296 0 R /Size 653 /Prev 487561 /ID [] >> stream xcbd`g`b``8 "A$c#dk@ X "悠 f !X t f@VYg=(Iɽp0JqaN$㼁w@

Gemma 是一个本地 AI 模型,可以使用 ollama 和 Promptfoo 以及提供的配置进行评估。 此设置优先考虑没有介绍性短语的清晰响应。 为了获得最佳评估,请避免依赖记忆的公共代码并使用自定义测试。 一篇研究论文讨论了量化模型的影响,得出的结论是最小压缩可以带来可接受的 RAG 任务性能,但事实知识任务的性能会显着下降。 另一篇论文探讨了对抗性攻击。 Masty 是另一种人工智能工具,它提供了比远程选项更好的本地处理,尽管用户对透明度和验证感兴趣,但它仍然是闭源的。 用户报告了在 ollama 测试期间 Masty 的无限响应问题。 Gemma 等模型的早期版本和旧项目作为比较基准,引发了有关人工智能开发中所有权和创新的争论。
相关文章

原文

%PDF-1.5 % 294 0 obj > endobj 295 0 obj > /W [ 1 3 1 ] /Index [ 294 359 ] /Info 102 0 R /Root 296 0 R /Size 653 /Prev 487561 /ID [] >> stream xcbd`g`b``8 "A$c#dk@ X "Yuu f !X t f@VYg=(Iɽp0JqaN$㼁w@

联系我们 contact @ memedata.com