我在Codex CLI中本地运行了Gemma 4。
I ran Gemma 4 as a local model in Codex CLI

原始链接: https://blog.danielvaughan.com/i-ran-gemma-4-as-a-local-model-in-codex-cli-7fda754dc0d4

启用 JavaScript 和 Cookie 以继续。

## Gemma 4:一款有潜力的本地模型,但存在一些问题 最近的测试表明,谷歌的Gemma 4 (26B) 是一款令人惊讶的强大开源模型,甚至在单轮编码任务中可以与GPT-5.2和Gemini 3 Pro相媲美。然而,在需要工具使用、复杂推理或处理大型上下文时,其性能会下降——在提供辅助编码工具的情况下,它实际上表现*更差*。 用户反馈不一。虽然它在处理简单的代码片段时速度快且有效,但在理解库方面存在困难,并且可能陷入逻辑循环。有些人觉得它的“个性”不受欢迎,但可以通过系统提示来改善。基准测试表明,Gemma 31B有时性能不如26B-A4B版本,这可能是由于上下文限制造成的。 该模型在Apple M系列芯片上运行良好,用户正在尝试使用LM Studio和Nvidia GPU进行设置。一个关键的结论是,对于复杂任务,模型*质量*比原始token速度更重要。一些用户还在探索专门的、微调过的版本,并通过利用Hugging Face上提供的无审查变体来解决审查问题。总的来说,Gemma 4在本地AI开发方面显示出巨大的潜力,但并不能完全取代更大、基于云的模型。
相关文章

原文
联系我们 contact @ memedata.com