Show HN:LocalScore – 本地LLM基准测试
Show HN: LocalScore – Local LLM Benchmark

原始链接: https://www.localscore.ai/download

运行LocalScore有两种方式。最简单的方法是下载一个官方模型。如果你已经有.gguf模型,你可以直接用它运行LocalScore。 **官方模型** **你自己的.gguf模型** 你的操作系统是什么? macOS/Linux Windows 选择你想要运行的基准测试: * Tiny - 1B 需要:~2GB内存 * Small - 8B 需要:~6GB内存 * Medium - 14B 需要:~10GB内存 打开你的终端并运行: ```bash curl -OL https://localscore.ai/download/localscore-tiny chmod +x localscore-tiny ./localscore-tiny ``` 你的操作系统是什么? macOS/Linux Windows 打开你的终端并运行: ```bash chmod +x localscore-0.9.2 ./localscore-0.9.2 -m path/to/model.gguf ``` 命令行客户端遇到问题? 查看故障排除指南。 更多关于LocalScore命令行界面的文档,请查看README。 需要帮助? 查看这个视频

LocalScore,一个用于衡量用户自有硬件上本地大语言模型 (LLM) 性能的全新开源基准测试工具,现已推出。LocalScore 基于 Llamafile 构建,采用命令行界面 (CLI),旨在提供可在不同硬件和操作系统之间移植的基准测试工具。该项目包含一个充当基准测试结果数据库的网站,允许用户比较模型和硬件性能。 创建者邀请社区贡献反馈并参与其中。用户建议集成 Olama 以及匿名联合分数共享作为潜在的改进。一位用户分享了其在 M4 Pro 上的初步测试结果,突显了在本地运行 24B 模型的可行性。资源包括网站 (localscore.ai)、演示视频、博文以及 CLI 和网站的 GitHub 仓库。该项目旨在成为本地 AI 社区宝贵的资源。
相关文章

原文

There are two ways to run LocalScore. The easiest way to get started is to download one of the Official Models. If you have .gguf models already you run LocalScore with them.

What OS are you running?

Select the benchmark you want to run:

Open your terminal and run:

curl -OL https://localscore.ai/download/localscore-tiny
chmod +x localscore-tiny
./localscore-tiny

Having issues with the CLI client? Check out the troubleshooting guide.

For further documentation on the LocalScore CLI, check out the README

Need help? Check out this video

联系我们 contact @ memedata.com