This commit does not belong to any branch on this repository, and may belong to a fork outside of the repository.
原始链接: https://github.com/Mozilla-Ocho/llamafile
llama.cpp 框架允许通过 LLM 进行推理,特别是针对 WizardCoder-Python-13B、Mistral-7B-Instruct 和 LLaVA v1.5-7B 等。 这些语言使用 GGML 格式作为权重。 为了优化性能,llla.cpp 可以根据硬件使用专门的 CPU 或 GPU 实现。 对于 GPU,Cosmopolitan Libc 基于 GPU 供应商的 SDK 在运行时集成了必要的低级功能,提供跨不同平台的兼容性,同时保留性能增益。 LLVM 在内部使用,以允许编译为独立的跨平台二进制文件。 LLaMa 是在 Apache 2.0 许可证下发布的。 Cosmopolitan 旨在将 LLVM 字节码与行业标准可执行格式(包括 MIR、宏汇编器和 PE)连接起来。 然而,由于 llama.cpp 无法保证向后兼容性,因此必须避免信号处理,直到下一代操作系统支持直接访问硬件寄存器。 同时,Cosmopolitan 目前将信号处理程序限制为 4 个系统调用,这会导致大量开销,但与 LLM 计算成本相比仍然足够快。 最后,Cosmopolitan 仍在开发将 LLVM 字节码转换为平台标准可执行格式的过程。 有关已知问题的更多信息可以在 llamafile 网站上找到。 在许可方面,虽然 llamafile 是 Apache 2.0 许可的,但它对 llama.cpp 的更改是 mit 许可的。 此外,llama.cpp 项目的许可证仍然是 Apache 2.0。
This commit does not belong to any branch on this repository, and may belong to a fork outside of the repository.