本参考资料最初是一份长文档,现已划分为六个重点卷以方便阅读和导航。每个卷都可以独立阅读,但后续所有内容的基础都建立在第一卷(1541驱动器)的技术基础上。该资料涵盖了1982年至1990年代初在C64上商业使用的所有主要磁盘保护技术、磁盘母带制作背后的工业机械,以及复制场景开发出的工具。
本参考资料最初是一份长文档,现已划分为六个重点卷以方便阅读和导航。每个卷都可以独立阅读,但后续所有内容的基础都建立在第一卷(1541驱动器)的技术基础上。该资料涵盖了1982年至1990年代初在C64上商业使用的所有主要磁盘保护技术、磁盘母带制作背后的工业机械,以及复制场景开发出的工具。
## Logira:自动化运行时审计
Logira 是一款仅用于观察的 Linux 命令行工具,旨在审计自动化的运行时行为,特别是 AI 代理。它利用 eBPF 记录系统事件——进程执行、文件活动和网络连接——提供详细、可信的执行轨迹,*无需*干扰自动化流程。
主要功能包括:为方便审查、搜索和检测分类,提供每次运行的本地存储(JSONL 和 SQLite)。Logira 提供内置检测规则,用于识别有风险的模式,例如凭据访问、破坏性命令和可疑网络活动,并允许添加自定义规则。
它非常适合了解 AI 代理*实际*执行的操作,超越其报告的操作,并且可以轻松集成到本地自动化或 CI 任务中。安装通过脚本或 tarball 简单直接,需要较新的 Linux 内核(5.8+)和 systemd。Logira 不会阻止操作,仅记录和检测,使其成为有价值的安全和调试工具。
更多信息和示例请访问:[https://github.com/melonattacker/logira](https://github.com/melonattacker/logira)。
我们检测到您的浏览器已禁用 JavaScript。请启用 JavaScript 或切换到受支持的浏览器以继续使用 x.com。您可以在我们的帮助中心查看受支持的浏览器列表。帮助中心 服务条款 隐私政策 Cookie 政策 版权信息 广告信息 © 2026 X Corp.
## LLMfit:为你的硬件找到合适的LLM
LLMfit是一个终端工具,旨在帮助你发现能在你的系统上*良好运行*的大型语言模型(LLM)。它会分析你的硬件(内存、CPU、GPU),并根据质量、速度、适配性和上下文能力对数百个模型进行评分。
**主要特性:**
* **硬件检测:** 自动识别你的系统规格。可以通过`--memory`手动覆盖。
* **模型评分:** 综合考虑性能和资源需求,对模型进行排名。
* **运行时支持:** 集成Ollama、llama.cpp和MLX,方便模型管理和下载。
* **多GPU和MoE支持:** 处理多GPU设置,并高效管理具有混合专家架构的模型。
* **动态量化:** 选择最佳量化级别,在硬件限制内实现最佳性能。
* **交互式TUI和CLI:** 提供用户友好的终端界面和命令行界面,方便脚本编写。
* **规划模式:** 估算特定模型配置的硬件需求。
**安装:** 提供适用于macOS、Linux和Windows(通过Cargo)的简单脚本。
LLMfit非常适合希望在本地运行LLM,无需猜测,确保兼容性并最大限度地利用现有硬件的用户。它还包含一个OpenClaw技能,用于基于代理的推荐和配置。
人工智能聊天机器人正在占据美国应用商店的主导地位,Anthropic的Claude目前排名第一——仅在两个月前还位居第42名,这是一个显著的飞跃。OpenAI的ChatGPT和Google的Gemini紧随其后,分别位列第二和第三。
Claude人气飙升并非由于新功能,而是源于最近与美国政府的公开争端。在特朗普总统的批评以及战争部将其列为国家安全风险(原因是担心自主武器和国内监控)之后,Anthropic公开捍卫了自己的原则。
该公司表示,反对使用当前人工智能模型开发自主武器,担心对军方人员和平民都构成危险,并认为大规模监控侵犯了基本权利。尽管存在争议,或者说正是因为争议,Anthropic在iPhone用户中的应用下载量正在增加,并获得了大量的公众关注。
神经放大器建模 (NAM) 正在扩展到桌面之外,应用于嵌入式系统,如吉他效果器和单板计算机。为了准备下一代架构 (A2),开发者研究了在资源受限硬件上运行 NAM 的挑战,使用了 Electrosmith Daisy Seed 平台。 初步测试显示出显著的性能问题——处理 2 秒的音频需要超过 5 秒。核心问题是模型大小、低效的线性代数(使用 Eigen)以及在没有操作系统的情况下难以加载标准的 NAM 文件 (.nam)。 为了解决这些问题,他们针对 NAM 使用的小矩阵大小优化了 Eigen,开发了一种紧凑的二进制模型格式 (.namb) 以方便加载(通过配套应用程序转换),并利用了更小的模型变体 (A1-nano) 以及 ReLU 激活函数。 这些改进将处理时间减少到大约 1.5 秒,为额外的效果留出了空间。这次实践经验直接影响了 A2 的设计,特别是他们的“可瘦身 NAM”方法,允许模型适应不同的硬件能力。该项目的全部源代码正在公开发布。
## SynapsCAD:AI驱动的3D建模
SynapsCAD 是一款桌面应用程序,结合了 OpenSCAD 代码编辑器、实时 3D 视口和集成的 AI 助手。用户编写 OpenSCAD 代码创建 3D 模型,立即可视化,然后利用自然语言修改设计——甚至可以直接与 3D 视图交互来指导更改。
目前 SynapsCAD 仍处于早期原型阶段,支持 Linux、macOS 和 Windows。它完全使用 Rust 构建,并利用 Anthropic、OpenAI 和 Gemini 等 AI 提供商(或通过 Ollama 使用本地模型进行离线使用,需要云服务的 API 密钥)。
该应用程序具有用于编码和 AI 聊天的侧边栏,并采用响应式系统,后台任务(如编译和 AI 请求)不会冻结视口。主要功能包括网格拾取、Blender 风格的相机控制以及 3MF、STL 和 OBJ 格式的导出选项。 欢迎提交错误报告,因为该项目正在积极开发中。
## Git-Memento:Git 的 AI 会话跟踪 Git-Memento 是一个 Git 扩展,旨在记录并附加 AI 编码会话到提交。它将 AI 对话的清理后的 Markdown 表示形式存储为 Git 提交上的 Git 注释,提供有价值的溯源信息。 **主要特性:** * **会话记录:** 捕获编码过程中的 AI 交互(目前支持 Codex 和 Claude)。 * **Git 集成:** 使用标准的 Git 工作流程(`git commit`,`git amend`)并将数据存储在 Git 注释中。 * **配置:** 每个仓库初始化一次(`git memento init`),设置存储在 `.git/config` 中。 * **共享与同步:** 启用与远程仓库共享注释(`git memento share-notes`,`git memento push`,`git memento notes-sync`)。 * **注释管理:** 支持在重写时携带注释(`git memento notes-rewrite-setup`,`git memento notes-carry`)。 * **审计:** 允许审计注释覆盖范围并验证元数据(`git memento audit`,`git memento doctor`)。 * **安装:** 通过安装脚本、针对各种平台的 NativeAOT 构建以及作为 GitHub Action 用于 CI 集成(评论和门控)提供。 Git-Memento 通过保留每个提交背后的上下文,增强了代码理解和协作。它通过环境变量和 Git 配置进行配置,确保灵活性和可扩展性。
## Timber:快速、原生推理,用于传统机器学习
Timber 是一种用于编译和部署传统机器学习模型(XGBoost、LightGBM、scikit-learn、CatBoost、ONNX)到优化的原生 C 二进制文件的工具。 这消除了推理期间的 Python 运行时开销,实现了**微秒级延迟**——比基于 Python 的部署**快高达 336 倍**。
它采用类似于 Ollama 的简单工作流程:使用一条命令加载模型,并通过本地 HTTP API 提供服务。 Timber 非常适合需要速度、可预测性和可移植性的应用,例如欺诈检测、边缘/物联网部署和受监管行业。
主要特性包括:推理路径中无 Python 依赖项、小型工件尺寸(~48KB 示例)以及对各种模型格式的支持。 基准测试表明,与 Python 和其他运行时(如 ONNX Runtime 和 Treelite)相比,性能提升显著。
Timber 是开源的(Apache-2.0),并包含示例和技术论文以供进一步研究。
请启用 JavaScript 并禁用任何广告拦截器。