## SGI Indy 模拟器:一个 Rust 与 AI 项目
本项目展示了一个 SGI Indy 工作站的模拟器,使用 Rust 语言构建,并借助大量 AI 辅助(主要为 Claude 和 Gemini)。它能够成功启动 IRIX 6.5 和 5.3 系统,提供一个可用的系统,具备网络功能(ping、telnet、ftp)、X11 图形以及标准 shell 访问。
该模拟器利用可选的 JIT 编译器——一个用于 MIPS 处理器,另一个用于 REX3 图形芯片——来提升性能。一种写时复制磁盘叠加层保护基础镜像免受测试过程中的损坏。
该项目作为学习体验和对“氛围编程”的挑战而开发,欢迎通过提交错误报告和拉取请求来贡献代码。关键资源包括一个详细设置和配置的 `HELP.md` 文件,以及一个包含有价值调试信息的 `rules/` 目录,供开发者和 AI 助手使用。用户需要 IRIX 6.5 的原始磁盘镜像(可以从 MAME 镜像轻松转换),以及可选的 PROM 镜像才能开始使用。
## LLM供应链投毒:12美元的实验
本文详细描述了一个实验,展示了大型语言模型(LLM)如何容易被网上现成的虚假信息误导。作者伪装成“6 Nimmt!”世界冠军,成功地让多个前沿LLM重复了这个虚假声明。
这次攻击并不涉及复杂的黑客行为;它利用了LLM对网络检索的依赖。一个12美元的域名被注册,一份虚假的 press release(新闻稿)在该域名上发布,并且在维基百科上进行了一次编辑,引用了该域名。这创建了一个循环引用——维基百科“证实”了虚假网站——LLM在被询问关于这位冠军时将其视为事实。
作者强调了三个关键的失败点:易受攻击的检索层,虚假信息通过维基百科抓取被吸收到未来模型训练数据中的可能性,以及AI代理根据这些错误信息行动的风险。
缓解措施包括LLM提供商改进来源出处显示,针对可疑维基百科编辑的启发式过滤器,以及维基百科关于单一来源引用的更严格的政策。核心问题是LLM无法辨别真实来源和虚假来源,这使得网络现有的漏洞与生成式AI结合时更加危险。这次简单、低成本的攻击表明,依赖互联网信息的AI系统面临着重大的可信度威胁。