作者对 Hacker News 抱有爱恨交织的情感,虽然经常有负面情绪,但仍将其视为重要的流量来源。最近,他们观察到网站内容发生了显著变化,人工智能相关内容占据了压倒性的地位。 对 2026 年 2 月份的五条热门文章分析显示,大部分日期的至少四项内容都与人工智能相关。进一步使用 AI 检测工具 Pangram 的调查表明,这些文章中有很大一部分是由人工智能*撰写*的,该工具能够准确地标记出表现出大型语言模型典型风格模式的文章。 作者指出,AI 检测并不需要检测“非人类”写作,而是识别当前 LLM 持续存在的风格特征。他们认为 Pangram 的发现是准确的,强调了一种令人担忧的趋势,即人工智能生成的内容正在饱和一个以前“极客导向”的平台。
## nah:用于LLM工具使用的细粒度权限系统
`nah` 是一种安全工具,旨在超越LLM工具调用的简单允许/拒绝权限,解决现有系统(如 `--dangerously-skip-permissions`)的局限性。它使用快速、确定性规则对每个工具调用进行分类,基于*它所做的事情*——而不仅仅是命令本身,对于模糊情况可以选择升级到LLM进行处理。
每个决策都会被记录以供检查。`nah` 在执行*之前*拦截命令,检查潜在的有害操作,例如文件删除、敏感数据访问或恶意代码执行。它开箱即用,但可通过全局和每个项目的YAML文件进行高度配置。
主要功能包括:结构化命令分类、敏感路径检测、内容检查和LLM集成(Ollama、OpenAI等)。`nah` 提供 `allow`(允许)、`ask`(询问)和 `block`(阻止)等策略,并支持针对特定命令的自定义分类。
Claude Code 中的安全演示提供了 25 个实时威胁场景。安装很简单 (`nah install`),一个全面的CLI (`nah log`、`nah test`、`nah config`) 允许进行详细的控制和监控。它通过防止恶意仓库放松安全策略来优先考虑安全性。