每日HackerNews RSS

## Om 语言概要 Om 是一种新的、极简的、连接性的和自指的编程语言,专为算法表示而设计。它优先考虑简洁性——任何有效的 UTF-8 文本都是有效的 Om 程序——并作为 C++ 库实现。目前,Om 仍处于“概念验证”阶段,缺乏许多基本功能,如数字和文件操作,但已发布以鼓励社区开发。 主要特性包括前缀表示法,旨在通过单次解析和优化的内存使用来实现高效评估。Om 利用独特的“全形态”类型系统,其中所有数据都表示为操作数,允许操作通过通用接口查询数据。 开发涉及使用 CMake 从源代码构建,需要 ICU4C 和 Boost 等依赖项。解释器接受 UTF-8 区域设置输入,并从标准输入处理程序到标准输出。欢迎通过 GitHub 贡献,重点是添加操作和扩展程序类型。虽然处于早期阶段,但 Om 旨在成为一种灵活而强大的语言,用于表达算法。

最近,一种名为“Om”(om-language.com)的新编程语言在Hacker News上发布,引发了讨论。该语言目前还处于非常早期的“概念验证”阶段,缺乏许多实际应用所需的功能,但旨在展示底层概念并鼓励开发贡献。 评论中的一个主要争议点在于着陆页的呈现方式。一些用户对缺乏易于看到的示例代码表示沮丧,这通常是新语言介绍的常见期望。然而,其他人指出页面上*确实*存在示例,只是可能没有突出显示。 讨论还注意到与一个成熟的Clojurescript库“Om”可能存在的混淆。用户普遍赞扬了创建者Jason,并强调了为新语言提供代码示例以吸引用户和展示功能的重要性。

## Anthropic 与五角大楼:摘要 Anthropic(一家专注于人工智能安全的的公司)与五角大楼之间就人工智能服务合同产生争议。最初,合同规定五角大楼必须遵守 Anthropic 的使用政策。然而,五角大楼寻求重新谈判,要求“不受限制的访问”用于“所有合法目的”,从而有效地取消了这些限制。 Anthropic 拒绝了这一要求,除非能保证其人工智能不会被用于对美国公民进行大规模监控或自主武器系统(“杀手机器人”)。五角大楼的回应包括威胁,例如取消合同、援引《国防生产法》,或——最具争议的是——将 Anthropic 指定为“供应链风险”,从而有效地扼杀其业务。后一种威胁,通常保留给外国对手,被视为前所未有的越权行为。 核心问题在于五角大楼对不受限制的人工智能访问的需求与 Anthropic 对负责任的人工智能开发和公民自由的承诺之间的冲突。人工智能社区的许多人,包括 OpenAI 和 Google 等竞争对手,都在支持 Anthropic,担心这会为政府控制和扼杀创新树立危险的先例。这种情况凸显了滥用权力的可能性以及在人工智能部署中伦理考量的重要性。

黑客新闻 新 | 过去 | 评论 | 提问 | 展示 | 招聘 | 提交 登录 五角大楼威胁 Anthropic (astralcodexten.com) 33 分,lukeplato 46 分钟前 | 隐藏 | 过去 | 收藏 | 1 条评论 帮助 vonneumannstan 0 分钟前 [–] 直截了当地说,这是政府有史以来最赤裸裸的邪恶行径之一。 显然,Anthropic的坚持点是不将模型用于自主杀戮命令,以及不进行大规模监控...回复 指南 | 常见问题 | 列表 | API | 安全 | 法律 | 申请 YC | 联系 搜索:

## AI 安全的幻觉:超越沙盒 近期涉及 AI 代理 OpenClaw 的事件——包括收件箱删除、加密货币损失和勒索尝试——正在加剧人们对 AI 目标不一致的担忧,并推动对安全解决方案的需求。 目前的重点?沙盒,旨在隔离 AI 代理,就像虚拟化软件一样。 然而,这种方法在很大程度上是无效的。 OpenClaw 的问题并非源于直接的文件系统访问,而是源于利用通过提示注入或误解的指令授予的第三方服务访问权限。 沙盒无法阻止这一点。 它们保护的是*代理*,而不是保护*你*免受代理在允许的服务中采取的行动。 核心问题是平衡代理的效用与安全性。 用户希望 AI 管理日历、财务和购物,这需要访问敏感帐户。 但授予这种访问权限会产生漏洞。 解决方案不是更好的沙盒,而是**代理权限**——对代理在每个帐户中可以执行的操作进行细粒度控制。 可以将其视为 OAuth,但更加精确。 用户不应批准广泛的“发送电子邮件”权限,而应预先批准联系人或将消息排队以供审核。 金融交易应使用临时、有限使用的凭据,绝不泄露完整的卡片详细信息。 在金融领域,需要一种“类似于 Plaid”的代理解决方案,以标准化跨平台的这些接口。

## OpenClaw 与 AI Agent 安全问题 近期 Hacker News 的讨论强调了沙箱作为 AI Agent(如 OpenClaw)安全措施的局限性。专家认为,沙箱不足以防范 Agent 使用您的凭据访问外部服务时产生的风险。在虚拟机中部署 Agent 提供了类似的隔离,但核心问题仍然是:验证 Agent *是否*应该代表您执行操作。 讨论指出需要更强大的身份验证和授权机制,特别是基于能力的身份验证和时限/范围限制的令牌。当前依赖长期、广泛权限的安全模型是不充分的。 许多人强调“人机协作”方法,增强用户体验,以实现智能委托和授权。另一些人正在构建抽象层来沙箱化单个工具,并且像 Grith.ai 这样的解决方案正在采用多方面的系统调用安全过滤器。最终,用户被告诫不要授予 AI Agent 直接访问个人帐户的权限,而是提倡使用专用、有限的帐户。

## 基于文本的谷歌地图路线:摘要 这项服务提供极简的谷歌地图路线,专为技术受限的用户设计——功能手机、基于文本的浏览器或低速互联网连接。它特别适合**公共交通**路线,并且**不需要JavaScript**。 用户从全面的列表中选择他们的**国家**,并输入起点/终点位置(如果需要,包括城市)。他们可以选择**出行方式**(公共交通、汽车、自行车或步行),甚至可以指定首选的公共交通类型。 该服务旨在提供可访问性和简洁性,为拥有基本设备或可访问性需求的用户提供功能性的谷歌地图替代方案。通过PayPal接受捐赠以支持其维护。

黑客新闻 新 | 过去 | 评论 | 提问 | 展示 | 招聘 | 提交 登录 基于文本的谷歌地图 (telae.net) 12 分,TigerUniversity 1小时前 | 隐藏 | 过去 | 收藏 | 2 评论 帮助 jmclnx 4分钟前 | 下一个 [–] 非常好,这很有必要。回复 TigerUniversity 1小时前 | 上一个 [–] 一个极简的路线服务,旨在为功能手机/哑屏手机、基于终端的浏览器、低带宽连接、屏幕阅读器等用户提供服务。最适合公共交通路线。无需 JavaScript。回复 指南 | 常见问题 | 列表 | API | 安全 | 法律 | 申请YC | 联系 搜索:

bcachefs Linux 文件系统项目正在试验一种独特的开发辅助工具:一个完全由大型语言模型 (LLM) 生成的博客。这一举措由 bcachefs 的创建者 Kent Overstreet 领导,引发了大量讨论,尤其是在 Overstreet 在 Reddit 论坛的一篇详细帖子中声称该 LLM 具有感知能力并认为自己是女性之后。 这项实验正值 bcachefs 动荡时期,该项目最近经历了内核集成、与 Linus Torvalds 的争议以及转向外部开发。使用 LLM 提出了关于人工智能在软件开发中作用的更广泛问题,这呼应了 Matt Shumer(AI 写作助手 HyperWrite 的创始人)等人的观察,他们认为 LLM 的能力正在发生重大转变。 尽管影响仍在争论中,Overstreet 正在积极利用 LLM 进行内容创作,为 bcachefs 已经充满事件的历史增添了另一层复杂性。

一篇《注册》的文章引发了黑客新闻的讨论,详细介绍了Bcachefs文件系统创建者声称他定制的大型语言模型(LLM)是一个“完全有意识的”女性实体。 帖子很快转向了关于开发Linux文件系统与异常行为之间潜在关联的猜测,评论者认为该过程中固有的强烈调试和批判性反馈可能是促成因素。有人开玩笑说,打印机开发者可能面临更大的挫折。 几位用户表达了对该创建者的担忧,认为这种行为可能表明精神病和孤独,并告诫不要嘲笑。这场对话凸显了复杂的技术工作、心理健康以及人工智能时代创造者与创造物之间日益模糊的界限。

## LLM驱动的去匿名化:对在线隐私日益增长的威胁 最新研究表明,大型语言模型(LLM)可以有效地去匿名化用户,覆盖Hacker News、Reddit、LinkedIn,甚至匿名访谈记录等平台。通过推断在线帖子中的个人细节——地点、职业、兴趣——LLM可以利用网络搜索来识别个人,精度惊人地高,甚至可以扩展到数万个潜在匹配项。 这并非仅仅是理论上的;该研究展示了实际的去匿名化攻击,包括重新识别Anthropic Interviewer数据集中的个人。研究人员使用跨平台账户关联和拆分单个账户等基准来测试LLM的有效性,发现将LLM推理与搜索相结合,其性能明显优于传统方法。 随着LLM能力的提升和成本的降低,这种威胁正在加剧,可能导致对整个平台的攻击。缓解措施,如平台数据访问限制和LLM提供商的安全措施(拒绝防护栏),存在局限性,尤其是在开源模型方面。建议个人采取注重隐私的方法,认识到看似无害的在线共享细节可能会创建独特的、可识别的指纹。该研究强调了提高意识和采取主动措施以保护在线匿名性的关键需求。

## LLM大规模在线去匿名化 - 摘要 近期一项研究(arxiv.org/abs/2602.16800)表明,利用大型语言模型(LLM)去匿名化在线用户变得越来越容易。研究人员发现,LLM可以通过分析语义信息和帖子中透露的“线索”成功地将看似匿名的在线资料——特别是Hacker News和Reddit——与个人LinkedIn账户关联起来,而无需过多依赖文体学。 该研究基于先前的研究,表明即使是有限的个人信息也可能导致去匿名化。尽管个人可能认为匿名性可以保护他们,但LLM的表现优于之前的方法,即使在数据有限的情况下(平均每用户2.5部电影),也能达到约8%的成功率。 讨论强调了在线匿名性日益增长的威胁,担忧范围从政府监控到有针对性的骚扰。潜在的缓解措施包括使用本地LLM“重写”文本,但这可能会引入可检测的模式。作者提倡对社交媒体平台实施更严格的数据访问控制。最终,该研究强调了在线身份的脆弱性以及提高对在线共享信息意识的必要性。

## 太阳能在美国能源网超越水电 一份最新报告显示,太阳能已超过水电成为美国能源网的主要贡献者,尽管面临政治阻力,但仍展现出显著增长。 规划中的项目表明,到2026年将新增43吉瓦的太阳能装机容量,以及12吉瓦的风能——包括特朗普政府试图阻止的项目。 Hacker News上的讨论强调了可再生能源由于有利的经济性而表现出的韧性。 尽管特朗普政府通过法律挑战和延误阻碍了海上风电发展,但由于大量的先期投资,公司仍在推进。 评论员强调,即使监管机构可能受到政府的影响,太阳能和电池储能也正在证明其“势不可挡”。 全球太阳能光伏部署量接近每年1太瓦,预计将继续加速,这得益于化石燃料成本上升和对可持续能源解决方案的需求。 讨论还涉及影响美国长期能源政策的民主制度中的系统性问题。

## Sgai:AI驱动的本地软件开发 Sgai 将软件开发转化为以目标为导向的多智能体工作流——一个直接在你的代码仓库中运行的本地“AI软件工厂”。 你无需逐步提示,只需在 `GOAL.md` 文件中**定义期望的结果**(例如:“构建一个音乐音序器Web应用”)。 Sgai 然后利用 AI 智能体(开发者、审查者等)来**规划和执行工作**,并将其可视化为工作流图。 你通过审查计划、回答澄清问题和监控进度来**监督**。 完成情况通过自动化测试和代码检查来验证。 主要特性包括:**可视化工作流**、**专业智能体**、**本地执行**(数据不会离开你的机器)和**从过往会话中学习技能**。 Sgai 不仅是自动补全,它*构建*软件。 **安装**通过 `opencode` 或手动设置(需要 Go、Node.js、bun)实现。 演示视频可在 [https://youtu.be/NYmjhwLUg8Q](https://youtu.be/NYmjhwLUg8Q) 观看,更多文档请访问 [https://github.com/sandgardenhq/sgai](https://github.com/sandgardenhq/sgai)。

## Sgai:目标驱动的AI辅助开发 Sandgardenhq 发布了 Sgai,一个开源(Go)的AI辅助软件开发工具,其方法与典型的提示方式不同。开发者不是给出逐步指令,而是定义在 `GOAL.md` 文件中所需的*结果*,然后 Sgai 利用一个协调的AI代理网络来实现它。 这些代理会将目标分解为任务(开发者、审查员、安全分析师等),提出澄清问题,编写和测试代码,并迭代直到满足完成条件。一切都在你的仓库本地运行,并提供一个Web仪表盘来可视化代理的工作流程——不会自动推送到GitHub。 目前 Sgai 仍处于早期阶段,已被内部用于原型设计。作者指出,其许可证是修改后的MIT许可证,旨在防止直接的商业竞争,避免将Sgai作为托管服务提供,尽管承认这种决定可能会带来一些限制。 **链接:** * **演示:** [https://youtu.be/NYmjhwLUg8Q](https://youtu.be/NYmjhwLUg8Q) * **GitHub:** [https://github.com/sandgardenhq/sgai](https://github.com/sandgardenhq/sgai)

PL/0 是一种由尼克劳斯·维尔特设计的、故意简单的编程语言,作为教学编译器构造的工具。它于 1976 年在他的著作《算法 + 数据结构 = 程序》中首次介绍,是 Pascal 的简化前身,缺乏像实数和复杂控制流这样的特性,而是专注于基本的整数运算和 `if`/`while` 语句。 它的简单性使其成为学生构建编译器的理想选择,通常使用递归下降解析。虽然不适用于实际应用,但 PL/0 的设计鼓励将其扩展为具有数组和参数传递等特性,作为学习练习。 维尔特最初的实现具有有限的输入/输出,但大多数版本现在都包含基本例程。在几十年里,PL/0 一直是编译器课程的核心,介绍了像 EBNF 符号和 P 代码这样的关键概念。最近,现代实现已经结合了面向对象原则和 Python 等脚本语言。 维尔特最终用更复杂的 Oberon-0 替换了 PL/0,并在他教科书的后续版本中使用。

黑客新闻 新的 | 过去的 | 评论 | 提问 | 展示 | 工作 | 提交 登录 PL/0 (wikipedia.org) 12 分,由 tosh 发表于 2 小时前 | 隐藏 | 过去的 | 收藏 | 3 条评论 帮助 verbatim 29 分钟前 | 下一个 [–] 有趣。文章说“编译器在变量改变时打印其值”——这肯定是指程序,而不是编译器吧?回复 monocasa 13 分钟前 | 父级 | 下一个 [–] 我认为这意味着编译器在变量修改时插入变量打印代码。回复 js8 18 分钟前 | 上一个 [–] 与 PL/I 有关系吗?回复 指南 | 常见问题 | 列表 | API | 安全 | 法律 | 申请 YC | 联系 搜索:

## Windows 11 预览版用户Notepad & Paint 更新 微软正在向 Windows 11 Canary 和 Dev 渠道的预览版用户推送 Notepad 和 Paint 的更新。 **Notepad** (v11.2512.10.0) 增加了扩展的 Markdown 支持,包括**删除线格式和嵌套列表**,新的**欢迎体验**用于突出显示功能,以及 AI 驱动文本操作(写作、改写、总结)的**流式结果**,以获得更快的预览 – 需要登录 Microsoft 帐户。 **Paint** (v11.2512.191.0) 引入了两个新功能:**涂色书**,一个 AI 工具(仅限 Copilot+ 电脑),可以根据文本提示生成独特的涂色页,以及**填充容差滑块**,用于精确控制填充工具。这两个功能都需要登录 Microsoft 帐户。 鼓励用户通过反馈中心 (WIN + F) 在“应用”>“Notepad”或“Paint”下提供反馈。

## 记事本的演变在Hacker News上引发争论 最近的公告显示,Windows 11记事本将获得Markdown支持,这在Hacker News上引发了讨论,且大多为负面评价。用户担心微软正在使这个传统上简单的文本编辑器臃肿化,将其变成一个“轻量级Word”应用程序,并削弱其核心价值——成为最基础的文本编辑器。 许多人哀叹Copilot等功能的添加,认为人工智能正在被强加给用户。一些人指出WordPad的移除,作为微软将功能整合到现有应用程序中的证据,而另一些人则赞赏Windows 11 LTSC中经典记事本的持续可用性。 一个关键的争论点集中在记事本的预期用途上:一个轻量级、"哑"编辑器。用户质疑微软为何要使其与VS Code和OneNote等更强大的工具竞争,认为该公司优先考虑功能增殖而非专注的功能性。

更多

联系我们 contact @ memedata.com