每日HackerNews RSS

## MirageOS 并发:Lwt vs. Fibers MirageOS 是一种独特的操作系统内核,采用完全事件驱动的方法,摒弃了传统的抢占式线程。这需要抽象来管理事件回调,目前 Lwt – 一个采用单子风格的 OCaml 线程库 – 是主要的解决方案。虽然有效,但 Lwt 的单子特性需要代码适配,并且为阻塞操作引入了闭包分配,这引发了 OCaml 社区的讨论。 像通过 Lwt_fiber 库提供的限定连续 (delimcc) 这样的替代方案,提供了一种潜在的更轻量级的方法,使用可重启的异常。比较 Lwt 和 fibers 的基准测试表明,对于简单的阻塞场景,fibers 最初的性能*不如* Lwt,因为异常处理的开销。然而,随着更深的调用栈和减少的阻塞频率,fibers 表现出更好的性能,避免了重复的闭包分配。 最终,性能差异对于 MirageOS 的核心需求来说似乎并不重要。Lwt 的关键优势在于它可以无缝编译到 Javascript,通过 js_of_ocaml 实现,从而实现浏览器可视化以及与 Node.js 的互操作性。选择更多地取决于代码互操作性以及其他语言(如 Javascript 的 `yield` 运算符)中并发功能的发展,而不是原始速度。

黑客新闻 新 | 过去 | 评论 | 提问 | 展示 | 招聘 | 提交 登录 分隔符连续性 vs. Lwt 用于线程 (mirageos.org) 4 点赞 romes 1 小时前 | 隐藏 | 过去 | 收藏 | 讨论 指南 | 常见问题 | 列表 | API | 安全 | 法律 | 申请 YC | 联系 搜索:

启用 JavaScript 和 Cookie 以继续。

黑客新闻 新 | 过去 | 评论 | 提问 | 展示 | 招聘 | 提交 登录 史密森尼国家动物园诞生亚洲雌性小象 (si.edu) 5 分,gmays 1小时前 | 隐藏 | 过去 | 收藏 | 1 条评论 downboots 0分钟前 [–] 终于有人提到了它 回复 指南 | 常见问题 | 列表 | API | 安全 | 法律 | 申请YC | 联系 搜索:

## 使信任无关紧要:代理AI安全摘要 DesoPK认为,当前代理AI安全方法存在根本缺陷,在于关注于*信任*AI,而非消除*对*信任的需求。核心问题不是对齐或提示工程,而是“环境权威”——赋予AI对系统(文件、网络、凭证)的广泛、持久访问权,并期望其行为良好。这创造了一种容易被利用的“混淆代理”问题,无论是有意还是无意。 解决方案不是更好的AI,而是更严格的系统机制。DesoPK 提出“仅减少权限”,即代理只能被授予有限的、有时限的权限,且无法升级。这需要一个内核级别的“控制平面”(KERNHELM)作为权限代理,机械地执行权限并分离规划与执行。 本质上,AI应该被视为固有不可信任的,在一种旨在防止其获得“神模式”的系统中运行——即使它试图这样做。这种方法借鉴了游戏开发和安全领域的经验教训,优先考虑强大的机制,而不是依赖AI的意图,从而通过设计而非希望使代理系统更安全。关键在于明确、可撤销的权限,以及防止代理自行授权任何操作。

最近一篇Hacker News上的帖子讨论了人工智能安全问题,认为当前的方法正在失败,原因是存在“混淆代理问题”——赋予人工智能代理过多的权限,而这些权限受到容易绕过的“软”约束(如提示词)控制。作者DesoPK建议转向“硬性、仅减少权限”的方式,并在根本系统层面(如内核)强制执行,以创建真正的边界。 讨论强调了一个核心矛盾:用户便利性常常与强大的安全性相冲突。用户不喜欢频繁的权限请求,因此更倾向于无缝的体验,即使这种体验安全性较低。 值得注意的是,评论者很快怀疑原始帖子是由大型语言模型(LLM)生成的,引发了关于人工智能生成内容透明度的争论。然而,核心论点集中在需要对具有代理性的人工智能施加更严格、不可绕过的控制,以防止意外后果。

在 Fedora 43 容器、Ubuntu 26.04 容器以及常规 Fedora 42 安装中测试,出现相同错误。 直接使用了 README.md 中的示例。 GCC 存在并且可以正常编译代码: root:/claudes-c-compiler# cat > hello.c << 'EOF' #include <stdio.h> int main(void) { printf("Hello from CCC!\n"); return 0; } EOF root:/claudes-c-compiler# ./target/release/ccc -o hello hello.c /usr/include/stdio.h:34:10: error: stddef.h: No such file or directory /usr/include/stdio.h:37:10: error: stdarg.h: No such file or directory ccc: error: 2 preprocessor error(s) in hello.c root:/claudes-c-compiler# gcc -o hello hello.c root:/claudes-c-compiler# ./hello Hello from CCC! root@1b5343a2f014:/claudes-c-compiler#

最近,有人尝试使用AI构建的C编译器(Claude的C编译器)编译“Hello, world”程序,引发了Hacker News上的讨论。最初被认为是失败,但问题在于标准库路径配置不正确——编译器本身*是*可以工作的。 这一事件引发了关于AI能力炒作的争论。一些人认为,这凸显了当前模型的局限性,并反驳了自动化软件工程的说法。另一些人强调了正在取得的快速进展,并警告不要轻易否定这项技术,承认我们对其潜力缺乏充分的了解。 评论员还注意到了一种模式:那些从炒作中获益的人夸大AI的能力,而那些担心失业的人则表现出抵触情绪。许多人同意需要更冷静和现实的讨论,而一些人则指出人类天生喜欢幸灾乐祸。最终,这一事件提醒我们,即使是令人印象深刻的AI工具仍然存在局限性。

## 空间连接与H3索引:性能提升 传统的空间连接(例如,`SELECT * FROM A JOIN B ON ST_Intersects(A.geo, B.geo)`)在规模较大时性能会下降,因为空间谓词阻止了高效的哈希连接,导致复杂度为二次方。本文详细介绍了Floe如何利用H3索引来显著加速这些查询。 H3将地球划分为一系列六边形单元的层级结构,提供紧凑的、基于整数的键,适用于高效连接。通过将几何体表示为H3单元ID的集合,`ST_Intersects`检查转换为更快的集合重叠操作。虽然这引入了保守的近似(可能存在误报),但最终的精确谓词重新检查确保了正确性。 该过程包括为两个表生成H3覆盖,在单元ID上进行连接,去重候选结果,然后应用空间谓词。这会将代价高昂的谓词从主要操作转移到清理步骤。使用世界城市/国家数据集的测试表明,使用H3分辨率3可以实现**400倍的加速**,将查询时间从约460秒减少到仅1.17秒。 这种方法实用之处在于它可以与视图/CTE一起工作,避免索引维护,并允许轻松试验分辨率级别。最终,H3索引使数据库能够利用其优势——并行哈希连接——来处理地理空间数据。

黑客新闻 新的 | 过去的 | 评论 | 提问 | 展示 | 招聘 | 提交 登录 我们如何使用H3索引将地理连接速度提高400倍 (floedb.ai) 15 分,由 matheusalmeida 1小时前 | 隐藏 | 过去的 | 收藏 | 讨论 指南 | 常见问题 | 列表 | API | 安全 | 法律 | 申请YC | 联系 搜索:

受人工智能数据中心日益增长的成本和环境影响驱动,一位前英特尔院士加入了OpenAI,以应对前所未有的规模下的性能工程。作者是一位数据中心性能领导者,认为现有方法不足,并寻求对ChatGPT等系统的创新优化。 一个关键时刻发生在理发时——与理发师的对话显示出人们对ChatGPT的日常使用热情高涨,用于超越简单查询的任务,这巩固了该技术的广泛影响。这与最初的怀疑形成对比,并强化了为真正有价值的产品做出贡献的机会,这让他想起了在Netflix的积极经历。 在与26家人工智能公司面试后,OpenAI因其人才工程师的集中度(包括前同事)和工程师享有的自由度而脱颖而出。作者承认OpenAI已经拥有一支强大的性能工程团队,但他旨在利用他的专业知识——包括eBPF等技术——进一步提高效率并降低成本,首先从针对ChatGPT的多组织战略开始。他将此视为实现长期梦想的机会,即创建一个像“奥拉克”一样的人工智能,灵感源于童年对科幻小说的痴迷。

## 黑客新闻讨论:Brendan Gregg 加入 OpenAI Intel 院士 Brendan Gregg 解释他加入 OpenAI 的帖子在黑客新闻上引发了热烈讨论。Gregg 提到希望通过提高 AI 效率来影响数据中心性能并“拯救地球”,但许多评论者表示怀疑,认为财务激励——特别是 OpenAI 预计 IPO 带来的巨额收益——才是主要驱动力。 一些人质疑性能改进是否会被广泛共享,还是会为了 OpenAI 的竞争优势而保持专有。另一些人则争论效率提升的实际影响,认为需求的增加总是会抵消节省。一个反复出现的主题是对“拯救地球”说法的愤世嫉俗,许多用户指出 AI 开发本身就存在固有的能源消耗。 尽管存在怀疑,许多人还是承认 Gregg 的专业知识以及可能带来的改变。 还有关于 AI 的社会影响的讨论,一位评论员强调了 ChatGPT 为一位与国外朋友联系有限的人提供陪伴的感人案例。 最终,这场对话反映了理想主义动机与在一家估值高、快速发展的科技公司内工作的现实之间的紧张关系。

谷歌已发布**开发者知识 API** 和 **模型上下文协议 (MCP) 服务器**的公共预览版,为 AI 开发者工具提供访问准确、最新的谷歌开发者文档的途径。这解决了 LLM 依赖潜在过时信息的问题。 该 API 充当“事实来源”,允许开发者以 Markdown 格式对 Firebase、Android 和 Google Cloud 的文档进行编程搜索和检索,更新索引在 24 小时内完成。 基于开放标准的 MCP 服务器,使 AI 助手能够*安全地*访问这些文档。这增强了诸如实现指导、故障排除和比较分析等功能——使工具能够回答诸如“如何在 Firebase 中实现推送通知?”之类的问题。 开发者可以通过创建 API 密钥并通过 Google Cloud CLI 启用 MCP 服务器来开始使用。未来的开发将侧重于结构化内容、扩展文档覆盖范围和缩短索引时间。目标是显著提高使用谷歌技术的人工智能驱动的开发者工具的可靠性和实用性。

黑客新闻 新 | 过去 | 评论 | 提问 | 展示 | 招聘 | 提交 登录 介绍开发者知识 API 和 MCP 服务器 (googleblog.com) 10 分,来自 gfortaine 3 小时前 | 隐藏 | 过去 | 收藏 | 讨论 指南 | 常见问题 | 列表 | API | 安全 | 法律 | 申请 YC | 联系 搜索:

## Prolok 软件保护:深入解析 在 20 世纪 80 年代,Vault Corporation 的 Prolok 系统是一种著名的软件保护方案。除了核心 Prolok 磁盘外,Vault 还发布了 UNILOK(多密钥访问)、CHRONOLOK(运行时限制)和 COMMLOK 等变体,以及 ROMLOK 加密狗和 ProLoader 磁盘复制机(最初 3,495 美元,后来 1,595 美元)等硬件。 Prolok 磁盘具有三个物理“指纹”——故意损坏的扇区——以及独特的执行代码。分析表明,这些指纹创建了可被保护软件检测到的弱位。虽然看似复杂,但存在一个关键缺陷:来自同一软件包的磁盘可以解锁其中的*任何*受保护的标题,这对出版商来说是一个重大漏洞。 Prolok.EXE 积极抵抗调试并采用混淆技术。然而,最终它被 Central Point Software 的 NOGUARD 和 Quaid Software 的 RAMKEY 等工具击败,这些工具拦截磁盘访问并模拟损坏的扇区。这导致了一场具有里程碑意义的 1985 年诉讼——*Vault Corp. v. Quaid Software Ltd.*——其中 Quaid 成功捍卫了创建备份副本的权利,推翻了限制性的州法律。 讽刺的是,Vault 的衰落始于“Prolok Plus”,这是一个提议的系统,该系统威胁在检查失败时擦除硬盘,严重损害了其声誉。这,加上 Softguard Systems 等竞争对手的业务损失,导致了 Vault 的衰落。现代模拟工作,利用 TransCopy 等格式和弱位掩码,现在成功地在 MartyPC 和 86Box 等模拟器中重现了 Prolok 保护,从而保留了这段计算历史。

黑客新闻 新 | 过去 | 评论 | 提问 | 展示 | 招聘 | 提交 登录 PC软盘复制保护:Vault Prolok (martypc.blogspot.com) 7点 由 kmm 2小时前 | 隐藏 | 过去 | 收藏 | 讨论 指南 | 常见问题 | 列表 | API | 安全 | 法律 | 申请YC | 联系 搜索:

## 不确定与目标的一年 六个月前,与女友艾米在夏威夷的假期感觉像一个完美的时刻——充满欢乐和联系的时光暂停。然而,表面之下,一种日益增长的担忧挥之不去。艾米已经几周来一直感到无法解释的疲劳和其他症状,起初被医生忽视。这次田园诗般的美好旅行笼罩着蔓延的恐惧。 返程后,艾米被诊断出患有催乳腺瘤,一种脑肿瘤。随之而来的是一场手术风暴,第一次手术切除了80%的肿瘤,但未能完全解决问题。恢复过程很艰难,但第二次手术带来了希望,承诺有90%的完全治愈机会。 然而,术后检查显示催乳素水平并未如预期下降,希望破灭了。面对持续的不确定性和进一步治疗的可能性,作者将重心从事业上转移到成为艾米的专职护理者。这段经历点燃了一个新的目标:利用人工智能和科学研究的力量来更好地理解和对抗脑肿瘤,这源于对遗传因素的恐惧以及为艾米和他们的未来家庭尽一切可能的愿望。他现在致力于这个使命,寻求合作并旨在加速该领域的进展。

一篇 Hacker News 帖子讨论了一名男子声称要“治愈”他女友的脑肿瘤,引发了评论员的担忧。虽然承认他的努力是出于奉献和爱,但多名用户担心他将优先考虑“解决”疾病,而不是支持她与疾病共存的经历。 一位评论员指出了一种常见的模式,即照顾者过于关注疾病,可能降低患者的生活质量,并忽视他们对如何度过时间的愿望。另一些人认为,即使是不成功的努力也并非完全徒劳,因为所获得的研究成果可能使他人受益。 该帖子还促使一位女友患有相同诊断的用户反思这种疾病的普遍性,以及另一位分享了面对亲人患病时,感受到“尽一切可能”的巨大压力。

## Ollama:轻松本地运行LLM Ollama 简化了在您的电脑上直接使用大型语言模型(LLM),例如 Gemma。它消除了传统 LLM 设置的复杂性——无需再为依赖项或配置而烦恼! Ollama 允许您轻松**从可搜索的库(可在 [https://ollama.com/search](https://ollama.com/search) 找到)下载预训练模型**,并**使用单个命令运行它们**。例如,`ollama run gemma3:1b` 会下载并执行 Gemma 3 模型。 Gemma 的 1B 版本因其低 RAM 使用量(1.5-2GB)和快速响应时间而突出,使其非常适合快速任务。只需在 Ollama 终端中输入您的提示,即可收到生成的文本。 安装通过一个简单的脚本非常简单:`curl -fsSL https://ollama.com/install.sh | sh`。在 [https://ollama.com/download](https://ollama.com/download) 了解更多信息并找到其他操作系统的安装说明。

Hacker News 新闻 | 过去 | 评论 | 提问 | 展示 | 招聘 | 提交 登录 在 Linux 上安装 Ollama 和 Gemma 3B (byandrev.dev) 9 分,byandrev 1 小时前 | 隐藏 | 过去 | 收藏 | 讨论 指南 | 常见问题 | 列表 | API | 安全 | 法律 | 申请 YC | 联系 搜索:

更多

联系我们 contact @ memedata.com