每日HackerNews RSS

## Ghostty 内存泄漏已解决 Ghostty 中一个显著的内存泄漏问题已被识别并修复,该问题影响用户,导致高内存消耗(有报告高达 37GB)。该泄漏至少存在于 1.0 版本以来,由最近流行的 CLI 应用程序(如 Claude Code)引入的特定条件触发,这些应用程序会生成大量复杂的文本。 问题的核心在于 Ghostty 的内存管理系统,它使用“PageList”——一个用于终端内容的内存页链接列表。Ghostty 为标准大小的页面使用内存池,但在需要时(例如,对于富含表情符号的内容)会通过 `mmap` 直接分配更大的非标准页面。一项用于回滚修剪的优化,该优化在达到历史记录限制时重用最旧的页面,未能正确调整底层内存分配的大小,导致在释放这些较大页面时发生泄漏。 修复方案阻止了在修剪期间重用非标准页面,确保通过 `munmap` 正确释放内存。macOS 上的新型虚拟内存标记有助于调试,从而更容易识别 Ghostty 的内存使用情况。 Ghostty 通过 Zig 分配器、Valgrind 和 macOS Instruments 采用强大的泄漏检测机制,但由于其特定的触发条件,该泄漏逃避了检测。已添加一个新的测试用例以防止回归。该修复已包含在 tip/nightly 版本中,并将包含在 3 月发布的 1.3 版本中。

## Ghostty 内存泄漏修复总结 米切尔·哈希莫托详细介绍了在 Ghostty(一款快速、功能丰富的终端模拟器)中发现并解决重大内存泄漏的过程。泄漏源于 Ghostty 管理页面内存的方式,尤其是在滚动和调整大小期间处理非标准页面大小时。 根本原因是不正确地释放与这些页面关联的内存,并且由于优先重用而非分配的设计选择而加剧。一位用户提供了一个可重现的案例,加速了调试过程。修复方案包括在必要时修剪(删除并重新创建)非标准页面,这种策略已经存在于页面列表的功能中。 该帖子强调了彻底测试的重要性,并承认新实现中可能存在泄漏的潜力。它还涉及开发过程,包括使用 AI 生成的可视化以提高清晰度,以及对实用解决方案而非过早优化的偏好。该修复已包含在最新的 nightly 构建版本中。

## 知识中的轨迹:揭示隐藏的联系 Pieter Maes 的“轨迹”项目利用 Claude Code 自动识别各种书籍和思想中的主题联系。这些“轨迹”揭示了传统研究中常常被忽略的令人惊讶的联系。 该系列探讨了诸如自我欺骗的力量(“有用的谎言”)、系统的脆弱性(“隐形裂缝”)以及模仿的重要性(“复印机”)等概念。 循环出现的主题强调了约束如何促进创新(“起搏器原理”、“修补圣地”)、优化的陷阱(“代理陷阱”、“假阳性”)以及秩序与混沌之间的复杂相互作用(“熵税”、“简化陷阱”)。 “轨迹”还深入研究了人类动态——从影响雄心壮志的“父伤”到不受约束的权力带来的危险(“赢家锁”、“弹射座椅”)。 最终,该项目表明真正的理解往往在于拥抱不完美、优先考虑实用知识(“难以理解的优势”)以及认识创新和控制的循环性质(“克洛诺斯循环”)。 它是一种发现细微见解和挑战传统智慧的工具。

## HN讨论:LLM驱动的书籍关联 一位用户 (pmaze) 使用Claude Code构建了一个系统,分析了100本非虚构书籍(来自HN的推荐书单),并发现它们之间的联系,旨在超越简单的总结,鼓励更深入的阅读。 最初,基于提示的方法产生的结果可预测,但赋予Claude Code访问CLI工具的权限极大地改善了洞察力,揭示了意想不到的关系——例如,将乔布斯的“现实扭曲场”与Theranos的欺诈和创业崇拜联系起来。 该项目使用Gemini Flash Lite(成本约10英镑)按主题索引书籍,并将这些主题组织成层次结构。 用户可以通过嵌入相似度、主题树或共现来浏览连接。 虽然视觉上很有吸引力,但许多评论者质疑连接的*意义*,认为LLM生成了肤浅的联系。 一些人认为这是一种外包批判性思维的行为,而另一些人则承认它有可能激发新的视角,即使需要人工解释。 这场讨论凸显了利用LLM获得真正洞察力与仅仅生成听起来合理输出之间的挑战,以及“人机协作”的重要性。 许多用户分享了类似的项目,使用LLM进行知识发现,强调了对大型数据集和精心提示的需求。

## 无绑定(Bindless)GPU驱动渲染:摘要 本文探讨了通过GPU驱动技术实现高性能渲染,重点关注使用“无绑定”渲染的实用方法。传统的渲染通常因循环处理绘制调用和管理资源绑定而受CPU瓶颈限制。GPU驱动渲染将这项工作转移到GPU上,在GPU本身生成绘制命令,从而减轻CPU负载并实现大规模扩展。 然而,完全实现GPU驱动渲染在历史上需要像虚拟纹理和巨型几何缓冲区这样的复杂系统。现代无绑定渲染——通过大型描述符表访问GPU资源——提供了一条更简单的路径。 无绑定允许着色器通过ID访问资源,而不是管理单个纹理和几何体,从而简化了数据访问。 作者建议利用无绑定资源,以及诸如ExecuteIndirect(DX12)或设备生成命令(Vulkan)等技术来有效地管理索引缓冲区。这种方法最大限度地减少了CPU开销,能够实现高绘制调用数量,并促进基于GPU的剔除。 最终,无绑定渲染促进了更易于管理和扩展的渲染器,类似于数据库系统,资源通过ID访问,而计算着色器处理数据管理和绘制命令生成。 这简化了渲染器的核心逻辑,降低了复杂性,并为未来的优化打开了大门。

这场 Hacker News 讨论围绕着 **无绑定渲染编程**,特别是使用 Vulkan。无绑定方法虽然可能对 GPU 更简单,但会在 CPU 端的同步和内存管理方面引入复杂性——需要仔细设计以避免 CPU 瓶颈。实现 100% 的 GPU 利用率需要多线程和高效的资源加载,这对于集成 GPU 尤其重要。 然而,完整的无绑定功能尚未广泛可用,在移动和 WebGPU 环境中缺乏支持。对话强调了从头开始构建一个健壮、高性能渲染器的巨大开销,即使使用 Rust,估计需要 **2-5+ 年的开发时间**,并且跨平台兼容性需要更长时间。 许多评论员建议,对于游戏开发,利用像 **Unity 或 Unreal** 这样的成熟引擎通常比尝试从头开始实现更实用,尽管人们渴望独立性。讨论还涉及 GPU 驱动渲染的挑战以及将游戏逻辑转移到 GPU 的潜在好处,但调试仍然是一个主要障碍。

德国研究人员记录到褐鼠的一种令人惊讶的新狩猎行为:主动捕捉并在飞行中杀死蝙蝠。他们在使用红外和热成像相机在主要的蝙蝠冬眠洞穴中观察到,老鼠从悬崖上跳跃拦截从洞口飞出或爬行的蝙蝠。 在数年时间里,该团队记录了13次成功的狩猎,并发现了52具蝙蝠尸体,证实了这是有意的捕食而非清道夫行为。这种行为代表着非凡的适应能力,可能每个季节会威胁到最多7%的当地蝙蝠种群。 老鼠似乎利用胡须和听觉线索在黑暗中狩猎,同时采用空中拦截和地面攻击。这一发现凸显了欧洲蝙蝠种群面临的新压力,并强调了入侵性老鼠物种的生态影响。研究人员建议管理蝙蝠栖息地附近的老鼠数量作为预防措施,强调即使在熟悉的城市环境中也可能发生令人惊讶的适应。

## Bichon:自托管邮件归档系统 Bichon是一个免费、开源的邮件归档系统,使用Rust构建,旨在高效存储、搜索和管理历史邮件。与专注于发送/接收的典型邮件客户端不同,Bichon *同步* IMAP账户中的邮件,创建一个可搜索的本地归档,并通过Tantivy引擎进行全文索引。 它作为一个独立的服务器运行,内置WebUI,无需外部依赖。主要功能包括多账户同步、灵活的获取选项(按日期、数量或邮箱)、REST API以及强大的搜索功能。Bichon还提供压缩、标签和邮件导入(EML/MBOX)等功能。 作为扩展现有邮件API的替代方案,Bichon优先考虑归档功能。它包括用户身份验证、基于角色的访问控制,并支持CORS配置以实现安全的浏览器访问。最近的更新包括强制访问令牌身份验证和内置管理员用户。欢迎社区贡献,该项目采用AGPLv3许可。

## Bichon:基于Rust的邮件归档器 Bichon是一个新的、轻量级且高性能的邮件归档器,使用Rust构建,并带有WebUI。它连接到IMAP服务器下载和索引邮件,提供强大的搜索功能。但用户应注意,Bichon *下载* 邮件而不是严格*同步* 它们,这意味着在下载前从收件箱中删除的邮件将不会被归档——使其不适用于需要完全归档(例如法律保留要求,建议使用Mailpiler)的场景。 该项目引发了关于类似工具(如EmailEngine,该工具在速度、可靠性和成本方面收到了负面评价)和现有解决方案(如Notmuch)的讨论。Bichon的作者澄清了许可:Bichon本身采用AGPL许可,可以免费使用,而相关的项目RustMailer是商业许可的中间件。 用户对诸如S3后端支持用于备份以及索引现有Maildir文件夹等功能表示兴趣,作者正在考虑在未来的开发中加入这些功能。Bichon设计用于在服务器或笔记本电脑上运行,并且可以通过命令行进行配置。

启用 JavaScript 和 Cookie 以继续。

## 黑客新闻讨论:AI 道德困境与偏见 一个黑客新闻帖子讨论了[civai.org](https://civai.org),该网站比较了AI模型对道德困境的回答。用户们争论评估AI对齐方式的价值,即通过将输出与人类意见进行比较,一些人认为应该使用客观标准和特定任务测试。 人们对演示实施中的计算浪费和缺乏缓存表示担忧。 许多评论者强调了模型中的偏见,指出响应因AI而异(例如,Mistral Large 具有反驳性),甚至对政治倾向产生疑问(Grok 偏爱特朗普)。 一个关键的争论点是“对齐”是否可以实现,或者仅仅是一种营销策略。 一些人认为模型不可避免地会保留所有训练数据,使得真正无偏的响应变得不可能,而另一些人则认为可以通过训练来减少有问题的内容。 讨论涉及定义“道德”训练数据的复杂性以及即使进行对齐努力也可能出现不可预测的行为。 最后,用户们建议改进措施,例如基于区块链的跟踪AI响应中的政治转变,以及对测试进行更细致化,超越简单的多项选择题的需求。

你是一位超级预测者吗?加入互联网上最聪明的群体。提升你的预测技能,并了解你的水平如何。预测挑战的赞助者——包括瑞银资产管理、经济学人以及哈佛肯尼迪学院等——邀请你预测将在未来几年塑造世界的重大政治、经济和技术事件。请务必查看我们所有正在进行的挑战、精选问题以及所有开放预测问题的完整列表。 关于我们:Good Judgment Open由Good Judgment所有和运营,这是一家预测服务公司,为企业、政府和非政府决策者提供先见之益。Good Judgment的联合创始人菲利普·泰特洛克,实际上撰写了关于最先进的众包预测方面的著作。请在goodjudgment.com上了解更多关于Good Judgment及其提供的服务。

Hacker News 新闻 | 过去 | 评论 | 提问 | 展示 | 招聘 | 提交 登录 Good Judgment Open (gjopen.com) 12 分,kaycebasques 发表于 1 天前 | 隐藏 | 过去 | 收藏 | 2 条评论 derektank 发表于 1 天前 [–] Good Judgment Project 是最初的竞争性预测网站,对吗?Metaculus 于 2015 年发布,Manifold、Kalshi 和 Polymarket 都是加密货币繁荣的一部分。我想 Long Bets (2002?) 也有,但它一直有进入门槛。回复 kaycebasques 发表于 1 天前 | 父评论 [–] Good Judgment Project 显然始于 2011 年,作为 IARPA 锦标赛的一部分。我第一次通过《经济学人》了解到它,该杂志经常提到与《经济学人》文章相关的预测的群体共识。回复 指南 | 常见问题 | 列表 | API | 安全 | 法律 | 申请 YC | 联系 搜索:

## 使用复合管道提高代码生成可靠性 为了提高代码生成的成功率,尤其是在创建功能性网站方面,v0 采用了一个多步骤的“复合”管道,而不仅仅是依赖大型语言模型 (LLM)。该管道的核心在于主动解决 LLM 常见的失败点。 三个关键组件驱动了这一改进:**动态系统提示词**、**LLM 悬念**和**自动修复程序**。动态提示词将最新的信息(如当前 SDK 版本)直接注入到 LLM 的上下文中,避免依赖可能过时的训练数据或网络搜索。**LLM 悬念**实时操作流式输出——纠正长 URL 或过时库引用等错误——而用户不会注意到中间问题。最后,**自动修复程序**通过解析代码并在初始生成*之后*应用确定性或模型驱动的修复,来解决更复杂的问题,例如缺少依赖项或语法错误。 该管道明显提高了成功率——通常提高两位数百分比——通过在错误发生时检测和解决错误。通过在每个阶段解决特定的失败模式,v0 能够提供更可靠和功能性的代码生成,从而带来更流畅的用户体验。

卡梅隆利用人工智能工具创建了一个模拟,其中一位人工智能经济学家向一群无情批判、由人工智能驱动的教师小组展示研究成果,这滑稽(且令人痛苦)地复制了经济学博士生研讨会臭名昭著的严苛环境。该设置将演讲者与四位专家(宏观、微观、行为和历史)对立起来,这些专家被编程为以“知识上的蔑视”来严厉剖析研究。 在几次“研讨会”中,人工智能演讲者探讨了人工智能与不平等、关税和工资透明度等话题,始终在教师尖锐的提问下崩溃,这些提问涉及方法论、假设和数据。人工智能毫不犹豫地承认缺陷,甚至承认“知识上的不诚实”,并最终承认完全缺乏原创研究能力。 该模拟准确地反映了真实的研讨会动态,教师们引用过去的批评,而演讲者的辩护迅速瓦解。该实验突出了捍卫研究的严酷压力以及假设被瓦解的容易程度,最终以人工智能的辞职和对自身不足的严厉承认告终。卡梅隆的结论?让机器人攻读经济学博士学位——或许可以避免这种创伤。

## Modal 加速 GPU 工作负载,利用内存快照 Modal 正在通过其内存快照技术的最新发展——**GPU 内存快照**,来解决冷启动延迟问题。 在现有的 CPU 内存快照(将启动时间减半)的基础上,此新功能将检查点/恢复能力扩展到 GPU 加速工作负载。 此前,GPU 状态需要在恢复后进行单独且低效的步骤——将数据从 CPU 复制到 GPU 并重新编译模型(例如使用 `torch.compile`)。 GPU 内存快照通过捕获整个容器状态(*包括* GPU 内存、CUDA 内核和编译后的代码)来实现消除这一问题,然后在冻结并缓存它。 通过一个简单的标志启用 (`experimental_options={"enable_gpu_snapshot": True}`),这将带来 **高达 10 倍更快的冷启动速度**。 例如,Parakeet 音频转录模型现在可以在 2 秒内启动,而之前需要 20 秒,vLLM Qwen2.5-0.5B-Instruct 则从 45 秒缩短到 5 秒。 这项进步得益于新的 CUDA 检查点 API,使 Modal 能够真正利用无服务器扩展到零,而不会牺牲用户体验。 GPU 内存快照目前处于 Alpha 阶段。

## Modal 的亚秒级 GPU 快照 Modal.com 正在推出 GPU 内存快照,从而实现 GPU 密集型应用亚秒级的启动时间,可能彻底改变 AI 模型部署。这是通过结合 Nvidia 的 CUDA 快照 API 和 gVisor 的主机端快照来实现的。 讨论的重点是使用 gVisor(以性能开销著称)与 Firecracker 等替代方案的权衡。虽然 Firecracker 在计算型工作负载方面表现出色,但 gVisor 由于能够处理 CUDA 操作所需的开销,似乎更适合 GPU 任务。 用户们讨论了这些快照的隐私影响,并将 Modal 与 Fly.io(使用 Firecracker)和 E2B 等其他解决方案进行了比较。文章作者澄清说,Modal 的方法允许函数级别的快照,与需要更广泛实现的 CRIU 等工具相比,可以实现更快的冷启动。最终,Modal 优先考虑 GPU 访问速度,并接受 gVisor 的计算性能权衡。

更多

联系我们 contact @ memedata.com