每日HackerNews RSS

## 有趣的星期五:海底电缆维修 海底电缆——包括数据电缆和电力电缆——对于全球通信和电力传输至关重要,它们通常位于珠穆朗玛峰之下。数据电缆使用脆弱的玻璃纤维,受多层材料保护,而电力电缆的尺寸根据电压和距离而异,短距离使用交流电,长距离使用直流电。 电缆损坏相对常见,渔船和锚是主要原因,但地震甚至鲨鱼咬伤也可能发生。 维修包括定位断裂处(数据电缆使用光脉冲,电力电缆使用遥控潜水器),派遣专门的电缆船,并回收受损部分。 然后拼接新电缆,并将修复的部分小心地降低回海底。 保护措施包括金属屏蔽,并向渔民提供电缆位置图。 尽管做出了这些努力,但电缆经常断裂——全球大约每周两次——但通常可以通过重新路由数据来缓解。 保护这些电缆越来越重要,因为它们承载着全球约95%的数据和语音流量,并且容易受到破坏或数据盗窃。

对不起。

## Anthropic Mythos 发布与可疑漏洞声明 Anthropic 发布 Claude Mythos 预览版,重点宣传其“自主”发现并利用了 FreeBSD 中的一个 17 年前的远程代码执行漏洞(CVE-2026-4747)。然而,仔细审查显示,这一叙述可能具有误导性。 该漏洞最初由 Anthropic 研究员 Nicholas Carlini 使用 *早期* 模型 Claude Opus 4.6 在 2026 年 2 月发现并公开记录,随后 FreeBSD 已对其进行修复。尽管如此,FreeBSD 安全公告最初将功劳归于“Claude”(未指定 Mythos),而 Anthropic 的 Mythos 发布声称新模型 *完全自主地* 识别并利用了该漏洞。 AISLE 的进一步调查表明,*八个* 开源模型,包括一个非常小且廉价的模型,也可以检测到该漏洞。这削弱了 Anthropic 关于“前沿独占”能力的说法。 核心问题在于 Mythos 是否独立地重新发现了已知漏洞,或者 Anthropic 是否在为 Opus 4.6 的工作成果邀功。 FreeBSD 发布的日期以及两者之间的差异凸显了这一问题,并引发了对透明度和漏洞披露实践诚信的担忧。该事件对 Mythos 能力的叙述产生了怀疑,并暗示了一种将炒作置于准确表述之上的营销策略。

对不起。

## 关节响声:一种新的理解 长期以来,人们认为人体关节的“咔哒”声是由滑液中的气泡破裂引起的。然而,新的研究利用实时磁共振成像(MRI)对这一理论提出了挑战。这项研究直接观察了十个掌指关节在牵引过程中的情况,揭示了关节响声实际上是由关节表面分离时*快速形成空腔*造成的,而不是气泡破裂。 MRI显示了一个与历史观察相符的序列:初始关节表面接触、抵抗分离并随着力量增加、然后是突然的快速关节分离,伴随着声音的产生和可见空腔的形成。这个空腔在声音之后*持续存在*,这与气泡破裂的假设相矛盾。 这些发现支持了*三核化(tribonucleation)*的概念——一种表面抵抗分离直到临界点,然后快速分离形成持续性气体空腔的过程。这是关节中三核化的首次体内演示,为理解关节力学提供了一个新的框架,并可能用于研究相关的健康结果。该研究表明需要重新评估之前对关节响声及其对软骨健康潜在影响的理解。

黑客新闻 新的 | 过去的 | 评论 | 提问 | 展示 | 工作 | 提交 登录 实时可视化人体手指关节空化 (2015) (plos.org) 18 分,bookofjoe 1 天前 | 隐藏 | 过去的 | 收藏 | 3 评论 帮助 mmastrac 1 天前 | 下一个 [–] 有什么东西让人如此满足,每隔15分钟左右就能重置一次?回复 drfloyd51 1 天前 | 父级 | 下一个 [–] 自从我十几岁以来就没有了。回复 nexrex 1 天前 | 前一个 [–] 我正噼啪作响手指关节的时候看到了这个。回复 考虑申请YC 2026年夏季项目!申请截止至5月4日 指南 | 常见问题 | 列表 | API | 安全 | 法律 | 申请YC | 联系 搜索:

arXivLabs是一个框架,允许合作者直接在我们的网站上开发和分享新的arXiv功能。个人和与arXivLabs合作的组织都认同并接受我们开放、社群、卓越和用户数据隐私的价值观。arXiv致力于这些价值观,并且只与秉持这些价值观的合作伙伴合作。您是否有为arXiv社群增加价值的项目想法?了解更多关于arXivLabs的信息。

对不起。

请启用 JavaScript 并禁用任何广告拦截器。

对不起。

## 从零到竞争:优化一个微型解释器 这篇文章详细介绍了为动态语言 Zef 优化一个简单的 AST 遍历解释器的过程,使其性能与 Lua、QuickJS 和 CPython 竞争——速度提升了 16.6 倍(使用 Yolo-C++ 端口则提升了 67 倍)。重点在于在处理 JIT 编译或高级垃圾回收等复杂功能*之前*进行的初始优化。 关键技术包括改进**值表示**(使用标记值避免数字的分配),实现**内联缓存**(使用专门的 AST 节点减少分派开销),以及改进**对象模型**(使用预分配存储和观察点避免哈希表查找)。 显著的收益来自于看似重大的改变,例如将对象模型改进与内联缓存和观察点结合,从而实现了 4.55 倍的速度提升。 作者使用了一个基准测试套件 ScriptBench1(Richards、DeltaBlue、N-Body 和 Splay 的移植版)来跟踪进度。实验在配备 Intel Core Ultra 5 处理器的 Ubuntu 22.04 上进行。最终结果使使用 Fil-C++ 编译的 Zef 能够与成熟的解释器相媲美,而 Yolo-C++ 端口则提供了进一步的 4 倍加速(尽管存在内存管理方面的注意事项)。该项目表明,即使在基本的解释器基础上,通过仔细、有针对性的优化,也可以实现显著的性能提升。

对不起。

## Nebula 1.10:现代网络的重要更新 Nebula 1.10 历经一年开发,带来了显著的增强,包括对覆盖网络的 **IPv6 支持**——一项长期要求的特性。此更新通过消除 IPv4 地址限制并实现跨多个站点的无缝连接,为网络做好未来准备。升级过程简单直接,允许在零停机的情况下实现 IPv4/IPv6 混合环境。 主要改进还包括 **新的 v2 证书格式**(使用 ASN.1 代替 Protocol Buffers),以支持 IPv6 和每个主机的多个 IP,从而提供更大的灵活性和面向未来的能力。 除了核心网络功能外,Nebula 1.10 还引入了 **企业级安全**,支持使用 HSM 进行 P256 密钥的 PKCS#11 支持,从而实现安全的密钥管理。 **高级路由** 功能,如 `unsafe_routes` 的 ECMP 和 Linux 上的 `SO_MARK` socket 选项支持,进一步增强了网络控制和集成。最后,通过可配置的日志记录和版本控制改进了库集成。 Nebula 1.10 为各种规模的团队提供更强大、更安全、更面向未来的网络解决方案。

## Nebula & Tailscale 讨论 - 总结 一个黑客新闻的讨论围绕着 **Nebula** 和 **Tailscale** 这两种网状 VPN 解决方案,用户分享了他们的经验和观点。一位用户表达了对 Nebula 的喜爱,但也承认 Tailscale+Headscale 通过 Gmail 登录的易用性。他们正在考虑使用类似 Let's Encrypt 的短寿命证书为 Nebula 添加自动证书处理。 关于 Tailscale 的担忧包括 Linux 上防火墙规则和路由的“网络问题”,以及在 Debian 上 WSL 镜像网络和 DNS 解析的问题。一些用户更喜欢 **OpenVPN**,因为它简单且性能良好,尽管存在理论上的限制。 对话还涉及 **IPv6**,特别是 DNS 与 SLAAC(无状态地址自动配置)的集成挑战,以及关于地址长度的争论——质疑 128 位是否真的必要。虽然一些人提倡 DHCPv6,但 Android 的有限支持以及对隐私地址的偏好也被讨论。总的来说,该帖子强调了在选择网状 VPN 解决方案时,易用性、控制权和底层网络复杂性之间的权衡。

## 三元盆景:高性能、低内存语言模型 PrismML 发布了三元盆景,这是一种新型的 1.58 位语言模型系列(8B、4B 和 1.7B 参数),旨在实现高效性能。在他们之前的 1 位盆景模型的基础上,三元盆景通过利用三元权重(-1、0、+1)在内存使用和准确性之间取得了平衡。 这些模型比标准的 16 位模型内存占用小约 9 倍,同时在 MMLU、GSM8K 和 HumanEval+ 等关键基准测试中*优于*许多同等参数的模型。例如,8B 模型实现了 75.5 的平均基准分数,超越了 1 位盆景 8B,并与更大的模型(如 Qwen3 8B)竞争,尽管其尺寸明显更小。 三元盆景还提供令人印象深刻的吞吐量和能源效率,在 M4 Pro 和 iPhone 17 Pro Max 等平台上,运行速度比 16 位模型快高达 5 倍,并且能耗降低 3-4 倍。这些模型通过 MLX 在 Apple 设备上原生支持,并采用 Apache 2.0 许可证提供。它们代表了性能-尺寸权衡的转变,与 1 位系列相比,在内存略有增加的情况下,提供了一个更强大的模型。

## 语言模型中的“退缩”:所谓的“无审查”模型真的自由吗? 最新研究表明,即使是作为“无审查”销售的语言模型,也表现出一种微妙但普遍的偏见——一种对某些词语和话题的“退缩”。这种退缩不是拒绝回应,而是一种统计上的微调,降低了生成文本中出现“敏感”词语(例如与暴力、政治或侮辱性词语相关的词语)的概率。 研究人员在来自五家实验室的七个预训练模型中测量了这种退缩,包括来自谷歌、阿里巴巴、OpenAI和开源选项的模型。他们发现*所有*模型都表现出这种行为,商业过滤模型比开放数据模型表现出更强的退缩。即使是“拒绝消除”模型——那些被设计用来绕过安全限制的模型——仍然表现出退缩,这表明偏见嵌入在核心预训练数据中,而不仅仅是安全层。 这项研究强调,这不仅仅是关于避免明确的拒绝;而是对语言进行系统性的塑造。这引发了对信息微妙控制以及在大型语言模型背景下“无审查”的真正含义的担忧。该研究提供了一个新的框架来理解和量化这些偏见,为更透明和负责任的AI开发铺平了道路。

## 数据库性能的零拷贝 本文探讨了在数据库引擎中实现零拷贝数据处理以提高性能,尤其是在数据不适合CPU缓存的高负载情况下。传统的数据库架构涉及在磁盘、操作系统页面缓存、缓冲池和更高级别之间进行多次CPU拷贝——所有这些都是浪费的工作。 第一步是使用**直接IO (O_DIRECT)**绕过操作系统页面缓存,这需要对齐的缓冲区和仔细的处理以避免错误。 这消除了一个关键的拷贝。 接下来,重点转向消除数据库引擎*内部*的拷贝,特别是缓冲池和更高级别之间的拷贝。 核心策略是**借用而非拥有**数据。Rust 的生命周期系统被用来创建缓冲池中固定页面字节的视图(例如 `PageReadGuard`、`HeapPageView`),从而避免冗余拷贝。实现了单独的读取 (`PageReadGuard`) 和写入 (`PageWriteGuard`) 访问路径,以维护数据完整性并利用 Rust 的借用规则。 虽然这种方法引入了生命周期注解的复杂性,并且需要显式的方法实现(由于缺乏像 `Vec` 那样的统一的可变/不可变视图),但它显著减少了数据移动。设计将所有权集中在缓冲池中,所有更高级别都在借用的视图上操作,最终提高性能并减少潜在的错误。

对不起。

更多

联系我们 contact @ memedata.com