每日HackerNews RSS

## Swift 与 Raylib:简易 C 互操作演示 尽管像 Ladybird 浏览器 Swift 采用遭遇挫折,作者展示了 Swift 的强大和易用性,尤其是在与 C/C++ 库交互时。他们挑战了对 Swift 生态系统的批评,在无需手动 FFI 绑定情况下,为 macOS 和 Web (使用 WASI) 构建了一个基本的 Raylib 游戏。 Swift 利用 Clang 导入器将 C 头文件无缝转换为 Swift 可理解的模块。这允许直接在 Swift 项目中包含 C 头文件和静态库,该项目由 Swift 包管理器管理。作者的项目结构将 Raylib 的 C 代码(每个平台的头文件和库)与其自己的 Swift 代码分开。 为 WASM 构建需要更多努力,包括一个小的 C 存根来处理浏览器环境中的终端请求,并利用 `emcc` 进行最终编译。一个关键收获是 Swift 能够以最少的代码更改构建 Web,并借助 `ASYNCIFY` 等工具来防止浏览器冻结。 最终,作者发现这个过程“简单”,强调了 Swift 在游戏开发和其他需要 C/C++ 集成的项目中的潜力。完整的项目可在 GitHub 上获取。

对不起。

## 黑格尔:适用于每种语言的基于属性的测试 Hypothesis(一个流行的 Python 基于属性的测试库)的创建者发布了 **Hegel**,这是一个新的基于属性的测试库系列,旨在为多种语言带来 Hypothesis 质量的测试。其核心思想是利用 Hypothesis 强大的数据生成和缩小能力,通过集中运行 Hypothesis 并提供特定于语言的客户端库来实现。 目前适用于 **Rust**(**Go** 即将推出,C++、OCaml 和 TypeScript 的版本正在开发中),Hegel 允许开发者定义代码应该保持的*属性*——例如“解析分数不应崩溃”——而不是编写大量的特定测试用例。这种方法有效地创建了无数的测试,揭示了由于意外输入(例如“0/0”)或复杂逻辑中的错误而导致的崩溃等错误。 Hegel 特别适用于发现常见的错误类型,例如忽略零值或结构不变性问题。它还与 **Antithesis**(一个错误查找平台)集成,以增强测试能力。虽然目前需要 Python,但长期目标是减少这种依赖并提高性能。该项目还包括利用 AI 代理*编写*基于属性的测试的工具,从而降低了入门门槛。 Hegel 目前处于“开发者预览”阶段,但承诺未来基于属性的强大测试将适用于更广泛的编程语言。

## 黑格尔:Rust 中的基于属性的测试 – 摘要 该文章宣布发布 Hegel,一个为 Rust 设计的基于属性的测试 (PBT) 库,灵感来自 Python 的 Hypothesis,旨在将其优势带到 Rust 生态系统。其核心思想是定义代码*应该*满足的属性,Hegel 会自动生成并测试各种输入来验证这些属性。 与现有的 Rust PBT 库(如 Proptest)的主要区别在于,Hegel 具有更灵活的生成器语言、更强大的缩小功能(确保生成的测试用例保持有效)以及更好的测试重放能力。开发者承认 Proptest 目前是可行的,但相信 Hegel 的方法具有长期优势。 该项目建立在通用的基于属性的测试协议之上,并设计为可扩展到其他语言。一个关键目标是帮助测试 AI 生成的代码,在 AI 生成代码中,全面的测试至关重要。 讨论强调了将现有测试从 Proptest 移植的挑战、可读测试对于 AI 辅助开发的重要性,以及关于黑格尔辩证法的本质的持续争论(库的名称是对黑格尔哲学的幽默引用,尽管并不完全准确)。作者欢迎反馈,并鼓励用户尝试 Hegel 并分享他们的经验。

## notermsnoconditions.com - 条款摘要 本网站运营基于极其简单的条款:您可以将其用于任何合法目的,在其内容基础上进行构建,并自由引用。但它**绝对没有任何保证或义务**。 本网站不提供关于准确性、可用性或适用性的任何保证。访问不受限制,内容不经过审查或支持。用户对其使用本网站所产生的行为和创作负全部责任。 重要的是,这些条款是*全部*协议——没有隐藏条款、附加条款或暗示条件。创建者不提供任何支持、服务承诺或保存承诺。 欢迎您在其他地方重用这些条款,但鼓励您谨慎使用。本质上,请自行承担风险并承担全部责任。

## 黑客新闻讨论:“无条款,无条件”网站 一场黑客新闻的讨论围绕着一个网站([notermsnoconditions.com](https://notermsnoconditions.com))展开,该网站讽刺性地宣称“无条款和条件”,同时列出了诸如“仅用于合法目的”和“无担保”之类的免责声明。用户指出,这些免责声明*本身*就是条款和条件,使得该网站的前提变得多余,因为法律无论如何都会自动适用。 对话扩展到更广泛的CYA(保护自己)条款问题,尤其是在金融领域,以及它们的有限有效性。 许多评论员强调,这些条款并不能阻止非法活动,而是提供法律辩护,甚至可能*鼓励*非法行为者记录他们的意图以避免指控。 讨论还涉及版权法,“无许可”声明对代码的歧义,以及依赖默许许可的潜在法律风险。 一些人认为该网站是对法律术语荒谬性的评论,而另一些人则质疑它的实际用处。 最终,该主题探讨了试图规避法律约束与即使在看似简单的场景中,固有需要法律保护之间的紧张关系。 许多用户注意到该网站的设计和语言强烈暗示它是由LLM生成的。

请启用 JavaScript 并禁用任何广告拦截器。

## 拉瓜迪亚机场安全隐患先于致命碰撞 在拉瓜迪亚机场最近一次碰撞导致两名飞行员死亡、41人受伤的几个月前,飞行员曾向美国宇航局提交多份安全报告,详细记录了险些相撞事件和对空中交通管制的担忧。报告强调,空中管制员压力越来越大,正在突破运营限制,尤其是在恶劣天气期间,这与2025年发生的致命事故相似。飞行员报告称,由于过早的起飞许可和关于飞机间距的不充分指导,发生了多次险些相撞的情况,其中一名飞行员通过推迟降落险险避免了一起潜在事故。 这些担忧与对加拿大航空快运航班和消防车之间碰撞事件的调查同时发生。初步调查结果显示,承认之前有过“紧急情况”的管制员错误地允许消防车穿越跑道。这起事件引发了对美国机场系统性压力的担忧,这些压力源于过去的人员削减、老化的设备以及最近的政府停摆对TSA人员配置的影响,导致了严重的延误——甚至阻碍了调查人员进入坠机现场。 之前的多起事件,包括滑行道碰撞和险些相撞,进一步凸显了拉瓜迪亚机场日益增长的安全隐患。

启用 JavaScript 和 Cookie 以继续。

对不起。

## 海洋中意想不到的时间守护者 地球上的生命以大约24小时的周期运作——昼夜节律——控制着从睡眠到新陈代谢的一切,由内部生物钟驱动,并以阳光为校准。这些生物钟基于CLOCK和BMAL1等基因,出乎意料地广泛存在,甚至出现在像藻类这样简单的生物体中。 然而,最近对日本海岸附近新发现的一种水母物种的研究挑战了我们对这些节律的理解。这种水螅纲动物拥有功能性的昼夜节律,尽管*缺乏*大多数动物钟的核心基因。 值得注意的是,它的生物钟以20小时的周期运行,并且似乎与产卵计时器有关。 这一发现表明,替代的、非常规的钟机制可能比以前认为的更常见。科学家们现在正在质疑,仅仅关注已知的“钟基因”是否限制了我们在动物王国中寻找多样化的计时系统能力,从而可能重写我们对生物时间的理解。

《量子》杂志最近的一篇文章详细描述了一项引人入胜的发现:某些水母物种如何在缺乏典型昼夜节律基因的情况下,保持惊人的精确繁殖时间。这些水螅纲动物利用一个独特的双层系统:一个温度敏感的20小时内部振荡器,以及由日出触发的每日重置。 正如一位评论员所说,这个“拼凑”的系统展示了进化利用现有机制而非最佳设计的倾向。这些水母的时间机制不依赖于传统的钟基因途径,引发了人们对自然界中可能存在多少其他非常规计时方法的问题。 该讨论强调了这种非常规方法的潜在韧性,表明它可能为长期环境破坏(如长时间的黑暗,甚至行星变化)提供缓冲。一些评论员还思考这个系统是否优先考虑能量储备和工作周期,确保在能量可用时进行繁殖。

## AI 对软件生产的“AI效应”:一次客观评估 尽管有说法称AI编码工具能带来巨大的生产力提升(2倍到100倍!),但近期对Python软件包索引(PyPI)的分析显示情况更为复杂。ChatGPT发布后,整体软件创作并未激增;新的软件包*创建*速率保持稳定,甚至出现由垃圾信息而非实际开发引起的激增。 软件包*更新*略有增加,但这一趋势在现代AI工具兴起*之前*就已经开始,很可能是由持续集成实践的采用推动的。然而,一个显著的影响是可见的:**关于AI的软件包更新频率更高**,尤其是那些越来越受欢迎的软件包。流行的AI相关软件包的更新频率比非AI软件包高出2倍以上。 这并非所有开发者的普遍生产力提升。相反,数据表明这是一种集中效应,由两个潜在因素驱动:构建AI工具的开发者可能更擅长*使用*AI工具,并且——至关重要的是——**围绕AI的大量投资和炒作正在推动AI生态系统内部的开发和迭代。** “AI效应”并非所有软件的寒武纪大爆发,而是围绕AI软件的一次集中爆发。

## AI 应用在哪里?- Hacker News 总结 最近 Hacker News 上出现讨论,质疑尽管开发者生产力有所提高,但使用 AI *创建* 的、广为人知且有影响力的应用却很少。 大家的共识倾向于软件的 *构建方式* 发生了变化,而不是涌现出大量新的、面向公众的应用。 许多评论员指出,虽然 AI 在原型设计和加速初始开发方面表现出色,但“最后 10%”——完善、维护和扩展——仍然具有挑战性和耗时。很大一部分 AI 辅助开发的结果是个人工具和解决个人需求的“一次性”应用,而不是可以广泛销售的产品。 一些用户指出,通过公共软件包仓库(如 PyPI)来衡量影响是具有误导性的,因为许多 AI 驱动的项目仍然是私有的。 还有人认为,围绕 LLM 的“AI 驱动”包装层已经饱和,缺乏真正新的软件功能。 讨论还涉及将 AI 生成的想法转化为引人入胜的游戏的难度,以及一种普遍趋势,即使用 AI 来增强现有工作流程,而不是创建全新的应用程序。 最终,大家的观点是,AI 正在改变 *谁* 构建软件以及 *如何* 构建软件,但并不一定会导致大量新的、公开可用的应用程序——目前为止。

## RYS II:在现代LLM上重复分层仍然有效 这项研究调查了“重复自我”(RYS)方法——复制Transformer模型的部分以提升性能——是否能从最初在Qwen2-72B上的成功扩展到更新、更强大的模型,如Qwen3.5-27B。核心问题是:重复分层是偶然现象,还是Transformer的普遍特性? 研究结果证实RYS仍然有效。对Qwen3.5-27B的扫描表明,复制连续的中层块可以显著提高数学推理和EQ(情商)基准测试的表现。广泛的测试,包括对3,024种配置进行Beam Search,以及使用代理模型评估200万个样本,确定了最佳的层复制方案。 关键结果表明,模型的“推理区域”——即模型以与格式无关的方式处理信息的地方——与从重复分层中获益最多的区域相符。简单、连续的块复制始终优于更复杂的组合,突出了Transformer内部存在离散的功能电路。该研究还在HuggingFace上发布了扫描代码和新的RYS模型。 最终,这项研究强化了Transformer将推理组织成可识别电路的观点,并且允许模型重新访问这些电路可以提高性能。这种方法与其他优化技术(如微调和量化)是正交的,可以提供潜在的“免费”性能提升。

## LLM神经解剖学与“通用语言”? 这次Hacker News讨论围绕着对大型语言模型(LLM)内部机制的研究,特别是关注一种名为“RYS”(重复自己)的技术——复制特定层以提高性能。作者的实验表明,LLM似乎在其中间层发展出一种与语言无关的“思维空间”。通过对英语、普通话和Base64进行余弦相似性测试,结果显示表征在早期就趋于收敛,表明模型优先考虑*说什么*,而不是*怎么说*。 有趣的是,最佳性能提升仅仅来自于重复连续的层块,这表明Transformer架构内部存在一个连贯的推理电路。进一步的讨论探讨了对模型效率、边缘计算以及与人类语言学习的潜在联系的影响。研究人员正在研究动态层路由,并将层复制与消融(移除)相结合,以优化性能和VRAM使用。作者已在GitHub上发布代码([https://github.com/dnhkng/RYS](https://github.com/dnhkng/RYS))以供进一步探索。

更多

联系我们 contact @ memedata.com