每日HackerNews RSS

关于按住版权联系我们创作者广告开发者条款隐私政策和安全性YouTube的工作原理测试新功能© 2025 Google LLC

## 混合式空中-水下无人机:学生项目引发关注 一个展示混合式空中-水下无人机的学士项目正在Hacker News上引发讨论。这架无人机主要使用现成组件和3D打印零件制造,成功地实现了从飞行到水下操作的转换——这一壮举引发了关于水下信号传输的问题。 评论者指出,该无人机没有系绳,并且似乎缺乏水下计算机视觉,这引发了关于如何在水面下保持控制的猜测。该项目的创建者承认,他们的原型没有解决水下射频传输问题,而是依赖于标准无人机组件。 虽然作为概念验证来说令人印象深刻,但讨论强调了潜在的改进,例如防水电机、阻力降低以及替代信号传输方法(光纤脐带或自主水下运行)。该项目提出了关于这种混合式无人机的实际应用案例的问题,一些人建议可能存在军事应用或现有空中/水下无人机无法胜任的情况。许多人对这项技术尚未被广泛实施感到惊讶,而另一些人则指出政府技术往往落后于商业创新。

文斯·赞佩拉,一位在电子游戏行业极具影响力的重要人物,不幸在55岁时因车祸去世。他最广为人知的是作为Infinity Ward和Respawn Entertainment的联合创始人,并带领《使命召唤》系列在《现代战争》时期迎来了“黄金时代”。 在与动视的激烈决裂后,他创立了Respawn,推出了《泰坦陨落》、《Apex英雄》和《星球大战绝地:陨落的武士团》等创新作品。最近,赞佩拉接手了《战地》系列,并成功地使其焕发新生——最新作品的销量目前已超过《使命召唤》。 赞佩拉以其富有创造力的愿景而闻名,始终在射击游戏类型中突破界限,同时保持商业上的成功。他还推动了Respawn向其他类型的拓展,尤其是在广受好评的《星球大战绝地》系列中。他的去世留下了一个巨大的空缺,Respawn和《战地》的未来都充满了不确定性。

## 游戏先驱文斯·赞佩拉因车祸去世 文斯·赞佩拉,*使命召唤*和*战地*系列的关键人物,不幸驾驶其法拉利296 GTS发生车祸去世。 他的去世消息在Hacker News上引发了一波回忆,用户们分享了对他的经典游戏,特别是*使命召唤:现代战争2*的美好回忆。 许多人提到了*泰坦陨落2*和*地狱之刃:塞努阿的牺牲*作为他具有影响力的作品的更多例子。 讨论还集中在游戏的发展以及寻找与他早期作品相匹配的“哇”效应体验上。 网络上流传的报告和视频显示,事故可能是由于超速造成的,车辆在驶出隧道后失控。 虽然调查仍在进行中,但许多评论员指出鲁莽驾驶是事故原因。 赞佩拉对游戏行业的贡献,包括*荣誉勋章*、*使命召唤*、*泰坦陨落*和*战地*,得到了广泛认可,许多人认识到他对流行文化的持久影响。

## Passkeybot.com & Passkey Insights Passkeybot.com 简化了网站使用服务器端 HTTP 处理程序集成 passkey 的过程。构建它揭示了 passkey 技术的关键方面。Passkey 依赖于**安全飞 enclave 处理器 (SEP)**——设备内隔离的安全芯片——来存储私钥,需要生物识别/密码验证才能进行签名。类似的安全元件存在于手机 SIM 卡中。 至关重要的是,**用户验证 (UV)**——生物识别/密码确认——比**用户存在 (UP)**——简单的按钮按下——更安全。Passkey 使用**认证器**(如 SEP 或 YubiKey),通过标准化的 JavaScript API 访问,抽象了底层的操作系统交互。 **证明 (Attestation)** 验证用于*创建* passkey 的硬件,从而实现信任策略,但也引发了指纹识别问题。它通常默认禁用(例如在 Apple 设备上),并且如果密钥在设备之间同步,则会失效。Passkey 仅用于身份验证,不用于通用签名。 安全性依赖于安全的 JavaScript 代码,尽管浏览器提供了诸如子资源完整性之类的保护措施,但仍可能受到损害。即将推出的功能,如**即时中介 (immediate mediation)**,旨在实现更快的登录。**相关来源请求 (Related Origin Requests)** 允许对 passkey 创建进行域名授权。 最后,诸如用于附近设备的蓝牙配对、用于删除提示的信号 API 以及数字凭证 API(用于访问操作系统钱包)之类的功能扩展了 passkey 的功能。最初用于 OAuth 的 PKCE 被 Passkeybot 用于在无需管理密钥的情况下保护 API 访问。

## Passkeys:早期经验与挑战 最近在Hacker News上的一场讨论,源于一位开发者构建“passkeybot”的经验,突显了passkey采用的潜力与当前障碍。虽然passkey比密码提供更强的安全性——尤其是在防范网络钓鱼方面——但易用性和实施复杂性仍然存在。 主要问题包括:**备用机制**(或缺乏)在passkey失效时的情况,**供应商锁定**,即苹果、谷歌和微软优先考虑自己的passkey管理器,以及**网站之间不一致的用户界面/用户体验**。一些网站限制多次passkey注册,并且可能出现系统冲突(例如Bitwarden与iCloud)。 开发者还指出了passkey规范本身的问题,包括网站可能禁止客户端以及缺乏针对第三方应用程序的标准化API集成。讨论还涉及了对生物识别技术的依赖以及对强大的备份/恢复选项的需求。 最终,共识是,虽然passkey代表了重大的安全改进,但更广泛的采用需要解决这些易用性和互操作性挑战,并避免用户被锁定在特定生态系统中的未来。

## GLM-4.7:代码伙伴的重要升级 GLM-4.7 相较于 GLM-4.6 实现了显著提升,在核心编码、UI质量(“氛围编码”)、工具使用和复杂推理方面表现出色。它在关键基准测试中均有提升——包括 Terminal Bench 2.0 提升 +16.5%,以及在极具挑战性的 HLE 基准测试中提升 +12.4%—— 经常超越 Gemini 3.0 Pro 和 Claude Sonnet 4.5 等模型。 主要特性包括增强的“思考”能力(交错、保留和回合级思考),以实现更稳定和可控的复杂任务,以及改进的网页/幻灯片生成,具有更好的美观性。GLM-4.7 现在可通过 Z.ai API 平台、OpenRouter 以及流行的代码代理(如 Claude Code 和 Kilo Code)获得。 对于现有的 GLM 编码计划订阅者,可自动升级。新用户可以以显著降低的成本访问 Claude 水平的编码模型。模型权重也在 HuggingFace 和 ModelScope 上公开发布,以便本地部署。

## GLM-4.7:一种新型开源权重编码模型 Z.ai 发布了 GLM-4.7,一种针对编码、推理和工具使用进行优化的 358B/32B 激活混合专家 (MoE) 模型。它支持 OpenAI 风格的工具调用,并处理英语和中文。虽然宣称性能可与 Claude 3.5 Sonnet/GPT-5 媲美,但讨论的重点在于本地运行的实用性。 用户们争论硬件要求,一些人发现即使是 Mac Studio Ultra 也因处理速度慢于 token 生成速度而不足。尽管需要大量的 RAM(FP16 格式下 716GB,Q4_K_M 格式下约 220GB),但其吸引力在于潜在的独立性,摆脱大型 LLM 提供商的依赖。 许多评论者强调 Z.ai 的计划与 Claude 等专有模型相比具有成本效益,但承认本地性能目前落后于云端解决方案。对话还涉及模型压缩、速度的重要性以及与 Gemini 3 和 DeepSeek 等其他模型的比较。最终,GLM-4.7 代表着开源权重模型向前迈出的重要一步,挑战着闭源替代方案的统治地位。

## SQL意外成为编程语言榜首 SQL今年意外登顶IEEE Spectrum编程语言排名,超越了Python和Java等传统领先者。这并非因为SQL被用作主要的*开发*语言,而是因为对精通使用SQL访问和管理数据的开发人员需求巨大,并且与其他语言一起使用。 这种激增源于对数据库日益增长的依赖——特别是关系数据库,它们是大多数企业应用程序的基础,甚至出现在智能手机中。专家强调,无论专业方向如何,软件开发人员不可避免地会与数据库交互,这使得SQL成为标准接口。 此外,大数据、流式架构以及数据科学和机器学习等领域的发展正在推动SQL的相关性。尽管面临来自较新的“NoSQL”数据库的挑战,但SQL的成熟度、广泛的工具支持和适应性确保了其持久的强大功能以及在技术领域持续的重要性。现在学习SQL被认为是任何程序员的宝贵财富。

## SQL日益重要性 最近的Hacker News讨论强调了SQL作为开发者核心技能的持久和日益重要的地位。虽然ORM(对象关系映射器)和查询构建器提供了便利,但许多经验丰富的程序员正在回归编写“手工”SQL,认为抽象通常会导致效率低下的查询和缺乏控制。 一些评论者分享了经验,直接使用SQL,特别是利用数据库特定功能(如Postgres),显著提高了性能和可维护性。包括YouTube和一家大型薪资处理公司在内的多家公司,已经构建了主要围绕优化良好的SQL的成功应用程序。 对话还涉及了LLM(大型语言模型)在SQL开发中的作用,一些人发现它们在*生成*SQL方面有效,但强调需要理解SQL基础知识来验证输出。尽管存在关于SQL是否符合“编程语言”定义的争论,但大家普遍认为,对数据结构和SQL的深入理解至关重要,尤其是在数据库日益成为应用程序核心的情况下。最终,讨论表明,虽然工具可以提供帮助,但掌握SQL仍然是任何处理数据的开发者必不可少的技能。

## 垃圾收集手册:摘要 在先前版本(1996年和2012年)的基础之上,最新的《垃圾收集手册》提供了对自动内存管理这一现代编程关键方面的全面和更新的探讨。 这本权威著作汇集了六十年的研究成果,在一个统一的框架内比较了关键方法和最先进的技术。 本书探讨了硬件、软件和执行环境的进步所带来的不断变化的挑战,并详细说明了它们对垃圾收集器设计的影响。 它涵盖了基本算法和前沿方法,如并行、增量和实时收集。 该手册包含伪代码、插图和丰富的在线资源(包括一个包含3400多篇出版物的数据库以及电子书版本中的大量超链接),为程序员提供了自信地选择和配置垃圾收集器以实现最佳性能的知识。 新章节探讨了诸如持久性和节能收集等新兴领域。

## Hacker News 讨论:垃圾回收手册 Hacker News 上的一场讨论强调了“垃圾回收手册”(gchandbook.org) 的发布。用户称赞该书的详尽性和理论深度,并推荐给从事垃圾回收工作的工程师。 对话延伸到关于极端工程解决方案,完全避免垃圾回收的轶事——例如导弹喷射液压油,飞机使用燃料作为冷却剂。 这引发了关于“完美”软件与实用解决方案之间权衡的争论。 讨论的很大一部分集中在引用计数是否符合垃圾回收的资格,双方都有强烈的意见。 许多评论员指出,许多流行的游戏引擎(Unity、Unreal)*确实*使用垃圾回收,尽管普遍的看法并非如此。 用户还注意到,该书更侧重于理论,而不是特定平台的实现细节,并表达了希望从作者的实际生产垃圾回收经验中获得更多见解。 该书对实时垃圾回收和受限环境的覆盖也受到了质疑。

启用 JavaScript 和 Cookie 以继续。

## 美国科研领导地位受挑战 欧盟即将卸任的首席科学外交官发表声明,指责美国“正在摧毁其科研领导地位”,引发了Hacker News上的讨论。批评的重点在于美国对科学和医学的资金减少、对研究资助的削减以及影响国际合作的政策。 许多评论员表达了对美国科学可能面临“十年耻辱”的担忧,一些人认为这种衰落可能是必要的纠正。另一些人指出美国在研发领域具有历史优势,成功归功于通过有竞争力的资金和机会吸引全球人才——而这种地位现在可能受到近期政策变化的威胁。 一些用户强调欧盟可能出于自身利益,将美国描绘成不可靠的合作伙伴,旨在吸引研究人员并加强欧洲创新,尤其是在国防技术等领域。虽然承认这可能会损害美国的声誉,但一些人质疑缺乏支持这些说法的具体数据,并认为全球化可能正在发生更广泛的转变。 还有关于创新超越美国主要垄断的复杂性以及对更平衡的全球研究格局的需求的讨论。

## 声波消融术:用声音摧毁肿瘤 多年来,超声气泡(空化)被视为医学成像的有害副作用。然而,密歇根大学的研究人员率先利用这一现象——开发了**声波消融术**,一种利用聚焦超声波摧毁病变组织的非侵入性手术技术。 这项突破在于输送强大、短促的超声波脉冲,并精确控制时间,产生气泡,从而在*不*产生有害热量的同时,机械性地将组织分解成浆状物。这种“无切口手术”现正由HistoSonics公司商业化,其Edison系统于2023年获得FDA批准,用于治疗肝脏肿瘤,肾脏和胰腺癌的试验也在进行中。 声波消融术比传统方法具有优势,可最大限度地减少疤痕形成,甚至可以刺激免疫反应来对抗残留的癌细胞。目前的研究重点是将声波消融术与免疫疗法结合,以提高疗效。在包括杰夫·贝佐斯在内的22.5亿美元的投资支持下,HistoSonics公司正在开发先进的引导系统和实时组织分析技术,以扩展该技术在当前目标之外的应用,并可能彻底改变非侵入性癌症治疗。

## 超声癌症治疗:摘要 一种名为组织声波消融术的新癌症治疗方法利用聚焦声波摧毁肿瘤。与许多现有方法不同,组织声波消融术旨在完全清除癌细胞,仅留下蛋白质——这个过程可能刺激身体的免疫系统识别并攻击剩余的癌细胞。 Hacker News上的讨论集中在潜在的益处和风险上,特别是担心破坏肿瘤可能会导致癌症*播散*到其他地方。然而,许多评论员指出研究表明组织声波消融术引发的免疫反应可能是有益的,并且目前的治疗方法也存在癌症扩散的风险。 HistoSonics公司是这项技术的先驱,已经在肝癌治疗中显示出令人鼓舞的结果,并正在将试验扩展到其他器官,如肾脏和胰腺。虽然该技术昂贵且尚未广泛普及,但一些肿瘤学家预测它可能在几年内成为标准治疗。还将探索将组织声波消融术与免疫疗法结合使用,以进一步提高其疗效。

## Transformer:深度解析(摘要) 本文提供了一个对“Transformer”的简化解释,这是一个由论文《Attention is All You Need》提出的突破性深度学习模型。它在机器翻译等任务中表现出色,优于谷歌的神经机器翻译系统等之前的模型,并且谷歌云推荐将其与他们的TPU一起使用。 Transformer 严重依赖“注意力”机制,允许模型专注于输入序列的相关部分。它的结构由一个**编码器**(处理输入)和一个**解码器**(生成输出)组成,每个部分都由堆叠的层构成。其效率的关键在于**并行化**——与循环模型不同,Transformer 可以同时处理输入数据。 模型的核心是**自注意力**,它使每个词在编码其含义时都能考虑输入中的所有其他词。这是通过查询、键和值向量实现的,这些向量经过计算和比较以确定词之间的关系。**多头注意力**通过允许模型关注输入的不同方面来进一步完善这一点。**位置编码**添加了关于词序的信息。 本文详细介绍了数据在模型中的流动过程,从词嵌入到最终输出概率,并解释了使用损失函数来最小化错误的训练过程。提供了 TensorFlow 的 Tensor2Tensor 和哈佛大学的 PyTorch 实现等资源,供进一步探索。

## Transformer 总结 (来自 Hacker News 讨论) 这次 Hacker News 讨论围绕 Jay Alammar 的 “The Illustrated Transformer” 以及理解 Transformer 架构与仅仅 *使用* 大型语言模型 (LLM) 的价值。文章被赞为良好的起点,但许多评论者认为,对于大多数 LLM 应用来说,深入的架构知识并非至关重要。 一个关键的观点是,现代 LLM 表现出无法仅从架构预测的涌现行为,特别是由于强化学习技术。理解内部原理对于高级工程角色、调试和构建定制解决方案有所帮助,但对于典型的 LLM 使用来说并非必要。 许多评论者强调了实践实现的重要性(例如在 PyTorch 中构建 Transformer)以及将概念与核方法联系起来以获得更深入的理解。 讨论还涉及人工智能不断发展的格局,一些人警告不要过度炒作 LLM,并需要一种细致的视角。 推荐 Andrej Karpathy 的工作和 Welch Labs 的可视化工具以供进一步学习。 最终,共识倾向于理解基础知识 *有趣* 且对专家来说可能很有价值,但并非所有 LLM 从业者都必需。

更多

联系我们 contact @ memedata.com