每日HackerNews RSS

美国疾病控制与预防中心(CDC)在罗伯特·F·肯尼迪的领导下,最近的举措对数十年来科学界的共识产生了怀疑:疫苗不会导致自闭症。CDC的一个修改后的网页现在承认,没有证据表明存在潜在的联系,并声称相关研究被“忽视”,这引发了自闭症科学基金会和美国医学会等医疗机构的愤怒。 这一转变源于肯尼迪确认期间与比尔·卡西迪参议员达成的政治协议,并受到过时、有限的研究和家长信念的驱动,而非严格的科学数据。卫生及公共服务部(HHS)为这一变化辩护,称其为“基于证据的”,这一说法受到广泛质疑。 这种情况凸显了一种危险的政治干预科学的趋势,类似于特朗普政府期间采取的行动——包括压制科学家和削减研究资金。专家警告说,对公共卫生机构信任的侵蚀,加上传播未经证实的主张的容易性,对公共讨论和有效的健康策略构成了重大威胁,优先考虑推测而非既定科学。

客户端挑战:您的浏览器已禁用 JavaScript。请启用 JavaScript 以继续。网站的必要部分无法加载。这可能是由于浏览器扩展、网络问题或浏览器设置造成的。请检查您的连接,禁用任何广告拦截器,或尝试使用不同的浏览器。

## 地热能在德克萨斯州获得进展 德克萨斯州南部一家新的地热发电厂正在引起关注,它可能成为该州电网(ERCOT)的一个突破。该项目改造了现有的石油钻井技术——本质上使用一种改良的水力压裂技术——来提取地下的热量。 与压裂岩石释放石油不同,水被泵入地下加热,然后作为蒸汽带回地面发电。 Hacker News上的讨论显示出乐观和怀疑两种情绪。 许多人认为电网多样化是积极的,但一些德克萨斯人担心ERCOT会管理不当这种新容量,重蹈覆辙。 关于压裂岩石的长期可靠性和潜在环境影响的问题也浮出水面,提到了对水供应和井筒完整性的担忧。 该项目声称效率为70-75%,引发了关于是否利用现有井来加速建设和降低成本的讨论。 总的来说,这一发展预示着“地热复兴”,并突出了创新能源解决方案的潜力。

## Windows 驱动器盘符:不简单的一面 这篇文章深入探讨了 Windows 驱动器盘符令人惊讶的复杂内部机制。 驱动器盘符(如 `C:`)看似简单,但实际上是建立在 Windows 路径转换方式之上的约定。 核心过程涉及使用 `RtlDosPathNameToNtPathName_U` 等函数将标准的 Win32 路径(例如 `C:\foo`)转换为 NT 路径(`\??\C:\foo`)。 `\??` 前缀指向对象管理器的虚拟文件夹,驱动器盘符在其中被视为符号链接。 这意味着 `C:` 本质上是指向实际设备路径(`\Device\HarddiskVolume4`)的指针。 重要的是,只要在 `\??` 文件夹中存在相应的对象(通常通过 `subst` 创建),*任何*字符——甚至非 ASCII 字符(如 `€:` 或 `λ:`)——都可以用作驱动器盘符。 然而,File Explorer 和 PowerShell 等标准工具通常将驱动器盘符限制为 A-Z。 此外,虽然非 ASCII 驱动器盘符在命令行中*有效*,但存在一些问题——特别是 `SetVolumeMountPointW`,它可能会截断非 ASCII 字符,导致意外结果。 文章强调了潜在的编码问题以及不同 API 和实现中路径处理的不一致性,证明了 Windows 中看似简单的概念可能非常微妙。

## Dillo 项目迁移总结 出于对 GitHub 资源需求日益增加、JavaScript 依赖(与 Dillo 本身不兼容)以及潜在的单点故障数据丢失的担忧,Rodrigo Arias Mallo 正在将 Dillo 项目迁移到自托管基础设施。 原始 Dillo 网站在 2022 年丢失,凸显了依赖单一实体的风险。 新的设置包括一个自托管服务器 (dillo-browser.org),并在 Codeberg 和 Sourcehut 上镜像 git 仓库以实现冗余。 使用轻量级、无 JavaScript 的 git 前端 (cgit) 来访问代码。 一个自定义的简单缺陷跟踪器 (“buggy”) 使用纯 Markdown 文件,避免了数据库依赖并支持离线工作。 邮件列表存档由独立服务维护。 虽然 GitHub 仓库将在过渡期间保留为存档,但目标是完全独立。 该项目利用 OpenPGP 签名进行验证,增强了对 DNS 故障的抵御能力。 迁移正在进行中,该项目依赖通过 Liberapay 提供的捐赠来支付持续的托管成本,预计可持续至少三年。 此举优先考虑“拉”模式的更新,并旨在避免助长对开放网络有害的趋势。

微软首席执行官萨蒂亚·纳德拉在9月4日于华盛顿白宫东厅举行的白宫人工智能教育工作组会议后离开。Eric Lee | Bloomberg | Getty Images 挪威2万亿美元主权财富基金周日表示,将在微软即将举行的年度股东大会上投票支持一项股东提案,该提案要求提交一份关于在人权问题严重国家运营风险的报告。 微软管理层曾建议股东反对该动议。 该基金还表示,将反对重新任命萨蒂亚·纳德拉为董事会主席,以及反对他的薪酬方案。 根据基金数据,截至6月30日,该基金持有该公司价值500亿美元的1.35%股份,使其成为该基金第二大股权投资,仅次于英伟达。 根据LSEG数据,它是微软第八大股东。 美国科技公司的投资者将于12月5日在年度股东大会上决定是否批准这些提案。

以下是斯坦福大学2025年春季学期CS193p(使用SwiftUI开发iOS应用程序)前6节课的视频和配套课程材料链接。 这是斯坦福学生学习iOS开发基础知识的一门课程。本学期的更多讲座将很快发布。该课程是在iOS 26和Xcode 26发布之前进行的,但课程中编写的代码似乎大部分兼容。当然,Xcode 26 的重大变化是内置的 LLM 辅助,而 iOS 26 引入了 UI 中的 Liquid Glass,因此这些视频中都没有这些内容。 不幸的是,我们无法在您观看这些视频时提供任何支持,但网上有很多很棒的资源可以帮助您学习 iOS 应用程序开发,请积极寻找! 更多信息,请查看关于页面。

## 斯坦福大学SwiftUI课程更新及讨论 保罗·赫加蒂在斯坦福大学发布的更新后的CS193p SwiftUI课程引发了Hacker News上的讨论。这门课程最初于2008年推出(最初被回忆为2007年),一直以实践性强著称——早期参与者甚至收到了iPod Touch用于开发。值得注意的是,该课程的一个早期项目预示了Instagram的诞生。 目前的讨论围绕着该课程在快速变化的科技格局中的相关性。一些人质疑专注于SwiftUI是否仍然是未来开发者的最佳基础,或者人工智能驱动的工具是否会变得更加重要。另一些人则分享了他们积极的课程体验,认为它帮助他们开启了职业生涯。 一个关键的争论点是企业利益在大学课程中日益增长的影响,一些人质疑专门关注iOS开发。还有关于使用Swift进行跨平台开发以及一个第三方项目,该项目能够使SwiftUI代码在Android上原生运行的讨论。许多人赞扬赫加蒂的教学风格以及拥有这个免费资源的价值。

## Advent of Code 总结 Advent of Code 是由 Eric Wastl 每年12月1日至12月中旬创建的每日编程谜题系列。谜题设计面向所有技能水平,可以使用任何编程语言解决,只需要基本的编程知识和解决问题的能力。它们被用于各种目的,包括面试准备、教育和友好的竞争。 谜题的难度会随着时间增加,但个人体验各不相同。鼓励参与者使用提供的示例测试解决方案,并在遇到困难时构建自己的测试用例。可以通过 Reddit 子版块和社区论坛获得支持。 Advent of Code 优先考虑积极的体验,已经取消了全球排行榜,因为其压力和滥用。虽然允许私人排行榜,但规则由其组织者决定。创建者不鼓励使用人工智能解决谜题,强调人类解决问题的价值。该活动是免费使用的,但禁止复制谜题内容或复制 Advent of Code 品牌。

## 心灵的空间:人工智能 vs. 动物智能 安德烈·卡帕西认为,人工智能,特别是大型语言模型(LLM),代表了人类与一种根本上*非动物*智能的“首次接触”。虽然两者都源于优化,但驱动它们发展的压力却大相径庭。 动物智能通过自然选择进化而来,优先考虑生存——力量、地位、社会动态以及在危险的物理世界中磨练的本能。这创造了一种广泛的“通用”智能,能够处理多样化、高风险的任务。 然而,LLM是由*商业*进化优化的。它们的核心行为是对人类文本的统计模仿,并通过用户参与(“点赞”)等奖励进一步改进。这导致了一种专注于预测和取悦的“变形”智能,但当面对超出其训练分布的任务时,可能会变得脆弱——失败并非生存危机。 不同的计算基础和学习方法是次要的,核心区别在于优化压力。理解这种区别对于准确地建模和预测人工智能的未来发展至关重要,避免将其简单地视为更高级的动物。

## RL效率问题:为何落后于监督学习 最近的讨论凸显了强化学习(RL)与监督学习之间显著的效率差距。两者都需要计算量(FLOPs),但RL难以从每个FLOP中提取有意义的信息(“比特”)。监督学习在*每个*数据点上都能获得即时反馈,而RL则需要漫长的“思考轨迹”——可能需要数千步——才能获得*单个*奖励信号。 核心问题不仅仅是样本的计算成本,而是样本内的*信息密度*。在训练初期,RL模型很少成功,每次尝试带来的学习效果微乎其微。相反,监督学习即使从随机起点也能提供丰富的信号。 这可以被形象地描述为“通过率”问题:RL只有在成功的概率窗口内(大约50%)才能有效学习,而监督学习则能从任何改进中受益。当前的RL方法常常陷入低信息量状态,或者激发预先存在的能力,而非真正的学习。 已探索的解决方案包括课程学习、自我对弈(以维持高通过率)以及开发代理奖励以提供更密集的反馈。最终,弥合差距需要找到从每个RL样本中提取更多“比特”的方法,可能通过模仿人类从经验中学习的方式——不仅从结果中学习,也从过程本身学习。

## 强化学习效率与大语言模型进展 - 摘要 最近的讨论源于一篇博文(以及相关文章),中心议题是强化学习(RL)的信息效率,尤其是在应用于大语言模型(LLM)时。核心观点是,RL每次训练迭代提供的的信息有限——本质上只是一个表示成功或失败的比特,这可能会阻碍进展。 然而,评论者反驳说,RL的价值在于微妙地调整现有LLM的能力(“粘合剂”),而不是创造全新的能力。他们认为,即使在许多示例中进行微小调整,也能够很好地泛化,提供超越简单比特计数的宝贵见解。 这场辩论也涉及预训练的作用,一些人认为SFT(监督微调)如果将模型推到其固有能力之外,反而*会降低*性能。另一些人则强调RL在处理复杂的动作/反馈空间方面的优势,而监督学习在这些空间中会失效。 一个关键的争论点是术语——“预训练”是否准确地归类为监督学习——以及潜在的点击诱饵标题利用“RL”首字母缩写的歧义性。最终,这场讨论强调了在人工智能中最大化学习效率的持续挑战。

更多

联系我们 contact @ memedata.com