每日HackerNews RSS

## Pebble 的未来:Core Devices 回应 Rebble 的说法 Core Devices(一家正在重新推出 Pebble 智能手表的公司)的创始人 Eric Migicovsky 回应了 Rebble(一个支持 Pebble 社区的非营利组织)提出的指控。这两个组织拥有共同的目标:保护 Pebble 的遗产。然而,双方在 Pebble 应用商店及其数据的未来发展上出现了分歧。 Core Devices 和 Rebble 最初同意 Core 每月向 Rebble 支付 0.20 美元/用户,以支持 Rebble 的服务。由于 Rebble 声称对最初上传到 Pebble 应用商店的 13,000 个应用程序和表盘拥有“100% 所有权”——这些数据是在 Fitbit 于 2018 年关闭应用商店后被 Rebble 抓取的数据——该协议破裂。Migicovsky 认为这些数据属于原始开发者,应该可以自由访问,并倡导一个开源档案。 Rebble 指责 Core Devices 利用 Rebble 资助的开源工作,并不正当地“抓取”应用商店。Migicovsky 反驳了这些说法,详细说明了独立开发,并澄清了他个人编录喜欢的表盘项目并非数据抓取。他强调自己对开源和 Pebble 可持续未来的承诺,与 Rebble 被认为想要控制形成对比。 Migicovsky 邀请 Rebble 发布应用商店数据的档案,并专注于社区利益,表达了他对 Pebble 长期生存的奉献精神,尽管存在冲突。

## 揭示科学文献中的隐藏知识 大量的潜在有价值知识仍然隐藏在不断扩大的科学研究体系中。这种“未被发现的公共知识”——埋藏在晦涩论文中、超前于时代或仅仅未被关联的发现——代表着巨大的创新机会。虽然丢失、专有或隐性知识是障碍,但许多有价值的见解*已经发表*但尚未关联。 由唐·斯旺森率先提出的文献为基础的发现(LBD)旨在揭示这些隐藏的联系,最初通过人工审查,现在越来越多地使用计算工具。早期方法侧重于术语的统计共现,发展到使用词嵌入和知识图谱等技术进行语义分析。这些图谱描绘了概念之间的关系,从而可以追踪复杂的推理路径。 尽管取得了进展,包括最近大型语言模型(LLM)的应用,LBD仍然面临挑战。评估成功仍然困难,而且LLM虽然强大,但可能会“产生幻觉”或缺乏人类科学家的变革性创造力。虽然LLM在辅助假设生成方面显示出前景,尤其是在药物再利用等领域(如COVID-19大流行期间所证明的),但实现LBD的全部潜力需要改进评估指标,解决语言固有的局限性,并促进LBD研究人员与领域专家之间的合作。最终,解锁这种“已知未知”可以通过将碎片化的知识组装成一个连贯的整体来加速科学进步。

arXivLabs是一个框架,允许合作者直接在我们的网站上开发和分享新的arXiv功能。个人和与arXivLabs合作的组织都认同并接受了我们开放、社群、卓越和用户数据隐私的价值观。arXiv致力于这些价值观,并且只与秉持这些价值观的合作伙伴合作。您是否有为arXiv社群增加价值的项目想法?了解更多关于arXivLabs的信息。

## 使用LLM解决复杂任务:摘要 一篇最新论文探讨了一种方法,使较小的LLM能够处理极其复杂的任务——具体来说,零错误地解决20个环的汉诺塔问题(一百万步)。核心思想是**递归分解**问题为尽可能简单的步骤,然后使用LLM作为代理来单独执行每个步骤。“投票机制”决定每个阶段的最佳行动方案。 评论员指出,成功与否取决于任务被分解为可靠可解、不易产生幻觉的提示——对于现实世界中结构较少的问题来说,这很难实现。一个关键发现是,投票的复杂性随着提示数量线性增长,但随着幻觉率呈指数增长。 讨论强调了与人类问题解决和项目管理(如NASA的方法)的相似之处,但也承认了“隧道视野”和在许多子任务中保持上下文的挑战。虽然很有前景,但该技术目前擅长纠正*随机*错误,而非*系统*错误,并且受益于汉诺塔问题等问题的固有结构。该研究表明,通过自分解,可以为更确定性和可靠的LLM应用开辟一条道路。

## AMD Strix Halo 内存子系统总结 AMD 的 Strix Halo 旨在在移动设备中提供强大的 CPU 和 GPU 性能,这给内存子系统带来了显著的挑战:平衡低延迟的 CPU 需求与高带宽的 GPU 需求,最大化容量,并保持低功耗。ROG Flow Z13 平板电脑展示了这种设计,配备 32GB 的 LPDDR5X 内存。 Strix Halo 使用 32MB 的 Infinity Cache (MALL) 作为 GPU 的最后一级缓存,类似于 RX 7600 等中低端独立显卡。虽然 Infinity Cache 的延迟略高于独立显卡,但对于移动设备来说,这是一个显著的容量提升。AMD 可以根据软件(前台/后台进程)动态调整 Infinity Cache 策略。值得注意的是,它绕过了主机侧内存分配。 CPU 方面,采用 16 个 Zen 5 核心通过 InFO_oS 封装连接,与台式机芯片相比,芯片间的带宽有所提升,但低于英特尔 Meteor Lake 或 AMD GMI-Wide 等设计。测试显示,跨 CCX 的延迟高于典型的台式机系统,这可能是由于优先考虑 GPU 带宽造成的。 最终,Strix Halo 优先考虑 GPU 性能,有时以牺牲 CPU 延迟为代价,尤其是在重负载下。鉴于其便携式游戏设备的 target 市场,这种权衡是合理的,在性能和外形尺寸之间取得了平衡。AMD 的设计展示了在移动电源限制下的出色带宽能力,为未来的 iGPU 发展铺平了道路。

## 黑客新闻上关于框架电脑和惠普ZBook Ultra的讨论 最近黑客新闻上出现了一场讨论,主要围绕配备AMD Ryzen 7 8040系列集成显卡的笔记本电脑的可获得性和可用性,起因是chipsandcheese.com上关于Strix Halo内存子系统的一篇文章。 许多评论者抱怨硬件选择有限,指出购买配备该芯片的笔记本电脑很困难——即使是Framework Z13也很难找到,通常只有32GB内存版本。Framework桌面主板被强调为一个替代方案,一些用户在设置后欣然转向Arch Linux。 惠普ZBook Ultra G1a成为一个受欢迎但价格昂贵的选择。用户报告了良好的做工和Linux兼容性,但也存在USB-C充电问题(可能可以通过固件修复)和风扇转速曲线问题。几位用户分享了使用各种充电器和固件更新来解决充电问题的经验。有人对惠普的做工质量表示担忧,观点因产品线而异——ZBook等工作站受到称赞,而低端型号则受到批评。

## 快速 LiteLLM:Rust 加速以提升性能 快速 LiteLLM 是 LiteLLM 框架的一个即插即用的 Rust 加速层,旨在通过**零配置**显著提升性能。它利用 PyO3 从 Rust 代码创建 Python 扩展,从而加速关键的 LiteLLM 函数,包括 token 计数(快 5-20 倍)、请求路由(快 3-8 倍)、速率限制(快 4-12 倍)和连接管理(快 2-5 倍)。 只需在 `litellm` 之前导入 `fast_litellm` 即可自动启用加速。该库具有强大的生产保障措施,例如功能标志、性能监控和自动回退到 Python。高级用户可以通过环境变量自定义行为,以实现逐步推广或禁用特定功能。 快速 LiteLLM 是线程安全的、类型安全的,并包含全面的测试以确保与现有 LiteLLM 功能的兼容性。提供预构建的 wheel,无需在安装过程中使用 Rust 工具链。欢迎贡献 – 项目的 GitHub 仓库中提供了详细的构建、测试和贡献指南。

## 展示HN:快速LiteLLM - Rust优化与意外结果 一位开发者探索了使用Rust通过PyO3加速LiteLLM库(用于LLM交互),预计会获得显著的性能提升。目标是优化关键领域,如token计数、路由、速率限制和连接池。 虽然Rust实现成功地替换了Python函数,但基准测试表明LiteLLM *已经* 进行了高度优化。Token计数几乎没有变化(略慢,在误差范围内),但在更复杂的操作中发现了改进:速率限制(+45.9%)和连接池(+38.7%)受益于Rust的并发特性。 主要收获包括:不要假设现有的库效率低下,优先考虑算法改进而不是语言重实现,并警惕具有误导性的微基准测试。即使是适度的收益在规模化时也可能很有价值。 该项目“Fast LiteLLM”在GitHub上提供了一个未来优化的基础,并展示了Rust-Python集成模式,尽管性能结果令人谦卑。作者强调了在优化*之前*测量性能的重要性,并承认LLM在生成项目叙述的部分内容中的作用。

## Gemini 3 Pro 现已在 Gemini CLI 中可用 Gemini 3 Pro,谷歌最智能的模型,现已集成到 Gemini CLI 中,为终端带来更强的性能和生产力。它解锁了命令的高级推理能力,改进了复杂工程任务的代理编码,并通过更好的工具使用实现更智能的工作流程。 访问权限正在向 Google AI Ultra 订阅者和拥有付费 Gemini API 密钥的用户开放。Gemini Code Assist Enterprise 用户很快也将获得访问权限,其他用户可以加入候补名单。 Gemini 3 Pro 在诸如根据详细提示生成完整的应用程序(例如,3D 金门大桥模拟)、将 UI 草图翻译成代码以及自动化复杂的调试和文档等工作流程方面表现出色。它甚至可以分析代码以生成用户文档或解决实时服务的性能问题。 最终,Gemini 3 Pro 旨在将命令行转变为一个智能伙伴,适应个人挑战并提高开发人员的效率。用户可以通过将 Gemini CLI 升级到 0.16.x 版本并使用 #GeminiCLI 分享他们的创作来开始探索其功能。

## Gemini 3 Pro 命令行界面:黑客新闻总结 最近的黑客新闻讨论集中在最新发布的 Gemini 3 Pro 及其命令行界面访问。虽然存在兴奋情绪,但用户体验褒贬不一。一些人认为 Gemini 命令行界面速度快但不可靠,经常崩溃并受到速率限制,与 Claude Code 和 Cursor 等工具的稳定性形成对比。 多位用户报告称通过命令行界面访问 Gemini 3 存在问题,需要使用 Google AI Studio 的 API 密钥等解决方法。关于管理多个 AI 模型,存在最佳方法的争论,一些人提倡使用统一的命令行路由器。 一个主要的争议点是 Gemini 3 是否真正代表了推理能力的提升。一位用户重点展示了一个演示,该演示显示该模型在使用 `git bisect` 时执行了不必要的步骤,表明它仍然难以理解任务意图,即使在逻辑提示下也可能“做错事”。 最终,对话揭示了一个快速发展的 AI 模型格局,每个模型都有其优势和劣势,以及开发人员有效驾驭这些工具的持续挑战。

谷歌搜索得益于Gemini 3的集成而得到显著提升。这次升级增强了搜索理解用户意图的能力,从而提供更全面、更相关的结果,并发现之前遗漏的内容。 很快,在AI模式和AI概览中具有挑战性的查询将自动路由到Gemini 3,以利用其卓越的推理能力,而较简单的任务将使用更快的模型。此推广首先面向美国Google AI Pro和Ultra订阅用户。 除了改进搜索结果外,Gemini 3还能够在AI模式中实现动态生成、定制化的用户界面。它分析问题以创建最佳的视觉布局——结合图像、表格,甚至实时编码的*交互式*工具和模拟,使信息更清晰、更具操作性。这超越了简单的文本回复,提供了真正量身定制且有用的体验。

## Gemini 3 与 Hacker News 讨论 谷歌最近发布了其 Gemini 3 AI 模型,并将其整合到搜索和“AI 模式”中,这在 Hacker News 上引发了大量讨论。最初的帖子获得了 84 分和 9 条评论,但迅速成为争论的焦点。 许多用户认为与 Gemini 3 相关帖子的数量(以及 Antigravity 的报道)过多,导致了对潜在操纵的猜测——特别是“人为制造声势”以夸大积极情绪。这导致了点踩和警告,反对提出此类指控,因为这违反了 Hacker News 的规定。 一些评论员对热情的反响表示怀疑,质疑这是否是自发的,或者是由谷歌员工或其他外部势力驱动的。相关的讨论线程也被链接,突出了围绕发布及其在平台上报道的持续对话。

参观Hetzner Online的法尔肯斯坦数据中心园区,会发现一个庞大而井然有序的运作,遍布广阔的工业场地。这里不仅仅是服务器,更是一个完全集成的生态系统,包含托管、模块化数据中心以及大量的内部服务器生产。 Hetzner优先考虑实用性和效率,专注于坚固的建设、标准化的流程以及对所有硬件的严格测试——从单个组件到完全组装的系统。他们处理整个硬件生命周期,包括安全、有文档记录的退役和驱动器的粉碎。 该设施拥有令人印象深刻的技术基础设施,利用福格特兰地区的 climate 进行广泛的免费冷却,并实现低 PUE 值。冗余电源和复杂的网络确保最大程度的正常运行时间。 准备好步行——园区规模庞大,需要大量的步行!法尔肯斯坦提供了一个罕见而深入的视角,了解生产、服务、运营和安全之间复杂的相互作用,这些共同驱动着一家大型数据中心提供商。

## Hetzner 数据中心讨论 - 摘要 Hacker News 论坛讨论了一个最近的 YouTube 视频([https://www.youtube.com/watch?v=gIjdKIMQh4s](https://www.youtube.com/watch?v=gIjdKIMQh4s)),展示了 Hetzner Online 的 Falkenstein 数据中心。用户称赞 Hetzner 服务价格实惠,有人报告每月 5.59 美元的 VPS 具有慷慨的带宽。 讨论强调了 Hetzner 独特且简约的硬件方法——使用定制主板,注重功能而非花哨。一些用户将其与 Der8auer 的类似视频进行比较,注意到 Hetzner 的半定制硬件。有人对 IPv6 支持提出担忧,特别是对于较大前缀的成本,以及在 Scaleway 事件发生后冷却系统的可靠性。 许多评论者表示希望 Hetzner 保持私有公司,担心上市或被收购可能会损害其以客户为中心的方法和具有竞争力的定价。总的来说,该帖子表现出对 Hetzner 的强烈正面评价,认为它是一个可靠且经济高效的托管提供商,尤其因其务实的方法而备受推崇。

启用 JavaScript 和 Cookie 以继续。

黑客新闻 新 | 过去 | 评论 | 提问 | 展示 | 招聘 | 提交 登录 数学之美:镶嵌及其公式 (tandfonline.com) 27点 由 QueensGambit 1天前 | 隐藏 | 过去 | 收藏 | 讨论 指南 | 常见问题 | 列表 | API | 安全 | 法律 | 申请YC | 联系 搜索:

## Gemini 3:谷歌AI 达到新高度 谷歌的 Gemini AI 正在快速增长,**每月有 20 亿用户使用 AI 概览**,**6.5 亿用户使用 Gemini 应用**。超过 70% 的 Google Cloud 客户正在利用其 AI 工具,有 1300 万开发者正在使用其生成模型。 在 Gemini 1 和 2 成功的基础上,**Gemini 3** 代表着最新的飞跃,拥有最先进的推理能力和对用户意图的更好理解。它擅长解决复杂问题和细微理解,需要更少的提示就能获得所需结果。 谷歌现在正在其平台上推广 Gemini 3——包括 **Search(在 AI 模式下)、Gemini 应用以及 AI Studio 和 Vertex AI 等开发者工具**,以及新的代理开发平台 **Google Antigravity**。 此次发布标志着谷歌致力于扩展先进的 AI 能力,并继续在智能、代理和个性化方面进行创新,为每个人提供更有帮助的 AI 体验。

更多

联系我们 contact @ memedata.com