每日HackerNews RSS

谷歌的新TPU 8t和8i芯片,与Gemini联合设计,代表了人工智能性能和效率的飞跃。它们专为应对大型推理模型的挑战而构建,采用新颖的Boardfly拓扑结构、增加的SRAM和高带宽Virgo网络。值得注意的是,两款芯片现在都使用谷歌自研的Axion ARM架构CPU,以实现系统全面优化。 这些TPU支持JAX、PyTorch和vLLM等流行框架,并提供裸机访问,简化开发和部署。一个关键重点是功耗效率——通过硬件*和*软件的创新,包括集成电源管理和先进的液体冷却,提供高达两倍于上一代的能效比。 谷歌从芯片到数据中心设计的全栈控制,使其能够实现显著的节能效果,在短短五年内将每单位电力的计算能力提高六倍。这种整体方法使TPU 8t和8i成为应对苛刻人工智能工作负载的强大且可持续的解决方案。

彭博社 需要帮助?请联系我们 我们检测到您的计算机网络存在异常活动 要继续,请点击下面的框来确认您不是机器人。 为什么会发生这种情况? 请确保您的浏览器支持 JavaScript 和 cookies,并且没有阻止它们加载。 更多信息请查看我们的服务条款 和 Cookie 政策。 需要帮助? 关于此消息的咨询,请联系 我们的支持团队并提供下面的参考ID。 阻止参考ID:7ef64377-3e47-11f1-b3ef-b0c87b22d02b 通过彭博社订阅,随时掌握最重要的全球市场新闻。 立即订阅

## Uber 的账本教训:代价高昂的重写系列 Uber 在十年内完全重建了其账本系统五次,通常是因为激励机制存在缺陷,优先考虑令人印象深刻的项目而非具有成本效益的解决方案。一个特别昂贵的例子是 2017 年迁移到 DynamoDB。虽然 DynamoDB 在高吞吐量支付方面表现出色,但其基于消耗的定价模式对于需要大量读/写操作的账本来说是灾难性的——最终每年给 Uber 造成了约 800 万美元的成本。 该公司被迫限制在 DynamoDB 中的数据存储,并在 DocStore 之上构建了一个内部解决方案 LSG。这涉及进一步的开发,包括一个新的流式框架,尽管存在可行的替代方案。 作者认为整个事件凸显了一个关键缺陷:未能优先考虑成本优化。尽管存在明显的问题,Uber 在 AWS re:Invent 上将 DynamoDB 的实施呈现为成功案例,这一说法被 ByteByteGo 等出版物延续。 核心要点?技术是不够的。工程师必须在考虑技术需求的同时,考虑经济影响,并且激励机制应该奖励务实的解决方案,而不仅仅是复杂的解决方案。这个案例为支付工程师提供了一个警示故事,强调了“速算”和对系统成本的整体视图的重要性。

## Uber 800万美元 DynamoDB 决策:一次非责备的事故后分析 一篇近期文章引发了关于Uber因在其账本系统中使用DynamoDB而产生的800万美元成本的争论。虽然这笔费用数额很大,但许多评论员认为对于Uber规模和增长轨迹的公司来说,这只是一个四舍五入的误差。核心问题并非技术故障,而是缺乏前期成本分析以及潜在的激励机制不一致——一些人认为“简历驱动开发”将复杂性置于效率之上。 普遍的观点倾向于*不*追究责任。解雇个人因架构决策,尤其是那些已经运行多年的决策,被认为适得其反。许多人强调Uber面临的快速扩展和不断变化的约束,认为当时合理的决策可能后来会变得昂贵。一些评论员强调清晰的领导层定义“正确”的解决方案,并在实施*之前*培养成本预测文化的重要性。 最终,这场讨论指出了一个常见的科技行业挑战:平衡速度、可扩展性和成本效益,以及在缺乏完整背景的情况下判断过去决策的困难。这起事件是一个学习机会,而不是惩罚的原因。

GitHub CLI 会收集匿名遥测数据,以了解用户如何与该工具交互并确定未来开发的优先级。这些数据有助于团队评估功能的使用情况并确定需要改进的领域——例如,确定新命令是否被使用以及哪些标志受欢迎。 您可以查看遥测实现(因为它是开源的),甚至可以通过环境变量 (`GH_TELEMETRY=log`) 或配置 (`gh config set telemetry log`) 启用“日志模式”来预览将被发送的数据。 遥测是选择加入的;您可以使用环境变量 (`GH_TELEMETRY=false`) 或配置 (`gh config set telemetry disabled`) 来禁用它。数据会发送到 GitHub 的内部分析系统,并受其通用隐私声明管辖。 重要的是,使用 GitHub CLI 安装的扩展程序可能会独立收集他们自己的数据——请查看他们的文档以获取详细信息。 此信息专门与 GitHub CLI ("gh") 相关,*不*包括 GitHub Copilot 及其 CLI。

## GM-SEUS 数据集 v2 摘要 美国地面安装太阳能 (GM-SEUS) 数据集的第二个版本已发布,在初始版本的基础上扩展,包含超过 340 万个太阳能电池板,以及一个新的屋顶阵列数据集。该分析涉及使用 GDAL 和 DuckDB 在高性能工作站(AMD Ryzen 9 9950X,96GB 内存,4TB NVMe SSD)上处理数据,操作系统为通过 Windows 11 运行的 Ubuntu 24 LTS。 该数据集已转换为 Parquet 格式,以实现高效分析。屋顶阵列数据集包含 5,822 条记录,电池板数据集包含 3,429,157 条记录,阵列数据集包含 18,980 条记录。分析揭示了数据质量信息,包括每个数据集列中的空值百分比和唯一值计数。 生成了热图以可视化屋顶和地面安装阵列的分布。来源归属因地理位置而异,OSM 是屋顶阵列最常见的来源,而 OSM/USPVDB 是地面安装阵列的常见来源。还分析了容量统计数据,显示了基于安装年份的平均和最大容量趋势。数据突出了阵列和电池板数据集之间来源归属和覆盖范围的不一致性。

在最近的美国和以色列军事行动后,伊朗国家媒体声称,思科、瞻博网络、Fortinet和MikroTik的网络设备在袭击期间出现故障,即使伊朗已断开与全球互联网的连接——暗示通过隐藏的固件或后门进行蓄意破坏。这些说法尚未得到证实。 美国已确认开展网络行动,以扰乱伊朗通讯,作为“史诗狂怒行动”的一部分,但尚未直接回应具体指控。值得注意的是,所有四家被提及的厂商都有记录在案的安全漏洞历史,包括潜在监控植入物(思科)和可利用的代码(瞻博网络、Fortinet、MikroTik)。 中国国家媒体扩大了伊朗的说法,将其作为美国硬件中后门的进一步证据。伊朗的互联网仍然受到严重限制,自袭击开始以来,经历了创纪录的52天近乎完全关闭。虽然破坏程度尚不清楚,但该事件凸显了对网络基础设施安全性和广泛使用的设备中潜在漏洞的担忧。

对不起。

arXivLabs是一个框架,允许合作者直接在我们的网站上开发和分享新的arXiv功能。个人和与arXivLabs合作的组织都认同并接受了我们开放、社群、卓越和用户数据隐私的价值观。arXiv致力于这些价值观,并且只与秉持这些价值观的合作伙伴合作。您是否有为arXiv社群增加价值的项目想法?了解更多关于arXivLabs的信息。

对不起。

Meta正在其员工电脑上部署新的监控软件“模型能力计划”,以收集数据用于改进其人工智能模型。该工具将追踪击键、鼠标移动并截取屏幕截图,员工在使用Gmail和VS Code等工作应用程序时会被监控。 Meta声称,人工智能需要理解人类电脑使用方式,才能构建能够处理诸如预订旅行或管理电子邮件等任务的有效“代理”,最终目标是实现人工智能完成大部分工作,而人类提供指导的未来。 考虑到Meta过去大量收集用户数据和隐私问题,这一举动具有讽刺意味。员工现在将体验到之前仅对其数十亿用户保留的相同级别的监控,因为该公司正在追求由首席执行官马克·扎克伯格领导的“个人超级智能”愿景。Anthropic、OpenAI和微软等其他科技公司也在开发类似的代理技术。

## 超越更长的上下文:为什么LLM需要权重更新 目前改进LLM学习的主流方法是增加上下文窗口大小,利用KV缓存压缩和高效注意力机制的进步。然而,这假定仅仅增加足够的上下文长度就能消除模型权重更新的必要性——这是一个错误的假设。上下文和权重共同塑造了Transformer的内部表示(激活),但运作方式不同。上下文通过KV缓存提供*临时*的激活偏移,功能上模拟了单步梯度下降,而权重更新则创建了对模型核心计算的*永久*改变。 虽然令人印象深刻,但上下文本质上是运行在模型“硬件”(冻结权重)上的“软件”。它在模型预训练的分布范围内表现出色,但在需要新颖内部表示的任务面前会达到上限。权重修改则相反,*重新设计*了硬件,从而实现全新的计算。 此外,基于权重的学习更有效率——知识被编译到模型中(O(1)成本),而长上下文则需要持续的注意力成本(O(n))。最终,两者都至关重要:长上下文提供工作记忆,而权重更新则实现持久的知识积累和泛化。正如大脑同时利用快速、临时和缓慢、持久的记忆一样,LLM需要同时具备上下文*和*权重空间学习,才能实现真正强大和适应性的智能。

对不起。

更多

联系我们 contact @ memedata.com