每日HackerNews RSS

## 人工智能、用水量和一些视角 人工智能(AI)既令人兴奋又引发担忧,其潜在的用水量是一个日益增长的关注点。然而,根据加州大学戴维斯分校教授Jay Lund的说法,对人工智能用水量的担忧——尤其是在加州——在很大程度上被夸大了。 数据中心,作为驱动人工智能的“工厂”,由于高能量需求需要用水来冷却。加州数据中心总用水量的估计范围很广,从每年2,300到40万英亩英尺不等。一个合理的估计,并得到人工智能建模的支持,表明约为2万英亩英尺——仅占加州每年总人类用水量4000万英亩英尺的一小部分(0.055%)。 Lund强调了一种模式:新技术常常引发不成比例的恐惧。他认为人工智能可以成为政策评估中初步估算的一个有价值的工具,敦促更多基于数据的讨论,减少推测。最终,虽然人工智能会带来挑战,但其在加州的用水足迹似乎是可以管理的,并且可能在经济上是有益的,尤其与农业等其他用水方式相比。

## 理解一切:交互式代码库探索 理解一切是一个工具,可以将代码库、知识库和文档转化为交互式知识图谱。它旨在帮助开发者快速掌握复杂的项目,尤其是在加入新团队或处理不熟悉的代码时。 该工具利用多代理管道分析文件、函数、类和依赖关系,然后将其可视化在一个交互式仪表盘中。用户可以以可视化的方式探索代码库,按名称*或*含义搜索,并分析代码变更的影响。它还提供自动生成入职指南、业务逻辑映射和分层可视化等功能。 理解一切与流行的AI编码平台集成,如Claude、Codex、Cursor、Copilot、Gemini CLI等,通常通过简单的插件安装即可实现。生成的图谱可以作为JSON文件共享,从而促进团队协作和文档记录。它是一种强大的方式,可以超越仅仅*阅读*代码,真正*理解*代码。

## 理解一切:关于学习与LLM的批判性讨论 最近Hacker News上出现了一场关于“理解一切”(github.com/lum1104)的讨论,该工具旨在利用LLM和结构化图来加深对代码的理解。然而,对话很快转向了关于我们真正*如何*学习的更广泛的争论。 许多评论者认为,真正的理解来自于主动与概念作斗争——“启发式学习”——并自行重建知识,而不是被动地接受完善的解释。几个人强调了即使是像3Blue1Brown这样制作精良的教育内容也存在局限性,指出如果没有个人努力,记忆保持率很低。 核心问题在于,承诺轻松理解的工具可能会阻碍至关重要的“近端发展区”——学习通过辅助努力发生的空间。人们对LLM是否只是从代码*中*创建“课程”,而不是培养真正的直觉表示怀疑。 人们也对该项目星星数量的快速增长表示担忧,一些人怀疑其人气被人工夸大了。最终,这场讨论强调了知识不是被动吸收的;它是通过主动参与构建的,而捷径最终可能适得其反。

## GitGres:一个自托管的GitHub替代方案 GitGres是一个项目,旨在帮助团队构建私有、可定制的GitHub替代方案。它通过提供对成本、正常运行时间、延迟和一致性的更大控制,来解决GitHub的局限性。 与GitHub的云端方法不同,GitGres利用Postgres数据库存储*所有*Git数据——对象、引用、问题、PR等,从而消除了对磁盘的依赖,并允许进行可调整的性能优化。用户可以通过利用分层Postgres存储和缓存来优化成本,并通过选择首选的Postgres缓存来提高响应速度。GitGres本地运行或与代理共置,可完全控制一致性和吞吐量。 设置过程包括构建二进制文件、配置Postgres数据库、初始化模式,并使用引导令牌启动服务器以获取管理员访问权限。它通过智能HTTP支持标准Git命令(clone、push)、与`gh` CLI集成以及自定义远程助手。 目前,GitGres缺乏搜索、Actions、SSH支持和Web UI等功能,专注于核心Git功能。

对不起。

关于 新闻 版权 联系我们 创作者 广告 开发者 条款 隐私政策和安全 YouTube 工作原理 测试新功能 © 2026 Google LLC

启用 JavaScript 和 Cookie 以继续。

## 警察滥用车牌识别器 一项近期由司法研究所(I.J.)进行调查显示,自2024年以来,全国至少有14起案例中,警察利用自动车牌识别器(ALPR),特别是Flock系统,跟踪个人,通常是浪漫关系对象。 几乎所有涉事警员都面临刑事指控并失去了工作。 Hacker News上的讨论强调,考虑到未报告滥用的普遍性和数据访问的不透明性,这可能是一个低估数字。 一个关键问题是Flock最近更改了审计日志的匿名化方式,使得更难检测滥用行为——这一更改发生在最初的跟踪案件通过日志分析被发现之后。 用户们辩论了对监管和监督的需求,一些人指出了执法部门内部的系统性问题以及更广泛的隐私侵犯可能性。 也有人对Flock员工自身可能存在的滥用行为表示担忧。 这次讨论凸显了问责制的缺失以及在广泛监控技术时代隐私的侵蚀。

优步公司由于工程师们热情采用人工智能编码工具,特别是Claude Code,在短短四个月内就用尽了整个2026年的人工智能预算。该工具于2025年12月推出,凭借其强大的多步骤功能迅速变得不可或缺,使用量在2月份翻倍,到4月已有95%的工程师每月使用人工智能。 然而,这种成功却付出了高昂的代价——每个人的API成本每月从500美元到2000美元不等,迅速消耗了34亿美元的研发预算。虽然另一款工具Cursor的使用有限,但Claude Code的优势迫使优步“重新考虑”人工智能支出。 这种情况凸显了公司面临的一个关键挑战:这些工具的巨大价值正在推动意外的高成本。优步的经验表明,最初的人工智能预算可能被低估了,未能预料到如此迅速和广泛的采用及其对开发者生产力的影响。随着人工智能编码工具变得越来越重要,其他公司也面临类似的风险。

## Uber 的 AI 支出激增及价值担忧 一份最新报告指出,Uber 在 AI 上的投资巨大,特别是 Anthropic 的 Claude Code,仅四个月就消耗了大量预算。具体数字存在争议,讨论集中在可能花费了 275 万至 1200 万美元,估计每位工程师的成本为 500 至 2000 美元。目前,70% 的 Uber 代码提交都源自 AI。 然而,Hacker News 的讨论显示出对这些工具*负责任*使用的广泛怀疑。许多用户报告称,尽管大量使用,他们个人的 AI 成本却明显较低,质疑如此巨额资金是如何支出的。担忧包括代理陷入循环、上下文窗口过大以及缺乏对 AI 生成内容的批判性评估。 一些评论员认为,高额支出源于公司优先考虑 AI 使用指标而非实际价值创造,可能受到内部 KPI 的驱动。关于收益是否能证明成本的争论不断,一些人认为初级工程师是更具成本效益的解决方案。最终,这场对话强调了在将 AI 整合到开发流程中时,仔细的成本分析和关注可衡量的 ROI 的必要性。

Canonical(Ubuntu的母公司)目前正面临来自伊朗黑客组织“伊拉克伊斯兰网络抵抗力量(313团队)”持续的DDoS攻击。攻击始于12多小时前,并持续扰乱Ubuntu主网站和多个子域名,阻止用户下载该发行版或访问Canonical帐户。 313团队最初声称对服务中断负责,现在似乎已转向敲诈勒索,要求通过提供的Session ID进行联系,并威胁如果被忽略将继续攻击。该组织此前曾攻击过eBay和BlueSky等公司。 虽然针对位于伦敦的Canonical的动机尚不清楚,但Ubuntu作为Linux发行版的受欢迎程度可能是一个因素。Canonical报告其团队正在努力恢复服务,并承诺通过官方渠道发布更新。

我们检测到您的浏览器已禁用 JavaScript。请启用 JavaScript 或切换到受支持的浏览器以继续使用 x.com。您可以在我们的帮助中心查看受支持的浏览器列表。帮助中心 服务条款 隐私政策 Cookie 政策 版权信息 广告信息 © 2026 X Corp.

请愿书抗议英格兰国民健康服务体系最近决定关闭其软件仓库的源代码,这与英国政府设计原则和国民健康服务标准中概述的先前开源开发承诺相悖。 目前,该请愿书已获得超过10位签名者支持,包括软件开发者、研究人员和医疗专业人士。请愿书认为,开源代码对于公共资金软件的质量、安全性和透明度至关重要。虽然承认开源开发需要更多努力——包括严格的测试和漏洞监控——但支持者认为,与依赖保密相比,它最终会创建一个更强大、更安全的系统。 请愿书具体呼吁撤销“SDLC-8红线”,并重申国民健康服务标准中将新源代码向公众开放的原则。它敦促个人签署以支持这一重要原则。

## NHS 开源争论总结 近期 Hacker News 上出现讨论,关于英格兰国家医疗服务体系(NHS)可能关闭其源代码的举动,起因是对人工智能驱动的安全威胁(特别是来自名为 Mythos 的黑客)的担忧。许多评论员认为这是错误的应对,理由是代码已经公开可用,关闭代码并不能阻止复杂的攻击——人工智能可以分析开源和闭源系统。 这场争论凸显了一个更广泛的趋势:由于日益增加的安全风险和漏洞响应时间缓慢,组织正在重新评估开源贡献。一些组织正在考虑暂停贡献、为内部使用而分叉项目,或在使用开源软件之前要求更强大的安全措施。 一个关键点是开源维护者需要可持续的资金和资源,摆脱对志愿者的依赖。 还有关于开源价值的讨论,建议采用更严格的许可协议,允许商业化以激励安全投资。 一份阻止 NHS 为有害的可访问性叠加层提供资金的请愿书也被分享。

更多

联系我们 contact @ memedata.com