每日HackerNews RSS

启用 JavaScript 和 Cookie 以继续。

## FlashAttention-T:优化注意力机制 一篇最新的论文探讨了“FlashAttention-T”,旨在进一步优化大型语言模型(LLM)中的注意力机制。Hacker News上的讨论围绕着对更高效注意力的持续追求,超越Transformer的标准二次复杂度。 一些评论员强调了对替代方案的研究,如RNN(RWKV、线性RNN、状态空间模型),它们在训练和推理方面具有潜在优势,尽管在并行化和处理长上下文方面存在挑战。一个关键点是计算成本和性能之间的权衡——虽然高阶注意力(如n^10)*可能*能够捕捉更复杂的模式,但由于内存限制,目前不切实际。 FlashAttention-T的核心思想是通过战略性地管理计算来提高GPU利用率,从而实现5-17%的速度提升。关于人工智能本身是否应该优化这些低级内核,存在争论,并举例说明了人工智能驱动的内核优化已经在进行中(AlphaTensor、AlphaEvolve)。最终,这场对话强调了持续努力,以平衡模型复杂度、计算效率和对真正可扩展的AI架构的追求。

## 信任的两面与人工智能的未来 我们 постоянно 依赖信任,常常在不知不觉中——从手机闹钟叫醒我们,到复杂的系统使航空旅行成为可能。这种信任并非个人信任(“人际信任”),而是基于可靠性和可预测性(“社会信任”),由法律和技术等系统强制执行。两者都至关重要,但社会信任能够扩展到复杂的社会,从而实现陌生人之间的合作。 演讲者认为,随着人工智能的兴起,我们将混淆这两种类型的信任。企业将利用这一点,将人工智能呈现为“朋友”,而它们仅仅是受利润驱动,而非道德驱动的服务。真正的可信赖性需要透明度和问责制,而市场无法提供这些。 因此,政府监管至关重要——不是监管人工智能本身,而是监管*控制*人工智能的组织。这包括建立人工智能透明法、安全法规,以及采用“数据受托人”模式,让公司对保护用户数据负责。至关重要的是,需要公共拥有的AI模型来平衡企业控制,并确保人工智能服务于公众利益。 最终,政府的作用是建立和维护社会信任,确保人工智能成为可靠的服务,而不是被剥削的工具。

这场黑客新闻的讨论围绕布鲁斯·施奈尔2023年的文章《人工智能与信任》,以及在人工智能和企业剥削日益加剧的世界中,信任问题日益严重。用户重温这篇文章,认识到它随着人工智能的快速发展而展现出的先见之明。 一个关键主题是,由于追求利润最大化和将风险转嫁给消费者的意愿,各个市场(从食品生产到医疗保健)的信任正在系统性地侵蚀。这被描述为一种“道德风险”,短期收益超过长期后果。 几位评论员强调需要一种类似于医生和律师对客户责任的“信托”模式,要求人工智能开发者将用户隐私置于利润之上。其他人批评了当前的“最大化”心态,即创新是由剥削而非真正的利益驱动,以及扭曲系统以获取短期收益的倾向。 对话还涉及人际信任和社会信任之间的区别,以及在与表现为人类但实际上是系统的AI互动时所面临的挑战。最终,这场讨论描绘了一幅普遍不信任的图景,并呼吁进行系统性变革。

黑客新闻 新的 | 过去的 | 评论 | 提问 | 展示 | 招聘 | 提交 登录 我成了一个维护者,却只得到对图书馆学的糟糕看法 (hughrundle.net) 13 分,来自 yboulkaid 1 天前 | 隐藏 | 过去的 | 收藏 | 讨论 指南 | 常见问题 | 列表 | API | 安全 | 法律 | 申请YC | 联系 搜索:

彭博社 需要帮助?请联系我们 我们检测到您的计算机网络存在异常活动 要继续,请点击下面的框来确认您不是机器人。 为什么会发生这种情况? 请确保您的浏览器支持 JavaScript 和 cookies,并且没有阻止它们加载。 更多信息请查看我们的服务条款 和 Cookie 政策。 需要帮助? 关于此消息的咨询,请联系 我们的支持团队并提供以下参考ID。 阻止参考ID:fb99f468-0143-11f1-bed6-6418229cafc3 通过彭博社订阅,随时掌握最重要的全球市场新闻。 立即订阅

## Anthropic AI 与市场反应 - Hacker News 总结 近期一篇关于 Anthropic AI 工具的彭博社文章引发了 Hacker News 的讨论,并伴随了一次超出软件公司的显著市场抛售。 讨论的中心是大型语言模型 (LLM) 是否对像 OpenEvidence 这样专注于数据、提供医学研究语义搜索(通过精选、可信来源)的专业公司构成威胁。 一些人认为 LLM 可以被引导使用可靠来源,而另一些人则认为 OpenEvidence 的独特价值在于其专有数据、医生网络和可追溯性——这些是 LLM 目前所缺乏的。 担忧也蔓延到 Thomson Reuters 和 RELX(法律数据提供商),它们可能面临类似的颠覆,因为 AI 可能会绕过它们的界面。 讨论还涉及软件工程的更广泛影响,一些人预测随着 AI 赋能内部开发,对基础 CRUD 开发人员的需求将下降。 存在关于 AI 是否会 *增加* 或 *减少* 竞争以及资本在未来初创公司中的作用的争论。 最后,另一条消息提到 PayPal 跌幅 20%,原因是盈利未达预期和 CEO 变更,与 AI 讨论没有直接关系。

## Oxen 通过代码精简实现性能提升 20 倍 Oxen 是一款数据版本控制工具,致力于追求卓越性能,并定期使用多太字节数据集对命令进行基准测试。虽然 `add` 命令速度很快,但 `commit` 命令即使是一个理论上简单的操作,也需要超过 50 分钟。 性能分析显示,`commit` 命令的 90% 时间都花在了获取暂存 RocksDB 的锁上。根本原因是什么?由于不同代码层之间存在过多的数据克隆和重复的数据库打开,导致线程竞争。尽管职责分离定义明确,但每一层都重复获取相同的文件信息。 一个 PR 消除了这种冗余的数据访问,从而实现了 **20 倍的速度提升**。这凸显了一个关键教训:看似孤立的功能会对整个系统产生影响。此外,团队注意到 RocksDB 针对写入进行了优化,并不适合他们并行且读取密集型的提交过程。这段经历强化了“少即是多”的原则,尤其是在对性能敏感的应用中。

## Rust、性能与开发者体验 最近一篇 suriya.cc 的文章引发了 Hacker News 的讨论,质疑了“Rust = 性能”的自动假设。作者发现,移除代码——特别是减少由于数据在层之间传递而引起的不必要的 `.clone()` 和 `db.open()` 调用——*提升*了他们的 Rust 项目的性能。这表明性能提升并非语言本身固有的,而是依赖于程序员的技能、设计选择和编译器优化。 评论者争论 Rust 是否保证性能,许多人同意它提供了*工具*来实现性能,但不会自动实现。一些人指出 Rust 最初的吸引力在于为不熟悉系统级编程的程序员提供并发安全性,从而带来性能提升的感知。另一些人指出,该语言的复杂性反而可能阻碍优化,并且细致的内存管理仍然至关重要。 最终,这场对话强调了 Rust 是一种强大的*工具*,但实现最佳性能需要深思熟虑的编码实践,无论使用哪种语言。

一项最新研究表明,使用像GitHub Copilot这样的LLM聊天机器人*生成*代码的“氛围编程”对开源生态系统构成重大威胁。核心问题在于开发者与开源项目的直接互动减少。开发者不再理解和参与库的使用,而是依赖于聊天机器人的输出,可能偏向于LLM训练数据中流行的代码,而非*最佳*代码。 这会减少项目网站的流量,阻碍资金和社区发展,类似于对Spotify等平台上艺术家报酬的担忧。此外,LLM不会回馈它们所使用的项目——没有错误报告,没有社区参与。 早期数据表明,“氛围编程”并没有显著提高生产力,甚至可能*增加*错误并降低开发人员的技能。虽然人工智能技术本身并非负面,但该研究警告说,将开发委托给LLM最终可能会扼杀创新,并损害对开源至关重要的协作精神,尤其是在JavaScript和Python等生态系统中。

这篇内容探讨了伦敦多层次的历史,以及在现代城市之下寻找隐藏之城的探索。从布鲁图斯建立伦敦的神话开始,叙述追溯了一系列在城市肌理中寻求替代现实的 visionaries(有远见者)、outcasts(弃儿)和 revolutionaries(革命者)。 作者深入研究了情境主义国际的理念,他们将城市环境视为控制的工具——“景观”,并试图通过“心理地理学”来扰乱它,即探索城市的情感和行为影响。这种追求与伦敦的神秘历史交织在一起,提到了约翰·迪和艾伦·摩尔等人物,以及城市持久的神秘暗流。 作者从 80 年代的经历到最近的回归,在伦敦的个人旅程变成了一场寻找这个“另一个伦敦”的旅程——一个充满隐藏意义和未实现可能性的地方。与一位用多肉植物收复空间的园丁的相遇象征着重新施魔法的潜力。最终,这篇文章表明,尽管监控日益增加和“现实”占据主导地位,但发现充满活力、替代的伦敦的可能性仍然存在,这需要人们愿意超越表面现象。

这个黑客新闻的讨论围绕着《哈珀杂志》上的一篇文章,标题是“另一个伦敦:挖掘被幻灭的城市”。 初始帖子分享了文章链接,引发了关于1965年白教堂高路的特定照片的讨论。 用户们辨认出照片描绘的是一群巴黎知识分子——情境主义思想家——参加伦敦会议。 他们随后通过谷歌地图链接将1965年的图像与今天同一地点的景象进行了比较,突出了六十年来发生的巨大变化。 讨论涉及“景观”的概念,这是情境主义者的一个关键思想,以及自照片拍摄以来其影响力的指数级增长。 基本上,这个帖子使用一张历史图像来反思城市变化以及社会观察和控制的演变。

## 中国在太空领域的稳步攀升:对美国的日益增长的挑战 虽然官方淡化“太空竞赛”,但中国正在稳步建设一个全面的载人航天计划,雄心是到2030年将宇航员送上月球并建立月球基地。这项有条不紊、历时数十年的努力——源于1992年的“921工程”——与美国宇航局“阿耳忒弥斯”计划经常变化的目标形成对比。 中国的计划以*梦舟*飞船(一种可重复使用的载人飞船)和*蓝月*登月着陆器为中心,两者都由长征十号火箭发射。这种方法反映了美国宇航局之前考虑过的概念,侧重于持续的月球存在,而不是单一任务。 专家指出,中国的优势在于其整合的、长期的愿景,将太空视为一种持续的活动,能够带来经济和地缘政治利益。他们已经证明了能够持续实现既定时间表的能力,这引起了美国宇航局日益增长的担忧。 美国宇航局的新负责人贾里德·艾萨克曼承认,存在着与寻求挑战美国在太空领域领导地位的竞争对手的“激烈竞争”,强调了加速“阿耳忒弥斯”计划并避免落后的紧迫性——这种情况可能产生重大后果。中国的蓄意进展正在促使人们重新评估美国太空计划的速度和灵活性。

## 中国的月球雄心与新的太空竞赛 一篇Hacker News的讨论围绕中国计划于2030年实现登月的目标,引发了关于太空竞赛复兴的争论。一个关键点是,与最初太空竞赛期间的苏联相比,中国相对稳定,这表明即使竞争对手超越了最初的目标,中国也会持续致力于太空探索。 评论员们争论这场竞赛是否真正具有竞争力,指出中国拥有独立的轨迹和对长期目标(如月球基地)的关注。人们对中国计划可能因国内政治问题(特别是台湾问题)以及领导层决策而中断表示担忧。 许多人强调了美国和中国都可能“浪费优势”的更广泛趋势,并质疑火星任务等雄心勃勃项目的可行性。讨论还涉及太空探索背后的地缘政治动机,将其描述为权力之间的“比拼”,而非纯粹的科学努力。最终,人们的普遍情绪倾向于欢迎竞争作为创新的驱动力,即使直接利益仍有待商榷。

## 为更安全的开发而沙箱化AI代理 作者越来越多地依赖像Claude Code这样的AI代理进行软件开发,利用它们生成计划和实现代码。然而,持续的文件访问和软件执行权限请求会打断工作流程。虽然存在“YOLO”模式,但它存在安全风险。 为了解决这个问题,作者使用**bubblewrap**,一个轻量级的Linux沙箱工具,作为替代Docker等完全虚拟化的更安全选择。目标是创建一个隔离的环境,模拟他们的常规开发设置,并限制访问权限——仅限于项目文件和必要的网络连接。 作者分享了一个定制的bubblewrap脚本来实现这一点,重点是绑定挂载必要的目录,同时限制更广泛的系统访问。这种方法优先考虑便利性,并最大程度地减少配置开销。虽然这不是一个万无一失的安全解决方案,但作者认为鉴于他们的风险承受能力和现有的版本控制实践(Git),这已经足够了。 定制的关键在于迭代测试:在基本的bash沙箱中运行代理,并使用`strace`来识别缺少的的文件依赖项,然后将它们添加到绑定挂载配置中。这允许创建一个定制的、最小化的沙箱设置。

## Linux下沙箱化AI代理 - 摘要 最近的Hacker News讨论集中在Linux上安全运行AI代理的问题。核心挑战在于平衡访问权限——代理需要资源才能运行,但无限制的访问会带来安全风险。 提出了几种解决方案,**Leash** ([https://github.com/strongdm/leash](https://github.com/strongdm/leash)) 被强调为一个强大的选项,它通过Web UI提供对进程和网络活动的策略级控制。 其他替代方案包括 **bubblewrap**、**systemd-run** 和创建自定义沙箱。 一些用户提倡使用完整的 **VM** 以实现最大程度的隔离,而另一些用户则更喜欢使用 **Podman** 或 **Docker** 结合用户隔离的容器化方法。 一个关键的考虑因素是可观察性——跟踪代理所做的更改。 为此提到了像 **overlayfs**(可能与bubblewrap结合使用)和 **try** ([https://github.com/binpash/try](https://github.com/binpash/try)) 这样的工具。 讨论还涉及到了令人惊讶的广泛使用 **Chrome标签页** 作为沙箱系统,利用seccomp和用户命名空间等技术。 最终,最佳方法取决于个人需求和风险承受能力,一个共同的主题是限制代理访问并监控其操作的重要性。

## PII-Shield:Kubernetes零代码日志脱敏 PII-Shield是一个高性能、零代码的Kubernetes边车容器,旨在通过在日志离开应用程序*之前*屏蔽个人身份信息 (PII) 来防止数据泄露。与传统的日志过滤方法(如Fluentd/Logstash中的正则表达式)相比,PII-Shield使用Go语言编写,具有低延迟处理能力,速度更快且资源消耗更少。 它利用上下文感知的熵分析来检测密钥——即使没有已知密钥——并将其替换为确定性哈希(例如,`[HIDDEN:a1b2c]`),以便在不暴露敏感数据的情况下进行质量保证关联。 PII-Shield无需代码更改,适用于任何语言,并且可以作为边车轻松部署,使用initContainer复制二进制文件即可。它经过严格测试,在各种场景下均具有高精度,包括多语言日志和复杂数据结构。配置通过环境变量管理,包括生产环境所需的HMAC盐。 在Docker Hub上找到它:`docker pull thelisdeep/pii-shield:latest`。

## PII-Shield:Kubernetes日志清理 PII-Shield是一个开源(Apache 2.0)工具,旨在自动检测并删除应用程序日志中的敏感信息。它以Kubernetes sidecar或CLI工具的形式提供,使用香农熵分析来识别潜在的密钥——即使没有预定义的模式,例如API密钥(“sk-live-...”)。并使用确定性HMAC哈希来删除这些信息。这确保了在调试和质量保证目的下,一致的删除(例如,“pass123”始终变为“[HIDDEN:a1b2c]”)而不会暴露原始数据。 主要功能包括解析和重建有效的JSON日志,以实现与SIEM的兼容性(ELK/Datadog),以及“fail-open”设计以保持应用程序的正常运行时间。熵阈值可以通过环境变量进行调整,从而可以自定义以避免误报(如UUID)或提高敏感度。目前专注于高熵密钥,开发者正在考虑在未来版本中添加基于值正则表达式或特定字段名称的删除功能。 项目地址:[https://github.com/aragossa/pii-shield](https://github.com/aragossa/pii-shield)

更多

联系我们 contact @ memedata.com