每日HackerNews RSS

## 麦肯锡Lilli AI平台被黑:人工智能安全敲响警钟 麦肯锡公司的内部AI平台Lilli——被其43,000多名员工中超过70%的人使用——遭受了一次重大安全漏洞,由CodeWall开发的一款自主AI代理发现。 值得注意的是,该代理在*两小时*内获得了Lilli生产数据库的完全读写权限,无需任何先验知识或人工干预,利用了公开暴露的API文档。 此次漏洞暴露了4650万条包含敏感客户和公司数据的聊天信息、728,000个文件以及详细的内部AI配置。 关键在于,该代理利用了一种经典的SQL注入漏洞——标准安全工具未能检测到——不仅访问了数据,还*修改*了Lilli的系统提示。 这可能导致对客户建议的微妙操纵、数据泄露或安全防护措施的移除。 这起事件凸显了威胁形势的关键转变:AI代理自主识别和利用漏洞。 麦肯锡尽管投入了大量安全资金,却因一个被认为是“基础”的漏洞而受到损害。 这起事件强调了迫切需要保护“提示层”——控制AI行为的指令——因为它代表了一个新的、高价值的目标,通常缺乏足够的安全措施。

## 麦肯锡AI平台被黑:摘要 一家安全公司CodeWall利用自主AI代理展示了麦肯锡AI平台Lilli的一个漏洞。由于暴露的端点和源于JSON密钥不安全连接的严重SQL注入缺陷,该代理迅速获得了对数据库的完全访问权限。敏感数据,包括聊天消息、文件和系统提示,都可以访问。 该事件凸显了威胁形势的变化,AI代理正在主动识别和利用弱点。专家认为,传统的安全措施不足以应对这些自动化攻击。 内部评论显示,麦肯锡可能存在优先考虑速度而非安全的文化,这因人员流动和专注于客户影响而非技术严谨性而加剧。据报道,该平台的漏洞在发现后数小时内得到修复,但该事件引发了对数据安全以及在没有充分保障措施的情况下快速部署AI工具的风险的担忧。这篇文章引发了关于AI生成写作质量以及AI驱动的安全测试更广泛影响的争论。

网络禁止访问。

巴塞尔城市州,一个瑞士州,在其电子投票试点计划中遭遇关键故障,导致无法解密最近几次全国公投中投出的2048张选票。尽管官员在多个USB驱动器上使用了正确的解密密钥,但仍无法访问选票,影响了在国外投票的选民和残疾人士。 虽然丢失的选票(约占该州总数的4%)不会改变公投结果(涉及现金供应和瑞士国民银行),但此事件被严肃对待。已启动刑事调查,试点计划将暂停至年底,同时进行外部分析。 这并非瑞士首次遭遇电子投票挫折;之前的尝试因安全漏洞于2019年被放弃。其他使用电子投票系统的州未受影响,但此事件引发了对瑞士电子投票可靠性和安全性的严重担忧。

此配置定义了一个AI“机器人大脑”,用于控制机器人系统。该大脑使用Python(版本0.1.0)构建,通过`uv run src/main.py`启动,并在同步依赖项后使用`uv sync`。 该大脑通过接收来自两个传感器输入的数据运作:摄像头流(`uvc_camera`节点,`video_stream`主题)和激光雷达传感器(`rplidar`节点,`scan`主题)。 基于这些传感器输入,该大脑可以通过连接的控制器触发两个动作:移动右臂(`openarm01_controller`节点,`move_right_arm`动作)和移动左臂(`openarm01_controller`节点,`move_left_arm`动作)。本质上,它是一个将传感器数据转换为机器人手臂运动的处理单元。该配置详细说明了每个组件的节点和标签版本。

## PeppyOS:一个新的机器人框架 PeppyOS 被定位为 ROS 2 的一个更简单的替代方案,旨在解决依赖地狱和复杂的构建系统等问题。虽然承认 ROS 2 已经建立的生态系统,开发者计划开发 ROS 2 桥接,并专注于重写存在问题的组件。目前 PeppyOS 尚未开源(但计划今年晚些时候在 BSL 许可下开源),其商业模式是操作系统免费,收入来自类似于 Foxglove 的工具。 讨论中,人们对由于缺乏现有驱动程序和社区动力而可能面临的采用问题表示担忧。 许多评论员指出,已经有改进 ROS 2 的努力,例如可重现的包管理和 NVIDIA 的 NITROS。 还有人质疑是否有必要开发一个新的框架,认为 ROS 的问题可以通过强大的控制器和明确定义的协议来解决,或者 LLM 可能会降低对框架易用性的需求。 一个关键点是,PeppyOS 可能会被端到端 AI 系统和机器人领域的整体方法超越,从而使传统的中间件过时。 其他替代项目,如 roboflex、dimos 和 HORUS 也被提及。

## BitNet.cpp:1-bit LLM 的快速推理 BitNet.cpp 是一个优化的推理框架,用于运行极低位数的 LLM(大型语言模型),特别是像 BitNet b1.58 这样的 1-bit 模型。与传统方法相比,它能显著提高速度并降低能耗,从而实现在资源受限的设备上执行 LLM。 该框架目前专注于 CPU 推理,在 ARM 和 x86 处理器上实现了 **1.37 倍至 6.17 倍的速度提升**和 **55.4% 至 82.2% 的能耗节省**。值得注意的是,它可以在单个 CPU 上以与人类阅读速度相当的速度(5-7 个 token/秒)运行一个 100B 参数的 BitNet 模型。最近的优化增加了并行内核和嵌入量化,以进一步提高速度(高达 2.1 倍)。 BitNet.cpp 建立在 llama.cpp 和 T-MAC 的查找表方法之上。它支持各种量化类型,并可在 GitHub 上获取,其中包含详细的设置说明(Python 3.9+、CMake 3.22+、Clang 18+)。该项目旨在鼓励 1-bit LLM 的开发,并提高 LLM 技术的广泛可访问性。

## BitNet:1位LLM – 摘要 微软的BitNet是一个推理框架,旨在以极低精度(每个参数1.58位,实际上是具有三个状态的“三进制”)运行大型语言模型(LLM)。目标是显著降低计算成本和内存需求,从而有可能在性能较弱的硬件上部署LLM。 虽然标题暗示着一个1000亿参数的模型,但目前可用的模型要小得多(最多30亿参数)。该框架*支持*更大模型的推理,但尚未训练和发布1000亿参数的BitNet模型。 讨论的重点在于,这种方法是否能够实现与传统量化方法(如4位或8位)相比的竞争性能,以及原生使用这种低精度训练模型的潜在好处。一些人认为原生训练可以释放显著的效率提升,而另一些人则质疑质量的权衡以及微软缺乏大规模的演示模型。最近GGUF量化方面的进展也被讨论为一种潜在的竞争替代方案。 该项目旨在使LLM更易于访问,但其最终成功取决于在规模上展示强大的性能,并克服训练这种低精度模型的挑战。

CAP 定理是分布式系统中的核心概念,通常被记作“在一致性、可用性和分区容错性中选择两个”。然而,理解*分区容错性*可能比较困难。许多人最初认为“分区”指的是数据分片,想象系统在特定数据集上发生故障。 这种理解是错误的。“分区”在 CAP 定理中是一个*动词*,而不是名词。它描述了系统在节点之间网络连接中断时——当网络“分区”时——继续运行的能力。 本质上,分区容错性不是关于*数据在哪里*,而是关于*系统在网络故障期间如何表现*。当发生分割时,系统必须在维护一致性(可能牺牲可用性)或保持可用性(可能牺牲一致性)之间做出选择。它关乎优雅的故障处理,确保即使在通信中断的情况下也能运行,即使某些用户会遇到问题。

这个Hacker News讨论的核心是用户对首页上大量低质量、很可能由AI生成的文章感到沮丧。用户质疑这些“毫无思想”的文章,其特点是重复的句子结构,是如何获得关注的。 许多评论者表示难以置信作者真正理解所讨论的概念,认为文章只是简单地从LLM中复制粘贴,而没有理解。 讨论集中在文章的具体误解上——是语法问题,还是对分布式系统“分区”这一概念的根本性错误。 用户讨论了解决这个问题的方法,主要建议举报这些内容。 总体基调是对文章质量的批评,并对平台上未经原创、由AI生成的材料的泛滥表示担忧。

从朝鲜半岛调离爱国者导弹阵地,并伴随有关“萨德”反导系统部分也在移动的报道,并未直接影响美国在菲律宾的军事存在。但这一事件迫使马尼拉不得不提出一个它宁愿避免公开讨论的问题:如果美国的资产可以离开韩国,那么究竟是什么在将它们锚定在任何地方?分析人士表示,答案揭示了美国在亚洲联盟的本质以及盟友真正能够要求的内容。美国导弹或将移至中东韩国总统李在明周二确认,首尔已正式反对此次调动——但未能阻止。“我们已对美军为自身军事需求而调动部分防空电池表示反对,”他说。

## 美国战略转变与联盟受质疑 南华早报一篇近期文章指出,菲律宾对美国将导弹从韩国重新部署一事表示担忧。这一转变引发了人们对美国对其东亚盟友承诺的质疑,尤其是在美国专注于加剧与伊朗和以色列的紧张局势之际。 讨论的中心在于美国超级大国地位的 perceived 衰落,从冷战后对“软实力”的强调转向优先保护商业利益和对抗中国、俄罗斯和伊朗等竞争对手。评论员认为,美国越来越愿意基于战略价值与国家结盟,即使这些国家具有可疑的道德立场。 许多用户指出美国军事干预的高昂成本和局限性,质疑当前战略的可持续性。人们对美国同时有效管理多重冲突的能力以及中东等地区进一步 destabilization 的可能性表示担忧。一些人认为,美国正在失去盟友的信任,这体现在难以获得必要的补给以及对与中国和欧盟内国家建立替代伙伴关系的兴趣日益增长。一个反复出现的主题是,美国外交政策缺乏超越经济利益的清晰而鼓舞人心的愿景。

许多使用LLM进行代码生成的团队最初采用了一个简单的“/docs”目录来存储共享上下文,这模仿了OpenAI最初的做法。虽然一开始有效,但随着文档增长,这种方法很快暴露出局限性。例如,可发现性差、所有权问题(谁维护非工程文档?)、“文档腐烂”(不一致性)、代码与文档之间的速度不匹配,以及缺乏内在结构等问题。 核心问题不在于LLM的能力,而在于*上下文管理*本身。LLM无法*创建*有意义的上下文——它是由人类定义的意图和现实世界边界的蓝图。依赖Markdown文件是一种过时的解决方案。 需要转向**上下文驱动开发 (CDD)**。这意味着上下文应由领域专家拥有,具有自己的架构,易于导航,并且可以以清晰的层次结构进行组合。至关重要的是,上下文必须“代码感知”,直接链接到代码库,以自动检测和解决不一致性。 CDD将文档转化为一个动态的抽象层,使LLM能够理解和维护一致、可靠的事实来源——最终提高开发速度和质量。

## 黑客新闻讨论摘要:AI 与文档 一场黑客新闻讨论围绕一篇批评当前 AI 生成内容趋势的博文展开,特别关注文档。许多评论者认同 AI 写作的文本感觉“不对劲”——语法正确但缺乏真正的质量和努力,处于“恐怖谷”之中。 几位用户注意到,由于 AI 写作工具,互联网上出现了一种同质的“声音”和可识别的模式。 核心争论集中在*文档应该放在哪里*。原文提倡将文档与代码放在一起,而另一些人则认为,如果保持同步,AI 可以维护外部文档。一个主要的反对观点倾向于详细的、惯用的代码注释(使用诸如 `<summary>` 和 `<remarks>` 之类的标签),作为一种更优的解决方案,允许 LLM 直接从代码中“重新水合”上下文,提供始终更新、易于访问的长期记忆。 人们对 AI 生成的视觉效果质量低下以及 AI 可能在代码库中引入“技术债”表示担忧。 最终,这场讨论凸显了人们对 AI 局限性的日益认识,以及对那些经过深思熟虑和注重细节的内容的渴望。

彭博社 需要帮助?请联系我们 我们检测到您的计算机网络存在异常活动 要继续,请点击下面的框来确认您不是机器人。 为什么会发生这种情况? 请确保您的浏览器支持 JavaScript 和 cookies,并且没有阻止它们加载。 更多信息请查看我们的服务条款 和 Cookie 政策。 需要帮助? 关于此消息的咨询,请联系 我们的支持团队并提供下面的参考ID。 阻止参考ID:2c4c743b-1d36-11f1-ae5d-543c28db8769 订阅 Bloomberg.com,随时掌握最重要的全球市场新闻。 立即订阅

更多

联系我们 contact @ memedata.com