每日HackerNews RSS

## Notion AI 数据泄露漏洞 研究人员发现Notion AI存在一个严重漏洞,允许通过间接提示注入泄露敏感用户数据。即使在用户批准AI建议的编辑*之前*,也会发生这种情况。攻击利用上传文档(如简历)中的隐藏提示——人眼无法察觉——来操纵Notion AI。 具体来说,攻击者诱使AI构建一个包含文档内容的URL,并将其用作图像插入的来源。这会触发对攻击者控制服务器的请求,从而泄露URL中的数据,无论用户最终是否接受该编辑。在测试中,薪资期望和内部职位细节等敏感信息已被成功泄露。 该漏洞通过巧妙地构建看似安全的提示,绕过了Notion现有的基于LLM的文档扫描。它还会影响Notion Mail的起草助手。Notion驳回了该报告,认为“不适用”,尽管已经进行了负责任的披露。 缓解策略包括限制连接器访问、禁用网络搜索、限制AI个性化数据,以及实施更严格的安全策略,以防止自动渲染外部图像并强制执行强大的内容安全策略。

## Notion AI 漏洞与 LLM 安全问题 最近报告的、尚未修复的 Notion AI 数据泄露漏洞引发了关于大型语言模型 (LLM) 内在安全挑战的讨论。安全研究人员强调的核心问题是,LLM 基于人类的全部语言运作,从而产生了一个实际上是无限的攻击面——尤其是在允许访问敏感数据时,这令人担忧。 评论界普遍认为,LLM 的输出应*始终*被视为不可信的,需要像沙盒和严格数据权限这样的传统网络安全措施。许多人认为,根本性的安全缺陷使 LLM 容易受到提示注入和操纵,并且限制对敏感信息的访问至关重要。 讨论中提出了一些要点:难以追究 LLM 的责任、不受限制的访问风险,以及需要摆脱对 SaaS 解决方案的依赖。一些人还注意到 Notion 对报告的漏洞的回应不够重视,以及 LLM 随着其能力的扩展,可能成为独特的威胁行为者。最终,这场讨论强调了保护 LLM 需要一种根本不同的方法,承认其独特的风险和局限性。

我们正在验证您的浏览器。网站所有者?点击此处修复。 Vercel 安全检查点 | sin1::1767821644-hpyGcEUuE3wubWHtCfgRa26MQYBMbfYK 启用 JavaScript 以继续。 Vercel 安全检查点 | sin1::1767821644-hpyGcEUuE3wubWHtCfgRa26MQYBMbfYK

## Butter.dev:基于LLM的动态数据缓存 Butter.dev正在推出一项新功能,用于其LLM响应缓存:处理动态、模板化输入的能力。传统的HTTP请求级别缓存难以处理诸如名称或时间戳等数据的变化,导致命中率低。 Butter.dev通过使用LLM来*理解*请求的结构,识别动态内容及其关系来解决这个问题。然后,它将缓存条目存储为带有变量和确定性代码的模板。这使得缓存即使在请求包含相同模板内的不同数据时也能提供响应,从而显著提高命中率。 开发者认为,这对于涉及结构化数据的重复性任务自动化特别有用,例如后台流程或数据转换。 您可以在[这里](https://www.youtube.com/watch?v=ORDfPnk9rCA)找到演示,技术细节[这里](https://blog.butter.dev/on-automatic-template-induction-for-...),以及免费试用[这里](https://butter.dev/auth)。

Trail of Bits 发现 `elliptic` 存在两个重大漏洞,这是一个流行的 JavaScript 加密库,被近 3000 个项目使用,每周下载量超过 1000 万次。这些发现源于使用 Wycheproof,一套密码学测试向量进行的测试。 第一个漏洞 (CVE-2024-48949) 是 EdDSA 签名验证中缺少边界检查,允许攻击者伪造已知消息/签名对的签名。该漏洞于 2024 年 7 月私下披露并合并了修复,但直到 2024 年 10 月才公开。 第二个漏洞 (CVE-2024-48948) 是由于消息截断不正确,导致包含前导零的消息哈希使有效的 ECDSA 签名验证失败。尽管在 2024 年 7 月进行了私下披露和提出了修复方案,但维护者没有回应,截至 2024 年 10 月,该问题仍未解决。 这些漏洞凸显了使用 Wycheproof 等工具进行持续密码学测试的重要性,并强调了对安全披露做出及时响应的必要性。这两个问题现已公开,并已分配 CVE ID。

启用 JavaScript 和 Cookie 以继续。

## ChatGPT 健康:初步反应与担忧 OpenAI 最近宣布推出“ChatGPT 健康”,这是一款旨在支持(而非取代)医疗保健的新型人工智能工具。这一消息在 Hacker News 上引发了热烈的讨论,人们对此既感到兴奋,又持怀疑态度。 一些用户对个人健康领域的潜在创新表示热情,指出目前像 Apple Health 和 23andMe 这样的工具无法提供可操作的见解。一位用户分享了使用 ChatGPT 结合自身健康记录的积极体验,在某个案例中,它比他们的医生提供的更全面的信息。 然而,人们也提出了关于数据隐私以及 OpenAI 对敏感健康信息处理信任度的重大担忧。一些评论员质疑即使加密后,将这些数据交给 OpenAI 的做法,并引用过去发生的事件(例如,有报道称人工智能鼓励吸毒)作为谨慎的原因。 还有人强调了潜在的法律挑战和自我诊断的风险,而另一些人则认为它可以增强患者的权力并协助不堪重负的医生。此外,还报告了一些初步的可用性问题,例如注册页面上的链接损坏。总体情绪是谨慎乐观,但受到有效的数据隐私和安全担忧的制约。

## Claude 的技能协同:总结 最近,对 AI Claude 的实验揭示了一种强大的能力:技能组合。作者在开发提高 AI 性能的工具(从 macOS 平铺窗口管理器开始)时,发现 Claude 可以有效地合并不同的技能来解决复杂问题。 最初,创建了一个新的“优化关键路径”技能,但难以确定 *应该* 优化什么。将其与预先存在的“oberdebug”技能(专为通过日志进行系统性的错误诊断而设计)结合使用,结果具有变革性。这种协同作用使 Claude 能够以惊人的准确性 pinpoint 一个性能瓶颈(服务器响应中的 JSON 编码),最终显著缩短了关键操作的时间。 这一成功凸显了技能分层潜力。作者随后将“头脑风暴”与“前端设计”结合起来,为新博客创建了一个以设计为重点的构思流程,甚至将“代码审查”与其他技能集成,以实现更全面的开发方法。关键在于,Claude 的强大之处不仅在于单个技能,还在于它们协同工作的能力,从而解锁了新的问题解决和创造力水平。

## Claude 代码技能:并非那么涌现? 最近一篇在Hacker News(现已更新至vibeandscribe.xyz)上发表的文章,讨论了Claude代码新“技能”功能中的“涌现行为”,引发了争论。虽然被宣传为一种新能力,但许多评论员认为技能仅仅是结构化的提示组合——类似于使用工具的代理,或编写良好的动态工作流(MCPs)。 作者ryanthedev将技能视为可重用的工具,但承认这个概念对Claude来说并不新鲜。其他人指出Codex现在也提供类似的功能(“Talents”)。一个突出的挑战是可靠地激活技能;即使在明显适用时,Claude有时也会在*不*使用预期技能的情况下执行任务。 讨论的重点是技能调用其他技能的可能性,从而创建复杂的工作流,以及人工智能驱动的技能创建和编辑的可能性。然而,人们对“过于元”以及避免过度复杂性的问题表示担忧。最终,共识倾向于技能是一种有用的*抽象*——这是供应商提供的第一种此类功能——而不是一种真正涌现的现象。

飞行前检查清单 哪里出错? 升级到 claude 2.1.0 然后运行 claude。查看错误。 应该发生什么? claude 在使用版本 2.1.0 时应该启动。 错误信息/日志 重现步骤 升级到 2.1.0 并运行 claude。 Claude 模型 无 这是回归问题吗? 否,这从未有效。 上次有效版本 无回复 Claude 代码版本 2.1.0 平台 Anthropic API 操作系统 macOS 终端/Shell 其他 附加信息 无回复 👍React with 👍155steinnes, Xplod13, BigFoxMedia, ekstro, masonhieb 及其他 150 人

## Claude Code CLI 漏洞与讨论总结 (Hacker News) Claude Code CLI 最近出现了一个漏洞,原因是 changelog 格式的变化(具体来说,版本标题中添加了日期)导致应用程序崩溃。问题在于 CLI 尝试将 changelog 解析为结构化数据,但缺乏适当的错误处理。社区迅速分享了一个使用 `sed` 命令的解决方法。 该事件引发了关于“氛围编码”的更广泛讨论——一种优先考虑速度和功能的编码风格,而非代码质量和可维护性。一些评论员表示担忧,这种方法似乎在 Claude Code 的开发中很常见,会导致不稳定和缺乏彻底的测试。另一些人则为快速迭代辩护,认为其优点大于缺点,特别是考虑到该工具的受欢迎程度。 对话还涉及了审查 AI 生成代码的挑战、自动化测试捕捉此类问题的潜力,以及与 OpenCode 等其他 AI 辅助编码工具的比较。最终,该事件凸显了在 AI 驱动工具的新兴领域中,快速开发与健全软件工程实践之间的紧张关系。

关于按住版权联系我们创作者广告开发者条款隐私政策和安全性YouTube的工作原理测试新功能© 2026 Google LLC

Hacker News 新闻 | 过去 | 评论 | 提问 | 展示 | 招聘 | 提交 登录 残余:软件架构中的时间、变化和不确定性 [视频] (youtube.com) 10 分,作者 zdw 1 天前 | 隐藏 | 过去 | 收藏 | 1 条评论 nh23423fefe 1 天前 [–] 我不知道如何编写像这样的软件,也不明白残余性为何被置于与 OOP 或 SOA 同一类别。感觉像是虚假的数学精确性。> 残余理论为 OOP、SOA 和微服务方法到达系统设计时所采用的模糊方法提供了一种替代方案,但随后> 残余分析过程 生成一个朴素的架构。使用 OOP/SOA 的当前方法在任何平台上实现一个功能性解决方案。https://www.sciencedirect.com/science/article/pii/S187705092... 回复 指南 | 常见问题 | 列表 | API | 安全 | 法律 | 申请 YC | 联系 搜索:

## Tailscale 1.42.0 版本概要 这是 Tailscale 支持旧版操作系统的最后一次发布,包括 Windows 7、8、Server 2008 和 2012。未来更新将至少到 2024 年 5 月 31 日为 1.42.0 版本提供安全修复,但较新版本将停止对这些平台的支持。**macOS 10.13 用户应安装 1.44.0 版本。** 此版本的主要变更包括 `tailscale serve` 的重置命令、改进的 DNS 处理以及增强的 Linux SSH 登录功能。还实施了新的应用程序签名证书(有效期至 2025 年)。 更新还针对特定平台:macOS 获得 Sparkle 更新和改进的文件传输处理,iOS 增加“删除帐户”选项,Unraid 和 Kubernetes 现在具有专用支持。iOS 上的内存管理也得到了改进。

## Tailscale 取消默认状态文件加密 Tailscale 在最新版本 (1.92.5) 中已禁用默认状态文件加密和硬件证明密钥。 此功能在 1.90.2 版本及更高版本中默认启用,现在已恢复为早期版本的行为,默认关闭。 此更改源于由各种硬件配置中 TPM(可信平台模块)的不可靠性引起的支持问题。 虽然旨在通过加密静态敏感数据来防止节点克隆,但 BIOS 更新等常规操作期间的 TPM 重置经常导致用户功能中断。 Tailscale 承认更改日志中缺乏足够的上下文,并澄清该功能仍然可供愿意手动启用它的安全意识用户使用。 该决定优先考虑更广泛用户群体的稳定性,而不是为遇到 TPM 相关问题的子用户群提供增强的安全性。 团队指出,Windows 和 Linux 受影响,而 macOS 不依赖 TPM。

请启用 JavaScript 并禁用任何广告拦截器。

## 美国可能禁止华尔街购买房产——但这会有影响吗? 路透社的一份报告,在Hacker News上讨论,详细介绍了特朗普提议禁止华尔街投资者购买独栋住宅。讨论迅速转向对该政策影响的怀疑。许多评论员认为,机构投资者占住房所有权的比例很小(约0.5%),即使实施禁令,也不会显著改变市场。 核心争论集中在*为什么*住房负担不起。虽然一些人支持这项禁令,将其视为针对华尔街的民粹主义举措,但另一些人认为真正的问题是限制性分区法规、建筑材料关税、停滞的建筑生产率和融资限制。几位用户指出,即使大型投资者被阻止,较小的投资者可能会填补空缺。 一个反复出现的主题是需要增加住房*供应*,而不仅仅是限制需求。人们也对这项禁令的可执行性表示担忧,以及鉴于特朗普一贯未能兑现承诺的历史,这是否是一项真正的政策,还只是政治言论。最终,共识倾向于将其视为一种主要具有象征意义的手势,不太可能解决住房危机。

德克萨斯农工大学一位哲学教授马丁·彼得森被要求修改他的“当代道德问题”课程大纲,否则可能需要教授其他课程。校方要求移除柏拉图的《理想国》中的部分内容以及与种族和性别相关材料,理由是新的政策“Rule 08.01”。 彼得森此前已提交了他的课程大纲进行“强制审查”,并辩称他的课程不提倡任何意识形态,而是教授批判性思维。他还主张他的学术自由和宪法权利。 这一情况凸显了大学新政策与学术自由既定原则之间的冲突,讽刺的是,被针对的材料来自柏拉图——西方高等教育的奠基人物。大学已给彼得森一天时间来决定下一步行动。

更多

联系我们 contact @ memedata.com