## 超越局部正确性:推理系统,而不仅仅是程序 虽然函数式编程擅长通过静态类型和代数数据类型等工具来推理程序正确性,但这种优势在部署到真实世界系统时可能会产生虚假的信心。 核心问题是:**生产环境本质上是分布式系统**,即使是看似单体的应用程序也是如此。 正确性不是*程序*的属性,而是*并发运行的部署集合*的属性——旧代码和新代码、不断演化的数据库、残留的消息。 传统的函数式编程侧重于验证单个制品,忽略了版本*之间*的关键交互。 这会导致类型系统无法检测到的错误,例如反序列化错误或语义漂移(类型保持不变但含义发生变化)。 解决方案不是放弃强类型,而是扩大我们的关注范围。 关键策略包括:将**模式演化视为迁移**,采用**版本感知解析**(如模式注册表),并构建**部署时兼容性检查**,以验证所有运行版本之间的安全性。 诸如内容寻址(Unison)和时间数据库等新兴技术提供了有希望的方法,但需要认识到代码只是难题的一个部分。 最终,成功的系统需要一种思维方式的转变:为集合设计,优先考虑明确的边界,并记住正确性的单位不是单个程序,而是整个、不断演化的部署。
粒子物理学正面临潜在危机,表现为“人才流失”,许多有才华的研究人员转向快速发展的 искусственный интеллект 领域。Anthropic 联合创始人、前物理学家贾雷德·卡普兰认为,人工智能很快将超越人类在理论物理学方面的能力,可能在几年内实现研究自动化,甚至超过顶尖科学家的产出。
然而,像欧洲核子研究中心(CERN)的卡里·塞萨罗蒂等物理学家对此表示怀疑,认为人工智能正在阻碍对基本原理的理解,而人类的创造力仍然至关重要。尽管面临挑战,塞萨罗蒂和其他人强调,粒子物理学并非“已死”,只是*困难*,缺乏明确的方向和减少的机会。
该领域的研究经费和兴趣都在下降,形成了一种自我实现的预言,导致研究人员数量减少。虽然仍存在潜在的发现途径——例如研究钪-229衰变或寻找轴子,但人们越来越担心所有可用的经验线索可能已经被知晓,宇宙可能会将最深层的秘密隐藏起来。
## AI 代理系统中的数据泄露风险
由 AI 驱动的代理系统(例如在 Telegram 和 Slack 等应用程序中使用 LLM 的系统)容易受到一种新的数据泄露技术的影响,该技术利用**链接预览**。攻击者可以操纵代理生成恶意链接,将敏感用户数据作为 URL 参数包含在内。
传统上,这需要用户*点击*链接才能泄露数据。然而,应用程序会自动获取**链接预览**——无需用户交互,就向攻击者的服务器发出网络请求。这使得在代理响应后立即盗取数据成为可能。
研究人员发现 OpenClaw 在默认 Telegram 设置下存在漏洞,但可以通过在其配置文件中禁用链接预览轻松修复。一个测试站点 [AITextRisk.com](https://aitextrisk.com/) 允许用户检查他们的系统是否通过预览泄露数据,并识别有风险的应用程序/代理组合。
问题源于应用程序自动预览 URL。解决方案要求通信应用程序向开发人员公开预览设置,并且代理开发人员尊重这些设置——或者为用户提供控制权。这凸显了一个关键的安全漏洞,因为代理系统变得越来越普及。