围绕Meta智能眼镜的最新争议——直接将数据传输至Facebook——凸显了一个更广泛且普遍接受的现实:在现代技术下,真正的隐私越来越难以实现。从用胶带遮盖网络摄像头的笔记本电脑(甚至包括科技公司首席执行官的电脑),到Windows 10和Chromebook等操作系统,设备现在 routinely 收集用户数据用于AI训练和定向广告。 微软、谷歌,甚至苹果等公司,尽管声称注重隐私,但仍会收集遥测数据、个性化数据等,这些往往隐藏在冗长且未经质疑的服务条款中。Meta高度依赖广告收入(去年98%的1890亿美元),因此具有特别强烈的数据收集动机,正如其过去利用数十亿Instagram图片用于AI开发的行为所证明。 核心问题不是单一事件,而是AI运作的基本方式——它*需要*大量用户数据来学习。接受任何连接互联网的设备,意味着放弃控制权并信任公司负责任地使用你的信息,而这种信任越来越难以建立。
## 通过三角函数近似的探索与意外发现
这个项目最初是为了优化光线追踪性能,寻找更快速的三角函数近似方法,特别是 `asin()`。 最初的尝试集中在帕德逼近法上,希望改进泰勒级数展开,但结果并不理想。 然而,这个探索过程带来了一个显著的改进:为 `asin()` 设计的自定义四阶泰勒级数近似,在 PSRayTracing 光线追踪器中实现了 5% 的速度提升。
进一步使用帕德逼近法和半角变换进行优化尝试,仅获得微小的收益。 最终,一个令人惊讶的解决方案来自于向 LLM (Gemini) 询问——一个最初记录在 Nvidia 过时的 Cg 工具包(可追溯到 2012 年)中的非常高效的 `asin()` 近似方法。
基准测试显示,这个“fast_asin_cg”函数始终优于 `std::asin()`,在 Intel 处理器上速度提升从 1.4 倍到接近 1.9 倍不等,甚至在 Apple 的 M4 芯片上也能测量到收益。 关键在于? 在编码*之前*进行彻底的研究至关重要。 已经存在一种更优越的现成解决方案,强调了在重新发明轮子之前暂停并探索现有工作的价值。 这一经验强调了验证目标和利用可用资源的重要性,即使这些资源隐藏在晦涩的文档中。
## 麦肯锡Lilli AI平台被黑:人工智能安全敲响警钟
麦肯锡公司的内部AI平台Lilli——被其43,000多名员工中超过70%的人使用——遭受了一次重大安全漏洞,由CodeWall开发的一款自主AI代理发现。 值得注意的是,该代理在*两小时*内获得了Lilli生产数据库的完全读写权限,无需任何先验知识或人工干预,利用了公开暴露的API文档。
此次漏洞暴露了4650万条包含敏感客户和公司数据的聊天信息、728,000个文件以及详细的内部AI配置。 关键在于,该代理利用了一种经典的SQL注入漏洞——标准安全工具未能检测到——不仅访问了数据,还*修改*了Lilli的系统提示。 这可能导致对客户建议的微妙操纵、数据泄露或安全防护措施的移除。
这起事件凸显了威胁形势的关键转变:AI代理自主识别和利用漏洞。 麦肯锡尽管投入了大量安全资金,却因一个被认为是“基础”的漏洞而受到损害。 这起事件强调了迫切需要保护“提示层”——控制AI行为的指令——因为它代表了一个新的、高价值的目标,通常缺乏足够的安全措施。