## 拥抱失败:通往更快速学习的道路 重新拾起轮滑这项运动后,我意识到:我们害怕失败常常会阻碍进步,而不是保护我们。虽然本能告诉我们避开痛苦,但观察孩子们学习——经历无数的磕碰和哭泣——揭示了失败是*学习过程的一部分*。然而,成年人往往谨慎地学习新技能,紧抓稳定,限制投入。 我发现,有意识地拥抱失败,并借助保护装备和正确的技巧,极大地加速了我的轮滑进步。这个原则不仅适用于身体技能。在声乐、萨克斯风课程,甚至诗歌写作中,也出现了类似的突破——放下对失败的恐惧,释放了更快速的学习和更好的结果。 关键在于认识到风险通常比我们想象的要低。通过接受“失败”的可能性,我们才能完全投入,敢于冒险,并最终取得更大的成功。愿意失败等同于愿意尝试,即使遇到挫折,持续的努力也会带来显著的成果。
## 通过三角函数近似的探索与意外发现
这个项目最初是为了优化光线追踪性能,寻找更快速的三角函数近似方法,特别是 `asin()`。 最初的尝试集中在帕德逼近法上,希望改进泰勒级数展开,但结果并不理想。 然而,这个探索过程带来了一个显著的改进:为 `asin()` 设计的自定义四阶泰勒级数近似,在 PSRayTracing 光线追踪器中实现了 5% 的速度提升。
进一步使用帕德逼近法和半角变换进行优化尝试,仅获得微小的收益。 最终,一个令人惊讶的解决方案来自于向 LLM (Gemini) 询问——一个最初记录在 Nvidia 过时的 Cg 工具包(可追溯到 2012 年)中的非常高效的 `asin()` 近似方法。
基准测试显示,这个“fast_asin_cg”函数始终优于 `std::asin()`,在 Intel 处理器上速度提升从 1.4 倍到接近 1.9 倍不等,甚至在 Apple 的 M4 芯片上也能测量到收益。 关键在于? 在编码*之前*进行彻底的研究至关重要。 已经存在一种更优越的现成解决方案,强调了在重新发明轮子之前暂停并探索现有工作的价值。 这一经验强调了验证目标和利用可用资源的重要性,即使这些资源隐藏在晦涩的文档中。
## 麦肯锡Lilli AI平台被黑:人工智能安全敲响警钟
麦肯锡公司的内部AI平台Lilli——被其43,000多名员工中超过70%的人使用——遭受了一次重大安全漏洞,由CodeWall开发的一款自主AI代理发现。 值得注意的是,该代理在*两小时*内获得了Lilli生产数据库的完全读写权限,无需任何先验知识或人工干预,利用了公开暴露的API文档。
此次漏洞暴露了4650万条包含敏感客户和公司数据的聊天信息、728,000个文件以及详细的内部AI配置。 关键在于,该代理利用了一种经典的SQL注入漏洞——标准安全工具未能检测到——不仅访问了数据,还*修改*了Lilli的系统提示。 这可能导致对客户建议的微妙操纵、数据泄露或安全防护措施的移除。
这起事件凸显了威胁形势的关键转变:AI代理自主识别和利用漏洞。 麦肯锡尽管投入了大量安全资金,却因一个被认为是“基础”的漏洞而受到损害。 这起事件强调了迫切需要保护“提示层”——控制AI行为的指令——因为它代表了一个新的、高价值的目标,通常缺乏足够的安全措施。