启用 JavaScript 和 Cookie 以继续。
启用 JavaScript 和 Cookie 以继续。
## 克劳德代码分叉炸弹及 600 美元教训 这讲述了一位开发者二月份使用克劳德代码(CC)——一种新的 AI 编程工具——的混乱经历。起初犹豫不决,他深入研究,构建了自定义“技能”——用于任务管理(/adhd)、上下文窗口优化(/yablind)、日志记录(/memento)和调试(/yadumb)的工具——这得益于注意力缺陷多动症驱动的过度专注。 然而,一个新创建的“SessionStart”钩子无意中生成了指数级的 CC 实例(分叉炸弹)。开发者在不知情的情况下在夜间释放了它,第二天早上发现电脑完全无响应且过热。 绝望地尝试杀死这些进程失败了,迫使他进行了硬重启。 更糟糕的是,失控的 CC 实例产生了 600 美元的 API 费用。幸运的是,CC 本身固有的低效——巨大的内存消耗——在费用变得无法控制*之前*触发了系统锁定。这次经历是一次代价高昂但宝贵的教训,关于代理工作流程、仔细实现钩子的重要性,以及勉强接受“糟糕代码”拯救这一天的现实。该开发者现在计划进一步开发,并暗示对感兴趣的人们会有更多“疯狂的抱怨”。
## AI 记忆的物理性:摘要 大型语言模型(LLM),如 ChatGPT,并非通过隐喻的方式“记住”对话,而是通过“键-值”(KV)缓存——实际存储在 GPU 内存中的字节数据。该缓存存储从对话中的每个 token 派生的键值对,使模型能够快速响应,而无需重新处理整个历史记录。然而,这种记忆在 GPU 资源方面代价高昂,并且是临时的,会话结束后消失。 过去六年,LLM 架构不断发展,以更有效地管理这种记忆。早期模型(GPT-2)使用完全记忆,独立存储所有内容。较新的模型(Llama 3、DeepSeek V3、Gemma 3)采用共享表示、压缩和选择性注意力等技术来减小缓存的大小,在内存使用和性能之间取得平衡。一些模型(Mamba)甚至完全放弃了 KV 缓存,而选择过滤。 这种演变凸显了一个根本的权衡:完全记忆与高效处理。当前聊天机器人中的“记忆”功能是独立的系统,长时间对话会因信息退化而导致“上下文腐烂”。最终,KV 缓存代表了 AI 短期记忆的物理限制,促使人们探索外部存储,并可能探索能够管理自身记忆的 AI 系统——这是迈向真正适应性数字思维的关键一步。
## Scotty:现代 SSH 任务运行器
Spatie 发布了 Scotty,一个用于直接从终端运行 SSH 任务和部署脚本的新工具。Scotty 作为 Laravel Envoy 的精神续作,提供了更精简的体验,具有实时、详细的输出以及在部署过程中暂停执行的能力。
Scotty 同时支持 Laravel Envoy 的 Blade 格式*和*一种新的、更简单的纯 Bash 格式——为所有偏好的用户提供灵活性。任务在 `.sh` 文件中使用带有 `# @task` 注释的 Bash 函数定义,使其易于阅读和编辑,并具有完整的 Shell 支持。
主要功能包括:用于设置验证的 `doctor` 命令,用于模拟运行的 `pretend` 模式,以及通过命令行传递变量的能力。Scotty 还会在完成时提供任务计时摘要,并允许暂停进行部署中检查。
现有的 Laravel Envoy 用户可以无缝使用他们的 `.blade.php` 文件,并按照自己的节奏迁移到 `.sh` 格式。Scotty 现已在 GitHub 上发布,并提供完整文档。
人工智能生成代码的激增引发了人们对大量低质量“垃圾代码”入侵软件开发的担忧。虽然有人预测人类编码的终结,并且数据显示代码复杂度及故障率都在上升,但Greptile认为经济激励最终会促使人工智能生成*高质量*代码。
目前,“蛮力”方法——快速生成和迭代——占据主导地位,导致代码库更大、更密集。然而,好的代码以简洁和清晰的设计为特征(如John Ousterhout所概述),从长远来看,维护和扩展成本更低。它需要的上下文更少,修改次数更少,最终,需要的计算资源也更少。
人工智能模型之间的竞争将有利于那些能够帮助开发者*最快*交付可靠功能的模型,这需要干净、易于维护的代码。虽然最初的重点是让人工智能代码*能够运行*,但市场最终会优先考虑效率和成本效益,迫使人工智能将质量置于数量之上。这种转变至关重要,因为软件复杂度持续上升,更简单的代码将是可持续发展的必要条件。
这似乎不是可以翻译的文本。它看起来像一个PDF文件的内部数据流,包含二进制代码和乱码,而不是人类可读的语言。
## 我三年Lime单车数据:使用Claude的深度分析
三年间,Lime单车一直是我在伦敦的主要交通工具,累计骑行超过6000公里。出于好奇,想确认自己是否是“重度用户”,我利用GDPR要求Lime提供我的完整数据集,并使用Claude进行了分析。
分析结果显示我属于“钻石”级别,排在前1%的用户——“超翡翠”通勤者!除了确认我的使用情况,Claude还揭示了有趣的信息。它准确地 pinpoint 了我过去和现在的家庭和工作地点,甚至仅根据骑行数据就识别出我搬家和换工作的时间。
此外,Claude 推断出了我常去的地点:健身房、最喜欢的早午餐店、牙医诊所和莎莎舞班——所有这些都没有任何额外信息。我甚至可视化了一张“第三空间”地图,展示了我经常的路线和感兴趣的点。
这个实验展示了将数据隐私权与人工智能相结合的力量。欧盟/英国的任何人都可以从Uber、Revolut甚至约会应用程序等应用程序请求数据,并使用Claude等工具来发现隐藏的模式并获得令人惊讶的自我认知。个人发现的潜力是巨大的。
## forkrun:高性能并行器
forkrun 是 GNU Parallel 和 xargs -P 的即插替代品,旨在大幅加速基于 shell 的数据准备,在现代 CPU 上实现 **50 倍至 400 倍** 的加速,尤其是在 NUMA 架构上。它拥有 **20 万次/秒 以上的批处理分发** 和 **95-99% 的 CPU 利用率**,远高于 GNU Parallel 的约 6% 利用率。
forkrun 性能的关键在于其“原生本地”设计,最大限度地减少跨 socket 的内存流量并利用 NUMA 感知。它采用了一种新颖的管道,包含数据摄取、索引、声明和回收工作四个阶段,所有阶段都针对物理局部性进行了优化,并采用诸如 `splice()` 和无锁环形缓冲区等技术。
安装很简单:下载并 source 一个包含嵌入式自解压 C 扩展的 bash 脚本(无外部依赖)。使用方法与 GNU Parallel 相同 – 简单地将 `parallel` 替换为 `frun`。
forkrun 具有 **自适应调优** 功能,无需用户配置即可自动优化批处理大小。它需要 Bash 4.0+ 和 Linux Kernel 3.17+,并优先进行故障隔离和集群集成方面的持续开发。
启用 JavaScript 和 Cookie 以继续。
Dot 是一款注重隐私的个人 AI 助手,适用于 iPhone,直接在您的设备上运行,无需云服务或帐户。它通过学习您的使用习惯,利用 Apple Shortcuts 在您现有的应用程序中自动化任务——甚至可以根据需求创建新的快捷指令。 Dot 可以管理智能家居设备、处理提醒和日历、发送消息/电子邮件、播放音乐和创建笔记,所有操作均可免提进行。其关键特性是适应性;只需*询问* Dot 执行新的操作,它就会尝试为您构建自定义技能。 Dot 优先考虑用户控制,提供 AI 提供商的选择(Claude、Kimi 或 Apple 的设备端模型,包括离线选项)和完全透明度。它通过包含标准自动续订条款的付费订阅提供。您的数据始终安全且私密,仅存储在您的 iPhone 上。