👍 1人点赞 👎 1人踩 😄 1人笑 🎉 1人欢呼 😕 1人困惑 ❤️ 1人爱心 🚀 1人火箭 👀 1人眼睛。 你现在无法执行该操作。
👍 1人点赞 👎 1人踩 😄 1人笑 🎉 1人欢呼 😕 1人困惑 ❤️ 1人爱心 🚀 1人火箭 👀 1人眼睛。 你现在无法执行该操作。
## Fedify 与面向库的日志记录的需求 作者在构建 Fedify(一个 ActivityPub 服务器框架)时遇到一个挑战:现有的日志库是为应用程序设计的,而不是为不引人注目的库设计的。像 Winston、Pino 或 `debug` 这样的传统选择要么对用户施加配置选择,要么缺乏复杂、联邦系统所需的结构化、基于级别的日志记录。 为了解决这个问题,作者创建了 **LogTape**,一个专门为库作者设计的日志库。LogTape 利用 **分层类别**,允许开发者进行广泛的日志记录,*而无需*默认输出——用户明确启用特定子系统(例如“fedify”、“federation”、“http”)的日志记录。这提供了精细的控制,并避免了控制台的混乱。 LogTape 还通过 `AsyncLocalStorage` 提供 **隐式上下文**,自动使用 `requestId` 标记日志,以便轻松关联异步操作,这对于调试联邦活动流程至关重要。 用户可以选择不记录日志、仅记录错误级别的日志,或针对特定区域进行详细调试,所有这些都可以配置而无需更改代码。LogTape 支持各种运行时(Node.js、Deno、Bun),并与现有的可观察性工具集成。作者强调尽早设计类别、使用结构化日志记录,并信任用户控制日志可见性。 LogTape 旨在填补日志记录领域的空白,为需要仅在请求时才提供详细调试信息的库提供解决方案。
GPT-5.1、Claude Sonnet 4.5、GPT-5-Codex、Claude Opus 4.5 和 Gemini 3 Pro 的模型基准测试,用于了解它们作为编码代理后端在延迟、吞吐量、速率限制、冷启动、成本和分词效率方面的表现。
## 人工智能的类人幻觉
尽管现代人工智能——特别是大型语言模型(LLM)——看起来非常像人类,能够进行对话并提供建议,但它们与人类认知从根本上是不同的。这种差异不太可能随着规模的扩大而缩小;事实上,随着改进,LLM 可能会变得*更不*像人类。
核心区别在于它们的处理方式。人类依赖有限的资源、过去的经验和高效的启发式方法,而 LLM 则利用海量数据集和并行处理来进行下一个词元的预测。LLM 在数据摄取和计算能力方面不受生物限制。
最近的研究表明,简单地扩展 LLM 或使其与人类偏好对齐(例如通过人类反馈强化学习)并不能弥合这一差距。这些方法优化了*输出*,而不是推理的底层*过程*。
要真正评估“类人程度”,需要一个以过程为重点的框架——一个探究 LLM *如何*做出决策,而不仅仅是 *做出什么* 决策的框架。这涉及创建受控环境,以测试歧义、新颖性和动态反馈,从而反映人类思维的复杂性。理解这些根本差异对于负责任的 AI 开发以及确保与人类价值观保持一致至关重要。
## WaveletMatrix:高性能序列结构
WaveletMatrix 是一个 Rust 驱动的 Python 库,提供高性能的索引序列结构。它在整数数据上实现快速的 **rank/select** 和 **范围查询**,并提供通过 `DynamicWaveletMatrix` 进行 **动态更新** 的选项。
主要功能包括:计数出现次数 (**rank**)、查找元素位置 (**select**)、识别第 k 小的值 (**quantile**)、列出最常见的/最大的/最小的 k 个值 (**topk**、**range_maxk**、**range_mink**)、计算范围和 (**range_sum**)、查找范围交集 (**range_intersection**),以及列出范围内的值 (**range_list**)。它还支持查找范围内的前一个/后一个值 (**prev_value**、**next_value**)。
`DynamicWaveletMatrix` 允许在序列中插入、删除和更新值。安装简单,使用 `pip install wavelet-matrix` 即可。该库基于 Claude 等人在研究中描述的 wavelet matrix 数据结构构建,并包含全面的测试和文档。
本指南详细介绍了一种在每个仓库基础上安全管理 SSH 部署密钥的方法,避免从错误账户意外推送。与其全局管理多个 SSH 密钥,不如将私钥存储在每个仓库的 `.git` 目录*内*。 首先,初始化一个本地仓库并配置它使用特定的 SSH 命令:`git config core.sshCommand "ssh -i .git/id_ed25519"`。 然后生成一个新的密钥对并将其存储在 `.git` 文件夹内。 相应的*公钥*作为部署密钥添加到远程仓库(例如,在 GitHub 上)。 此设置确保每个仓库使用其专用的密钥进行身份验证。它是自包含的——包含密钥的仓库可以移动或复制而无需重新配置。 这消除了不断切换 SSH 密钥的需求,并降低了使用错误身份推送更改的风险。
人工智能营销初创公司Doublespeed,由Andreessen Horowitz 投资,遭遇重大黑客攻击,导致其运营信息泄露。一名黑客控制了超过1000部用于运营数百个AI生成社交媒体账户的智能手机,这些账户推广各种产品。 关键在于,此次黑客攻击揭示了这些推广活动经常缺乏适当的披露,这意味着用户不知道他们正在观看广告。黑客于10月31日向Doublespeed报告了此漏洞,并且截至报告时,仍然可以访问该公司的后端系统,包括手机农场本身。 Doublespeed尚未就此次安全漏洞发表公开评论。此事件引发了对AI驱动营销透明度的担忧,以及社交媒体平台上未披露广告的潜在可能性。
一种新的浮点数到十进制转换方法“zmij”已被开发,在性能上显著优于现有算法。它借鉴了Dragon4、Grisu和Schubfach等先前实现中的经验教训,优先去除不必要的操作——秉承“不做任何工作比做一些工作更好”的原则。
性能基准测试表明,“zmij”比Dragonbox(一种先前领先且具有正确性证明的算法)快约68%,比Schubfach快两倍,比`std::to_chars`快3.5倍,比Google的double-conversion快6.8倍,甚至比`sprintf`快59倍。现在,在Apple M1硬件上转换单个double大约需要10-20纳秒。
关键改进包括减少候选选择、减少整数乘法、更快的对数近似、减少条件分支以及更高效的输出处理。对数使用32位近似以及无分支处理不规则舍入间隔等优化措施有助于提高速度。代码可在GitHub上找到([https://github.com/vitaut/zmij](https://github.com/vitaut/zmij)),并计划集成到{fmt}以及可能通过ISO C++ P2587集成到std::to_string中。目前,它仅支持指数格式,固定格式支持计划中。
## AI 代理的价值与基于结果的计费 AI 代理正在证明其具有惊人的*实用性*——即使它们的“智能”程度有待商榷——通过释放显著的自动化和效率提升。其核心价值主张在于可衡量的*成果*,例如增加的支持工单处理量或成功招聘的人数,这些成果能直接转化为企业价值(对于一家 1 亿美元的公司,可能高达数百万美元)。 然而,传统的 SaaS 计费模式无法捕捉这种价值。遗留系统难以应对 AI 的高额且线性增长的成本(例如 LLM 的使用),并且无法根据其交付的*人类等价价值*进行定价。按席位定价尤其成问题,因为 AI 减少了对人工的需求。 这正是**基于结果的计费**变得至关重要的原因。开发者应专注于衡量结果(已解决的工单、成功招聘等)并跟踪相关成本,以了解盈利能力。像 **Valmi** 这样的工具旨在统一这些数据点,从而实现准确的定价并向客户展示投资回报率。 基于结果的计费还解决了 AI 本身固有的不可靠性;开发者承担失败的风险,仅对成功的成果收费,从而更容易让买家接受,因为他们需要价值证明。最终,向基于结果的模型转变对于可持续增长以及准确反映 AI 代理提供的价值至关重要。