每日HackerNews RSS

👍 1人点赞 👎 1人踩 😄 1人笑 🎉 1人欢呼 😕 1人困惑 ❤️ 1人爱心 🚀 1人火箭 👀 1人眼睛。 你现在无法执行该操作。

黑客新闻 新 | 过去 | 评论 | 提问 | 展示 | 招聘 | 提交 登录 GitHub 推迟了宣布的 GitHub Actions (github.com/orgs) 计费变更 17 分 top_sigrid 23 分钟前 | 隐藏 | 过去 | 收藏 | 1 条评论 rawling 17 分钟前 [–] https://news.ycombinator.com/item?id=46304379 回复 指南 | 常见问题 | 列表 | API | 安全 | 法律 | 申请 YC | 联系 搜索:

## Fedify 与面向库的日志记录的需求 作者在构建 Fedify(一个 ActivityPub 服务器框架)时遇到一个挑战:现有的日志库是为应用程序设计的,而不是为不引人注目的库设计的。像 Winston、Pino 或 `debug` 这样的传统选择要么对用户施加配置选择,要么缺乏复杂、联邦系统所需的结构化、基于级别的日志记录。 为了解决这个问题,作者创建了 **LogTape**,一个专门为库作者设计的日志库。LogTape 利用 **分层类别**,允许开发者进行广泛的日志记录,*而无需*默认输出——用户明确启用特定子系统(例如“fedify”、“federation”、“http”)的日志记录。这提供了精细的控制,并避免了控制台的混乱。 LogTape 还通过 `AsyncLocalStorage` 提供 **隐式上下文**,自动使用 `requestId` 标记日志,以便轻松关联异步操作,这对于调试联邦活动流程至关重要。 用户可以选择不记录日志、仅记录错误级别的日志,或针对特定区域进行详细调试,所有这些都可以配置而无需更改代码。LogTape 支持各种运行时(Node.js、Deno、Bun),并与现有的可观察性工具集成。作者强调尽早设计类别、使用结构化日志记录,并信任用户控制日志可见性。 LogTape 旨在填补日志记录领域的空白,为需要仅在请求时才提供详细调试信息的库提供解决方案。

一场 Hacker News 讨论始于一位用户宣布创建新的日志库(`hackers.pub`),因为现有选项无法满足他们的需求。核心问题在于库内部进行日志记录的困难,允许最终用户控制日志详细程度,而无需强制使用。 评论者指出,这在 Java 和 Python 等语言中是一种成熟的模式,成熟的记录器允许可配置的嵌入式日志记录。 提到了几种现有的 JavaScript 解决方案,包括 `logtape` 和 `log4js`,而另一些人则建议 `OpenTelemetry` 作为一种潜在的解决方案。 对话还涉及了像 `Log4j` 这样成熟库的可靠性(引用了 Log4Shell 漏洞),以及构建内部解决方案与利用现有解决方案之间的权衡。 一些用户表达了希望在语言运行时本身内置日志记录功能,以简化配置。

## FIFA 即将登陆 Netflix 游戏 - Hacker News 讨论 最近宣布一款“FIFA”游戏将登陆 Netflix 游戏,引发了讨论,但有一个关键澄清:这不是流行的 EA Sports FC(前身为 FIFA)系列。EA 失去了 FIFA 授权并将其游戏重新命名为 EAFC。 评论者对这款*新* FIFA 游戏的质量感到好奇,并指出初始公告中缺乏游戏画面是一个令人担忧的信号。一些人推测,FIFA 授权持有者认为他们可以直接获得比通过授权费更多的利润。 对话还涉及了过去试图利用成功的游戏特许经营权(“明日帝国”)的尝试,以及 Netflix 通过专注于易于上手、如体育和射击类游戏来吸引广泛游戏受众的潜力——吸引那些不太依赖特定平台的玩家。

GPT-5.1、Claude Sonnet 4.5、GPT-5-Codex、Claude Opus 4.5 和 Gemini 3 Pro 的模型基准测试,用于了解它们作为编码代理后端在延迟、吞吐量、速率限制、冷启动、成本和分词效率方面的表现。

## AI 编程现状报告 2025 - 摘要 Greptile,一家每月分析十亿行代码的 AI 代码审查公司,发布了第一份“AI 编程现状报告”。该报告强调了代码量的增加,但也引发了关于*质量*与*数量*的讨论。 数据显示,代码行数有所增加,但评论员质疑报告对这一指标的关注,指出代码量的增加并不自动等同于更好的或更快的开发。人们对代码可维护性、生成更多代码的计算成本以及未审查的 AI 生成贡献可能带来的安全风险表示担忧。 Greptile 承认衡量代码质量的难度,并承认他们缺乏合适的衡量标准,因此要求在未来的分析中提供反馈以纳入。用户也表示有兴趣了解按公司规模划分的数据,以了解 AI 编程工具如何影响不同组织。

## 人工智能的类人幻觉 尽管现代人工智能——特别是大型语言模型(LLM)——看起来非常像人类,能够进行对话并提供建议,但它们与人类认知从根本上是不同的。这种差异不太可能随着规模的扩大而缩小;事实上,随着改进,LLM 可能会变得*更不*像人类。 核心区别在于它们的处理方式。人类依赖有限的资源、过去的经验和高效的启发式方法,而 LLM 则利用海量数据集和并行处理来进行下一个词元的预测。LLM 在数据摄取和计算能力方面不受生物限制。 最近的研究表明,简单地扩展 LLM 或使其与人类偏好对齐(例如通过人类反馈强化学习)并不能弥合这一差距。这些方法优化了*输出*,而不是推理的底层*过程*。 要真正评估“类人程度”,需要一个以过程为重点的框架——一个探究 LLM *如何*做出决策,而不仅仅是 *做出什么* 决策的框架。这涉及创建受控环境,以测试歧义、新颖性和动态反馈,从而反映人类思维的复杂性。理解这些根本差异对于负责任的 AI 开发以及确保与人类价值观保持一致至关重要。

一个黑客新闻的讨论围绕着将人工智能能力与真正的人性等同起来的误解。一个关键点是,虽然大型语言模型(LLM)拥有庞大的训练数据集,但人类通过持续的感官输入和现实世界的互动体验着“实际上无限”的数据——这是LLM目前所缺乏的。 用户也批评将LLM仅仅视为聊天机器人的倾向,认为周围的“支架”(界面、实现)显著影响可用性,不应在对齐讨论中被忽视。 许多评论强调了围绕LLM的危险炒作,特别是将其定位为更便宜的人工替代品的说法。这被认为是一种根本性的误解——他们*缺乏*人性正是定义它们的关键。最后,一位用户指出,企业强制使用人工智能工具,无论其是否有效,这种趋势令人担忧,这反映了适得其反的工作场所政策。

## WaveletMatrix:高性能序列结构 WaveletMatrix 是一个 Rust 驱动的 Python 库,提供高性能的索引序列结构。它在整数数据上实现快速的 **rank/select** 和 **范围查询**,并提供通过 `DynamicWaveletMatrix` 进行 **动态更新** 的选项。 主要功能包括:计数出现次数 (**rank**)、查找元素位置 (**select**)、识别第 k 小的值 (**quantile**)、列出最常见的/最大的/最小的 k 个值 (**topk**、**range_maxk**、**range_mink**)、计算范围和 (**range_sum**)、查找范围交集 (**range_intersection**),以及列出范围内的值 (**range_list**)。它还支持查找范围内的前一个/后一个值 (**prev_value**、**next_value**)。 `DynamicWaveletMatrix` 允许在序列中插入、删除和更新值。安装简单,使用 `pip install wavelet-matrix` 即可。该库基于 Claude 等人在研究中描述的 wavelet matrix 数据结构构建,并包含全面的测试和文档。

黑客新闻 新 | 过去 | 评论 | 提问 | 展示 | 招聘 | 提交 登录 展示HN:Python的高性能小波矩阵,用Rust实现 (pypi.org) 7点 由 math-hiyoko 20分钟前 | 隐藏 | 过去 | 收藏 | 讨论 我构建了一个用Rust驱动的Python小波矩阵库。 令人惊讶的是,Python中可用的实用小波矩阵实现很少,所以我实现了一个,重点是性能、易用性和类型化API。它支持快速的秩/选择、前k个、分位数、范围查询,甚至动态更新。 欢迎反馈! 指南 | 常见问题 | 列表 | API | 安全 | 法律 | 申请YC | 联系 搜索:

本指南详细介绍了一种在每个仓库基础上安全管理 SSH 部署密钥的方法,避免从错误账户意外推送。与其全局管理多个 SSH 密钥,不如将私钥存储在每个仓库的 `.git` 目录*内*。 首先,初始化一个本地仓库并配置它使用特定的 SSH 命令:`git config core.sshCommand "ssh -i .git/id_ed25519"`。 然后生成一个新的密钥对并将其存储在 `.git` 文件夹内。 相应的*公钥*作为部署密钥添加到远程仓库(例如,在 GitHub 上)。 此设置确保每个仓库使用其专用的密钥进行身份验证。它是自包含的——包含密钥的仓库可以移动或复制而无需重新配置。 这消除了不断切换 SSH 密钥的需求,并降低了使用错误身份推送更改的风险。

一个 Hacker News 的讨论围绕着一个提案,即直接将 SSH 密钥存储在 `.git` 目录中,以实现 USB 可移植的 Git 仓库。作者建议将私钥文件放在仓库的 `.git` 文件夹中。 然而,评论者表达了重大的安全担忧。一位用户强调,如果 USB 驱动器(以及密钥)丢失或被盗,远程仓库面临极高的被入侵风险,这将使远程仓库变得不可信。另一位用户建议使用通过标准 `.ssh` 文件夹管理的多个 SSH 密钥,并指定使用哪个密钥与 Git 一起使用,从而避免将密钥存储在仓库*内部*所带来的安全隐患。 普遍情绪倾向于谨慎,一位用户表示他们过于偏执而无法考虑这种做法,另一位用户暗示公司安全团队可能会反对。核心问题在于平衡可移植性和暴露私钥所带来的严重风险。

人工智能营销初创公司Doublespeed,由Andreessen Horowitz 投资,遭遇重大黑客攻击,导致其运营信息泄露。一名黑客控制了超过1000部用于运营数百个AI生成社交媒体账户的智能手机,这些账户推广各种产品。 关键在于,此次黑客攻击揭示了这些推广活动经常缺乏适当的披露,这意味着用户不知道他们正在观看广告。黑客于10月31日向Doublespeed报告了此漏洞,并且截至报告时,仍然可以访问该公司的后端系统,包括手机农场本身。 Doublespeed尚未就此次安全漏洞发表公开评论。此事件引发了对AI驱动营销透明度的担忧,以及社交媒体平台上未披露广告的潜在可能性。

一份最新报告详细说明了A16Z支持的公司DoubleSpeed.ai如何运营“电话农场”,以AI生成的影响者内容充斥TikTok。该公司公开的目标是消除对人类创作者的需求,专注于复制和变化现有的热门内容。 Hacker News上的讨论强调了DoubleSpeed做法的公然性,并将其与那些用营销语言掩盖类似意图的公司形成对比。担忧集中在操纵社交媒体的伦理问题、来自TikTok等平台的潜在法律挑战,以及互联网更广泛的“沦落”问题上。 一些评论员将其与尼克·富恩特斯等人的操纵行为相提并论,并对普遍存在的在线“心理战”感到沮丧。 还有人注意到该首席执行官令人不安的公开声明,并质疑加速在线内容衰落的动机,而另一些人则认为缺乏积极的榜样可能是促成因素。

一种新的浮点数到十进制转换方法“zmij”已被开发,在性能上显著优于现有算法。它借鉴了Dragon4、Grisu和Schubfach等先前实现中的经验教训,优先去除不必要的操作——秉承“不做任何工作比做一些工作更好”的原则。 性能基准测试表明,“zmij”比Dragonbox(一种先前领先且具有正确性证明的算法)快约68%,比Schubfach快两倍,比`std::to_chars`快3.5倍,比Google的double-conversion快6.8倍,甚至比`sprintf`快59倍。现在,在Apple M1硬件上转换单个double大约需要10-20纳秒。 关键改进包括减少候选选择、减少整数乘法、更快的对数近似、减少条件分支以及更高效的输出处理。对数使用32位近似以及无分支处理不规则舍入间隔等优化措施有助于提高速度。代码可在GitHub上找到([https://github.com/vitaut/zmij](https://github.com/vitaut/zmij)),并计划集成到{fmt}以及可能通过ISO C++ P2587集成到std::to_string中。目前,它仅支持指数格式,固定格式支持计划中。

黑客新闻 新 | 过去 | 评论 | 提问 | 展示 | 招聘 | 提交 登录 Zmij: 更快的浮点双精度到字符串转换 (vitaut.net) 11 分,由 fanf2 2小时前发布 | 隐藏 | 过去 | 收藏 | 讨论 指南 | 常见问题 | 列表 | API | 安全 | 法律 | 申请YC | 联系 搜索:

## AI 代理的价值与基于结果的计费 AI 代理正在证明其具有惊人的*实用性*——即使它们的“智能”程度有待商榷——通过释放显著的自动化和效率提升。其核心价值主张在于可衡量的*成果*,例如增加的支持工单处理量或成功招聘的人数,这些成果能直接转化为企业价值(对于一家 1 亿美元的公司,可能高达数百万美元)。 然而,传统的 SaaS 计费模式无法捕捉这种价值。遗留系统难以应对 AI 的高额且线性增长的成本(例如 LLM 的使用),并且无法根据其交付的*人类等价价值*进行定价。按席位定价尤其成问题,因为 AI 减少了对人工的需求。 这正是**基于结果的计费**变得至关重要的原因。开发者应专注于衡量结果(已解决的工单、成功招聘等)并跟踪相关成本,以了解盈利能力。像 **Valmi** 这样的工具旨在统一这些数据点,从而实现准确的定价并向客户展示投资回报率。 基于结果的计费还解决了 AI 本身固有的不可靠性;开发者承担失败的风险,仅对成功的成果收费,从而更容易让买家接受,因为他们需要价值证明。最终,向基于结果的模型转变对于可持续增长以及准确反映 AI 代理提供的价值至关重要。

## AI 代理的成果计费:摘要 最近的 Hacker News 讨论集中在“成果计费”对于 AI 代理的可行性上——根据成功的结果而非花费的时间来收费。作者认为这是一种简单、对客户友好的定价模式,以一个按找到的唯一记录收费的网页搜索产品为例。 然而,评论者们提出了关于定义和客观衡量“成功”的担忧。核心问题在于 **古德哈特法则**:当一个指标成为目标时,它就停止成为一个好的指标。印度眼镜蛇奖励计划等例子表明,激励结果可能会导致钻空子。 许多人认为,验证 AI 输出需要进一步的 LLM(它们本身也可能出错)或最终需要人工监督——可能*增加*工作量。 还有人指出,客户有动机低报成功的成果。 虽然对于添加员工或解决一定比例的支持工单等简单任务是可行的,但讨论表明,成果计费在成果明确定义且易于量化,并且双方都同意的情况下最有效。

更多

联系我们 contact @ memedata.com