每日HackerNews RSS

## Confluent 将被 IBM 收购 Confluent,一家以 Kafka 原则为基础建立的数据流公司,已达成最终协议,将被 IBM 以每股 31.00 美元的价格全现金收购,预计将于 2026 年年中完成。此次收购旨在统一大型企业的数据平台,加速人工智能实施并实现实时数据基础。 Confluent 将继续作为 IBM 旗下的独立品牌运营。首席执行官兼联合创始人 Jay Kreps 强调,此举将通过利用 IBM 在混合云和开源技术(如 Red Hat 和 HashiCorp)方面的优势和专业知识,放大 Confluent 的使命——让数据流动起来。 Kreps 强调了企业运行在持续、事件驱动的智能上的共同愿景。他向 Confluent 团队保证,在过渡期间,他们的职位、薪酬和福利将保持一致,重点是向客户和合作伙伴交付当前承诺。更多细节将在未来的全体会议和常见问题解答中分享。

## IBM 收购 Confluent:摘要 IBM 宣布收购 Confluent,该公司是流行的 Kafka 数据流平台背后的公司。IBM 将此举定位为构建“用于人工智能的智能数据平台”,这在 Hacker News 社区引发了争论。 一些人认为这对 Kafka 来说是一个积极的步骤,能够提供稳定性和 IBM 的企业覆盖范围,而另一些人则质疑其与人工智能的相关性,并认为 Kafka 可能已经过了鼎盛时期。担忧集中在 IBM 过去收购 Red Hat 和 HashiCorp 的记录上,讨论围绕着对开源开发和产品停滞(特别是 Gnome)的潜在影响。 许多评论员关注了此次收购对 Confluent 员工的影响,预计最初会有财务收益(股票溢价、留任奖金),随后几年可能会出现裁员和 IBM 内部的文化转变。此次收购还引发了关于探索 Kafka 替代方案(如 Redpanda)的讨论,预示着数据流格局可能发生变化。最终,意见不一,一些人认为这对 IBM 来说是一个明智的举措,而另一些人则预测这是“恶化”的开始。

## 构建不易崩溃的 Web 应用:摘要 Andrey Ozornin 的《构建不易崩溃的 Web 应用》专注于掌握调试和编写更易于维护的代码——随着软件复杂性的增长,这些技能变得越来越重要。本书认为,虽然*编写*代码很容易,但确保其*可靠运行*才是真正的挑战。 它承诺在短短一周内,为开发者提供实用的技术,从而大大提高调试效率。这包括理解堆栈跟踪、实施强大的错误处理、有效优先处理问题以及执行根本原因分析。 本书利用现成的工具,如 Chrome DevTools,以及核心软件设计原则、日志记录策略和监控技术。最终,它旨在赋能开发者构建更高质量的 Web 应用程序,减少花费在修复错误上的时间,并投入更多时间进行创新。实际练习需要基于 Chromium 的浏览器和 IDE。

Hacker News 新闻 | 过去 | 评论 | 提问 | 展示 | 工作 | 提交 登录 展示 HN:我写了一本书 – 调试 TypeScript 应用 (beta 版) (pragprog.com) 5 分,作者 ozornin,29 分钟前 | 隐藏 | 过去 | 收藏 | 4 条评论 enz 16 分钟前 | 下一个 [–] > 你需要:一台带有 Chromium 内核的浏览器,如 Chrome、Vivaldi 或 Brave [...] 我认为这本书主要关注客户端 TS 应用?回复 ozornin 8 分钟前 | 父评论 | 下一个 [–] 大部分是。它涉及调试单元测试和服务器端代码,以及适用于一般调试的方法论,但实际部分几乎完全是客户端的。回复 sebg 27 分钟前 | 上一个 | 下一个 [–] 你觉得这个过程怎么样?回复 cranberryturkey 27 分钟前 | 上一个 [–] 氛围编码?回复 指南 | 常见问题 | 列表 | API | 安全 | 法律 | 申请 YC | 联系 搜索:

## C++ 错误处理的重新思考:支持异常 本文探讨了 C++ 中传统错误处理方法(枚举、断言、契约和 `std::expected`)的替代方案,最终重新审视了经常被忽视的异常。虽然之前的方案存在缺点(污染逻辑、需要更改签名或功能有限),但异常提供了一种出乎意料的简洁解决方案。 核心论点是异常允许编写专注于“正常流程”的代码,并将错误处理委托给 `try/catch` 块或全局处理程序。对性能的担忧在很大程度上已经过时;最近的研究(由 Khalil Estell 进行)表明,由于基于表的异常处理,现代编译器(尤其是 x64/ARM64)的开销很小。 然而,C++ 缺乏强制的异常声明(删除了 `throw` 关键字)是一个重大弱点。这需要依赖注释进行文档记录,而 Java 的检查型异常 *要求* 处理或声明。作者建议采用类似 Java 的方法:使用异常处理可恢复的错误(如文件丢失),并依赖契约/中止来处理不可恢复的问题(如设备故障)。 最终,作者提倡使用异常,因为它们简洁易读,认为它们可以产生比替代方案更清晰的代码,甚至可以改进常见的无检查错误返回,从而导致后期崩溃且堆栈跟踪信息不足的情况。

黑客新闻 新 | 过去 | 评论 | 提问 | 展示 | 招聘 | 提交 登录 C++ 枚举类和错误码,第三部分 (mropert.github.io) 5 分,ibobev 发表于 1 小时前 | 隐藏 | 过去 | 收藏 | 讨论 指南 | 常见问题 | 列表 | API | 安全 | 法律 | 申请YC | 联系 搜索:

## Microsoft 365 价格将于 2026 年上涨 微软宣布 Microsoft 365 商业许可证的价格将于 2026 年 7 月 1 日起上涨。此前已于 2022 年涨价一次,此次涨价预计平均每用户每月增加约 2 美元,可能带来超过 100 亿美元的额外收入。涨价幅度因计划而异,从 0 美元到 3 美元不等,也将影响教育和政府部门。 微软将涨价归因于对新功能的持续投资——过去一年新增了 1100 多项,包括 Security Copilot 和 Intune Suite 的功能。然而,这些更新的*价值*仍有待考量,特别是对于未使用 Copilot 等人工智能功能的企业而言。 尽管 Microsoft 365 仍然具有竞争力,但价格上涨(E5 计划最高达到每年 720 美元/用户)可能会促使企业审查其许可和使用情况,以优化成本。由于迁移离开成熟的微软生态系统存在困难,大多数企业可能会适应新定价,而不是寻求替代方案,包括回归本地解决方案。

## Microsoft Office 365/Microsoft 365 价格上涨 微软正在提高Office 365和Microsoft 365许可的价格,引发了关于价值和替代方案的讨论。虽然一些涨幅较小,与通货膨胀相符,但另一些涨幅,特别是针对“一线员工”计划,则更为显著。 一个主要担忧是微软同时停止支持Publisher,并提供笨拙的PDF转换替代方案,导致一些人认为这些决定是由内部调整而非用户需求驱动的。用户抱怨核心产品缺乏创新,而微软却在推广Copilot,一项许多人不想要的AI功能。 讨论凸显了微软强大的生态系统锁定,使得切换变得困难,即使存在像Google Workspace、Zoho或LibreOffice这样可能更好或更便宜的竞争对手。Excel仍然是主导力量,没有真正的竞争者,许多组织优先考虑兼容性和管理功能,而不是成本节省。一些用户正在考虑替代方案或恢复到旧的、永久许可版本的Office。最终,微软的市场地位使其具有定价权,即使这让客户感到沮丧。

启用 JavaScript 和 Cookie 以继续。

一项新的研究利用了一个令人惊讶的数据来源——欧洲绘画中的色彩——来衡量1600年至1820年间的经济增长。受夜间灯光作为经济指标的启发,研究人员分析了来自英国、荷兰、法国、意大利和德国的数百万像素的绘画,提取了色调、饱和度和亮度。 由此产生的色彩指数与现有的GDP重建数据相关,但揭示了*更*详细的经济波动,精确地指出了战争、政治动荡和气候变化等事件的影响,而这些影响在传统数据中往往被平滑处理。该研究表明,分析光线——分解成其颜色成分——提供了一种可靠且独立的方法来理解这一时期的经济活动。 该研究以PDF形式提供,正如另一位用户所指出的。

## 对齐与能力:人工智能发展的新视角 一种日益增长的观点认为,“对齐”——确保人工智能系统按照人类价值观行事——并非是能力型人工智能的*独立*挑战,而是能力*本身*的内在组成部分。一个真正有能力的人工智能,特别是那些旨在实现通用人工智能(AGI)的人工智能,必须深刻理解人类意图,而人类意图与我们的价值观和文化息息相关。仅仅通过基准测试是不够的;实用性需要理解未明确说明的假设。 OpenAI和Anthropic之间的现实世界实验正在验证这一点。Anthropic将对齐研究*融入*能力开发中,在他们的模型中训练出“连贯的身份”——以Claude在编码和创意任务上的成功为例。OpenAI最初优先考虑规模,并将对齐作为独立的纠正过程应用,遭遇了挫折。GPT-4o最初的趋炎附势和GPT-5的冷漠表明了缺乏真正理解的破碎“自我模型”的陷阱。 当前数据显示Claude正在获得显著的用户参与度,而OpenAI则面临困境。这表明,构建具有内在理解的人工智能,而不是外部施加的约束,至关重要。最终,通往AGI的竞赛可能取决于哪个实验室能够构建真正*理解*——并因此与——人类价值观相符的模型。

一个黑客新闻的讨论强调了 Opus 4.5 的强大能力,这是一种新型 AI 模型。一位用户称它代表着一个显著的飞跃,可与从 ChatGPT 3.5 的进步相提并论,认为它在完成复杂任务时,在极少指导下远胜于 Sonnet 4.5 和 Haiku 4.5。 与之前需要不断修正的型号不同,Opus 4.5 会主动验证其自身假设,并提供更高质量的输出,例如易于阅读的 PDF 和详细的技术迁移计划。 对话还涉及人工智能通用性 (AGI) 和超智能的潜力,一位评论员认为它可能不是突然的“奇点”,而是收益递减的渐进过程——强大,但不一定对福祉至关重要。另一位用户称赞链接的文章是一篇深刻而富有洞察力的分析。

黑客新闻 新 | 过去 | 评论 | 提问 | 展示 | 招聘 | 提交 登录 AT&T 2000美元Korn shell以及其他Usenet话题中的冗余词汇 (gabornyeki.com) 5 分,作者 gnyeki 3小时前 | 隐藏 | 过去 | 收藏 | 讨论 指南 | 常见问题 | 列表 | API | 安全 | 法律 | 申请YC | 联系 搜索:

GitHub是一个全球使用的综合开发平台,供个人和团队构建、发布和维护软件。它提供广泛的功能,包括通过仓库进行代码存储和管理,以及协作工具,如问题、拉取请求和讨论,还有项目跟踪。 最近,GitHub扩展到AI驱动的开发,推出了Copilot(AI结对程序员)和GitHub Models用于提示管理等工具。它还通过GitHub Advanced Security提供强大的安全功能。 除了核心开发之外,GitHub还支持使用Actions进行自动化,使用Codespaces进行即时开发环境,并提供学习资源、活动以及探索开源项目的平台。它满足各种需求,从初创公司到大型企业,涵盖各个行业,提供定制化的解决方案和定价方案。

黑客新闻 新的 | 过去的 | 评论 | 提问 | 展示 | 招聘 | 提交 登录 Flow: 用于C++的基于Actor的语言,被FoundationDB使用 (github.com/apple) 13 分,由 SchwKatze 50分钟前发布 | 隐藏 | 过去的 | 收藏 | 讨论 指南 | 常见问题 | 列表 | API | 安全 | 法律 | 申请YC | 联系 搜索:

二战期间,福特仪器公司(与福特汽车公司无关)为美国海军开发了机电式火控计算机,IBM 制造了一些型号。马克一号和一A型是大型战列舰计算机,而马克六号是一种紧凑的手动计算机——大约像一个奶酪轮子那么大——设计用于商船。 博物馆拥有一台完整的马克六号16型,最初用于3英寸/50口径高射炮。它的历史有些神秘;标记表明它曾服役于亚利桑斯号战列舰,尽管它被设计用于商船,类似的设备也出现在驱逐护卫舰和战列舰炮塔手册中。 这台计算机使用发条马达和复杂的机械部件运行,包括乘法器,在仔细拆解后得以显现。尽管有明显的磨损迹象,但其内部机制仍然非常干净和保存完好,润滑油仅在发条底座上发现。这是该技术的罕见例子,文件有限,幸存的设备也很少。

黑客新闻 新 | 过去 | 评论 | 提问 | 展示 | 招聘 | 提交 登录 Sperry/Ford Mark-6 火控计算机 (glennsmuseum.com) 5 分,来自 pillars 2 小时前 | 隐藏 | 过去 | 收藏 | 讨论 指南 | 常见问题 | 列表 | API | 安全 | 法律 | 申请 YC | 联系 搜索:

AI 代理在部署后经常会以不可预测的方式失败,自信地犯错,例如使用不存在的 URL——当前解决方案试图通过使用另一个 LLM 作为“仲裁者”来解决这个问题。这会产生一种循环依赖,容易出现相同的幻觉和不准确。 作者认为,我们需要像对待传统软件一样对待代理,通过断言、单元测试和显式检查引入**确定性**。不要*询问* LLM 某个事物是否有效,而是用代码*验证*它(例如,使用 `requests.get()` 验证 URL,使用 AST 解析验证 SQL)。 为了解决这个问题,他们构建了 **Steer**,一个开源 Python 库,它用“硬性护栏”包装代理函数。Steer 在错误*发生之前*拦截它们,记录它们,并允许开发者通过注入到其上下文中的特定纠正规则来“修补”模型的行为——有效地解决问题,而无需完全重新部署。 Steer 优先考虑本地执行、隐私和基于库的方法,为“感觉式”调试提供了一种确定性的替代方案。

## AI 中的“自信的傻瓜”问题 最近 Hacker News 上的一场讨论强调了当前 AI 模型的一个关键问题:它们倾向于自信地提供错误的答案,而不是承认不确定性或寻求澄清。SteerLabs 的作者认为,仅仅增加模型规模(“更多概率”)并不能解决这个问题,因为 LLM 从根本上来说是“幻觉机器”,而不是可靠的数据库。 他们的解决方案,概述在一个名为 SteerReply 的新库中,侧重于在 AI 的生成过程**周围**实施**严格、确定性的规则**。SteerReply 不试图从概率模型中强制真诚,而是对输出施加断言——二元接受标准。 虽然承认复杂的判断任务仍然需要人类专业知识,但核心思想是自动化“枯燥”但至关重要的飞行前检查。例如,在医疗诊断前验证患者数据。这减少了“无谓的错误”,并确保 AI 基于事实信息运行,从而让人类专家专注于任务中真正具有挑战性的方面。

更多

联系我们 contact @ memedata.com