每日HackerNews RSS

经过20年,作者已正式停止日常使用Emacs,完成了向Vim的过渡。这一举动促使了两个关键Emacs包的替代品的创建:`M-x calc`(被`stackcalc`取代)和`Elfeed`(被`Elfeed2`取代)。这两个新应用程序均使用C++和wxWidgets构建,在Windows、macOS和Linux上提供原生GUI体验。 `Elfeed2`已经超越了原始版本的功能,而`stackcalc`则优先考虑速度,具有多精度算术,但仍在开发以达到功能对等。作者正在为这两个项目寻找专门的维护者,优先考虑有贡献经验的申请人。 这次过渡突出了作者对wxWidgets在需要更丰富的UI工具包的长期运行应用程序中的偏好,与之前项目中使用Dear ImGui形成对比。这些项目设计为使用CMake和C++工具链轻松构建,展示了简化的开发流程。

## 即将到来的AI定价重塑 AI补贴时代正在结束。微软计划在2026年将GitHub Copilot的定价改为基于使用量的计费,这预示着更广泛的行业趋势:目前的订阅模式不可持续。最初以折扣价提供的AI服务,运行成本远超预期,用户经常超出订阅限制,消耗大量计算资源。 这种转变揭示了一个根本问题——LLM的成本被有意隐藏。公司以可负担的月费吸引用户,掩盖了每次交互的真实成本。现在,随着成本上涨,他们被迫调整,引发用户反弹。这不仅仅是价格上涨的问题,而是静态订阅与AI可变需求不符的缺陷经济模式。 这种情况不仅仅局限于Copilot。像Oracle为OpenAI建造的Stargate等大型数据中心项目,建立在可能无法实现乐观的收入预测之上。作者警告说,如果AI公司未能达到雄心勃勃的增长目标,可能会导致崩盘,并可能对投资者和Oracle等基础设施提供商造成财务影响。 最终,作者认为AI最初的承诺建立在欺骗性的基础之上,随着这项技术的真实成本变得不可避免,一场清算即将到来。未来取决于需求是否能够证明巨大的开销是合理的,而这个问题目前还没有明确的答案。

你需要启用 JavaScript 才能运行此应用。

对不起。

## 西班牙停电:一年之后 一年前,西班牙和葡萄牙经历了一次大范围的“系统性”停电,使该地区陷入黑暗并扰乱了基本服务。最初的指责指向了对可再生能源(如太阳能)日益增长的依赖,声称电网“惯性”不足。然而,ENTSO-E的调查显示,根本原因是由电压控制相关的治理失败造成的“完美风暴”——不平衡导致了级联故障。 与预期相反,停电并未阻止西班牙的绿色能源转型。事实上,2025年太阳能装机容量*增加*了13.8吉瓦,创历史新高。虽然由于缺乏电池储能等替代方案,燃气发电为电网稳定化而暂时增加使用,但长期重点仍然是可再生能源。 最近的地缘政治事件,特别是天然气供应中断,凸显了西班牙投资可再生能源的好处,使其免受欧洲其他地区飙升的能源价格的影响。这场危机强化了减少对天然气依赖的必要性,而可再生能源现在被证明对于经济实惠的能源和经济保护至关重要。该事件强调了准确信息和监管变革对于充分利用可再生能源实现电网稳定性的重要性。

## 西班牙停电与可再生能源转型 西班牙最近一次停电引发了对该国不断发展的电网以及日益依赖可再生能源的讨论。虽然停电并非由可再生能源*引起*,但太阳能和风能由于缺乏足够的电池储能——远低于英国——加剧了问题。西班牙的电网经济状况常常导致太阳能发电厂在高峰期被削减(关闭),从而为电网规模的电池创造了市场,用于储存能量以供日后使用。 事件源于一个有故障的太阳能逆变器引发了级联故障,凸显了电网管理电压波动能力的脆弱性,尤其是在可再生能源比例较高的情况下。现有的水坝难以重新配置用于储能,而且西班牙面临干旱问题,影响水力发电。 专家指出,监管失误和对电网弹性的投资不足是根本原因,并将西班牙的做法与澳大利亚等国家成功整合可再生能源的做法进行了对比。尽管全球太阳能装机容量持续快速增长,但西班牙自身的部署速度似乎正在放缓,需要新的动力才能实现其2030年的目标。

启用 JavaScript 和 Cookie 以继续。

## 希腊考虑禁止社交媒体匿名:摘要 希腊正在考虑禁止社交媒体平台的匿名性,引发了在线讨论。此举源于对网络毒性和外国干涉的担忧,但也伴随着希腊总理涉嫌使用间谍软件监控政治对手的丑闻。 评论员意见不一。一些人认为这可以遏制操纵并改善讨论,尤其是在涉及外国影响方面,而另一些人则担心这会走向专制,并且无法解决在线负面情绪的根本问题。人们对执法提出了担忧,尤其是在去中心化网络上,以及政府滥用系统的可能性。 许多人指出,匿名性并非解决之道,像Facebook这样的实名政策也未能消除问题。另一些人强调匿名性对于表达异议和获取多样化观点具有价值,并提到了像4chan这样的平台。 还有关于在不损害隐私的情况下验证身份的可行性,以及身份黑市可能性的讨论。 最终,此类禁令的有效性和影响仍然存在争议。

## 拉古纳:新型代理编码模型发布 Poolside AI 发布了拉古纳模型系列——拉古纳 M.1 和拉古纳 XS.2,以及他们的代理训练运行时,最初面向政府/公共部门客户,现在已更广泛可用。拉古纳 M.1 是他们迄今为止功能最强大的模型(2250 亿参数),而拉古纳 XS.2(330 亿参数)是一个效率惊人的开源权重模型,采用 Apache 2.0 许可,可通过 API 和 OpenRouter 获取。 这些模型专为“长视野”任务而设计,专注于编码能力,以此作为超越简单工具调用的更具表现力和能力的代理的途径。它们擅长编写和执行代码,使代理能够构建自己的系统来进行复杂交互。 Poolside 强调全栈方法,包括定制数据管道(超过 30 万亿 token,包含合成数据)、Muon 优化器和异步在线 RL 系统。他们还发布了他们的代理框架用于研究,旨在促进社区发展并通过开放合作改进模型。两种模型在有限时间内免费使用,并为初创公司和研究人员提供增加访问权限的选项。

## Laguna XS.2 和 M.1 模型总结 Poolside.ai 发布了 Laguna XS.2 和 M.1,这是新的语言模型,引发了人工智能社区的讨论。虽然 M.1(225B 参数)更大,但较小的 XS.2(33B)表现出令人惊讶的强大性能,甚至可以与 Qwen3.6-35B 相媲美。 许多评论员指出,Qwen3.6 通常在 Terminal-Bench 2.0 等基准测试中表现优于 Laguna 模型。 一个关键特性是 Poolside 包含了代理框架以及模型权重,从而更容易集成并可能实现更可靠的生产使用。 用户正在通过“pool”代理测试这些模型,并称赞其速度和对 ACP 规范的遵守。 讨论还集中在开源 LLM 的更广泛格局、量化技术对于在消费级硬件上运行模型的重要性,以及关于定义 AGI 的争论——许多人认为当前的 Transformer 模型未能达到真正的通用智能。 人们对基准图表的可读性表示担忧,原因是颜色选择不当。

## 网络安全薪资停滞引发担忧 尽管网络安全领域需求量很大,但2025年网络安全专业人员的薪资涨幅却出乎意料地低。Harvey Nash的数据显示,全球范围内(英国为77%)有71%的人薪资没有增加,远低于所有技术岗位的45%的平均水平。这种停滞与董事会层面的危险自满有关——即使在由人工智能驱动的威胁形势迅速演变的情况下,成功的安全团队也被认为只是“完成工作”。 缺乏认可正在影响士气,网络安全专业人员在工作满意度方面排名较低。与此同时,网络攻击*增加*(英国严重攻击增加50%),就业市场转向雇主控制,减少了机会。 专家警告说,责任与回报之间的脱节正在导致倦怠和人才流失,敦促组织将网络安全人才优先视为战略资产,并提供适当的薪酬、支持和可见性。否则,将面临漏洞增加和事件响应速度减慢的风险。

## 网络安全:一份不被感激且日益严峻的挑战 一篇 Hacker News 的讨论突显了网络安全领域日益增长的挫败感。许多人认为该行业专注于被动措施——例如追逐误报和合规性——而不是主动的、基础性的安全。专家指出,公司购买昂贵的產品和服务,却未能解决核心问题,往往将短期收入置于真正的安全改进之上,形成了一种循环。 一些评论员认为,真正的安全收益通常是在传统的“安全角色”*之外*实现的,并且“左移”方法——将安全集成到整个软件开发生命周期中——至关重要。然而,一个关键问题是,在发生安全漏洞*之后*,公司才缺乏优先考虑安全的动力。目前的处罚往往不足,且缺乏问责制。 人工智能的兴起被视为一种威胁(赋予“脚本小子”力量)和一种机遇(自动化分析并可能缩短响应时间)。最终,这场讨论强调了系统性变革的必要性,包括更严格的法规、工程师的个人责任以及一种将安全视为核心业务需求而非仅仅是成本中心的文化转变。

最近Meta和微软等公司的科技裁员可能暗示人工智能正在取代人力,但目前的数据显示情况并非如此。尽管今年对人工智能的投资高达7400亿美元,增长了69%,但目前人工智能的成本仍然高于人力成本。 研究,包括麻省理工学院的一项研究,表明人工智能自动化仅在23%的视觉相关岗位上具有经济可行性,高昂的计算成本超过了员工支出。人工智能错误事件,例如数据库破坏事件,进一步凸显了其不可靠性。 虽然人工智能的采用率正在增长(截至2025年末,有18%的公司在使用它),但由于成本上升和性能不可预测,公司正在重新评估人工智能作为人力工作的补充,而不是替代品。专家预测,随着基础设施的改进和潜在的按使用量定价模式的转变,成本将会下降,但人工智能必须证明在规模上既更便宜又更可靠,才能真正取代人力。2026年已经裁减了超过92,000个科技职位,这表明人工智能投资与实际成本节约之间存在脱节。

这次Hacker News讨论的核心是英伟达的Bryan Catanzaro最近的一句话:目前,他的团队在AI计算上的成本已经超过了员工工资。 最初的反应质疑是否存在误导,用户认为这句话可能被断章取义——很可能指的是一位工程师每年200万美元的计算支出,而不是AI普遍比人力成本更高的说法。 随后,讨论转向了即使计算成本很高,如果AI取代了多个工人,AI是否*实际上*更便宜。地理位置工资差异(例如印度与加利福尼亚)也被提及。一些评论者认为成本不是主要因素,预计AI取代将不可避免。 此外,还注意到一个指向类似讨论的重复链接。

一次构建,随处渲染。 整个流程使用单一代码库:在Jupyter中原型设计,通过FastAPI部署,并编译为独立桌面可执行文件。 原生操作系统Windows。 通过PyTauri实现轻量级的原生操作系统webview。 摆脱Electron的臃肿,安全地使用标准HTML/CSS/JS。 Notebook & Web。 Jupyter内置即时`anywidget`魔法。 可扩展的FastAPI WebSockets用于浏览器部署。 无需代码更改。 声明式UI组件。 工具栏、模态框、提示和输入框——所有Pydantic模型放置在7个布局位置,用于快速UI开发。 双向事件。 Python ↔ JavaScript桥接通信,开箱即用支持交互式AgGrid、Plotly和TradingView。 主题 & 认证。 亮/暗模式,60+ CSS变量,热重载,以及企业级的OAuth2和Redis RBAC状态管理。

对不起。

## 医疗保健安全差距:OpenEMR 与 AI 驱动的漏洞发现 医疗保健正在加速数字化,但安全性却没有跟上,这使其成为日益强大的 AI 驱动攻击的主要目标。 认识到这一点,AISLE 与广泛使用的开源电子健康记录平台 OpenEMR 合作——服务于超过 2 亿患者——以主动加强其安全性。 AISLE 使用其 AI 分析器,仅在一个季度内就识别出 OpenEMR 代码库中的 **38 个常见漏洞和暴露 (CVE)**,超过了 2018 年由人工团队进行的一项大型审计中发现的 23 个。 这些漏洞的严重程度各不相同,其中一些可能导致数据库泄露、数据盗窃,甚至通过 SQL 注入漏洞实现远程代码执行。 OpenEMR 维护者迅速响应,与 AISLE 合作修复这些问题,其中大部分已发布在 2026 年 2 月版本 (8.0.0) 中。 AISLE 的 AI 甚至生成了修复建议,加速了补救措施。 合作现已扩展到将 AISLE 的 AI 驱动的提交分析器集成到 OpenEMR 的代码审查流程中,旨在防止漏洞在到达生产环境*之前*就出现。 这展示了主动保护关键医疗保健基础设施免受不断演变的网络威胁的方法。

对不起。

更多

联系我们 contact @ memedata.com