每日HackerNews RSS

启用 JavaScript 和 Cookie 以继续。

## 希腊考虑禁止社交媒体匿名:摘要 希腊正在考虑禁止社交媒体平台的匿名性,引发了在线讨论。此举源于对网络毒性和外国干涉的担忧,但也伴随着希腊总理涉嫌使用间谍软件监控政治对手的丑闻。 评论员意见不一。一些人认为这可以遏制操纵并改善讨论,尤其是在涉及外国影响方面,而另一些人则担心这会走向专制,并且无法解决在线负面情绪的根本问题。人们对执法提出了担忧,尤其是在去中心化网络上,以及政府滥用系统的可能性。 许多人指出,匿名性并非解决之道,像Facebook这样的实名政策也未能消除问题。另一些人强调匿名性对于表达异议和获取多样化观点具有价值,并提到了像4chan这样的平台。 还有关于在不损害隐私的情况下验证身份的可行性,以及身份黑市可能性的讨论。 最终,此类禁令的有效性和影响仍然存在争议。

## 拉古纳:新型代理编码模型发布 Poolside AI 发布了拉古纳模型系列——拉古纳 M.1 和拉古纳 XS.2,以及他们的代理训练运行时,最初面向政府/公共部门客户,现在已更广泛可用。拉古纳 M.1 是他们迄今为止功能最强大的模型(2250 亿参数),而拉古纳 XS.2(330 亿参数)是一个效率惊人的开源权重模型,采用 Apache 2.0 许可,可通过 API 和 OpenRouter 获取。 这些模型专为“长视野”任务而设计,专注于编码能力,以此作为超越简单工具调用的更具表现力和能力的代理的途径。它们擅长编写和执行代码,使代理能够构建自己的系统来进行复杂交互。 Poolside 强调全栈方法,包括定制数据管道(超过 30 万亿 token,包含合成数据)、Muon 优化器和异步在线 RL 系统。他们还发布了他们的代理框架用于研究,旨在促进社区发展并通过开放合作改进模型。两种模型在有限时间内免费使用,并为初创公司和研究人员提供增加访问权限的选项。

## Laguna XS.2 和 M.1 模型总结 Poolside.ai 发布了 Laguna XS.2 和 M.1,这是新的语言模型,引发了人工智能社区的讨论。虽然 M.1(225B 参数)更大,但较小的 XS.2(33B)表现出令人惊讶的强大性能,甚至可以与 Qwen3.6-35B 相媲美。 许多评论员指出,Qwen3.6 通常在 Terminal-Bench 2.0 等基准测试中表现优于 Laguna 模型。 一个关键特性是 Poolside 包含了代理框架以及模型权重,从而更容易集成并可能实现更可靠的生产使用。 用户正在通过“pool”代理测试这些模型,并称赞其速度和对 ACP 规范的遵守。 讨论还集中在开源 LLM 的更广泛格局、量化技术对于在消费级硬件上运行模型的重要性,以及关于定义 AGI 的争论——许多人认为当前的 Transformer 模型未能达到真正的通用智能。 人们对基准图表的可读性表示担忧,原因是颜色选择不当。

## 网络安全薪资停滞引发担忧 尽管网络安全领域需求量很大,但2025年网络安全专业人员的薪资涨幅却出乎意料地低。Harvey Nash的数据显示,全球范围内(英国为77%)有71%的人薪资没有增加,远低于所有技术岗位的45%的平均水平。这种停滞与董事会层面的危险自满有关——即使在由人工智能驱动的威胁形势迅速演变的情况下,成功的安全团队也被认为只是“完成工作”。 缺乏认可正在影响士气,网络安全专业人员在工作满意度方面排名较低。与此同时,网络攻击*增加*(英国严重攻击增加50%),就业市场转向雇主控制,减少了机会。 专家警告说,责任与回报之间的脱节正在导致倦怠和人才流失,敦促组织将网络安全人才优先视为战略资产,并提供适当的薪酬、支持和可见性。否则,将面临漏洞增加和事件响应速度减慢的风险。

## 网络安全:一份不被感激且日益严峻的挑战 一篇 Hacker News 的讨论突显了网络安全领域日益增长的挫败感。许多人认为该行业专注于被动措施——例如追逐误报和合规性——而不是主动的、基础性的安全。专家指出,公司购买昂贵的產品和服务,却未能解决核心问题,往往将短期收入置于真正的安全改进之上,形成了一种循环。 一些评论员认为,真正的安全收益通常是在传统的“安全角色”*之外*实现的,并且“左移”方法——将安全集成到整个软件开发生命周期中——至关重要。然而,一个关键问题是,在发生安全漏洞*之后*,公司才缺乏优先考虑安全的动力。目前的处罚往往不足,且缺乏问责制。 人工智能的兴起被视为一种威胁(赋予“脚本小子”力量)和一种机遇(自动化分析并可能缩短响应时间)。最终,这场讨论强调了系统性变革的必要性,包括更严格的法规、工程师的个人责任以及一种将安全视为核心业务需求而非仅仅是成本中心的文化转变。

最近Meta和微软等公司的科技裁员可能暗示人工智能正在取代人力,但目前的数据显示情况并非如此。尽管今年对人工智能的投资高达7400亿美元,增长了69%,但目前人工智能的成本仍然高于人力成本。 研究,包括麻省理工学院的一项研究,表明人工智能自动化仅在23%的视觉相关岗位上具有经济可行性,高昂的计算成本超过了员工支出。人工智能错误事件,例如数据库破坏事件,进一步凸显了其不可靠性。 虽然人工智能的采用率正在增长(截至2025年末,有18%的公司在使用它),但由于成本上升和性能不可预测,公司正在重新评估人工智能作为人力工作的补充,而不是替代品。专家预测,随着基础设施的改进和潜在的按使用量定价模式的转变,成本将会下降,但人工智能必须证明在规模上既更便宜又更可靠,才能真正取代人力。2026年已经裁减了超过92,000个科技职位,这表明人工智能投资与实际成本节约之间存在脱节。

这次Hacker News讨论的核心是英伟达的Bryan Catanzaro最近的一句话:目前,他的团队在AI计算上的成本已经超过了员工工资。 最初的反应质疑是否存在误导,用户认为这句话可能被断章取义——很可能指的是一位工程师每年200万美元的计算支出,而不是AI普遍比人力成本更高的说法。 随后,讨论转向了即使计算成本很高,如果AI取代了多个工人,AI是否*实际上*更便宜。地理位置工资差异(例如印度与加利福尼亚)也被提及。一些评论者认为成本不是主要因素,预计AI取代将不可避免。 此外,还注意到一个指向类似讨论的重复链接。

一次构建,随处渲染。 整个流程使用单一代码库:在Jupyter中原型设计,通过FastAPI部署,并编译为独立桌面可执行文件。 原生操作系统Windows。 通过PyTauri实现轻量级的原生操作系统webview。 摆脱Electron的臃肿,安全地使用标准HTML/CSS/JS。 Notebook & Web。 Jupyter内置即时`anywidget`魔法。 可扩展的FastAPI WebSockets用于浏览器部署。 无需代码更改。 声明式UI组件。 工具栏、模态框、提示和输入框——所有Pydantic模型放置在7个布局位置,用于快速UI开发。 双向事件。 Python ↔ JavaScript桥接通信,开箱即用支持交互式AgGrid、Plotly和TradingView。 主题 & 认证。 亮/暗模式,60+ CSS变量,热重载,以及企业级的OAuth2和Redis RBAC状态管理。

对不起。

## 医疗保健安全差距:OpenEMR 与 AI 驱动的漏洞发现 医疗保健正在加速数字化,但安全性却没有跟上,这使其成为日益强大的 AI 驱动攻击的主要目标。 认识到这一点,AISLE 与广泛使用的开源电子健康记录平台 OpenEMR 合作——服务于超过 2 亿患者——以主动加强其安全性。 AISLE 使用其 AI 分析器,仅在一个季度内就识别出 OpenEMR 代码库中的 **38 个常见漏洞和暴露 (CVE)**,超过了 2018 年由人工团队进行的一项大型审计中发现的 23 个。 这些漏洞的严重程度各不相同,其中一些可能导致数据库泄露、数据盗窃,甚至通过 SQL 注入漏洞实现远程代码执行。 OpenEMR 维护者迅速响应,与 AISLE 合作修复这些问题,其中大部分已发布在 2026 年 2 月版本 (8.0.0) 中。 AISLE 的 AI 甚至生成了修复建议,加速了补救措施。 合作现已扩展到将 AISLE 的 AI 驱动的提交分析器集成到 OpenEMR 的代码审查流程中,旨在防止漏洞在到达生产环境*之前*就出现。 这展示了主动保护关键医疗保健基础设施免受不断演变的网络威胁的方法。

对不起。

派拉蒙正在寻求联邦通信委员会的批准,以与华纳兄弟探索合并,合并后非美国投资者将持有约49.5%的股份,主要来自中东——由沙特阿拉伯公共投资基金牵头的240亿美元投资。派拉蒙认为,这笔资金注入对于在不断变化的媒体格局中竞争至关重要。 尽管人们对外国影响力表示担忧,特别是考虑到哥伦比亚广播公司新闻和CNN的所有权,派拉蒙坚持认为这些投资者将没有投票权,仅仅是财务支持者。这1100亿美元的合并即将完成,预计在9月完成,但仍面临潜在障碍,包括州司法总长对反垄断问题的审查。 Netflix此前在其竞购派拉蒙一部分股份时,曾强调过外国所有权问题。向联邦通信委员会的申请被认为是例行程序,但情况仍然敏感且具有政治色彩,这从围绕联邦通信委员会主席布兰登·卡尔出席派拉蒙为唐纳德·特朗普举办的晚餐的问题可以看出。

## Android 的未来与谷歌的控制 最近的一项声明引发了关于 Android 开放性的讨论。谷歌正在实施新的应用安装要求,强制开发者注册(包括身份验证和费用),并可能限制 sideloading——在官方 Play 商店之外安装应用。许多人认为这是对 Android 与 iOS 区分开来的承诺的逆转,在 iOS 中,开放性和用户选择是关键。 谷歌将此举描述为打击欺诈的安全措施,但批评者认为这是滥用市场支配地位,并受到监管俘获的支持。 sideloading 应用的过程将变得更加复杂,涉及多次确认和 24 小时的等待期。 讨论的重点是这些变化对依赖替代应用商店(如 F-Droid)的用户、直接分发应用的开发者,以及谷歌进一步限制用户控制的可能性的影响。一些用户,例如使用 GrapheneOS 的用户,受到的影响较小,但承认其更广泛的影响。人们担心谷歌最终可能会锁定甚至这些更安全的选项。这场辩论凸显了安全与用户自由之间的紧张关系,以及谷歌的行动究竟是真正为了保护用户,还是为了巩固控制。

谷歌已与美国国防部达成一项保密协议,允许他们出于“任何合法政府目的”访问谷歌的AI模型。该协议浮出水面后,内部员工发起了抗议,要求首席执行官桑达尔·皮查伊阻止五角大楼访问AI,担心出现不道德的应用。 虽然该协议包含对国内大规模监控和缺乏人工监督的自主武器的限制,但值得注意的是,谷歌无权否决政府如何使用AI。 基本上,这些限制更像是指导方针,而不是可强制执行的规则。 谷歌也有义务根据政府的要求调整AI安全设置。 谷歌将该协议描述为现有政府合作的延伸,重申了其对负责任地使用AI的承诺。 然而,缺乏具体控制引发了人们对军事方面可能出现意外或有害技术应用的担忧。

## Anthropic 支持 Blender 开发 Blender 基金会宣布,Anthropic,一家以 Claude 语言模型而闻名的 AI 研究公司,已成为 Blender 开发基金会的企业赞助人。 这笔支持将直接贡献于 Blender 的核心开发,特别是维护和改进 Blender Python API 等关键功能——这是定制和工作流程扩展的关键工具。 Blender 基金会 CEO Francesco Siddi 强调了独立资金对于继续赋能艺术家使用免费和开源工具的重要性。 此次合作使 Blender 能够坚持其对软件自由的承诺,为艺术表达和企业创新提供 API。 Anthropic 的赞助凸显了 Blender 作为领先的 3D 创建软件的价值,并强调了开源工具与 AI 技术进步之间的日益交织。

更多

联系我们 contact @ memedata.com