每日HackerNews RSS

启用 JavaScript 和 Cookie 以继续。

对不起。

这篇博客文章合集涵盖了极其多样的主题。 经常出现的主题包括时事和政治评论,尤其是来自“Funding the Future”(前身为Tax Research UK)的文章,内容涉及国际冲突、财富税和英国经济政策。 几篇文章提供了个人反思——关于生活、经历(“Good Or Bad, I Was One Of The Ones”)甚至感受(“stupid humans”)。 创意内容占有重要地位:诗歌(“Oppvarming”,NaPoWriMo作品)、书评(“Superintelligence”)和艺术欣赏(Petrus van Schendel绘画)。 其他文章深入探讨了小众兴趣,例如摄影(“Languishing Locomotives”)、游戏(“Resident Evil 6”)、科技(“Zipbombs”、Django表格编码),甚至本地观察(一只破壳的鹰、一条棕色蛇的目击)。 少数文章只是合集或快速链接(“Friday Quick Hits”、“Friday Fave”)。 总而言之,这是一幅互联网丰富多彩且不断更新的思想快照。

## Blogosphere.app:个人博客的首页 Ramkarthikk 启动了 **blogosphere.app**,这是一个精选的个人博客目录,旨在复兴“独立网络”,对抗社交媒体和人工智能生成内容的 dominance。该网站提供两个版本:一个极简、快速、静态的版本,灵感来自 Hacker News ([https://text.blogosphere.app/](https://text.blogosphere.app/)),以及一个功能更丰富、非极简的版本 ([https://blogosphere.app/](https://blogosphere.app/))。 目前,提交内容由创建者手动审核。鼓励用户提交博客以供收录,并欢迎反馈。讨论强调了对超越算法的发现工具的需求,并将其与 webrings 和精选列表进行比较。RSS 订阅和深色模式等功能正在计划中,同时也在考虑改进搜索和移动设备的可访问性。该项目旨在提供一种由人工精选的替代算法 feed 的方案,培养一种更慢、更深思熟虑的浏览体验。

## H.264流媒体版税迎来重大转变 多年来,H.264 (AVC) 流媒体版税的规定很简单:向最终用户交付的内容免费,订阅服务每年最高限额为10万美元。这一体系很大程度上是对VP8等开源编解码器的回应,但在2026年,随着Via Licensing推出新的分层收费结构,情况将发生巨大变化。 新模式会随着平台规模的扩大而急剧增加,对于拥有超过1亿订阅用户的服务(或FAST、社交媒体和云游戏平台等同等用户基础的服务),每年将达到450万美元。这比之前的上限增加了45倍。然而,这一变化*仅*影响2026年开始的新许可方;现有许可方可以保留原有条款。 Via表示,此次重组反映了当前的市场价值,考虑到H.264在流媒体领域的持续主导地位。尽管专利已过期,但法律专家强调,对于已实施的功能,许可义务仍然存在。公司可以通过使用较旧的配置或限制地理范围来潜在地降低风险,但完全避免是复杂的。对于面临这些大幅增加的费用的大型平台而言,谈判仍然是首选方案。

对不起。

本英特尔产品简报详细介绍了**英特尔® ASC(可信供应链)**,这是一项旨在大幅提升半导体供应链透明度和安全性的新举措。 鉴于假冒零件和固件攻击日益增长的威胁,英特尔 ASC 为每个芯片提供可数字验证的“保管链”——从制造到部署。 该解决方案侧重于建立来源并确保用于数据中心、服务器和个人电脑的英特尔处理器的完整性。 通过详细说明安全的“制造廊道”和数字证明功能,英特尔旨在与 IT 专业人员、企业和政府建立信任。 最终,英特尔 ASC 是一项战略努力,旨在降低供应链风险,加强英特尔硅的可靠性,并与更广泛的行业安全标准保持一致。 通过“下载”或“查看”访问完整文档,可以全面了解这种创新方法。

对不起。

启用 JavaScript 和 Cookie 以继续。

## 解构数据框:寻找基本操作 现代数据框库,如 pandas,提供了数百种操作,常常显得冗余且难以真正理解。简化这种复杂性的关键在于识别真正*基本*的操作。对一百万个 Jupyter notebook 的研究揭示了一种“数据框代数”,大约包含 15 个算子,能够表达 200 多个 pandas 方法。但这种方法是否可以进一步压缩? 答案是,这取决于范畴论。数据框可以正式定义为数据、标记的行和列以及列域的组合。这使得识别核心操作成为可能:**重构**(重新排列列)、**合并**(按键折叠行 – 类似于 `groupBy`)和 **配对**(组合来自两个表的数据 – 类似于 `join`)。这些对应于范畴论中的三个“迁移函子”(Δ, Σ, Π)。 另外两个操作,**差集**和**去重**,作用于行子集并依赖于“拓扑”理论。除此之外,操作要么是保持模式不变的,要么是数据框特定的。这种分解允许一个健壮、类型安全的 API,编译器可以验证模式兼容性并基于底层代数定律优化操作。最终,这种方法旨在建立一个基于理论的规范数据框定义,从而实现更可预测和高效的数据操作。

## Hacker News 讨论:范畴论与 DataFrame 一篇近期文章探讨了将范畴论应用于简化 DataFrame 操作,旨在减少 Pandas 等库的复杂性。讨论的中心在于,一组更小的核心操作是否可以取代 Pandas 庞大且常常不一致的 API。 许多评论者同意 Pandas 的 API 使用起来笨拙,这源于它最初是作为金融时间序列工具开发的。像 Modin 这样的项目试图通过在更快的后端(Ray、Dask)上重新实现完整的 API 来加速 Pandas,但有些人认为这并没有抓住问题的关键。 R 的 `dplyr` 和 Python 的 `Polars` 经常被提及,其中 `Polars` 作为一种更适合生产环境、受 SQL 启发的选择而越来越受欢迎。一些人认为,专注于一组核心的关系代数操作(投影、重命名、分组、连接)可以带来更优雅和可组合的 API,而另一些人则强调用户友好、更高层次的抽象的重要性。 一个关键的结论是数学纯粹性与实用可用性之间的 tension——一个最小的核心对于实现很有价值,但一套丰富的面向用户操作对于可访问性至关重要。最终,讨论强调了在数据操作库中,对力量、简洁性和表达力之间更好平衡的持续探索。

这是什么页面?您正在阅读隐私新闻速递的一篇文章摘要。隐私新闻速递是一个免费资源,为DPO和其他具有隐私或数据保护责任的专业人士提供帮助,让他们在一个地方了解行业新闻。这里的信息是关于单一原始内容或多个关于共同主题或线程的文章的简短片段。主要贡献者列在文章标题下方左上角。隐私新闻速递监测超过300家全球出版物,其中超过3250篇文章摘要已发布到在线档案中,时间可追溯到2020年初。每周摘要将于每周五通过电子邮件发送。

对不起。

## 瑞士采用RISC-V引领开源芯片设计 受人工智能日益增长的需求驱动,瑞士正在推动半导体设计领域的开源革命。苏黎世联邦理工学院(ETH Zurich)和洛桑联邦理工学院(EPFL)等大学正在采用RISC-V,这是一种由加州大学伯克利分校开发的开源指令集架构(ISA),以克服英特尔和ARM等商业ISA所有者施加的限制。 这些公司传统上会收取费用并限制对其ISA的修改,从而阻碍了学术研究。现在由位于苏黎世的RISC-V国际协会管理的RISC-V,提供了“运营自由”——允许研究人员无需许可即可创新。 这已经取得了显著成果,苏黎世联邦理工学院在过去十年中开发了75个芯片,CSEM在机器学习处理器的效率方面实现了100倍的提升。瑞士专注于超低功耗半导体等利基领域,这对于人工智能时代提高能源效率至关重要。 涉及超过4500家机构和公司的协作RISC-V生态系统,加速了创新并促进了快速的观念交流,使研究和商业应用都受益。

对不起。

苹果的 macOS 26 (Tahoe) 现在包含一个内置的大语言模型 (LLM),直接在 Apple Silicon 的神经网络引擎和 GPU 上运行——完全离线。 最初,它仅限于 Siri 和系统功能,但开发者可以通过 Apple 的 FoundationModels 框架 (Swift API) 访问该模型。 然而,直接访问比较复杂。“apfel”项目弥合了这一差距,提供了一个用户友好的界面。 它封装了 Apple 的 API,通过命令行工具、兼容 OpenAI 的 HTTP 服务器和交互式聊天提供访问。 Apfel 增加了原生 API 中缺失的关键功能,例如适当的错误处理、JSON 输出、4096-token 窗口内的上下文管理以及 OpenAI 模式转换。 它使用 Swift 6.3 构建,并且是开源的,允许用户利用 Apple 的设备端 LLM 与现有的工具和工作流程,例如 shell 脚本和 OpenAI SDK。

## Apfel:Mac 上的免费 AI - 摘要 Apfel 是一款新工具,允许用户在他们的 Mac (macOS Tahoe 或更新版本) 上本地访问 Apple Foundation Models。它提供命令行界面和兼容 OpenAI 的 API,实现离线使用,并通过将数据保存在设备上优先保护隐私。 讨论强调了本地模型在隐私方面的优势,特别是考虑到对云端 AI 服务数据使用的担忧。虽然本地模型提供安全性,但一些评论员指出潜在的漏洞,例如恶意代码注入或数据泄露,以及公开训练模型的重要性。 用户正在尝试使用 Apfel 进行脚本编写、代码生成和一般问答等任务。对于较小的任务,性能似乎良好,但 4K token 的上下文窗口限制了它处理大型输入的能力。一些用户报告说,响应存在不一致和不准确的情况,类似于 Siri。 该项目是开源的,可在 GitHub 上获取,一些人指出其登陆页面对于一个简单的工具来说过于“营销化”。它正在引起人们的兴奋,因为它提供了一种利用 Apple 的 AI 能力而无需依赖云连接的方式。

## 在 Mac 上运行 Gemma 4 26B,使用 Ollama 本指南详细介绍了如何在配备 Apple Silicon (M1/M2/M3/M4/M5) 的 Mac mini 上,使用 Ollama 本地设置和运行 Gemma 4 26B 大型语言模型。 **安装:** 需要至少 24GB 统一内存、macOS 和 Homebrew。通过 `brew install --cask ollama-app` 安装 Ollama。这将提供应用程序和 CLI 工具。初始下载量约为 17GB。使用 `ollama list` 验证安装,并使用 `ollama run gemma4:26b "Hello, what model are you?"` 进行测试。Ollama 自动利用 Apple 的 MLX 框架,在 Apple Silicon 上实现更快的推理,利用 GPU 加速。 **优化:** 为了持续使用,请在 Ollama 菜单栏中启用“登录时启动”。可以创建一个启动代理,将 Gemma 4 预加载到内存中,并将 `OLLAMA_KEEP_ALIVE` 环境变量设置为 `-1`,以防止模型因不活动而卸载。 Ollama v0.19+ 具有改进的缓存,并利用 NVIDIA 的 NVFP4 格式以提高效率。Gemma 4 26B 加载时大约需要 20GB 内存。通过 `http://localhost:11434` 访问本地 API。

## 开源权重模型设置与早期问题 (2026年4月) 这场Hacker News讨论围绕在Mac mini上设置和使用Gemma 4 (26B),并强调了早期采用开源权重模型的常见陷阱。用户报告结果不一,性能因推理引擎、量化和硬件而异。 一个关键要点是,最初的实现通常存在错误。用户应该预计需要频繁更新他们的设置并重新下载量化,因为会发现问题,尤其是在工具调用方面。即使模型可以*加载*,功能也无法保证。 LM Studio和llama.cpp等替代方案经常被提及,一些人由于性能或开源原则而更喜欢它们,而不是Ollama。关于本地模型是否能真正与Claude等付费服务竞争,存在争论,大多数人认为它们还不能完全替代,但对隐私或实验很有用。 对话强调了动手测试的重要性,并避免依赖初始基准或LLM生成的建议,因为形势正在迅速变化。许多用户建议首先尝试托管服务,以评估模型能力,然后再投资本地硬件。

更多

联系我们 contact @ memedata.com