启用 JavaScript 和 Cookie 以继续。
启用 JavaScript 和 Cookie 以继续。
这篇博客文章合集涵盖了极其多样的主题。 经常出现的主题包括时事和政治评论,尤其是来自“Funding the Future”(前身为Tax Research UK)的文章,内容涉及国际冲突、财富税和英国经济政策。 几篇文章提供了个人反思——关于生活、经历(“Good Or Bad, I Was One Of The Ones”)甚至感受(“stupid humans”)。 创意内容占有重要地位:诗歌(“Oppvarming”,NaPoWriMo作品)、书评(“Superintelligence”)和艺术欣赏(Petrus van Schendel绘画)。 其他文章深入探讨了小众兴趣,例如摄影(“Languishing Locomotives”)、游戏(“Resident Evil 6”)、科技(“Zipbombs”、Django表格编码),甚至本地观察(一只破壳的鹰、一条棕色蛇的目击)。 少数文章只是合集或快速链接(“Friday Quick Hits”、“Friday Fave”)。 总而言之,这是一幅互联网丰富多彩且不断更新的思想快照。
## H.264流媒体版税迎来重大转变
多年来,H.264 (AVC) 流媒体版税的规定很简单:向最终用户交付的内容免费,订阅服务每年最高限额为10万美元。这一体系很大程度上是对VP8等开源编解码器的回应,但在2026年,随着Via Licensing推出新的分层收费结构,情况将发生巨大变化。
新模式会随着平台规模的扩大而急剧增加,对于拥有超过1亿订阅用户的服务(或FAST、社交媒体和云游戏平台等同等用户基础的服务),每年将达到450万美元。这比之前的上限增加了45倍。然而,这一变化*仅*影响2026年开始的新许可方;现有许可方可以保留原有条款。
Via表示,此次重组反映了当前的市场价值,考虑到H.264在流媒体领域的持续主导地位。尽管专利已过期,但法律专家强调,对于已实施的功能,许可义务仍然存在。公司可以通过使用较旧的配置或限制地理范围来潜在地降低风险,但完全避免是复杂的。对于面临这些大幅增加的费用的大型平台而言,谈判仍然是首选方案。
本英特尔产品简报详细介绍了**英特尔® ASC(可信供应链)**,这是一项旨在大幅提升半导体供应链透明度和安全性的新举措。 鉴于假冒零件和固件攻击日益增长的威胁,英特尔 ASC 为每个芯片提供可数字验证的“保管链”——从制造到部署。 该解决方案侧重于建立来源并确保用于数据中心、服务器和个人电脑的英特尔处理器的完整性。 通过详细说明安全的“制造廊道”和数字证明功能,英特尔旨在与 IT 专业人员、企业和政府建立信任。 最终,英特尔 ASC 是一项战略努力,旨在降低供应链风险,加强英特尔硅的可靠性,并与更广泛的行业安全标准保持一致。 通过“下载”或“查看”访问完整文档,可以全面了解这种创新方法。
启用 JavaScript 和 Cookie 以继续。
## 解构数据框:寻找基本操作 现代数据框库,如 pandas,提供了数百种操作,常常显得冗余且难以真正理解。简化这种复杂性的关键在于识别真正*基本*的操作。对一百万个 Jupyter notebook 的研究揭示了一种“数据框代数”,大约包含 15 个算子,能够表达 200 多个 pandas 方法。但这种方法是否可以进一步压缩? 答案是,这取决于范畴论。数据框可以正式定义为数据、标记的行和列以及列域的组合。这使得识别核心操作成为可能:**重构**(重新排列列)、**合并**(按键折叠行 – 类似于 `groupBy`)和 **配对**(组合来自两个表的数据 – 类似于 `join`)。这些对应于范畴论中的三个“迁移函子”(Δ, Σ, Π)。 另外两个操作,**差集**和**去重**,作用于行子集并依赖于“拓扑”理论。除此之外,操作要么是保持模式不变的,要么是数据框特定的。这种分解允许一个健壮、类型安全的 API,编译器可以验证模式兼容性并基于底层代数定律优化操作。最终,这种方法旨在建立一个基于理论的规范数据框定义,从而实现更可预测和高效的数据操作。
这是什么页面?您正在阅读隐私新闻速递的一篇文章摘要。隐私新闻速递是一个免费资源,为DPO和其他具有隐私或数据保护责任的专业人士提供帮助,让他们在一个地方了解行业新闻。这里的信息是关于单一原始内容或多个关于共同主题或线程的文章的简短片段。主要贡献者列在文章标题下方左上角。隐私新闻速递监测超过300家全球出版物,其中超过3250篇文章摘要已发布到在线档案中,时间可追溯到2020年初。每周摘要将于每周五通过电子邮件发送。
## 瑞士采用RISC-V引领开源芯片设计
受人工智能日益增长的需求驱动,瑞士正在推动半导体设计领域的开源革命。苏黎世联邦理工学院(ETH Zurich)和洛桑联邦理工学院(EPFL)等大学正在采用RISC-V,这是一种由加州大学伯克利分校开发的开源指令集架构(ISA),以克服英特尔和ARM等商业ISA所有者施加的限制。
这些公司传统上会收取费用并限制对其ISA的修改,从而阻碍了学术研究。现在由位于苏黎世的RISC-V国际协会管理的RISC-V,提供了“运营自由”——允许研究人员无需许可即可创新。
这已经取得了显著成果,苏黎世联邦理工学院在过去十年中开发了75个芯片,CSEM在机器学习处理器的效率方面实现了100倍的提升。瑞士专注于超低功耗半导体等利基领域,这对于人工智能时代提高能源效率至关重要。
涉及超过4500家机构和公司的协作RISC-V生态系统,加速了创新并促进了快速的观念交流,使研究和商业应用都受益。
苹果的 macOS 26 (Tahoe) 现在包含一个内置的大语言模型 (LLM),直接在 Apple Silicon 的神经网络引擎和 GPU 上运行——完全离线。 最初,它仅限于 Siri 和系统功能,但开发者可以通过 Apple 的 FoundationModels 框架 (Swift API) 访问该模型。 然而,直接访问比较复杂。“apfel”项目弥合了这一差距,提供了一个用户友好的界面。 它封装了 Apple 的 API,通过命令行工具、兼容 OpenAI 的 HTTP 服务器和交互式聊天提供访问。 Apfel 增加了原生 API 中缺失的关键功能,例如适当的错误处理、JSON 输出、4096-token 窗口内的上下文管理以及 OpenAI 模式转换。 它使用 Swift 6.3 构建,并且是开源的,允许用户利用 Apple 的设备端 LLM 与现有的工具和工作流程,例如 shell 脚本和 OpenAI SDK。
## 在 Mac 上运行 Gemma 4 26B,使用 Ollama 本指南详细介绍了如何在配备 Apple Silicon (M1/M2/M3/M4/M5) 的 Mac mini 上,使用 Ollama 本地设置和运行 Gemma 4 26B 大型语言模型。 **安装:** 需要至少 24GB 统一内存、macOS 和 Homebrew。通过 `brew install --cask ollama-app` 安装 Ollama。这将提供应用程序和 CLI 工具。初始下载量约为 17GB。使用 `ollama list` 验证安装,并使用 `ollama run gemma4:26b "Hello, what model are you?"` 进行测试。Ollama 自动利用 Apple 的 MLX 框架,在 Apple Silicon 上实现更快的推理,利用 GPU 加速。 **优化:** 为了持续使用,请在 Ollama 菜单栏中启用“登录时启动”。可以创建一个启动代理,将 Gemma 4 预加载到内存中,并将 `OLLAMA_KEEP_ALIVE` 环境变量设置为 `-1`,以防止模型因不活动而卸载。 Ollama v0.19+ 具有改进的缓存,并利用 NVIDIA 的 NVFP4 格式以提高效率。Gemma 4 26B 加载时大约需要 20GB 内存。通过 `http://localhost:11434` 访问本地 API。