客户端挑战:您的浏览器已禁用 JavaScript。请启用 JavaScript 以继续。网站的必要部分无法加载。这可能是由于浏览器扩展、网络问题或浏览器设置造成的。请检查您的连接,禁用任何广告拦截器,或尝试使用不同的浏览器。
客户端挑战:您的浏览器已禁用 JavaScript。请启用 JavaScript 以继续。网站的必要部分无法加载。这可能是由于浏览器扩展、网络问题或浏览器设置造成的。请检查您的连接,禁用任何广告拦截器,或尝试使用不同的浏览器。
保时捷2025年全球交付了279,449辆汽车,同比下降10%,符合公司预期。这归因于影响718和Macan的供应链问题,中国市场对高端车型的需求减弱,以及对价值导向型销售的关注。
Macan仍然是最畅销的车型,交付量为84,328辆,而911则创下新纪录,售出51,583辆。北美地区继续保持保时捷最大的市场地位,并保持了稳定的销量。
值得注意的是,电动汽车占总交付量的34.4%——增长了7.4%,其中纯电动车型达到显著的22.2%份额。欧洲的趋势发生了变化,交付的电动汽车数量超过了燃油车。
展望未来,保时捷优先采用“价值高于销量”的战略,谨慎管理需求和供应,尤其是在停产燃油版718和Macan车型的情况下。该公司仍然致力于其三种动力系统方案——燃油、插电式混合动力和纯电动——并扩展客户的定制选项。
## 网状层:一个去中心化网络协议栈
网状层是一个基于密码学的网络协议栈,旨在利用现成的硬件构建具有弹性的、独立的网络,即使在带宽有限或延迟较高的情况下也能工作。它的目标是赋能个人运营自己的网络,摆脱中心化控制、监控和审查。
与依赖IP的传统网络不同,网状层独立运行,但也可以*通过*IP进行隧道传输,提供端到端加密、发起者匿名和自动配置。它是一个在用户空间(Python 3)运行的完整协议栈,不需要内核模块。
网状层促进了不同网络和介质之间的互操作性——从LoRa无线电和数据包无线电到WiFi和以太网——从而实现“网络的网络”。主要特性包括无协调寻址、自配置路由和可靠的数据传输。
核心协议由Mark Qvist维护的参考实现(此仓库)定义,并致力于公共领域。许多应用程序已经利用网状层,包括安全消息传递(Sideband、MeshChat)、远程shell访问(rnsh)和实时音频传输(LXST)。开发正在进行中,重点是稳定性和扩展实际可用性。
## Radicle 1.6.0 “Amaryllis” 发布
Radicle 1.6.0,代号“Amaryllis”,现已发布,这是基于 Git 的点对点代码协作堆栈的重要更新。本次发布由 12 位开发者贡献了 153 次提交,重点在于改进 Radicle 网络的基础。
一个关键变化是将 `radicle-node` 迁移到使用 `mio` crate 进行网络 I/O,从而增强了跨平台兼容性——特别是首次实现了 Windows 上的构建。 此更新还将最低支持的 Rust 版本 (MSRV) 提升到 1.85。
用户体验改进包括由 `clap` crate 提供支持的全新命令行界面,提供更好的帮助输出和 shell 补全。 安全性也得到了解决,支持使用 systemd Credentials 管理密钥和密码短语。 启动过程已简化,优先使用 DNS 名称而非可能不受支持的 IP 地址和 Tor 连接。
用户可以通过 `curl -sSLf https://radicle.xyz/install | sh -s -- --no-modify-path --version=1.6.0` 进行安装。 遇到的问题,尤其是在 Windows 上,应通过 Rad issue 或 Zulip 报告。
🛡️ 安全验证 验证您是否为机器人 ⏳ 正在验证您的浏览器… 验证并继续 ✓ 验证完成 此页面将在稍后自动跳转…
## 包装库性能显著提升
Damian Shaw 和本文作者最近的工作显著加速了 `packaging` 库——它是 Python 打包工具(如 `pip`)的核心依赖项,并且可能是使用最广泛的第三方 Python 库。改进的重点是加速版本和说明符处理,这些操作在依赖关系解析期间执行数千次。
利用 Python 3.15 的统计分析器和 PyPI 上所有软件包的数据集,对 `packaging` 的核心结构进行了优化。读取 `Version` 对象的速度现在提高了高达 2 倍,而 `SpecifierSet` 操作(例如检查依赖关系兼容性)在 26.0rc1 版本中提高了高达 3 倍。其他领域,包括 Marker 评估,也提高了高达 5 倍的速度。
关键优化包括去除版本元组中不必要的零,改进正则表达式,删除冗余对象创建,并利用 Python 内置的元组比较效率。Marker 解析器切换为手工编写也促成了性能提升。
这些变化转化为实际好处:构建后端分析现在速度大约快了两倍,`pip` 的解析器效率也显著提高。该版本还包括新功能和改进的代码质量。鼓励用户测试候选版本 (26.0rc3) 并提供反馈。
受到同事持续散布虚假信息的影响,作者于2020年离开了Facebook,并反思了该平台从真诚连接到充斥着网红、广告和机器人,令人疲惫的现状。虽然承认社交媒体“黄金时代”正在消退,但作者并不提倡完全放弃,而是主张*有意识地*使用。 关键在于从被动浏览转变为有目的的参与:安排发布时间以避免时间线干扰,带着明确目标进行查看,并优先处理直接消息和有意义的对话。社交媒体仍然可以用于连接和分享有用的资源——经验教训、实用文章,而不是用于打造“品牌”。 最终,作者强调了现实生活中互动的不可替代价值。优先学习、创造,以及与朋友面对面交流,胜过点赞和分享带来的短暂认可。现在的重点是乐于助人,促进真诚对话,并将社交媒体用作*工具*,而不是时间黑洞。
## NanoLang:一种极简、LLM友好的编程语言
NanoLang 是一种新的编程语言,旨在实现清晰性、可靠性和 AI 代码生成。它具有简洁、现代的语法和**强制测试**机制,通过“shadow”块确保代码的健壮性。NanoLang **编译为 C**,以实现原生性能,并支持**静态类型、泛型和模块系统**,具有自动依赖管理功能。
主要特性包括**默认不可变**的设计、易于**C 语言互操作性**以及不断增长的标准库,其中包括用于错误处理的 `Result<T, E>` 类型。它优先考虑**无歧义的语法**——没有运算符优先级——使其非常适合 LLM。
目前,NanoLang 支持 **Ubuntu、macOS 以及 Windows 上的 WSL**,并且是**自托管的**,并拥有一套全面的工具:编译器、测试运行器、示例浏览器和用户指南。提供了用于训练 LLM 使用 NanoLang 的资源,包括正式规范和实用示例。
该项目欢迎贡献,重点是示例、文档和扩展标准库。NanoLang 旨在解决 LLM 代码生成、测试规范和简单性方面的问题,同时保持速度和兼容性。
[https://github.com/jordanhubbard/nanolang](https://github.com/jordanhubbard/nanolang)
## 艰难就业市场中的精准求职 当前的科技就业市场需要从广泛申请转向**精准选择**。不要申请无数职位,而是专注于5-10个你真正渴望的机会——那些与你的兴趣相符、竞争较少或能利用现有关系(共同学校、家乡等)的机会。 成功取决于*每次*申请的投入。这意味着主动联系在职员工(跟进至关重要——预计需要发送多封邮件!),对于小型公司,甚至直接联系CEO。**不要索要推荐信**,而是专注于展示你的价值和真诚兴趣。 这种策略能显著提高成功率;将成功率从1%提高到10%意味着申请10份工作而不是100份。这个原则不仅适用于求职,也体现在成功获得竞争激烈的公寓上——强调了将精力集中在真正想要的事物上的力量。最终,精准选择能让你将时间投入到最重要的机会上。
## 万亿参数模型快速权重传输
研究人员实现了对1T参数Kimi-K2模型的1.3秒跨机器参数更新,将权重从256个训练GPU传输到128个推理GPU。这种速度对于需要频繁权重更新的异步强化学习至关重要。
关键创新在于利用**RDMA WRITE**,一种单边通信原语,允许训练GPU直接写入推理GPU内存,*无需*推理引擎干预。这避免了传统方法中常见的瓶颈,这些瓶颈会将数据集中到单个GPU或依赖RPC。
该系统采用**静态预计算调度**进行权重传输,最大限度地减少控制平面开销。权重传输通过**流水线**进一步优化,重叠主机-设备内存拷贝、GPU计算(如量化)、RDMA传输和以太网同步。**网格组**策略实现了对不相交参数集的并行传输。
这种方法优先考虑简单性和可维护性,通过清晰的分工——每个步骤(元数据收集、传输等)都是一个独立的组件。结果是一个快速、可靠且易于扩展的大规模模型更新解决方案。