每日HackerNews RSS

访问被拒绝。您没有权限访问“http://baumgartner.house.gov/2026/04/02/baumgartner-introduces-bipartisan-bill-to-tighten-controls-on-sensitive-chipmaking-equipment/” 上的服务器。 参考编号:18.c6753617.1776578664.bff73a45 https://errors.edgesuite.net/18.c6753617.1776578664.bff73a45

一项新的两党法案提议对半导体设备加强美国管制,可能允许政府阻止美国公司为不符合特定要求的设备制造商提供服务,期限为150天。有评论员将此比作阻止铁匠向与外国实体交易的金匠提供供应。 该法案的主要目标似乎是先进芯片制造的关键参与者ASML,以及限制其与中国的业务。虽然可执行性依赖于ASML对美国零部件和服务的依赖,但一些人认为该法案旨在鼓励更多芯片制造回流美国。然而,评论员对在规定时间内实现显著的本土化表示怀疑。另有评论指出,欧盟似乎接受了这些限制。

讨论请求速率——一段时期内的请求数量——至关重要的是**明确该时期**,理想情况下定义为**每秒请求数**。含糊不清的仪表盘可能会根据缩放级别显示不同的速率,导致数据不一致。 虽然**赫兹 (Hz)** 和 **贝克勒尔 (Bq)** 都表示每秒发生的事件,但**贝克勒尔更适合请求速率**,尽管它最初与放射性有关。赫兹暗示可预测的、周期性的事件,而贝克勒尔更好地反映了通常不规则请求的平均频率(例如网站流量)。 对于高容量速率,贝克勒尔提供更简洁的表示法(例如,90 kBq 与 90,000 请求/秒)。虽然有人建议使用一个新单位(“rips”),但利用现有的贝克勒尔,并将其接受的含义扩展到放射性之外,为一致地测量和沟通请求速率提供了一个实用的解决方案。作者希望贝克勒尔未来能成为一般事件频率的标准。

Hacker News新 | 过去 | 评论 | 提问 | 展示 | 招聘 | 提交登录 贝克勒尔作为请求速率的 SI 单位 (entropicthoughts.com) 14 分,作者 fanf2 3 小时前 | 隐藏 | 过去 | 收藏 | 2 条评论 帮助 avmich 1 分钟前 | 下一个 [–] 我们能讨论 - 或假设,或理解 - “平均请求频率”并仍然使用赫兹作为单位吗?回复 hirsin 12 分钟前 | 上一个 [–] 用每分钟请求数而不是每秒请求数来衡量有什么明显的理由吗?还是一个随意的玩笑?我参与过的一些系统 API 平均每秒少于一个请求,但我不认为我们想用毫贝克勒尔来衡量。有些系统测量的是每小时数百万个请求,因为每小时的使用量是一个关键指标,因为速率限制也是按小时计算的。回复 指南 | 常见问题 | 列表 | API | 安全 | 法律 | 申请 YC | 联系 搜索:

这篇博文讲述了看似小众的数据结构——跳表——如何意外地解决了软件测试公司 Antithesis 的一个重大性能问题。作者最初认为跳表过于复杂,但当在分析软件模糊测试产生的大型数据集时,在 Google BigQuery 中遇到查询速度慢的问题时,重新发现了它的用处。 Antithesis 需要有效地追踪导致特定日志消息的事件历史,这需要遍历分支树结构。BigQuery 的架构针对全表扫描进行了优化,难以处理树遍历所需的众多点查询。为了避免使用分数据库方法带来的复杂数据库一致性问题,团队创新了一种“跳树”——本质上是多个共享结构的跳表——并使用 SQL 表实现。 这使得通过链式 JOIN 进行祖先查找成为可能,巧妙地平衡了查询复杂度和 BigQuery 的定价模式。虽然生成的 SQL 代码很长,但 JavaScript 编译器可以自动生成它。跳树解决方案有效运行了六年,直到 Antithesis 开发了自己的优化数据库。作者总结说,即使是晦涩的数据结构也可能证明非常有价值,并强调了创新的周期性——跳树概念与现有的“跳图”结构相关。

黑客新闻 新 | 过去 | 评论 | 提问 | 展示 | 招聘 | 提交 登录 跳跃表有什么用? (antithesis.com) 10 分,由 mfiguiere 发表于 2 小时前 | 隐藏 | 过去 | 收藏 | 讨论 帮助 指南 | 常见问题 | 列表 | API | 安全 | 法律 | 申请 YC | 联系 搜索:

这篇帖子剖析了一种有趣的动态,即我们如何解读媒体,灵感来源于重读《糊涂蛋日记》。作者认为,它的幽默之处在于格雷格·赫夫利在日记里*说*的话和他行为(通过附带的涂鸦展示)所揭示的真实性格之间的差距。关键在于,插图表明格雷格*知道*自己的缺点,这与一种常见的解读——将他描绘成无知的——相矛盾。 这个观察结果可以延伸到现实生活中那些广受批评的在线“主角”——那些个人写作被广泛评论的人。作者指出,人们倾向于指责这些作者缺乏自我意识,但他们的写作往往*有意*呈现一幅不讨喜的自我画像。以丹尼尔·奥本海默的《纽约时报》文章为例,帖子认为,批评这种写作的*内容*是合理的,但假设作者不知道他们所造成的印象是不准确的。 最终,作者提倡更细致的批评,关注*所说/所做*的内容,而不是错误地将无知归于作者。他们俏皮地提出需要一个术语来描述这种现象——文本与创作者意识之间的脱节。

黑客新闻 新 | 过去 | 评论 | 提问 | 展示 | 招聘 | 提交 登录 元文本素养 (jenn.site) 3212 1小时前 | 隐藏 | 过去 | 收藏 | 讨论 帮助 指南 | 常见问题 | 列表 | API | 安全 | 法律 | 申请YC | 联系 搜索:

启用 JavaScript 和 Cookie 以继续。

对不起。

``` 这个目录包含 Tachyon 的架构决策记录 (ADR)。每个 ADR 记录了一个重要的设计选择、促使该选择的背景以及其后果。新的 ADR 使用文件底部的模板。一旦被接受,ADR 将不会被删除,过时的决策会被标记为“已废弃”并链接到替代方案。 # ADR-NNN: 标题 --- **状态:** 提议中 | 已接受 | 被 ADR-NNN 废弃 | 已弃用 **日期:** YYYY-MM-DD --- ## 背景 存在什么问题?有哪些因素在起作用?存在什么约束?请具体说明:包括基准测试、内核版本和相关的 API 限制。 ## 决策 我们决定了什么?用一句话清晰地表达,然后说明理由。 ## 后果 **正面** - … **负面** - … **中性** - … ```

## 快速跨语言 IPC 实现 一个新库旨在实现极快的(56.5ns p50 往返时间)跨进程通信 (IPC),用于 C++、Rust、Python、Go、Java 和 Node.js 等语言之间,通过绕过内核来提高速度。 作者 riyaneel 专注于消除序列化开销和内核在关键路径上的参与。 关键架构选择包括严格的单生产者单消费者 (SPSC) 设计、硬件感知的内存填充以避免缓存争用,以及在初始 socket 握手后使用共享内存 (memfd) 进行零拷贝数据传输。 一种混合等待策略在响应能力和 CPU 使用率之间取得平衡,在回退到系统调用进行等待之前,短暂地进行自旋。 核心使用 C++23 编写,并具有 C ABI,以便于语言绑定。 该库适用于构建需要高效跨语言数据交换的高吞吐量、多语言系统开发者。

大约10年前,作者开发并成功售出了“Gun Rocket”,这是一款快节奏街机游戏,灵感来自*n++*和*Asteroids*。最近,当作者重温这个项目时,发现原始游戏构建无法运行——似乎是由于与现代系统的兼容性问题。 这引发了一个将“Gun Rocket”更新到2026年的项目。最初的障碍?Unity版本问题。最初使用4.6构建,然后迁移到5.5,该项目现在面临着大幅升级到当前的Unity 6.x系统。Unity从数字版本到基于年份的版本(如Unity 2017)再回到数字版本的转变增加了复杂性。 找到必要的旧Unity版本证明具有挑战性,需要深入挖掘Unity的“存档”。即使使用Unity 5.6,游戏最初也无法启动,这可能是由于Unity Hub出现之前的许可问题。作者现在正在探索较新的Unity 5版本,以尝试运行游戏并开始更新过程。

黑客新闻 新 | 过去 | 评论 | 提问 | 展示 | 招聘 | 提交 登录 更新Gun Rocket,历经Unity引擎十年 (jackpritz.com) 10 分,tyleo 发表于 1小时前 | 隐藏 | 过去 | 收藏 | 讨论 帮助 指南 | 常见问题 | 列表 | API | 安全 | 法律 | 申请YC | 联系 搜索:

## ROCm & Strix Halo 初步印象 本总结详细介绍了在 Ubuntu 24.04 上成功设置 ROCm,并与 Strix Halo GPU 实现 128GB CPU/GPU 共享内存。BIOS 更新对于 PyTorch 识别 GPU 至关重要。配置涉及减少保留的显存(低至 512MB)并利用 GTT 实现高效的内存共享,同时为内核稳定性保留 4-12GB。 关键步骤包括使用特定的 `ttm.pages_limit` 和 `amdgpu.gttsize` 值修改 `/etc/default/grub`,然后更新 grub。PyTorch 使用 `uv` 配置,并使用指向 ROCm 特定 PyTorch wheels 的自定义索引。 该设置能够在 Podman 容器内通过 `llama.cpp` 运行 Qwen3.6 模型,利用 GPU 加速。模型下载和转换为 `gguf` 格式也被详细说明。最后,提供了一个 Opencode 配置,用于与本地运行的 Llama.cpp 实例集成。 尽管最初遇到了一些挑战,作者报告了积极的体验,成功利用 PyTorch 并运行具有大量上下文窗口的大型语言模型。

黑客新闻 新 | 过去 | 评论 | 提问 | 展示 | 招聘 | 提交 登录 我对ROCm和Strix Halo的初步印象 (marcoinacio.com) 11点 由 random_ 3小时前 | 隐藏 | 过去 | 收藏 | 讨论 帮助 指南 | 常见问题 | 列表 | API | 安全 | 法律 | 申请YC | 联系 搜索:

## Apple Silicon 与 WebAssembly:零拷贝 GPU 访问用于 AI Apple Silicon 的统一内存架构 (UMA) 允许 WebAssembly (Wasm) 模块直接与 GPU 共享内存——消除了传统上在沙盒运行时和加速器之间所需的高成本数据拷贝。这意味着 CPU 和 GPU 读取/写入*相同*的物理内存,将 Wasm 变成控制平面,将 GPU 变成计算平面,且开销接近于零。 作者正在构建“Driftwood”,一个利用此功能的用于有状态 AI 推理的运行时。其关键在于三部分验证:使用 `mmap` 进行对齐内存,Metal 访问该内存无需拷贝的能力,以及 Wasmtime 的自定义分配器向 Wasm 模块提供内存。使用矩阵乘法的测试证实了零拷贝功能以及与传统方法相当的性能,但内存占用显著减少——这对于像 transformer 推理中使用的那样的大型模型至关重要。 在 M1 Macbook Pro 上运行 Llama 3.2 1B 的初步测试表明,Wasm-GPU 边界的开销可以忽略不计。更重要的是,作者成功地序列化并恢复了 GPU 的键值缓存,从而实现了可移植的 AI 对话状态。这为“有状态 actor 迁移”奠定了基础——冻结、移动和恢复跨机器的 AI 对话。Driftwood 旨在在此基础上构建 actor 快照、检查点可移植性和多模型支持。

一种新技术实现了在苹果芯片上从 WebAssembly (Wasm) 进行“零拷贝”GPU 推理,消除了 Wasm 模块和 GPU 之间的数据复制和序列化需求。这意味着更快速、更高效的机器学习推理。 目前,这种功能已确认可在 Wasmtime(一种 Wasm 运行时)上工作,但不一定在网页浏览器中有效,引发了关于潜在浏览器兼容性的讨论。 该消息引发了评论区的争论,一些人质疑这种方法的必要性,并哀叹对人工智能生成想法的依赖。另一些人指出,人工智能生成的内容往往缺乏深入理解,并对编码面试等实用技能产生影响表示担忧。作为反驳,有人认为传统的白板面试可能很快就会过时。

## Sostactic:在Lean 4中证明多项式不等式 Sostactic是一系列Lean 4战术,利用Python后端通过求和次方(SOS)分解来证明多项式不等式,其能力超越了现有的Lean战术,如`nlinarith`和`positivity`。 **主要特性:** * **证明:** 多项式的全局非负性,在半代数集上的非负性(由多项式不等式定义),以及半代数集的空集性。 * **战术:** `sos_decomp`(用于全局非负性),`putinar_decomp`/`schmudgen_decomp`(用于约束问题),`putinar_empty`/`schmudgen_empty`(用于证明集合为空)。 * **后端:** 利用`cvxpy`(一个凸优化求解器)通过Python查找SOS证书,然后在Lean中验证它们。 * **灵活性:** 可以作为Python API、CLI,或直接在Lean中使用。支持预生成证书以提高性能。 **用法:** 像`sos_decomp`和`putinar_decomp`这样的战术会自动尝试寻找证明。可以调整参数,如`order`(松弛阶数)和`degree`(分母阶数上限)。如果证明失败,系统会提供诊断和建议(例如,增加阶数,使用分母)来指导用户。 **安装:** 需要Lean 4,Python 3.10+,以及通过`lake`和`pip`安装的依赖项。 更多细节和示例可在[README](链接到README)中找到。

对不起。

更多

联系我们 contact @ memedata.com