每日HackerNews RSS

## AutoRound:用于LLM和VLM的超低比特量化 AutoRound是一个强大的工具包,可以将大型语言模型(LLM)和视觉语言模型(VLM)量化到2-4比特,同时最大限度地减少精度损失。它利用符号梯度下降进行优化舍入,并提供广泛的硬件兼容性(CPU、CUDA、Intel GPU、Habana Gaudi)。 主要特性包括卓越的精度——即使在4比特下也能达到领先水平——以及与Transformers、vLLM和SGLang等流行框架的无缝集成。AutoRound支持多种导出格式(AutoRound、AutoAWQ、AutoGPTQ、GGUF),并能够快速生成混合精度方案。 最近的更新包括对FP8量化、MTP层以及针对GGUF和INT2量化的增强算法的支持。它支持10多个VLM,并提供可定制的配方,用于优化速度或精度。AutoRound正在积极扩展对MXFP和NVFP等新型数据类型支持。安装通过pip非常简单,并提供夜间构建和特定硬件选项。 有关详细用法和高级配置,请参阅用户指南和项目仓库。

对不起。

``` SiteMogging 两个网站进入。一个被碾压。 挑战者 Avs 挑战者 B 比较 Aura 最近的碾压:4秒前 被碾压 jpmorganchase.com 0.0/10 zombo.com 2.1/10 👑 zombo.com 碾压 jpmorganchase.com 查看判决 → 由 Cloudflare Browser Run + Workers AI + D1 + R2 提供支持 由 @Jilles 在 Cloudflare 上制作 🧡 ```

502 坏网关 nginx/1.18.0 (Ubuntu)

## 在浏览器中运行1991年的PostScript解释器 一个项目允许用户在他们的网页浏览器中直接运行Adobe的1991年PostScript解释器(pagetable.com)。Hacker News的讨论强调了围绕PostScript的怀旧和技术兴趣,PostScript是一种曾经是印刷和数字出版中心强大的语言。 用户分享了“蓝皮书”、“红皮书”和“绿皮书”PostScript手册等资源,并讨论了macOS等现代操作系统中对PostScript原生支持的缺失。一些人回忆起在专业工作中使用的PostScript,包括控制打印机和制作丝网印刷胶片等创新应用。 对话还涉及了该语言的优势——其类似Lisp的特性和易用性——以及弱点,例如处理图像。人们赞赏最近为重现PostScript功能所做的努力,例如GitHub上的retro-ps项目,并反思了苹果转向PDF以及技术发展中潜在的学术根源丧失。该帖子还包括指向历史资源的链接以及对相关技术(如NeWS和HyperTIES)的讨论。

## Lovable 基础设施事件:分层故障 Lovable 经历了一系列间歇性错误——项目失败、GitHub 超时和连接重置——由于底层基础设施不稳定影响了用户。最初的日志分析证明很困难,但一个由人工智能驱动的调试代理发现了 `anetd` Pod(Google 的 Cilium 实现)的持续重启,源于 WireGuard 模块中的并发错误。 与 Google 合作,一个临时解决方案是禁用节点到节点的加密,从而解决了 `anetd` 的崩溃。然而,很快出现了新的连接到其内存数据存储 Valkey 的失败。调查发现最大传输单元 (MTU) 配置不匹配;一些节点保留了启用 WireGuard 时使用的较低 MTU,在禁用加密后导致碎片问题。完全重新滚动节点以标准化 MTU 解决了 Valkey 错误。 该事件强调了识别分布式系统中的*分层*故障以及彻底的变更后验证的重要性。Lovable 学到了人工智能辅助调试的价值,以及在供应商评估存在差异时信任内部专业知识的价值。Google 此后已修复了最初的 WireGuard 错误。

## GKE WireGuard 漏洞与 AI 生成内容疑虑 最近一篇 Hacker News 帖子详细描述了在 Google Kubernetes Engine (GKE) 中发现的一个 WireGuard 漏洞,导致由于并发 map 访问 panic 频繁重启 pod。虽然最初被 Lovable.dev 描述为 AI 驱动的发现,但评论员指出,实际发现根本原因的是工程师 Sascha——`anetd` 中的一个 WireGuard 模块问题。 该事件引发了关于如何评估 AI 作用与人类专业知识的争论,许多人批评这篇文章具有误导性,将其称为“AI 垃圾”,认为其将营销置于技术细节之上。 许多用户指出,文章的写作风格表现出 AI 生成内容的特征,例如重复的措辞和特定的语气。 最终,修复方案包括禁用 WireGuard 并解决 GKE 节点之间不一致的 MTU 设置。 然而,评论员们遗憾地指出,缺乏对漏洞*为何*出现以及潜在预防措施的深入分析,凸显了事件报告日益浮于表面的趋势。 讨论还涉及 AI 影响写作日益普遍及其对内容质量的影响。

失败者抱怨Claude是因为他们想要Claude免费且廉价,却从不考虑计算成本。他们忘记了,Claude的质量已经成为大型科技公司用来辅助开发的标准。我真的讨厌那些抱怨者,他们想用20美元买下整个海洋。

启用 JavaScript 和 Cookie 以继续。

## 放弃 GitHub:SourceHut 简介 本指南建议开发者从 GitHub 迁移到 SourceHut,理由是担心微软的拥有权、数据隐私、遥测、专有性质以及潜在的审查制度。虽然自托管是理想选择,但 SourceHut 为缺乏资源的开发者提供了一个可行的替代方案。 核心论点在于重新获得控制权并优先考虑开源原则。SourceHut 的特点是其对隐私的强烈承诺——最小的数据收集、无跟踪、无人工智能功能——这与 GitHub 的数据驱动方法和 Copilot 形成鲜明对比。 SourceHut 通过“补丁”(通过电子邮件替代拉取请求)、功能性的“待办事项”(Issues)、使用 YAML 配置的“构建”(Actions)、简单的“页面”(静态网站托管)和简单的“手册”(Wiki 页面)来实现功能对等。 SourceHut 采用分层订阅模式(每月 2-10 美元),并为贡献者或有经济需求的人提供免费服务。作者赞扬 SourceHut 的基于电子邮件的工作流程和缺乏游戏化,从而促进了更专注和协作的开发环境。最终,本指南鼓励开发者尝试 SourceHut,并考虑从 GitHub 的集中式专有生态系统中转移。

对不起。

OpenAI 将效仿 Anthropic 对其新型网络安全工具 GPT-5.5 Cyber 的限制发布策略,尽管 CEO Sam Altman 此前曾批评 Anthropic 采取相同的方式对待他们的工具 Mythos。Cyber 专为渗透测试和漏洞识别等任务而设计,最初将仅通过申请流程提供给经过审查的“关键网络防御者”。 这一决定源于对恶意行为者潜在滥用的担忧。Altman 最初将 Anthropic 的做法称为“基于恐惧的营销”,但 OpenAI 承认广泛发布这种强大工具的风险。值得注意的是,尽管有访问控制,Mythos 据称仍被未经授权的用户访问。 OpenAI 正在与美国政府合作,以负责任的方式扩大 Cyber 的访问范围,重点是验证用户凭证和合法的网络安全应用。该公司旨在实现更广泛的可用性,但优先考虑安全性和防止有害使用。

## AI模型访问与竞争:黑客新闻总结 最近黑客新闻上的一讨论集中在OpenAI限制对其“Cyber”模型的访问,原因是批评了Anthropic有限的“Mythos”发布。 这引发了关于这些限制背后动机的争论——它们是真正的安全问题、营销策略,还是为了保持竞争优势? 一些评论员指出,两家公司都在不断升级关于模型“危险性”的说法,同时对运行这些模型的成本高昂表示担忧。 来自中国的DeepSeek V4等更便宜的替代方案的出现,正在挑战美国人工智能供应商的统治地位,这可能得益于政府补贴。 对话还涉及了LLM的盈利能力,许多人质疑目前是否有任何公司正在盈利,以及计算能力在保持领先地位中的作用。 人们对这些模型的真正能力表示怀疑,一些人认为炒作超过了现实。 最后,讨论强调了本地运行模型作为一种可行替代方案的潜力,可能会颠覆当前的格局。

## 旋转拨盘非智能手机:摘要 旋转拨盘非智能手机是一个完全设计好的、可用于生产的套件,用于构建一款现代、语音优先的带有经典旋转拨盘的手机。由Justine Haupt创作,这是一个实验性项目,需要高级的构建技能(但套件本身*不需要焊接*),以及一张Mini SIM卡。 这款LTE设备支持VoLTE,并在需要时回落到3G,使其与当前和未来的网络兼容——通过LTE基础设施实现5G兼容性。它具有微控制器(ATMega2560V/1280V)和uBlox蜂窝调制解调器。 这款手机优先考虑功能而非“智能”功能,提供卓越的接收效果、快速拨号按钮、用于联系人的双稳态电子纸显示屏,以及用于隐私的物理麦克风断路开关。虽然电池可更换(需要拆卸和焊接),但设计强调简单性和令人满意的触觉用户体验——这是对现代智能手机复杂性的刻意偏离。设计文件是开源的,允许自定义和独立构建。

对不起。

## 破裂的社会契约与日益增长的安全风险 失业四个月后,一次面试凸显了一个令人不安的趋势:雇主严重低估了薪酬的真实成本。一个高级技术职位——负责整个组织的技术基础设施,包括关键公共安全系统——提供的薪水仅略高于维持生计的水平。 这并非个例,而是工资仅仅被视为劳动报酬,忽略了其在社会稳定和组织安全方面关键作用的更大转变的一部分。工资不仅仅是为了生存,更是“保护费”——防止破坏、倦怠和脱离。 数十年停滞不前的工资和不断上涨的成本已经将工人推到了极限。从会计到信息技术专业人员,越来越多的技术娴熟的员工愿意冒公司安全的风险——通过疏忽、举报,或更糟——当他们感到不被重视时。投资员工不仅是道德的,也是一项重要的安全措施。 忽视这一现实,并依赖人工智能等技术“补救措施”,是一场危险的赌博。作者警告说,未能充分补偿工人正在破坏一项基本的社会契约,并最终将导致代价高昂的后果——甚至可能导致系统性失败。

对不起。

更多

联系我们 contact @ memedata.com