每日HackerNews RSS

关于登录模型 llama-4-scout-109b qwen-3.5-122b glm-5-754b kimi-k2.5-1t deepseek-v3.2-685b deepseek-r1-0528-685b 价格 $10 $40 承诺 1 个月 3 个月 吞吐量 15 tok/s 35 tok/s 可用性 0% 100% 筛选器 显示 0/0 排序 可用性:低到高 价格:低到高 价格:高到低 吞吐量:高到低 没有匹配您筛选器的模型。

## sllm:LLM 共享 GPU 访问 - 摘要 sllm.cloud 旨在通过允许开发者共享 GPU 节点,从而 democratize 大型语言模型 (LLM) 的访问,显著降低成本。运行像 DeepSeek V3 (685B) 这样强大的模型通常每月需要 14,000 美元,但 sllm 提供每月 5 美元起的价格,面向需要 15-25 token/秒的用户。 该服务采用基于 cohort 的系统:用户预留位置,只有在 cohort 填满时才会付款。它使用 vLLM 兼容 OpenAI-API,确保易于集成。一个关键特性是数据隐私 – 不记录任何流量。 早期反馈强调了对资源竞争(“噪音邻居”问题)和 cohort 填满时间的问题。sllm 正在通过速率限制、7 天 cohort 填满保证(未填满时自动取消)以及优化 GPU 利用率来解决这些问题。用户质疑广告宣传的 token 速率与实际性能,以及与 OpenRouter 等替代方案相比的成本效益。该项目仍处于早期阶段,正在寻求反馈以完善其模型。

请启用 JavaScript 并禁用任何广告拦截器。

## 华夫屋传送事件及网络反应 最近一篇《纽约时报》文章详细描述了一位前 FEMA 官员的说法,他声称在接受癌症治疗期间,从家中“传送”到了一家华夫屋,然后又传送到了沟里。这个故事在 Hacker News 上引发了热烈讨论,许多用户建议这可能是一种医学解释,例如分离性遁逃或化疗和药物引起的 delirium(谵妄)。 一些评论员指出,理性解释与将经历归因于更非凡的事物的强烈愿望之间的对比。对话很快转向了关于人类思维、睡眠瘫痪以及美国政治中阴谋论日益盛行的更广泛讨论,并引用了拥有非常规信仰的公众人物的例子。 幽默也扮演了角色,提到了《洋葱报》,SNL 的 Stefon 角色,以及传送的物理学。一些评论员对在权力职位上正常化精神疾病表示担忧,而另一些人则只是分享了自己奇怪且无法解释的经历。

(Empty input provided. There is nothing to translate.)

## 独立互联网索引与不断发展的生态系统 一个名为独立互联网索引(III – iii.social)的新项目,旨在成为一个可搜索的独立网站目录,类似于Gossip Web,但具有基于用户提交描述的语义搜索功能。Hacker News上的讨论迅速发展成对众多其他“IndieWeb”目录和索引的分享,凸显了一个蓬勃发展的社区,专注于发现和支持个人网站。 分享的资源包括blogroll.org、blogs.hn、hnpwd.github.io、indieblog.page、Kagi的Small Web、marginalia-search.com、minifeed.net和personalsit.es。一位贡献者提到,通过kagisearch/smallweb可以找到一个包含3万多个RSS/Atom订阅源的数据库。 对话强调了对协作的“生态系统”的发现工具的偏好,而不是单一的强势索引。目前,III完全依赖用户提交(需要电子邮件验证),并且有意避免定义“独立”的严格规则。虽然有人指出该网站依赖JavaScript,但创建者澄清,独立网站可以使用现代网络技术是可以接受的。

## LLM 生成的密码:安全风险 尽管大型语言模型(LLM)*看起来*能生成强密码,但从根本上说,它们并不适合这项任务。LLM 的设计目的是预测文本,因此会产生可预测的输出——这与创建强密码所需的随机性恰恰相反。这并非纯粹的理论;LLM 和 AI 编码代理已经在实际应用和代码开发中生成并使用这些弱密码。 测试表明,LLM 生成的密码存在模式、重复,并且熵值明显低于预期。即使调整“温度”设置也无法解决这个问题。令人惊讶的是,编码代理通常*更喜欢* LLM 生成的密码,除非明确指示它们使用安全的密码生成方法,例如 `openssl rand`。 随着 AI 越来越多地自动化代码创建,这构成了一种风险。弱密码可能会重新使有效的暴力破解攻击成为可能,特别是如果攻击者能够识别由特定 LLM 生成的代码并针对这些可预测的模式。 **建议:** 避免使用 LLM 生成的密码。开发者应指示编码代理使用安全的密码生成工具。AI 实验室应优先在模型和代理中默认启用安全的密码生成功能。这凸显了一个更广泛的问题:AI 产生*合理*输出的能力并不能保证*正确性*,这对于安全应用来说是一个关键的区别。

## LLM 生成的密码:安全风险 最近 Hacker News 的讨论集中在一篇文章上,强调了使用大型语言模型 (LLM) 生成密码的危险。核心问题不在于 LLM *知道* 你的密码,而在于它们倾向于生成**可预测的**密码,因为它们是遵循确定性模式的机器。重复请求通常会产生相同、看似安全的密码,这为攻击者创造了漏洞,攻击者可以简单地收集并测试这些常见输出。 评论者指出依赖 LLM 进行安全保障的荒谬性,将其比作用螺丝刀代替刀。有人指出 LLM 存在偏见(例如避免“69”),并且可能默认选择弱选项,如“password”或基于用户名的变体。 虽然人类也会创建糟糕的密码,但文章认为 LLM 呈现了一个新的攻击面。攻击者无需攻破系统来获取这些密码——他们只需查询公开可用的 LLM。讨论还涉及更广泛的问题,即信任第三方进行密码生成,强调需要使用密码学安全的随机数生成器 (RNG)。

德国新的《军事服务现代化法》将于2026年1月生效,旨在到2035年将武装部队兵力提升至26万人,以应对乌克兰战争后欧洲安全形势的加剧。该法律避免恢复强制兵役——维持自愿制度——但引入了重大变化。 值得注意的是,18至46岁的男性现在需要获得联邦国防军职业中心批准,才能在德国境外停留超过三个月,无论出于何种原因(学习、工作、旅行)。军方表示,此举是为了在危机时期追踪潜在人员。然而,除非预计需要服役,否则通常会批准许可。 该法律还规定所有18岁男性必须填写一份关于其服役适宜性的问卷(女性自愿填写),并计划从2027年中期开始进行体能测试,以评估征兵潜力。尽管最初有抗议反对潜在的征兵制,但政府达成了一项妥协方案,侧重于自愿服务,以及这些新的追踪和评估措施。目前,未经许可离开该国不会受到处罚,这与冷战时期一项类似的、未执行的规定相符。

## TurboQuant-WASM:浏览器和Node.js中的高效向量量化 TurboQuant-WASM 通过 WebAssembly (WASM) 将基于 Google Research 的“TurboQuant”论文的最先进向量量化技术带到 Web 浏览器和 Node.js。该实现实现了大约 6 倍的压缩(~4.5 位/维度),同时保留内积精度,并通过严格的黄金值测试验证。 主要功能包括用于轻松集成的 TypeScript API (`TurboQuant.init()`, `encode()`, `decode()`, `dot()`)、用于性能的宽松 SIMD 优化(使用 FMA 指令)以及紧凑的 npm 包 (`turboquant-wasm`)。 一个在线演示展示了向量搜索、图像相似性和 3D 高斯飞溅压缩直接在浏览器中。WASM 构建需要 Zig 0.15.2 和 Bun 用于构建,并且与现代浏览器(Chrome 114+、Firefox 128+、Safari 18+)和 Node.js 20+ 兼容。该项目采用 MIT 许可,并与原始 Zig 实现保持位相同的输出。

## TurboQuant-WASM:在浏览器中进行向量量化 一个名为TurboQuant-WASM (TQ) 的新项目,使用 WebAssembly 将 Google 的向量量化技术带到浏览器中。虽然有望减少下载大小——在 gzip 压缩有限的浏览器环境中这是一个关键优势——但初步用户测试显示存在性能权衡。 一位用户发现,TQ 在使用 8 位量化时,搜索质量与 32 位浮点数相似,但如果没有 GPU 加速,则明显*更慢*。另一位用户将 TQ 实现为 SQLite 扩展,证实了节省空间,但查询时间变慢。 尽管人们对其潜力感兴趣,但一些评论员表示怀疑,引用了缓慢的演示(800 毫秒 vs 2.6 毫秒),并质疑在显著影响搜索速度的情况下,空间节省的价值(1.2MB vs 7.2MB 内存)。 此外,还对项目的起源和初步讨论的质量提出了担忧。

## 编码代理与框架:摘要 本文探讨了“编码代理”——为软件开发增强的大语言模型——以及驱动它们的“代理框架”的架构。虽然大语言模型的进步至关重要,但最近的许多进展源于*如何*利用它们,特别是通过管理工具、上下文和记忆的系统。像Claude Code和Codex这样的编码代理不仅仅是模型,而是围绕模型构建的应用层,以实现更优越的编码性能。 核心思想是将大语言模型(“引擎”)与周围系统(“框架”)分离。框架管理控制循环,决定检查什么、使用哪些工具以及如何维护状态。编码框架的关键组件包括:**实时仓库上下文**、**高效的提示塑造与缓存**、**结构化和验证的工具**、**上下文缩减**以避免过载、**会话记忆**以保持连续性以及**委托**给子代理以进行并行任务。 本质上,一个好的框架为大语言模型提供相关信息,管理复杂性,并确保安全执行。作者强调,框架设计通常比模型本身更能区分大语言模型的性能,并分享了一个极简的“迷你编码代理”实现来说明这些概念。最终,编码框架是关于用软件开发的实用性来增强大语言模型——导航代码库、运行测试和管理迭代反馈。

## 编码代理:规范 vs. 对话 & 结构的重要性 这次Hacker News讨论围绕构建有效的编码代理,强调从基于对话的交互方式向**规范驱动方法**的转变。核心思想是将意图(指定*要*构建什么)与实现(生成代码)分离。 像Ossature这样的工具体现了这一点,专注于创建详细的规范,审计其一致性,然后从清晰的构建计划中生成代码。这与上下文可能漂移且代码质量下降的对话式代理形成对比。用户强调**可追溯性**的价值——保存提示和响应以供审查——以及需要一个代表项目意图的中央“事实来源”。 许多评论者同意,虽然聊天界面很方便,但它们会丢失关键信息。一个关键点是准确捕捉意图至关重要,即使这需要更多前期工作。 讨论还涉及了在精心设计的框架内使用开放权重LLM的潜力,表明在合适的工具支持下,它们可以与GPT-5或Claude Opus等闭源模型相媲美。最终,共识倾向于将规范的结构化编辑作为比仅仅依赖对话提示更可靠的途径。

这是《泰晤士报》网站的导航和推广概述。该网站提供广泛的报道,涵盖众多版块,包括英国和世界新闻、政治、商业、体育、文化、旅游等。它还设有专门的评论、财经、生活与时尚、以及益智游戏区域。 除了新闻之外,《泰晤士报》还提供杂志(如《泰晤士报杂志》和《风格》)、电视指南、播客和各种指南(学校、大学、最佳居住地等)。用户可以管理账户、订阅(目前有1英镑3个月的优惠),并访问Times+独家内容。 一篇重点文章报道了一起事件,Meta被指控在莎拉·温-威廉姆斯的书《粗心的人》详细描述了该公司内部的性骚扰和审查指控后,对其进行了噤声。出版商认为Meta的行动证实了书中的说法。

## 微型 ELF 文件:摘要 本文重新探讨了为现代 64 位 Linux 创建尽可能小的可执行 ELF 文件的挑战。作者受到一篇几年前实现 45 字节二进制文件的文章的启发,旨在创建一个最小的“Hello, world!”程序。 最初的尝试产生了一个 383 字节的 ELF 文件,然后通过删除部分信息将其缩小到 173 字节。进一步优化 x86-64 汇编代码将大小减少到 157 字节。关键突破在于策略性地*覆盖* ELF 和程序头中未使用的字段,用可执行代码,将文件大小减少到 120 字节。 这种极致压缩依赖于 Linux 加载器对不完整头部数据的容忍度。虽然通过缩短输出字符串可以将大小进一步减少到 114 字节,但实现低于该大小的尺寸目前受到头部结构限制。 现代 Linux 更严格的验证阻止了复制最初的 45 字节的壮举,但 120 字节仍然是一个非常小的可执行文件,展示了最大限度地减小软件尺寸的巨大潜力。

Hacker News 新闻 | 过去 | 评论 | 提问 | 展示 | 招聘 | 提交 登录 最小的 ELF 可执行文件 (2021) (nathanotterness.com) 37 分,由 michelangelo 发表于 15 小时前 | 隐藏 | 过去 | 收藏 | 2 条评论 帮助 ptspts 8 小时前 [–] shameless 自我推广:我认为我拥有最短的 hello-world Linux ELF 可执行文件记录 (83 字节):https://github.com/pts/mininasm/blob/master/demo/hello/hello... 回复 LegionMammal978 3 小时前 | 父评论 [–] 尝试 81 字节的 x86-64 可执行文件,或者 77 字节的,如果你在具有 5 级分页的虚拟机上运行它:https://tmpout.sh/3/22.html 回复 指南 | 常见问题 | 列表 | API | 安全 | 法律 | 申请 YC | 联系 搜索:

科技领袖们越来越多地放弃传统的幻灯片,转而采用更具动态性和实用性的会议形式。Block公司首席执行官杰克·多西最近透露,他的公司现在使用用真实或模拟数据构建的原型,而不是演示文稿,认为它们更真实且更具适应性。这种转变能够实现更快的迭代和更低成本的纠错。 多西的举动与更广泛的趋势相符。Perplexity公司首席执行官阿拉文德·斯里尼瓦斯更喜欢详细的备忘录和开放的问答环节,利用人工智能提供随时可用的信息。这呼应了行业巨头杰夫·贝佐斯(亚马逊)和史蒂夫·乔布斯(苹果)过去的决定,他们都偏爱书面备忘录,并劝阻使用PowerPoint演示文稿,认为它们会阻碍真正的思考和讨论。 向原型和备忘录的转变表明,科技公司希望进行更实质性的参与和更快的决策,这可能得益于人工智能的进步和对效率的关注。

更多

联系我们 contact @ memedata.com