每日HackerNews RSS

Hugging Face 模型 数据集 Spaces 社区 文档 企业 定价 登录 注册 Linum-AI 的 Collections Linum v2 (2B, text-to-video) Linum v2 (2B, text-to-video) 更新于 3 小时前 360p 或 720p, 2-5 秒, Apache 2.0 赞 1 Linum-AI/linum-v2-360p 文本到视频 更新于 2 天前 3 Linum-AI/linum-v2-720p 文本到视频 更新于 3 天前 2 赞 1 分享 Collection 查看历史 Collection 指南 浏览 Collections 系统主题 公司 使用条款 隐私 关于 招聘 网站 模型 数据集 Spaces 定价 文档

## Linum V2:从零开始的文本到视频模型 Sahil和Manu Chopra兄弟发布了Linum V2,一个20亿参数的文本到视频模型,历时两年从零开始训练。它采用Apache 2.0许可,生成2-5秒的360p或720p视频片段,在运动和美学方面可与阿里巴巴的Wan 2.1(13亿参数)相媲美。 为了满足超越Veo/Sora等现有模型的定制化需求,他们使用T5进行文本编码,Wan 2.1 VAE进行压缩,以及DiT变体作为主干网络,构建了自己的系统。一个关键的重点是构建有效的数据整理流程。 该模型在卡通/动画风格、食物和自然场景方面表现出色,但在复杂的物理效果、快速运动和一致的文本方面存在困难。未来的开发包括改进物理效果、通过知识蒸馏提高速度、集成音频以及模型扩展。该团队详细记录了他们的流程,并欢迎反馈和问题。 目前,运行360p演示大约需要15GB的VRAM,其中50亿参数的T5编码器是内存使用的重要贡献者。

## Lyft 自行车破解:一个夏季项目 这记录了2019年对 Lyft 自行车共享系统的一次引人入胜(且已道德披露)的安全探索。作者因自行车丢失而感到沮丧,逆向工程了 Lyft 的 iOS 应用 API,以远程解锁自行车。这包括使用 Charles Proxy 等工具拦截和解密网络流量,使用自定义证书克服 SSL 加密,并最终利用一个漏洞。 核心挑战是绕过地理围栏并获取有效的自行车 ID。由于无法直接检索 ID,作者采用了一种暴力破解方法,最初需要数小时,但使用 `aiohttp` 的异步请求优化到约 15 秒。这使得远程解锁自行车成为可能,甚至发现了一个允许同时解锁的错误。 在被 Lyft 实习生发现后,作者通过 HackerOne 负责任地披露了这些发现。尽管最初对暴力破解方法有所担忧,但 Lyft 还是为该报告奖励了 500 美元的赏金,以表彰该漏洞。 这次经历突出了逆向工程的力量、负责任披露的重要性,以及隐藏在看似物理系统中的令人惊讶的数字接口。Lyft 随后修补了这些漏洞并推出了自行车预订功能,从而使这些技术过时了。

## Lyft 自行车破解报告 一位 Hacker News 用户分享了一篇详细的报告(ilanbigio.com),内容是关于 2019 年逆向工程 Lyft 自行车 API,最初目的是为了从停放架上解锁自行车。 这篇文章引发了关于安全漏洞和实现选择的讨论。 评论者注意到该 API 令人惊讶地缺乏速率限制,但很快实施了一个修复方案——速率限制,这阻止了暴力破解,但没有解决潜在的竞争条件。 讨论还涉及证书固定,观点倾向于认为其不切实际,因为存在绕过方法和管理复杂性。 分享了几个相关项目,包括对 Shimano Di2 电子变速系统的攻击,以及对 Bay Wheels 自行车的类似破解。 此外,还提出了对地理围栏执行和设备证明在安全性方面的局限性的担忧,突出了规模和设备兼容性方面的挑战。 最终,原始发帖者澄清说,他们通过确保从未在自己的账户下解锁数百辆自行车来避免了经济后果。

这篇帖子详细描述了对通过SSH运行的高性能游戏进行的性能调查。初步分析显示,停止游戏数据传输后,CPU使用率下降了50%——出乎意料地不是100%。`tcpdump`分析显示,即使在用户输入很少的情况下,也存在大量36字节的数据包(约90/秒),这让作者和Claude Code感到困惑。 根本原因被发现是SSH在2023年添加的按键时序混淆功能,旨在通过在按键输入的同时发送“ chaff”数据包(SSH2_MSG_PING)来增强隐私。对于低延迟游戏来说,这种开销很大。客户端禁用混淆功能可以提高性能,但对最终用户来说不是理想选择。 解决方案是通过fork Go的crypto库,并撤销添加触发混淆功能的扩展,从而减少了超过50%的CPU占用并节省了带宽。作者强调了使用像Claude Code这样的LLM进行调试的价值,同时也承认了它们的局限性以及对人类直觉的需求。这次经历强调了理解网络流量以及SSH等核心协议不断演化的功能的重要性。

(Empty input provided. There is nothing to translate.)

## 联觉:从调色板创作的噪音音乐 一个名为“联觉”(visualnoise.ca)的新网页应用允许用户通过选择颜色来创作噪音音乐。由tevans3开发,该应用使用24音等程音阶将颜色的十六进制代码转换为和弦,然后使用Tone.js播放。 最初的反馈指出输出音量意外地大,促使开发者大幅降低默认音量,并实施限制器和包络以防止音频“失真”。源代码可在GitHub上找到,采用一种独特的、基于祝福的许可协议,最初见于SQLite的代码中。 用户形容由此产生的声音让人联想到Quake Brutalist Jam系列中的环境音乐。请注意——即使经过音量调整,这仍然是噪音音乐!

## Modal GPU 可靠性系统:摘要 Modal 运营着大规模、自动扩展的 GPU 工作池,资源来自主要云服务提供商(标记为 A-D)。管理超过 20,000 个并发 GPU 揭示了显著的可靠性挑战,促使 Modal 开发了一个全面的系统——现在分享作为其他人的指南。 该系统从严格的**实例类型测试**开始,揭示了不同提供商之间的性能和可靠性差异。云 A 提供稳定的启动,而云 C 经历了过热问题,云 D 提供最佳的性价比,但镜像复制速度较慢。**机器镜像一致性**至关重要,通过自动化更新和测试确保兼容性和安全性。 **启动检查**在速度与必要的硬件验证之间取得平衡。虽然深度诊断耗时,但会执行基本测试以快速识别故障实例。**持续的健康检查**——包括被动式(监控日志和指标,如温度)和主动式(运行 GPU 压力测试)——至关重要。 Modal 利用详细的**可观察性**工具,包括显示 GPU 指标和错误日志的仪表板,并提供响应迅速的**支持**渠道。尽管取得了进展,GPU 不可靠性仍然是一个重要问题(Meta 的 LLaMA 3 训练中 58.7% 的问题与 GPU 相关),强调了像 Modal 这样的强大系统对于确保稳定的 AI/ML 工作负载的必要性。

## GPU可靠性问题:摘要 最近的Hacker News讨论强调了NVIDIA GPU在AI/ML训练等高强度工作负载下,令人震惊的高故障率。用户报告GPU故障频率远高于SSD或RAM等其他服务器组件——一些估计表明关键错误会在几个月内发生(A100:65天,H100:50天)。 核心问题似乎是GPU被推至其运行极限,导致故障通常需要完全系统重置。虽然并非总是永久性硬件故障,但这种频率会造成破坏性和成本,可能使价值数百万美元的集群变成“摆设”。 有几个因素促成这种情况:GPU本身的巨大复杂性、硬件迭代速度快于软件/驱动程序支持,以及缺乏广泛的检查点机制。一些人推测,鉴于NVIDIA的市场主导地位,它优先考虑产出而非可靠性。另一些人认为,持续的24/7使用与GPU最初为间歇性游戏工作负载设计的不同。 提供GPU即服务的公司面临着特别具有挑战性的商业模式,需要在高硬件成本、频繁更换和持续软件更新之间取得平衡。讨论还涉及潜在的解决方案,例如液冷和以略低的电压运行GPU,但全面的修复仍然难以捉摸。

BrowserOS是一个新的开源浏览器,基于Chromium构建,旨在原生运行AI代理,提供更自动化和私密的浏览体验。它致力于革新日常浏览方式——超越标签页超载和繁琐任务——通过赋予用户在本地计算机上运行的AI能力。 与ChatGPT Atlas、Perplexity Comet,甚至Chrome和Brave等替代方案不同,BrowserOS优先考虑隐私。用户可以使用自己的API密钥或使用Ollama等工具本地运行模型,确保数据安全。它提供熟悉的Chrome类似界面,支持扩展程序,并内置AI广告拦截器。 BrowserOS是社区驱动的,并提供MCP服务器兼容性等独特功能。开发者设想一个AI可以无缝处理日常在线任务的未来,并邀请贡献者共同构建最佳的AI驱动浏览器。

## BrowserOS:注重隐私的AI浏览器 BrowserOS是一款新的开源AI浏览器,由双胞胎兄弟开发,旨在成为大型科技公司产品的注重隐私的替代方案。其主要区别在于,它在用户本地运行AI代理循环——实现本地LLM使用,并保护敏感数据。 BrowserOS最近发布了文件系统访问功能(类似于Claude Cowork),允许代理本地读取、写入和执行shell命令。这是由一个核心架构决策驱动的,即避免服务器端代理处理,这一转变需要使用独立二进制文件和Gemini-cli从头开始重建浏览器。 BrowserOS目前支持文件组织、自动摘要以及与n8n和Cursor/Claude Code作为MCP服务器等工具集成等功能。开发者还在致力于浏览器级别的安全防护机制(“代理的IAM”)以控制代理的操作。 该项目已获得8.5K GitHub星标和10万+下载量,团队专注于使代理浏览器对知识工作者真正有用,他们认为浏览器正成为许多人的主要“操作系统”。

启用 JavaScript 和 Cookie 以继续。

## 黑客新闻讨论摘要:巅峰表现与早期成就的悖论 一篇最近发表在science.org上的文章引发了黑客新闻关于一项令人惊讶的发现的讨论:早期的高成就者不一定与后来达到精英水平的个体相同。核心观点是,早期表现出色并不能保证持续的成功,而且,那些后来达到巅峰的人实际上在年轻时可能*不如*他们的同龄人。 讨论主要围绕**伯克森悖论**展开,认为选择偏差起着关键作用。关注精英表现者会产生扭曲的视角——在青年时期或成年时期被选拔为高成就者的人看起来呈负相关,即使更广泛的人群显示出正相关。 许多评论员强调了**跨领域知识和适应性**的重要性,认为快速学习者可能缺乏深刻的理解和创造性解决问题的能力。另一些人指出,**专业化**可能会造成盲点。还有人注意到**运气、资源分配和奉献精神**在实现巅峰表现中的影响,质疑仅仅关注早期指标是否具有误导性。 一个反复出现的主题是,持续的成功需要的不仅仅是最初的天赋,更广泛的技能组合和适应意愿对于长期成就至关重要。人们也对科学研究的可及性和研究“最优秀的人”时可能出现的过度简化表示担忧。

## 缓冲解释:为什么你的程序不总是立即打印 你是否想过为什么程序的输出不会立即显示?这通常归结于缓冲。向控制台(TTY)写入时,库通常使用*行缓冲*,在每个换行符(`\n`)之后刷新数据。但是,当管道输出或重定向到文件(非TTY)时,使用*完全缓冲*,累积数据 – 通常高达4-8KB – 然后刷新。 标准错误(stderr)通常是无缓冲或行缓冲的,即使在管道传输时也是如此,以确保错误消息能及时显示。像Rust这样的语言清楚地展示了这一点;如果没有手动`flush()`,管道传输时的输出可能会延迟。 这种差异源于程序检测其环境的方式。TTY代表交互式终端会话,而非TTY是数据流。在程序中,你可以使用像Rust的`is_terminal()`这样的函数检测TTY。 这种区别会影响优化和用户体验。像`ripgrep`这样的工具利用TTY检测在终端中启用彩色输出以提高可读性,但在管道传输时禁用它以避免在文件中出现混乱的转义码。 有趣的是,Rust目前在TTY和非TTY环境中都使用行缓冲,这是一个优先考虑一致行为的 deliberate 选择,尽管开发者承认根据环境调整缓冲策略可以获得潜在的性能提升。理解缓冲有助于调试意外的输出延迟,并为不同的场景优化程序行为。

## 黑客新闻讨论摘要:TTY 缓冲与现代 I/O 一场黑客新闻讨论围绕着改进流缓冲,尤其是在处理终端 (TTY) 时。用户 `lapsed_lisper` 强调了 1991 年 `sfio` 库中的一个“池化”功能,该功能同步了流,有效地在写入 `stderr` 时刷新 `stdout` – 从而消除了代码中手动刷新的需要。 对话延伸到现代系统如何处理这个问题。人们对 Rust 当前的 TTY 和非 TTY 的行缓冲表示担忧,并普遍对根据输出类型(TTY 与其他)自动改变行为感到沮丧。 几位评论员认为,现代操作系统和应用程序不应该需要特殊处理 TTY,而是提倡更通用的输出处理层。他们建议将程序与特定接收器行为(终端、文件、GUI)解耦,并依赖中间层来处理格式化和缓冲。 另一些人指出 libc 中的 `setvbuf` 等现有解决方案,以及使用原始、无缓冲句柄的能力。一个反复出现的主题是类 Unix 系统中历史上“更糟的设计更好”的设计选择,以及对输出更明确控制的渴望。

您的请求已被阻止,原因是网络策略。请登录或在此处创建帐户以恢复浏览。如果您正在运行脚本或应用程序,请在此处注册或使用您的开发者凭据登录。此外,请确保您的User-Agent不为空,并且是独特且具有描述性的,然后重试。如果您正在提供替代的User-Agent字符串,请尝试改回默认设置,因为这有时会导致阻止。您可以在此处阅读Reddit的服务条款。如果您认为我们错误地阻止了您,或者想讨论更轻松地获取所需数据的方式,请在此处提交工单。联系我们时,请提供您的Reddit帐户以及以下代码:019be6fa-3c22-7e9f-aeba-9d395ef81d51。

更多

联系我们 contact @ memedata.com