每日HackerNews RSS

Hugging Face 模型 数据集 Spaces 社区 文档 企业 定价 登录 注册 Linum-AI 的 Collections Linum v2 (2B, text-to-video) Linum v2 (2B, text-to-video) 更新于 3 小时前 360p 或 720p, 2-5 秒, Apache 2.0 赞 1 Linum-AI/linum-v2-360p 文本到视频 更新于 2 天前 3 Linum-AI/linum-v2-720p 文本到视频 更新于 3 天前 2 赞 1 分享 Collection 查看历史 Collection 指南 浏览 Collections 系统主题 公司 使用条款 隐私 关于 招聘 网站 模型 数据集 Spaces 定价 文档

## Linum V2:从零开始的文本到视频模型 Sahil和Manu两位兄弟发布了Linum V2,一个20亿参数的文本到视频模型,历时两年从零开始训练。它采用Apache 2.0许可,生成2-5秒的360p或720p视频片段,可与阿里巴巴的万能2.1(13亿参数)相媲美,但在运动和美观方面有所改进。 由于现有模型的局限性以及对完全控制的渴望,他们使用T5进行文本编码,使用万能2.1的VAE进行压缩,并采用DiT变体作为主干,构建了自己的系统。他们成功的关键在于开发有效的数据整理流程。 该模型擅长卡通/动画风格、食物和自然场景,但在复杂的物理效果、快速运动和一致的文本方面存在困难。他们计划在未来的迭代中改进物理效果,通过知识蒸馏加快处理速度,并添加音频功能。他们正在公开记录他们的过程,以“实验室笔记本”的形式(即将发布博客文章)与社区分享经验。

## Lyft 自行车破解:一个夏季项目 这记录了2019年对 Lyft 自行车共享系统的一次引人入胜(且已道德披露)的安全探索。作者因自行车丢失而感到沮丧,逆向工程了 Lyft 的 iOS 应用 API,以远程解锁自行车。这包括使用 Charles Proxy 等工具拦截和解密网络流量,使用自定义证书克服 SSL 加密,并最终利用一个漏洞。 核心挑战是绕过地理围栏并获取有效的自行车 ID。由于无法直接检索 ID,作者采用了一种暴力破解方法,最初需要数小时,但使用 `aiohttp` 的异步请求优化到约 15 秒。这使得远程解锁自行车成为可能,甚至发现了一个允许同时解锁的错误。 在被 Lyft 实习生发现后,作者通过 HackerOne 负责任地披露了这些发现。尽管最初对暴力破解方法有所担忧,但 Lyft 还是为该报告奖励了 500 美元的赏金,以表彰该漏洞。 这次经历突出了逆向工程的力量、负责任披露的重要性,以及隐藏在看似物理系统中的令人惊讶的数字接口。Lyft 随后修补了这些漏洞并推出了自行车预订功能,从而使这些技术过时了。

## Lyft 自行车破解与安全讨论 Hacker News 上的一位用户分享了一篇详细的报告(ilanbigio.com),内容关于 2019 年逆向工程 Lyft 自行车 API,最初目的是为了从停放架上解锁自行车。 这篇文章引发了关于物联网设备安全实践和漏洞的讨论。 主要讨论点包括 API 令人惊讶的缺乏速率限制(尽管随后进行了快速修复),以及关于证书固定的争论——一些人认为它通常是由审计员添加的表面安全措施。 另一些人强调了更强大的解决方案的可能性,例如事务锁或证明机制,同时承认设备兼容性的实际限制。 对话还涉及拦截自身网络流量的伦理问题,以及利用自行车硬件漏洞的可能性,例如电子变速。 几位用户分享了相关项目,包括 Bay Wheels 自行车和 Shimano Di2 系统的破解,甚至还有 iPhone 的 GPS 欺骗。 最终,该帖子展示了人们对探索互联设备安全以及安全、可用性和实用性之间经常复杂的权衡的兴趣。

这篇帖子详细描述了对通过SSH运行的高性能游戏进行的性能调查。初步分析显示,停止游戏数据传输后,CPU使用率下降了50%——出乎意料地不是100%。`tcpdump`分析显示,即使在用户输入很少的情况下,也存在大量36字节的数据包(约90/秒),这让作者和Claude Code感到困惑。 根本原因被发现是SSH在2023年添加的按键时序混淆功能,旨在通过在按键输入的同时发送“ chaff”数据包(SSH2_MSG_PING)来增强隐私。对于低延迟游戏来说,这种开销很大。客户端禁用混淆功能可以提高性能,但对最终用户来说不是理想选择。 解决方案是通过fork Go的crypto库,并撤销添加触发混淆功能的扩展,从而减少了超过50%的CPU占用并节省了带宽。作者强调了使用像Claude Code这样的LLM进行调试的价值,同时也承认了它们的局限性以及对人类直觉的需求。这次经历强调了理解网络流量以及SSH等核心协议不断演化的功能的重要性。

(Empty input provided. There is nothing to translate.)

## 联觉:从调色板创作的噪音音乐 一个名为“联觉”(visualnoise.ca)的新网页应用允许用户通过选择颜色来创作噪音音乐。由tevans3开发,该应用使用24音等程音阶将颜色的十六进制代码转换为和弦,然后使用Tone.js播放。 最初的反馈指出输出音量意外地大,促使开发者大幅降低默认音量,并实施限制器和包络以防止音频“失真”。源代码可在GitHub上找到,采用一种独特的、基于祝福的许可协议,最初见于SQLite的代码中。 用户形容由此产生的声音让人联想到Quake Brutalist Jam系列中的环境音乐。请注意——即使经过音量调整,这仍然是噪音音乐!

## Modal GPU 可靠性系统:摘要 Modal 运营着大规模、自动扩展的 GPU 工作池,资源来自主要云服务提供商(标记为 A-D)。管理超过 20,000 个并发 GPU 揭示了显著的可靠性挑战,促使 Modal 开发了一个全面的系统——现在分享作为其他人的指南。 该系统从严格的**实例类型测试**开始,揭示了不同提供商之间的性能和可靠性差异。云 A 提供稳定的启动,而云 C 经历了过热问题,云 D 提供最佳的性价比,但镜像复制速度较慢。**机器镜像一致性**至关重要,通过自动化更新和测试确保兼容性和安全性。 **启动检查**在速度与必要的硬件验证之间取得平衡。虽然深度诊断耗时,但会执行基本测试以快速识别故障实例。**持续的健康检查**——包括被动式(监控日志和指标,如温度)和主动式(运行 GPU 压力测试)——至关重要。 Modal 利用详细的**可观察性**工具,包括显示 GPU 指标和错误日志的仪表板,并提供响应迅速的**支持**渠道。尽管取得了进展,GPU 不可靠性仍然是一个重要问题(Meta 的 LLaMA 3 训练中 58.7% 的问题与 GPU 相关),强调了像 Modal 这样的强大系统对于确保稳定的 AI/ML 工作负载的必要性。

## GPU可靠性问题:摘要 最近的Hacker News讨论强调了NVIDIA GPU在AI/ML训练等高强度工作负载下,令人震惊的高故障率。用户报告GPU故障频率远高于SSD或RAM等其他服务器组件——一些估计表明关键错误会在几个月内发生(A100:65天,H100:50天)。 核心问题似乎是GPU被推至其运行极限,导致故障通常需要完全系统重置。虽然并非总是永久性硬件故障,但这种频率会造成破坏性和成本,可能使价值数百万美元的集群变成“摆设”。 有几个因素促成这种情况:GPU本身的巨大复杂性、硬件迭代速度快于软件/驱动程序支持,以及缺乏广泛的检查点机制。一些人推测,鉴于NVIDIA的市场主导地位,它优先考虑产出而非可靠性。另一些人认为,持续的24/7使用与GPU最初为间歇性游戏工作负载设计的不同。 提供GPU即服务的公司面临着特别具有挑战性的商业模式,需要在高硬件成本、频繁更换和持续软件更新之间取得平衡。讨论还涉及潜在的解决方案,例如液冷和以略低的电压运行GPU,但全面的修复仍然难以捉摸。

BrowserOS是一个新的开源浏览器,基于Chromium构建,旨在原生运行AI代理,提供更自动化和私密的浏览体验。它致力于革新日常浏览方式——超越标签页超载和繁琐任务——通过赋予用户在本地计算机上运行的AI能力。 与ChatGPT Atlas、Perplexity Comet,甚至Chrome和Brave等替代方案不同,BrowserOS优先考虑隐私。用户可以使用自己的API密钥或使用Ollama等工具本地运行模型,确保数据安全。它提供熟悉的Chrome类似界面,支持扩展程序,并内置AI广告拦截器。 BrowserOS是社区驱动的,并提供MCP服务器兼容性等独特功能。开发者设想一个AI可以无缝处理日常在线任务的未来,并邀请贡献者共同构建最佳的AI驱动浏览器。

启用 JavaScript 和 Cookie 以继续。

## 黑客新闻讨论摘要:巅峰表现与早期成就的悖论 一篇最近发表在science.org上的文章引发了黑客新闻关于一项令人惊讶的发现的讨论:早期的高成就者不一定与后来达到精英水平的个体相同。核心观点是,早期表现出色并不能保证持续的成功,而且,那些后来达到巅峰的人实际上在年轻时可能*不如*他们的同龄人。 讨论主要围绕**伯克森悖论**展开,认为选择偏差起着关键作用。关注精英表现者会产生扭曲的视角——在青年时期或成年时期被选拔为高成就者的人看起来呈负相关,即使更广泛的人群显示出正相关。 许多评论员强调了**跨领域知识和适应性**的重要性,认为快速学习者可能缺乏深刻的理解和创造性解决问题的能力。另一些人指出,**专业化**可能会造成盲点。还有人注意到**运气、资源分配和奉献精神**在实现巅峰表现中的影响,质疑仅仅关注早期指标是否具有误导性。 一个反复出现的主题是,持续的成功需要的不仅仅是最初的天赋,更广泛的技能组合和适应意愿对于长期成就至关重要。人们也对科学研究的可及性和研究“最优秀的人”时可能出现的过度简化表示担忧。

## 缓冲解释:为什么你的程序不总是立即打印 你是否想过为什么程序的输出不会立即显示?这通常归结于缓冲。向控制台(TTY)写入时,库通常使用*行缓冲*,在每个换行符(`\n`)之后刷新数据。但是,当管道输出或重定向到文件(非TTY)时,使用*完全缓冲*,累积数据 – 通常高达4-8KB – 然后刷新。 标准错误(stderr)通常是无缓冲或行缓冲的,即使在管道传输时也是如此,以确保错误消息能及时显示。像Rust这样的语言清楚地展示了这一点;如果没有手动`flush()`,管道传输时的输出可能会延迟。 这种差异源于程序检测其环境的方式。TTY代表交互式终端会话,而非TTY是数据流。在程序中,你可以使用像Rust的`is_terminal()`这样的函数检测TTY。 这种区别会影响优化和用户体验。像`ripgrep`这样的工具利用TTY检测在终端中启用彩色输出以提高可读性,但在管道传输时禁用它以避免在文件中出现混乱的转义码。 有趣的是,Rust目前在TTY和非TTY环境中都使用行缓冲,这是一个优先考虑一致行为的 deliberate 选择,尽管开发者承认根据环境调整缓冲策略可以获得潜在的性能提升。理解缓冲有助于调试意外的输出延迟,并为不同的场景优化程序行为。

这个Hacker News讨论围绕流缓冲,尤其是在终端I/O的背景下。发帖者强调了1991年sfio库中的一种“池化”技术,其中链接的流会同步,从而在写入stderr时刷新stdout——消除了代码中手动刷新的需要。 评论者讨论了现代系统如何处理这个问题。例如,Rust目前对终端和非终端都使用行缓冲,这一决定受到了一些批评。另一些人指出,有可用的原始、无缓冲I/O句柄以提供更多控制。 一个关键主题是关于根据输出是否定向到TTY(终端)自动改变行为的争论。许多人认为这是一种反模式,会导致沮丧和意外行为,尤其是在脚本中。有人建议使用显式控制和中间层进行输出处理等替代方案,从而可能将程序从特定的sink行为(终端、文件、GUI)中解耦。讨论还涉及I/O处理的历史演变,一些人哀叹Linux中经常看到的“更差的是更好”的方法。最终,核心思想是在不将代码绑定到输出目的地的具体细节的情况下,实现高效且可预测的缓冲。

您的请求已被阻止,原因是网络策略。请登录或在此处创建帐户以恢复浏览。如果您正在运行脚本或应用程序,请在此处注册或使用您的开发者凭据登录。此外,请确保您的User-Agent不为空,并且是独特且具有描述性的,然后重试。如果您正在提供替代的User-Agent字符串,请尝试改回默认设置,因为这有时会导致阻止。您可以在此处阅读Reddit的服务条款。如果您认为我们错误地阻止了您,或者想讨论更轻松地获取所需数据的方式,请在此处提交工单。联系我们时,请提供您的Reddit帐户以及以下代码:019be6fa-3c22-7e9f-aeba-9d395ef81d51。

更多

联系我们 contact @ memedata.com