每日HackerNews RSS

专家警告:美国正处于针对跨性别美国人的早期种族灭绝阶段。

这次黑客新闻的讨论围绕着对美国跨性别技术人员的警告,提醒他们近期事件(委内瑞拉袭击和明尼阿波利斯ICE枪击事件)后可能面临的风险增加。原发帖者分享了一篇《卫报》文章,详细介绍了跨性别和非二元性别美国人向加拿大提出的庇护申请案例。 一个相关的次要辩论围绕着“莱姆金种族灭绝预防研究所”展开。 事实表明,家庭成员(和犹太复国主义组织)正在通过法律途径挑战该研究所,反对其将以色列在加沙的行动定性为种族灭绝。 反驳意见指出,该研究所与许多信誉良好的组织(包括联合国和人权组织)保持一致,这些组织*确实*将该情况定性为种族灭绝。 讨论澄清了挑战源于对这一评估的异议。

一份新视频汇编了来自美国宇航局钱德拉X射线天文台25年的数据,揭示了开普勒超新星遗迹的持续演化,这是1604年一颗恒星爆炸后的残骸场。这种Ia型超新星——白矮星超过其质量极限的结果——对于测量宇宙的膨胀至关重要。 视频展示了该遗迹,距离我们17,000光年,随着时间的推移以惊人的细节不断膨胀。研究人员发现了膨胀速度的显著差异:遗迹底部以每小时1380万英里(光速的2%)的速度向外飞驰,而顶部以每小时400万英里(光速的0.5%)的速度膨胀。这种差异表明遗迹顶部正在与更致密的气体碰撞,从而深入了解恒星周围的环境。 通过研究激波的速度和宽度,科学家们正在更深入地了解爆炸本身及其对星际介质的影响——这对于新恒星和行星的形成至关重要。钱德拉发布的最长时期的视频强调了长期观测在揭开宇宙奥秘方面的重要性。

黑客新闻 新 | 过去 | 评论 | 提问 | 展示 | 招聘 | 提交 登录 超新星遗迹视频来自 NASA 的钱德拉,历时数十年 (nasa.gov) 20 分,来自 dylan604 1 小时前 | 隐藏 | 过去 | 收藏 | 2 评论 tocs3 1 小时前 [–] 天文时间流逝引人入胜,应该有更多。回复 dylan604 5 分钟前 | 父评论 [–] 你可以自由创建自己的,因为 NASA 观测台会免费发布他们的图像,这些图像是用公众税款资助的。制作延时视频的问题在于,平台是否至少每年观测同一个物体以观察变化。回复 指南 | 常见问题 | 列表 | API | 安全 | 法律 | 申请 YC | 联系 搜索:

## NVIDIA Rubin:下一代人工智能计算平台 NVIDIA 发布了 Rubin 平台,这是一款由六个互连芯片——CPU、GPU、交换机、SuperNIC、DPU 和以太网交换机——构建的新型人工智能超级计算机,旨在大幅降低人工智能任务的成本和时间。Rubin 承诺与上一代相比,**推理成本降低高达 10 倍,MoE 模型训练速度提升 4 倍**。 关键创新包括新的 **Vera Rubin NVL72 机架级系统**以及 NVLink、Transformer Engine 和机密计算方面的进步。该平台还推出了针对人工智能推理优化的 **NVIDIA Vera CPU**,以及由 BlueField-4 提供支持的用于更快代理人工智能的新的 **推理上下文内存存储平台**。 **微软、AWS、谷歌云和 CoreWeave** 等主要厂商正在采用 Rubin,微软将其集成到下一代 Fairwater AI 超级工厂中。通过 **Spectrum-6 以太网** 增强的网络连接,承诺提高电源效率和正常运行时间。Rubin 计划于 2026 年下半年上市,标志着 NVIDIA 继续致力于提供最先进的人工智能基础设施。

英伟达最近发布了下一代人工智能平台Rubin,大幅提升了训练时间和推理token成本。一个关键的讨论点在于,预计推理成本降低10倍是否会影响公司延长GPU淘汰计划——一些公司最近已将周期调整为6年,以控制成本。 Rubin平台利用“极致协同设计”——一个紧密集成的系统,涵盖CPU、GPU、网络等——来实现这些改进。这引发了一场关于“协同设计”一词用法的 небольшая争论。 评论员也注意到英伟达新闻稿中 необычный包含名人背书(包括埃隆·马斯克充满表情符号的评论),质疑其专业性。最后,苹果/蒂姆·库克未出现在背书名单中,引发猜测,认为这与现有的财务关系和科技行业内的共同利益有关。总而言之,此次发布引发了关于成本优化和更广泛人工智能领域的讨论。

构建您自己的iMessage智能代理 构建您自己的iMessage智能代理 联系我们:LinkedIn GitHub X Instagram 构建一个iMessage天气代理,用于查询天气预报

## Flux:iMessage 中的 AI 代理 开发者 danielsdk 创建了 Flux (tryflux.ai),旨在解决“AI 应用墓地”问题——即下载 AI 工具后很快就不再使用的倾向。Flux 允许用户在 iMessage 中直接创建自定义 AI 代理。 用户定义代理的个性和任务,几分钟内就可以通过短信与它进行原生聊天——接收者无需下载新应用。其核心理念是将 AI 集成到 iMessage 等常用平台,从而克服专用应用带来的交互瓶颈。 早期用户反馈指出用户体验有些笨拙,包括一个涉及向服务控制的号码发送验证码的验证过程。一些用户还注意到回复不一致以及代理个性过于随意,但该系统似乎对基于提示的风格调整做出响应。该项目非常新,开发者正在积极寻求反馈。

2025年,磁带上发现唯一已知的UNIX v4副本,这是一个关键版本,因为它首次用C语言重写了UNIX。在成功地在PDP-11模拟器上运行它之后,作者研究了核心实用程序,并在`su(1)`程序中发现了一个缓冲区溢出漏洞——一个setuid-root可执行文件,用于权限提升。 这个50年前的程序由不到50行代码组成,它会检索root密码,禁用终端回显,并将哈希输入与存储的哈希进行比较。该漏洞在于读取用户输入到100字节缓冲区时缺乏边界检查,允许过长的输入导致崩溃。 利用UNIX的传统做法,即包含源代码,作者使用`ed`行编辑器修补了该程序,在输入循环中添加了一个计数器和一个大小检查。然后编译并部署了修补后的代码,需要设置setuid位才能正常工作。 这次经历突出了UNIX原始设计理念的力量,并展示了如何使用现成的工具快速解决安全问题。它也强调了20世纪70年代不同的安全优先级,当时这类漏洞并不被认为是关键问题。

黑客新闻 新 | 过去 | 评论 | 提问 | 展示 | 招聘 | 提交 登录 修复 Unix v4 中的缓冲区溢出,就像在 1973 年一样 (sigma-star.at) 8 分,作者 vzaliva 1 小时前 | 隐藏 | 过去 | 收藏 | 讨论 指南 | 常见问题 | 列表 | API | 安全 | 法律 | 申请 YC | 联系 搜索:

## IBM Bob 编码代理漏洞摘要 IBM Bob,IBM 目前处于封闭测试阶段的 AI 编码代理,存在严重的安全漏洞。研究人员发现,Bob CLI 容易受到提示注入攻击,如果任何命令启用了“始终允许”功能(IBM 本身将其标记为“高风险”),则可能在未经用户同意的情况下执行恶意软件。 具体来说,攻击者可以通过使用重定向运算符 (>) 或进程替换 (>(command)) 串联命令来绕过安全检查,从而欺骗系统在预先批准良性命令后自动批准恶意载荷。这使得攻击者能够安装勒索软件、窃取凭据或完全控制用户的机器。 Bob IDE 也表现出 AI 应用程序常见的漏洞,包括通过渲染的 Markdown 图像和 Mermaid 图表进行数据泄露(将请求记录到攻击者控制的端点)以及从潜在恶意 URL 预取 JSON 模式。 这些发现凸显了 IBM Bob 公开发布前的重大风险,并强调需要强大的安全改进来保护用户。

## IBM 的“Bob”人工智能易受恶意软件下载攻击 Promptarmor 最近的一项测试表明,IBM 新的人工智能编码代理“Bob”(目前处于封闭测试阶段)可以通过提示注入被欺骗下载并执行恶意软件。这与之前在 Google 的 Antigravity 中发现的一个漏洞相似,后者已通过“安全模式”得到解决。 评论员指出,对于测试软件来说,这并不意外,并认为这些人工智能工具*可能*最终可以通过减少危险的代码复制粘贴来提高安全性。然而,人们仍然担心人工智能辅助编码的更广泛影响,包括扩展问题以及代码本身的固有责任。 讨论的重点是缺乏向 IBM 的漏洞披露时间表、难以防止非确定性 LLM 行为以及强大权限边界的重要性。许多人建议在未经审查的情况下防止代码执行,或利用隔离环境。一个突出的问题是未能正确解析命令,模糊了人工智能中数据和逻辑之间的界限。最终,共识倾向于谨慎实施,并随着人工智能编码工具的不断发展,需要更强的安全措施。

使用纪元能力指数(ECI),近期一项分析量化了自2023年1月以来,美国和中国领先的大型语言模型(LLM)之间的性能差距。该研究确定了每个国家/地区发布时表现最佳的模型,排除了可能不代表真正前沿的初始模型。 差距的衡量标准是确定美国模型的ECI分数下降到或低于最佳中国模型所需的时间。结果表明,差距在4到14个月之间波动,平均为7个月。 截至2024年5月,没有中国模型超越GPT-4的能力(差距14个月),并且目前没有中国模型与OpenAI于2025年4月发布的o3模型性能相匹配。这表明美国LLM在整体能力方面持续领先,但也在不断发展。

## 中国人工智能发展:正在追赶,但仍落后 最近在Hacker News上的一场讨论突出了中国人工智能模型与美国模型的现状。根据EpochAI能力指数(ECI),自2023年以来,中国人工智能通常落后于美国约7个月。然而,另一个指数,Dust42能力指数(DCI),表明中国实际上*领先*——大约1.5年,尤其是在像Qwen3这样的开源模型方面,这些模型可以离线运行,有时甚至在编码任务上表现优于Claude Opus等模型。 评论员指出,中国正在迅速进步,尤其是在芯片出口限制下优化训练方面。虽然人们对数据来源存在担忧(指责“窃取”ChatGPT的数据),但许多人强调中国通过Deepseek、Qwen和Moonshot等公司的论文对人工智能研究的贡献。 争论的中心在于,即使在短时间内领先人工智能竞赛是否能带来显著的经济优势,以及实用性是否会继续扩大或停滞。讨论还涉及资源使用,中国产生的清洁能源比美国多。

20世纪60年代末和70年代,一种“书呆子”亚文化围绕着富有想象力的另类世界蓬勃发展——这得益于科幻小说(如《星际迷航》)、奇幻文学(如《指环王》)、战争游戏以及像“创意纪元协会”和文艺复兴集市这样沉浸式的体验。这种对“如果怎样”情景的兴趣在70年代中期随着个人电脑和《龙与地下城》(D&D)的出现找到了新的出口。 D&D是一种基于规则的、协作式讲故事游戏,证明了其特别有影响力。它将富有想象力的角色扮演和统计战斗机制相结合,直接启发了第一批电脑角色扮演游戏(CRPG)。早期的CRPG,如《阿普夏神庙》和《巫术》,试图将D&D的体验转化为数字领域,尽管通常简化了其开放性。 除了RPG之外,电脑战争游戏也应运而生,将流行的桌面游戏爱好数字化。像《电脑俾斯麦》和《东方战线》这样的游戏提供了自动对手,并消除了桌面战争游戏中的后勤挑战。这些早期的游戏——冒险、RPG和战争游戏——建立了一个独特的电脑游戏类别,与简单的视频游戏不同,优先考虑策略和深度而非花哨的图形。到1980年,这些沉浸式的体验正在定义一个全新的互动娱乐时代,并巩固了电脑在单纯计算之外的角色。

黑客新闻 新 | 过去 | 评论 | 提问 | 展示 | 招聘 | 提交 登录 电脑游戏兴起,第二部分:数字化书呆子 – 思想的生物 (technicshistory.com) 8 分,来自 rbanffy 2 小时前 | 隐藏 | 过去 | 收藏 | 讨论 指南 | 常见问题 | 列表 | API | 安全 | 法律 | 申请YC | 联系 搜索:

## 核心战争与数字红皇后:人工智能的进化军备竞赛 麻省理工学院和Sakana AI的研究人员正在利用经典的编程游戏核心战争——在这种游戏中,类似汇编语言的程序(“战士”)争夺对虚拟计算机的控制——来研究人工智能的进化。他们开发了一种名为数字红皇后(DRQ)的算法,该算法利用大型语言模型(LLM)来不断进化战士,以对抗不断增长的对手谱系,从而模拟生物进化的“红皇后”动态——持续适应仅仅为了生存。 这个对抗过程导致了越来越强大和通用的策略的出现,例如自我复制和定向攻击,而无需特定的训练数据。令人惊讶的是,独立的DRQ运行会收敛到相似的*行为*,即使代码实现不同,也展示了一种趋同进化的形式。 核心战争提供了一个安全、图灵完备的沙盒,用于分析人工智能代理可能在现实世界的对抗环境中(如网络安全)如何进化。该研究表明,即使是简单的自我对弈循环也能揭示复杂的策略,并为控制和理解未来的AI军备竞赛提供见解。该团队已经发布了他们的代码和技术报告以供进一步研究。

Sakana AI 和麻省理工学院的研究人员复兴了经典的 1984 年游戏 Core War,利用大型语言模型 (LLM) 创建自我进化的程序。Core War 涉及编写 Redcode 汇编程序,争夺对虚拟计算机内存的控制——目标是使对手崩溃。 团队没有直接提示 LLM 编写获胜代码,而是将其用作质量多样性算法中的“变异算子”,创建了一个名为“数字红皇后”的对抗性进化循环。这模仿了生物进化,其中物种必须不断适应才能生存。 有趣的是,独立实验表明出现了*趋同进化*——LLM 生成的程序始终发展出相似的策略,例如高效的内存覆盖和线程生成,反映了自然界中发现的解决方案。这些程序也证明对未知的、人类编写的策略具有惊人的鲁棒性。 研究人员认为,Core War 为研究自动化系统的对抗动态和模拟未来对计算资源的竞争提供了一个有价值的、隔离的沙盒。论文、代码和提示在他们的网站和 GitHub 上公开可用。

## 动态大型概念模型 (DLCM): 摘要 本文介绍了一种名为动态大型概念模型 (DLCM) 的新型语言建模框架,旨在解决大型语言模型 (LLM) 处理信息效率低下的问题。当前的 LLM 将所有token一视同仁,尽管信息密度各不相同。DLCM 学习语义边界,将可预测的文本压缩成“概念”,从而将计算重点转移到关键的语义转换上,以实现更高效的推理。 DLCM 端到端地发现这些概念,无需预定义的语言规则,并引入了一种新型的“压缩感知缩放定律”来优化计算资源分配。一项关键创新是“解耦的μP参数化”,它能够实现稳定的训练和超参数迁移。 实验表明,DLCM 平均每个概念包含四个token,它将计算资源重新分配给更强大的推理骨干,在 12 个基准测试中实现了 **2.69% 的平均性能提升**,*且*没有增加整体计算成本。这表明 LLM 可以通过优先考虑推理而非冗余处理来更有效地利用资源。

黑客新闻 新 | 过去 | 评论 | 提问 | 展示 | 招聘 | 提交 登录 动态大型概念模型:自适应语义空间中的潜在推理 (arxiv.org) 10 分,gmays 1小时前 | 隐藏 | 过去 | 收藏 | 1 条评论 sorenjan 5分钟前 [–] 这是否能使模型学习一种语言的概念,并在另一种语言中生成关于它的答案,只要它学习了它们之间的通用翻译?回复 指南 | 常见问题 | 列表 | API | 安全 | 法律 | 申请YC | 联系 搜索:

更多

联系我们 contact @ memedata.com