每日HackerNews RSS

## ARC-AGI-3:一项衡量真正人工智能的基准 ARC-AGI-3 是一项具有挑战性的基准,旨在衡量通往通用人工智能(AGI)的进展。它不同于专注于静态问题解决的传统人工智能测试,而是评估人工智能体在**动态、新颖环境中学习和适应**的能力——就像人类一样。 该基准要求人工智能体探索、设定自身目标、构建对世界的理解,并通过经验不断改进,*无需*依赖明确的指令。成功定义为在可解决的环境套件中匹配人类效率。 ARC-AGI-3 独特地衡量随*时间*推移的智能,评估诸如长期规划、记忆和信念更新等因素——这些是人工智能目前落后于人类的领域。其设计优先考虑人类的简单性,避免依赖预先存在的知识,并防止基于记忆的解决方案,从而提供对真正学习和适应能力的可靠衡量。最终,ARC-AGI-3 旨在量化人工智能与人类智能之间的差距。

GitHub 将于 4 月 24 日更新 Copilot 的数据使用政策,以改进其 AI 模型。来自 **Copilot 免费版、专业版和专业版+ 用户** 的交互数据——包括代码片段、输入和上下文——将被用于训练,除非用户在设置中主动选择退出。**Copilot 企业版和商业版用户不受影响。** 此举旨在通过学习实际开发流程来增强代码建议、错误检测和整体模型准确性,这借鉴了微软员工数据带来的成功内部改进。 GitHub 强调用户隐私:来自私有仓库的*静态*数据和用户讨论将不会被使用,并且选择退出的用户将继续被排除。数据仅与 GitHub 关联方(包括微软)共享,不会与第三方共享。用户可以选择参与并为改进 AI 工具做出贡献,或选择退出而不会失去 Copilot 的功能。

球池 Ball Pit 2 天前

启用 JavaScript 和 Cookie 以继续。

## Hacker News 上的球池:总结 一个使用 three.js 和 WebGPU 创建的新交互式演示,一个“球池”,在 Hacker News 上引发了讨论。该演示由 mr.doob(以 three.js 闻名)创建,模拟了大量弹跳的球,在各种设备上都表现出令人惊讶的良好性能。 用户反馈不一——有些人发现它在 iPhone、MacBook(即使 GPU 温度升高)和 Pixel 上运行流畅,而另一些人则遇到了卡顿或闪烁,尤其是在 Firefox/Linux 上。该演示利用了 WebGPU 的新特性,如 SSGI 和 TRAA 进行渲染,从而引发了关于这些技术和抗锯齿技术的讨论。 对话还涉及了浏览器图形技术的令人印象深刻的进步,现在可以在浏览器中进行光线追踪。一些评论员回忆起早期的 3D 渲染演示,强调了技术进步的巨大。还有一个小讨论关于一个相关的 AI 视频“The Shape Store”。

请启用 JavaScript 并禁用任何广告拦截器。

在他二月份首次在陪审团面前出庭时,Meta公司董事长兼首席执行官马克·扎克伯格依赖于该公司长期以来禁止13岁以下用户在其任何平台上的政策。当被出示内部研究和文件,显示Meta知道年幼的孩子实际上正在使用其平台时,扎克伯格表示他“一直希望”能够更快地识别13岁以下的用户。他坚持认为该公司最终达到了“正确的位置”。虽然谷歌作为YouTube的所有者,也是此案的被告之一,但大部分庭审程序集中在Instagram和Meta上。Snap和TikTok最初也是被告,但在庭审前,两家公司都与Kaley达成了保密和解协议。

对不起。

请启用 JavaScript 并禁用任何广告拦截器。

在荷兰马斯特里赫特发现的骨骼,*可能*是亚历山大·杜马斯笔下人物达达尼昂的历史原型。这些遗骸在一个被认为靠近17世纪法国军队营地的地点被发现,达达尼昂据信在马斯特里赫特围攻期间在此被火枪击中身亡。 虽然考古学家威姆·迪克曼称之为他28年研究生涯中的一个潜在亮点,但科学家们仍在谨慎推进。DNA分析正在德国进行,以确认骨骼的身份,进一步的检查将在代文特尔确定年龄、性别和来源。 重要的是要注意,虽然达达尼昂是以真实人物为基础,但“三个火枪手”本身很大程度上是虚构的,灵感来自一支精英皇家卫队成员。

## 黑客新闻讨论:达达尼昂遗骸与经典文学 一篇关于可能在荷兰教堂下发现火枪手达达尼昂遗骸的BBC文章引发了黑客新闻的讨论,迅速演变成一场关于亚历山大·杜马的小说《三个火枪手》和《基督山伯爵》的更广泛的对话。 用户分享了他们最近阅读这两本书的经历,赞扬《三个火枪手》节奏快、幽默风趣,而《基督山伯爵》则是一个引人入胜的复仇故事。许多人惊讶地得知达达尼昂是以真实的历史人物为原型,连同红衣主教黎塞留等角色。讨论强调了杜马作品中事实与虚构的融合,以及经典文学的持久魅力。 讨论还衍生出关于考古调查伦理的话题,一位用户表达了对扰乱历史遗址以及与殖民时代文化文物掠夺可能存在的相似之处的担忧。其他人则辩论了科学探究的价值与尊重墓地的神圣性。该帖子还涉及了将LLM用作读书会伙伴的问题,对它们的实用性与真实的人际互动持有不同的看法。

新墨西哥州陪审团裁定Meta(Facebook、Instagram和WhatsApp的所有者)明知故犯地损害儿童心理健康,并在其平台上隐瞒儿童性剥削信息。这项具有里程碑意义的判决源于一项州诉讼,认为Meta将利润置于用户安全之上,并采取“令人发指”的做法来利用儿童的脆弱性。 虽然检方寻求更高的赔偿金额,但陪审团判决的罚款为3.75亿美元——每项违规行为5000美元,估计受影响的青少年人数达数千人。尽管有罚款,Meta的股价在判决后实际上*上涨*了。 案件尚未结束。法官将决定Meta的平台是否构成了公共滋扰,以及需要采取哪些补救措施,例如资助公共项目。Meta计划上诉,重申其对安全的承诺,并指出内容审核的挑战。 这项判决是针对社交媒体公司诉讼浪潮的一部分,超过40位州司法部长提起了类似的诉讼,指控平台成瘾性设计助长了青少年心理健康危机。它预示着一种潜在的转变,即追究科技公司对其平台对年轻用户的影响承担责任。

对不起。

神经元网络

对不起。

## 量化:缩小LLM以供本地使用 大型语言模型 (LLM),如 Qwen-3-Coder-Next,拥有 800 亿参数(需要 159.4GB 内存),资源密集型。虽然前沿模型拥有超过一万亿参数,但**量化**提供了一种解决方案:在最小化精度损失的同时,减小模型尺寸并提高速度。 量化通过压缩模型参数的精度来工作——这些核心数字驱动着其计算。LLM 将这些参数存储为 32 位浮点数,但可以使用较低的精度(如 16 位、8 位甚至 4 位)运行。这减少了内存占用并加快了处理速度。 该过程涉及将值从较大范围映射到较小范围,通常通过四舍五入。**对称量化**以零为中心,而**非对称量化**则适应数据分布以提高效率。诸如分块量化之类的先进技术可以减轻由异常参数值引起的问题。 在 Qwen3.5 9B 模型上的测试表明,从 16 位到 8 位量化几乎不会造成质量损失。4 位量化会导致准确性略有下降(约 10%),而 2 位量化会严重降低性能。基准测试和直接交互证实了这些发现。 最终,量化允许在消费级硬件上运行强大的 LLM,为本地、离线 AI 应用程序打开了可能性。虽然存在诸如量化感知训练和参数修剪之类的其他方法,但量化提供了一种强大且易于访问的方式来 democratize 对强大语言模型的访问。

## 量化技术与易于获取的AI:摘要 这次Hacker News讨论围绕一篇详细的文章,解释了**量化**技术,该技术用于减小大型语言模型(LLM)的尺寸并提高其速度,使其能够在消费级硬件上运行。量化通过用较小的整数替换高精度浮点数来实现,并在需要时实时“反量化”。 对话中明确,现代GPU越来越多地原生支持较低精度数学(如Bfloat16和FP8),但旧GPU可能需要转换回32位浮点数,这可能会抵消内存节省。然而,总体效果通常是更快的性能*和*更低的内存使用量。 用户强调了量化的巨大影响:一个需要54GB VRAM的27B参数模型,通过量化可以在24GB GPU上运行。这“民主化”了对强大AI的访问。讨论还涉及对更激进的量化方法的持续研究,以及通过诸如层卸载等技术,更大模型能够在消费级硬件上运行的可能性。 最终,文章和随后的评论强调量化是一项关键的进展,它能够实现本地LLM的使用,并可能挑战拥有巨大计算资源的大公司的主导地位。

更多

联系我们 contact @ memedata.com