每日HackerNews RSS

对知名人工智能怀疑论者加里·马库斯在Substack上发表的2218条可验证声明(2022年5月至2026年3月)的全面分析显示,他出乎意料地经常是正确的。该研究使用两个LLM管道(Claude和ChatGPT)评估声明与现有证据的符合程度,发现近60%的声明得到了支持,33.7%的声明结果不一,只有6.4%的声明被证伪。 马库斯擅长识别*具体*的技术缺陷——他对LLM安全性、Sora可靠性以及人工智能代理过早出现的预测都非常准确。然而,他的*市场预测*可靠性明显较低,特别是他对人工智能泡沫破裂的预测,其中27%的声明被证伪。 有趣的是,马库斯投入了更多笔墨讨论他*错误*的领域。分析结果显示,对某一主题的关注度越高,他的预测出现错误的概率就越高。完整数据集、方法论和LLM评估结果已公开提供,但结果由LLM评估,未经人工核实。

## 黑客新闻讨论摘要:Marcus AI 声明数据集 一个新的数据集 (github.com/davegoldblatt/marcus-claims-dataset) 旨在评估 Gary Marcus 关于 AI 的声明的准确性,使用 LLM 来评估他的陈述。然而,黑客新闻上的讨论显示出显著的怀疑态度。 许多评论者质疑该方法论,指出 LLM 正在评估*自身*,并且来源材料(AI 公司博客)本身就存在固有偏见。人们担心 LLM 准确判断细微论点的能力,并将之与过去尝试构建基于 LLM 的论证评估器的失败尝试相提并论。 核心争论在于 LLM 是否代表真正的“AI”,还是仅仅是复杂的自动补全。虽然一些人承认 LLM 作为工具的用处,但另一些人认为它们未能达到真正的智能,并且 Marcus 的批评是正确的。对于 Marcus 预测的“AI 崩盘”是否合理存在分歧,一些人认为修正不可避免,而另一些人则认为他的担忧过于悲观。 最终,讨论强调了客观评估 AI 声明的困难,以及鉴于 LLM 可能强化现有偏见或产生不可靠结果,人工验证的重要性。该数据集缺乏人工监督是一个主要的争议点。

本文探讨了四叉树数据结构的优化方法,超越了基本实现,着重于通过递归、记忆化和规范化来提升性能。虽然朴素的数组和四叉树算法分别达到O(n)和O(n log n),但彩色四叉树通过高效处理均匀区域来改善性能。通过记忆化(缓存结果以避免重复计算)和规范化(重用相同的子树以节省时间和空间)可以进一步优化。 作者通过日益复杂的算法演示这些概念,从四叉树旋转开始,逐步进展到平均图像像素。他们强调了将这些技术应用于边缘情况引入依赖性的操作所面临的挑战,因此需要定制的“双多递归”组合子。 最终,讨论引向了这些原理在细胞自动机(如康威生命游戏)中的应用,在这些应用中,大规模重复计算的潜力使得这些优化至关重要。文章最后强调,算法突破可以从根本上改变问题解决的方法,并鼓励人们根据现代计算能力重新思考现有的工具和流程。优化的四叉树的完整代码作为附录提供。

黑客新闻 新 | 过去 | 评论 | 提问 | 展示 | 招聘 | 提交 登录 时间、空间和我们所知的生命 (2017) (raganwald.com) 19 分,由 vismit2000 1 天前发布 | 隐藏 | 过去 | 收藏 | 讨论 帮助 指南 | 常见问题 | 列表 | API | 安全 | 法律 | 申请YC | 联系 搜索:

一场名为“退出GPT”的在线活动正在呼吁用户抵制OpenAI的ChatGPT,原因是该公司同意在其人工智能模型在美国军方机密网络中部署。 此次反弹源于最近的一次僵局,Anthropic(ChatGPT的竞争对手)拒绝了五角大楼对其人工智能的无限制访问,理由是担心破坏民主价值观和安全。 “退出GPT”声称拥有超过150万参与者,指责OpenAI通过接受该协议将利润置于公共安全之上——可能用于“杀人机器人和大规模监控”。 该运动强调Anthropic的Claude、谷歌的Gemini以及Confer等开源替代方案是可行的选择,并积极劝阻使用埃隆·马斯克的Grok。 在特朗普总统指示各机构停止使用Anthropic的技术后,局势升级,原因是他们拒绝合作。 “退出GPT”计划在OpenAI总部举行抗议活动,旨在表明ChatGPT并非唯一的可用人工智能助手。

阿廖娜在俄罗斯长大,她的名字源于一个略带悲剧色彩的民间故事——一个因疏忽导致兄弟变成山羊的女孩。这个名字在俄罗斯很常见,但搬到澳大利亚后,她一直为发音而苦恼,人们总是把“阿廖娜”读成“阿兰娜”。 最初,她曾考虑采用一个西方化的名字,但最终决定拥抱自己的身份,并不断纠正别人,而她对帆船的热爱让她得以不断重复这个过程。 尽管她努力解释,在名为“Orbit”的船上,她的船员们开玩笑地开始叫她“戴夫”——这个绰号不胫而走,起初让她感到恼火。 尽管她抗议,这种善意的戏弄却成为了被接纳和友谊的象征。 现在,阿廖娜仍然会偶尔纠正新认识的人,但她却暗自喜欢这个绰号,甚至在学习担任船长时,还会被称作“戴夫船长”。 她意识到,一个傻气的绰号也能像真诚的善意一样,培养归属感,并且承认“戴夫”在比赛中更容易呼喊。 最终,阿廖娜接受了俄罗斯名字和澳大利亚绰号都已成为她的一部分。

这个Hacker News讨论围绕着名字和发音的挑战,特别是对于非英语文化背景的名字。最初的帖子链接到一篇关于名字的文章,引发了关于名字被错误发音以及由此带来的沮丧的对话。 评论者分享了个人经历——一个带有“ll”音的萨波特克名字总是被发成“y”音,一个乌克兰的“Irena”被叫成“Eye-reen-uh”,以及关于“Alena”经常被错误发音的最初观点。一个关键点是,许多英语使用者没有努力正确发音那些不常见的名字。 几位评论者强调尊重一个人的名字是其身份认同的基本部分。讨论还简要涉及了俄语等语言的转写问题,以及为什么该网站允许非技术性的讨论,只要它们能激发智力好奇心。

Please provide the content you want me to translate. I need the text to be able to translate it to Chinese.

## Talos架构:克服FPGA限制 Talos架构的开发很大程度上受到DE1-SoC FPGA物理限制的制约。最初尝试完全并行的CNN和最大池化实现失败,因为超过了FPGA的逻辑和路由容量。这迫使策略转变,优先考虑将设计*适配*到芯片上,而不是追求原始速度。 核心解决方案是**时分复用**:利用单个CNN和最大池化模块,循环四次——每次对应一个卷积核,由有限状态机控制。这使逻辑占用量与并行方法相比减半。进一步的优化包括**融合最大池化层和全连接层**,消除了中间数据存储并减少了资源使用。 最后,将神经元权重存储在片上**ROM块**中,而不是分布式逻辑中,显著减少了路由拥塞和整体资源利用率。实施了一种“**预处理**”机制来管理ROM延迟,确保计算数据的有效性。 这些迭代调整,由FPGA的限制驱动,最终实现了一个功能且高效的Talos架构,证明在硬件设计中,将解决方案适配到可用资源至关重要。

启用 JavaScript 和 Cookie 以继续。

## 赫尔辛基交通安全成功 & 美国面临的挑战 芬兰赫尔辛基最近一年没有发生一起交通死亡事故,引发了对交通安全策略的讨论。 关键似乎是从基于执法的方法(惩罚危险行为)转变为基于工程的解决方案——设计基础设施以*激励*安全行为。 例如,路缘延伸、抬高的自行车道以及限制驾驶员视野以鼓励降低车速。 然而,评论员指出,美国几个城市(西雅图、波特兰、旧金山)类似的“零愿景”政策并未产生相同的结果,在某些情况下,行人死亡人数实际上有所增加。 理论范围从法律遵从性的文化差异到基础设施改造实施不当,以及汽车/SUV尺寸不断增加。 一个反复出现的主题是需要全面的重新设计,而不仅仅是在不改变道路布局的情况下降低速度限制。 许多人认为,关注使替代交通更具吸引力(公交车道、自行车道)至关重要,而另一些人则指出了美国驾照和车辆维护标准不严格等问题。 这场讨论凸显了便利性与安全之间的优先权争论,以及仅仅依靠个人责任是否足够。

## 电视的电视 & 电视游戏百科全书:日本游戏黄金时代的快照 1987年,富士电视台深夜节目《电视的电视》为日本观众呈现了对西方电脑游戏的开创性四小时探索——许多人第一次接触Amiga、Apple II和Atari等平台。该节目由包括岩井俊二和松浦雅也等未来媒体创新者组成的团队创作,由石原恒和(现任宝可梦公司总裁)监督,是更雄心勃勃项目的有趣、实验性的前奏。 这个项目是《电视游戏百科全书》(1988年),是一本制作精良、设计独特的书籍,记录了电子游戏的历史。诞生于日本经济的“泡沫”,百科全书受益于前所未有的财务自由,从而创造出一种带有磨砂外壳和多样化纸张的艺术品。其创新的、类似超文本的结构——页面分成带有交叉引用的部分——允许非线性探索,预示着互联网。 《百科全书》收录了200多款游戏、公司简介以及对像宫本茂和年轻的田尻智(宝可梦的创造者)等开发者的罕见采访,捕捉了游戏发展的一个关键时刻。它是那个时代的产物,是对创造抱负的证明,随着1991年泡沫经济的破裂而消失,至今仍然是备受收藏家追捧的珍品。

黑客新闻 新的 | 过去的 | 评论 | 提问 | 展示 | 工作 | 提交 登录 电视的电视 (1987) & 电视游戏百科全书 (1988) (gingerbeardman.com) 17 分,来自 msephton 1 天前 | 隐藏 | 过去的 | 收藏 | 讨论 帮助 指南 | 常见问题 | 列表 | API | 安全 | 法律 | 申请 YC | 联系 搜索:

请启用 JavaScript 并禁用任何广告拦截器。

## OpenAI 与伦理问题:黑客新闻摘要 近期《华尔街日报》的一篇文章,在黑客新闻上引发讨论,内容是 OpenAI 首席执行官 Sam Altman 向员工解释公司与五角大楼的合作。这引发了关于为 OpenAI、xAI、特斯拉甚至 Palantir 等公司工作,以及这是否会损害工程师声誉的伦理影响的争论。 许多评论者认为,个人应该对其选择雇佣的公司负责,特别是那些参与潜在有害技术开发的公司。然而,另一些人认为,大型公司提供的选择有限,根据过去的雇主拒绝候选人是不现实的,甚至是缺乏伦理的。一些人指出,尽管有正式政策,招聘经理*可以*在决策中微妙地考虑这一点。 讨论还涉及更广泛的政治立场问题,以及是否应该根据首席执行官的行为来评判公司。一些用户表达了对将利润置于伦理考量之上的担忧,并有人提倡拒绝为从事可疑行为的组织工作。最终,该帖子突出了科技工作者面临的复杂道德困境,以及在职业机会与个人价值观之间取得平衡的挑战。

启用 JavaScript 和 Cookie 以继续。

黑客新闻 新 | 过去 | 评论 | 提问 | 展示 | 招聘 | 提交 登录 指南 | 常见问题 | 列表 | API | 安全 | 法律 | 申请YC | 联系 搜索:

更多

联系我们 contact @ memedata.com