每日HackerNews RSS

## 令人惊讶的聪明浣熊 一只浣熊闯入弗吉尼亚州一家酒类商店并醉倒的故事,引发了一位神经科学家对浣熊(*Procyon lotor*)智力的深入研究。尽管由于它们擅长逃脱和不愿被限制,在实验室研究中常常被忽视,而青睐啮齿动物,但浣熊的大脑却与灵长类动物惊人地相似,甚至按体型比例与人类大脑相当。 研究表明,浣熊拥有大量的神经元和与情绪调节和快速决策相关的特殊脑细胞。它们的认知能力也令人印象深刻;它们表现出对解决方案的心理预演,并拥有与学习和记忆相关的复杂海马体,反映了人类大脑中发现的结构——甚至表现出与我们自己相似的手脑映射。 这表明浣熊不仅仅是机会主义的害虫,而是一种具有复杂心理能力的物种。在自然环境中研究它们,而不是将它们限制在实验室中,可以解锁关于冲动控制、注意力和最终对人类大脑本身的宝贵见解。关键在于超越对动物智力的轻视,并拥抱共享认知特征的可能性。

一篇关于浣熊的文章在Hacker News上引发讨论,揭示了它们惊人的能力。用户分享了浣熊闯入建筑物、熟练开锁(甚至食物箱!)、以及普遍表现出接近令人不安的解决问题能力的故事。 一位用户幽默地建议用激光笔戏弄浣熊,甚至提议*教*它们如何使用。其他人则讲述了需要防浣熊猫门的个人经历。对话还涉及了利用浣熊进行搜索和救援等任务的可能性——以及其固有的困难,考虑到它们独立和顽皮的天性。 最终,这篇帖子突出了浣熊以聪明、适应性强和似乎天生就想智胜人类基础设施而闻名,甚至将其比作熟练的窃贼。

## Vim精通的无尽追求 受到2012年与一位精通Vim用户谦逊相遇的启发,作者踏上了为期13年的Vim精通之旅。尽管取得了显著进步,并达到了一种编码感觉更接近思维速度的程度,但仍然存在挥之不去的笨拙——意外的命令和低效的按键仍然困扰着他们的工作流程。 为了实现真正的流畅性,作者承担起了配置Vim所有376个选项的雄心壮志。深入研究包括广泛的研究、查阅文档、在线论坛,甚至Vim的源代码。这个过程揭示了关于Vim内部运作的惊人细节——从文件写入的复杂性、条件选项设置到像双字母输入法这样的晦涩功能。 虽然这项练习极大地提高了理解和技能,并突出了Vim和Neovim之间的差异,但作者最终意识到完美的精通可能无法实现。尽管拥有近2900行的配置文件,偶尔的错误仍然存在。然而,这种认识却令人感到安慰——它时刻提醒着人们,学习是一个持续的过程。

## Vim 与流畅性的追求:黑客新闻总结 最近黑客新闻的讨论源于一篇博客文章,详细描述了一位用户尝试掌握 Vim 的所有 376 个选项。对话迅速演变成关于 Vim 在现代编辑器和人工智能时代价值的争论。 许多长期使用 Vim 的用户为其效率辩护,强调通过肌肉记忆和明确的移动方式可以实现的速度和精确性——甚至认为可以减少 RSI。他们强调 Vim 在各个系统中的普遍性及其强大的文本操作能力。另一些人指出,虽然完美是无法达到的,但学习 Vim 的过程可以培养对文本编辑更深入的理解。 然而,一些人质疑如此深入的投入是否必要,尤其是在人工智能工具承诺简化代码编辑和定制的情况下。他们认为,现代 IDE 提供了可比的功能,并具有更易于访问的界面。 最终,讨论揭示了各种观点:对于一些人来说,Vim 仍然是一个经过数十年磨练不可或缺的工具,而另一些人则认为随着技术的发展和人工智能赋予用户根据特定需求定制工具的能力,其相关性正在降低。核心要点是,编辑器选择是高度个性化的,而“最佳”工具取决于个人的工作流程和偏好。

苹果目前正在测试 iOS App Store 搜索广告的一项微妙但重要的改变。新的设计去掉了之前用于突出显示赞助结果的独特蓝色背景,仅在应用图标旁边保留了一个小小的“广告”标签作为区分标志。 这一改变是在 iOS 16.3 中观察到的,旨在使搜索结果看起来更集成——可能更无缝地展示多个赞助应用。然而,这也使得用户更难快速识别付费推广内容,引发了对潜在用户混淆的担忧。 虽然这可能对用户体验不利,但此调整很可能旨在提高广告点击率,从而增加苹果的广告收入。此改变似乎是一项 A/B 测试,苹果尚未确认更广泛的推广计划。此前,苹果在 12 月份宣布将增加搜索结果中的赞助内容。

```javascript import { createServer } from 'pipenet/server'; const server = createServer({ domains: ['tunnel.example.com'], secure: true, tunnelPort: 3001, // 生命周期钩子 onTunnelCreated: (tunnel) => { console.log(`Tunnel created: ${tunnel.id} at ${tunnel.url}`); }, onTunnelClosed: (tunnel) => { console.log(`Tunnel closed: ${tunnel.id}`); }, onRequest: (req) => { console.log(`${req.method} ${req.path} via ${req.tunnelId}`); }, }); await server.tunnelServer.listen(3001); server.listen(3000); ```

你是否支持人工智能? 人工智能应该是一种选择。 你对人工智能的看法如何? 有人问过你吗?现在有人问了。 支持人工智能投票 反对人工智能投票 还没确定?没关系——投票就好! 匿名统计投票,按地点显示国家/地区。

## Kalshi 预测市场分析:乐观税 对 CFTC 监管的预测市场 Kalshi 上 7210 万笔交易(总额 182.6 亿美元)的研究揭示了一种令人惊讶的低效:交易者愿意接受比拉斯维加斯老虎机更差的赔率(回报约 43 美分,而老虎机约为 93 美分)。这并非由于信息整合失败,而是“主动买家”(积极下注者)向“流动性提供者”的系统性财富转移。 研究表明存在“长尾偏见”,即对低概率结果支付过高的价格。关键在于,流动性提供者并非通过更优的预测获利,而是利用主动买家对肯定性(“是”)投注的偏好,尤其是在长尾价格上。这种“乐观税”在情绪驱动的类别中最为明显,例如体育和娱乐,而金融市场则接近效率。 在 Kalshi 获得在 2024 年上市政治合约的权利后,这种效应加剧了,吸引了更多专业的做市商,他们有效地提取价值。这项研究强调,市场效率并非内在的,而是依赖于参与者选择和市场深度——最初业余交易者受益,但专业的流动性提供者现在占据主导地位,利用行为偏差。最终,Kalshi 表明预测市场并非完全理性的;它们反映并受益于人类心理。

## 预测市场:Hacker News 讨论摘要 Hacker News 上一篇帖子讨论了一篇研究论文,分析了 Kalshi 预测市场 2021-2025 年期间 182.6 亿美元的交易量。核心发现是一种系统性低效:**长尾偏差**。低概率合约被高估,这意味着买家持续亏损(“乐观税”),而卖家(“做市商”)获利。具体来说,以 1 美分买入“是”结果的预期价值为 -41%,而以 1 美分买入“否”结果的预期价值为 +23%。 有趣的是,**金融市场是高效的**,而那些参与度高的市场(媒体、世界事件)则不然。一个关键的争论点在于这种低效是由于真正的预测失败还是受知情人士的利用,甚至可能影响结果。人们担心有权势的参与者利用这些市场获取非法收益,例如利用对事件的预先了解获利(例如,在特朗普宣布之前从 BTC 空头头寸中获利 2 亿美元)。 许多评论员质疑将这些市场定位为合法的金融工具,认为它们更像具有独特风险的赌博场所。其他人建议进行监管变更甚至禁止它们,而一些人则捍卫它们在信息聚合和激励透明度方面的潜力。讨论还涉及 LLM 和 AI 在这些市场中的作用,并预测它们在未来会越来越有影响力。

## 重新思考营销网站的 Web 组件 作者认为,传统的 Web 组件依赖 JavaScript 和 Shadow DOM,通常对于营销网站设计系统来说过于复杂。这些组件经常代表简单的 UI 元素,如卡片或横幅,不*需要* JavaScript。 他们提出一个演进过程:首先是 **HTML Web 组件**,它使用自定义元素来封装标准的 HTML,允许使用最少的 JavaScript “水合作用”进行渐进增强。这种方法提供了 SSR 兼容性和更易于访问性。 然而,核心思想是 **CSS Web 组件**——*完全*使用 CSS 和自定义 HTML 元素构建组件,完全消除 JavaScript。功能和变体通过 CSS 属性选择器来实现,允许根据元素属性进行动态样式设置(例如,`<swim-lane layout="reverse">`)。 这种方法利用了 CSS 在响应式设计和组件变体方面的强大功能,避免了与标准 HTML 属性的命名冲突,并且非常适合优先考虑性能和可访问性的营销网站,从而最大限度地减少对 JavaScript 的依赖。作者认为这种方法可以有效地处理大多数常见的营销网站组件。

## 营销网站的 CSS Web 组件:摘要 最近 Hacker News 上出现了一场讨论,围绕着一篇博客文章,该文章提出了一种使用自定义 HTML 元素和 CSS 构建营销网站组件的方法,而不是过度依赖 JavaScript 框架。核心思想是使用自定义标签名(如 `<swim-lane>`)作为 CSS 选择器,创建模块化样式,而无需使用具有 JavaScript 行为的 полноценные Web 组件的开销。 一些人称赞这种方法简单且可能带来性能优势,而另一些人则争论它是否真正符合使用“Web 组件”的定义——认为真正的组件应该具有自己的依赖项并自包含。人们对潜在的 HTML 冗余以及用标准 HTML 元素替换的语义适当性表示担忧。 这场讨论凸显了 CSS 纯解决方案、Web 组件的复杂性(尤其是 Shadow DOM)以及成熟 JavaScript 框架的优势之间的更广泛争论。最终,这种方法的可行性似乎取决于具体的项目需求以及愿意为了潜在的样式优势而牺牲一些语义清晰度的意愿。原始文章的作者分享说,他们已成功在 VS Code 网站上实施了这项技术。

## Splined:基于贝塞尔曲线的迭代图像重建 Splined 是一款 Metal 加速工具,用于使用随机三次贝塞尔曲线重建图像。它通过采样曲线、栅格化并仅接受那些*减少*图像误差(在 Oklab 色彩空间中衡量)的曲线,迭代地构建图像。 用户提供输入图像(文件或目录),并可以使用诸如最大笔画数、批处理大小、随机种子和输出设置等参数自定义过程。一个关键特性是使用 `--nth` 标志保存中间帧以进行动画。 该算法从初始化为输入图像平均颜色(或用户定义的背景色)的画布开始,并持续进行,直到达到所需的笔画数或重建收敛。Splined 受 “Geometrize” 应用的启发,未来的开发目标是改进抗锯齿效果并支持其他 GPU 后端,例如 WebAssembly。

## 基于贝塞尔曲线的迭代图像重建 - Hacker News 摘要 Hacker News 上的一场讨论围绕一个项目,该项目使用随机三次贝塞尔曲线进行迭代图像重建,展示在 [tangled.org](tangled.org) 上。该技术通过逐步优化曲线以匹配目标图像,生成空灵、美丽的图像。 一些评论者分享了相关工作,包括使用遗传算法的项目 ([https://es-clip.github.io/](https://es-clip.github.io/), [https://a.tulv.in/genetic-art.html](https://a.tulv.in/genetic-art.html)) 以及用于草图合成的隐式神经表示。一个用于生成这些图像的 Web UI 可用 ([https://github.com/kevin-hanselman/primitive-web-ui](https://github.com/kevin-hanselman/primitive-web-ui)),它利用了 Michael Fogleman 的 Go 库。 讨论还涉及模拟退火等优化技术、Oklab 色彩空间在感知准确性方面的优势,以及 Roger Alsing 在 2008 年尝试用进化多边形重现蒙娜丽莎的历史先例。 几位用户提到了过去类似的项目,涉及多边形网格和图像占位符以加快网页加载速度。

我们检测到您的浏览器已禁用 JavaScript。请启用 JavaScript 或切换到受支持的浏览器以继续使用 x.com。您可以在我们的帮助中心查看受支持的浏览器列表。帮助中心 服务条款 隐私政策 Cookie 政策 版权信息 广告信息 © 2026 X Corp.

## LLM 与电路设计:一种新方法 最近一则由 Ben Eater 的推文引发的 Hacker News 讨论,探讨了使用大型语言模型 (LLM) 进行电子电路设计。核心思想不是让 LLM *创建* 新颖的电路,而是利用它们进行**预验证电路块的选择和集成**。 一个项目,[phaestus.app](https://phaestus.app/),采用了这种方法,使用基于网格的系统,让 LLM 选择和放置预先设计、经过人工测试的组件。这避免了 LLM “幻觉”产生错误值或设计的陷阱。 讨论强调了与软件开发相似之处——使用库而不是从头开始编写所有内容。 虽然 LLM 在复杂的原创电路设计方面存在困难,但它们擅长高级架构决策,并且可以用于快速原型设计和探索想法。 许多评论者分享了使用 LLM 加速学习、查找零件,甚至为相关的微控制器项目生成代码的经验。 然而,人类监督和验证的需求仍然至关重要,特别是考虑到硬件错误的实际后果。 像 [silixon.io](https://silixon.io/) 这样的工具正在出现,以促进这种人工智能辅助设计过程。

## GLM-4.7-Flash:强大且高效的30B模型 GLM-4.7-Flash 是一款新的30B参数混合专家(MoE)模型,专为轻量级部署而设计,在性能和效率之间取得了良好的平衡。它定位为30B参数类别中的领先模型,在AIME、GPQA、LCB、HLE、SWE-bench、τ²-Bench 和 BrowseComp 等多个基准测试中表现出具有竞争力的结果,通常优于 Qwen3-30B 和 GPT-OSS-20B。 该模型支持使用 vLLM 和 SGLang 等推理框架进行本地部署,其 Github 仓库中提供了详细的说明。用户可以通过 Z.ai API 平台快速访问 GLM-4.7-Flash。 主要功能包括支持工具调用和推理,并提供 vLLM 和 SGLang 的配置。开发者鼓励引用他们的配套论文“GLM-4.5: Agentic, Reasoning, and Coding (ARC) Foundation Models”,以用于使用该模型的研究。 **资源:** Discord 社区,技术博客和报告 (GLM-4.5),Z.ai API 平台。

更多

联系我们 contact @ memedata.com