每日HackerNews RSS

## 塔里克·杰米森的悲剧 & 可待因安全 像可待因这样的阿片类药物会抑制呼吸,不幸的是,看似安全的剂量对婴儿塔里克·杰米森来说却是致命的。他的母亲拉尼被处方可待因来缓解产后疼痛,却不知不觉地通过母乳传递了致命的剂量。 领先的儿科医生和毒理学家吉迪恩·科伦进行了调查,发现拉尼拥有罕见的遗传特征——多了一份基因拷贝,导致她的肝脏迅速将可待因转化为高浓度的吗啡。 塔里克的吗啡水平非常高,超过了安全呼吸的阈值。 科伦随后发表在《柳叶刀》上的研究表明,高达40%的哺乳期母亲可能像拉尼一样是“超快速代谢者”,从而使她们的婴儿面临风险。这一发现促使卫生监管部门迅速采取行动,在可待因包装上发出警告,并转向开具替代止痛药。 杰米森一家对制药公司提起了集体诉讼,旨在防止类似的悲剧发生。 尽管失去塔里克的痛苦依然存在,但他们的案件促使阿片类药物安全指南发生了关键变化,强调了基因检测和个性化医疗在产后护理中的重要性。 科伦继续倡导提高认识,强调未检测到的可待因毒性可能是婴儿死亡的潜在原因。

## 婴儿死亡案件中的潜在不当行为 《纽约客》杂志的一篇文章详细描述了人们对著名毒理学家科伦博士的研究的担忧,以及其研究对涉及可能由阿片类药物中毒引起的婴儿死亡案件调查的影响。核心问题在于一起案件:一个12天大的婴儿胃里发现了可待因的痕迹,但没有吗啡——这一发现与标准的泰诺林-3过量(含有可待因,可待因会*代谢*成吗啡)不符。 科伦最初声称检测到高水平的吗啡,似乎排除了泰诺林-3的可能性,并暗示了其他原因。然而,批评者认为这是对实验室结果的错误陈述,并且婴儿很可能被故意或疏忽地喂食了碾碎的泰诺林-3,可能与母乳混合。 这种担忧超出了单个案件,因为科伦的研究已被用于为17名其他监护人在类似的婴儿死亡案件中脱罪。这篇文章提出了关于科学诚信的问题,以及由于错误的结论是否可能被忽视了潜在的谋杀案,凸显了一种令人不安的可能性:正义被掩盖,并且未能充分调查这些悲剧。讨论还涉及在科学严谨性和此类案件的情感分量之间取得平衡的挑战,以及科学界内部可能存在的扭曲激励机制。

启用 JavaScript 和 Cookie 以继续。

## 伦敦初创企业的崛起:摘要 《经济学人》的一篇文章,在Hacker News上讨论,强调了伦敦作为全球领先的初创企业中心地位,尤其是在吸引美国以外的资金方面。虽然没有挑战硅谷的统治地位,但伦敦在早期投资和验证产品市场契合度方面表现出色,通常导致被美国公司收购。 讨论要点显示出不同的观点。一些人赞扬伦敦的多样性、文化底蕴和交通便利,同时也承认生活成本很高。另一些人批评其高昂的住房成本、繁文缛节以及委婉而间接的沟通方式。人们对英国公共市场萎缩以及公司被收购而非实现独立增长的模式表示担忧。 许多评论员注意到,尽管伦敦最初很有吸引力,但许多技术工人及创始人正离开英国,前往迪拜、新加坡或美国寻找机会。最终,争论的焦点在于伦敦是否能够促进可持续的长期增长,还是主要充当美国收购者的“培养系统”。

我们检测到您的浏览器已禁用 JavaScript。请启用 JavaScript 或切换到受支持的浏览器以继续使用 x.com。您可以在我们的帮助中心查看受支持的浏览器列表。帮助中心 服务条款 隐私政策 Cookie 政策 版权信息 广告信息 © 2026 X Corp.

一个黑客新闻的讨论围绕着“本地代理”的概念,以及是否能够实现真正本地化的AI。最初的帖子强调了代理在用户设备上运行的趋势,但评论者很快指出这些代理通常仍然依赖于基于云的大型语言模型(LLM),例如Claude。 争论的中心在于“本地”的真正含义——是指代理的执行,还是LLM本身?许多人认为,由于大型科技公司和政府的控制和财务利益,强大的模型将*不会*被广泛地本地化。 一个反驳观点认为,类似于住宅代理的分布式代理可能更难被阻止。 几位评论员也指出,这篇帖子本身可能就是AI生成的,并分享了在移动设备上使用像Claude Code这样的编码代理的经验。最终,这场讨论突出了当前运行AI本地化的局限性以及未来的可能性。

Pinecone Explorer 是一款原生 macOS 桌面应用程序,用于探索和管理您的 Pinecone 向量数据库。浏览索引和命名空间,检查向量和元数据,并使用密集、稀疏和混合搜索执行高级查询。内置的重新排序功能和强大的检索调试工具可帮助您优化向量搜索应用程序,并精确地排查查询结果。专为 Pinecone 设计的现代原生 macOS 应用程序。轻松浏览索引、搜索向量和管理嵌入。

Hacker News 新闻 | 过去 | 评论 | 提问 | 展示 | 招聘 | 提交 登录 Show HN: Pinecone Explorer – Pinecone 向量数据库桌面 GUI (pinecone-explorer.com) 20 分,由 arsentjev 1 天前发布 | 隐藏 | 过去 | 收藏 | 3 条评论 https://github.com/stepandel/pinecone-explorer kaotown 11 小时前 | 下一个 [–] 不错的工作。 有计划添加对 Pinecone Assistant 的支持吗?回复 someguyiguess 20 小时前 | 上一个 [–] 示例图片为什么有两个内容相同的 ID 列?回复 arsentjev 17 小时前 | 父级 [–] 啊,糟糕,那是我的数据错误。 我已经修复了截图。 谢谢你指出来!回复 指南 | 常见问题 | 列表 | API | 安全 | 法律 | 申请 YC | 联系 搜索:

## Sherlock:LLM API 流量与 Token 使用情况检查器 Sherlock 是一款用于监控和优化您与大型语言模型 (LLM) 交互的工具。它充当透明代理,拦截 Claude 等 LLM API 的 HTTPS 流量,并在终端仪表盘中显示实时 Token 使用情况。 **主要特性:** * **Token 追踪:** 监控每个请求的 Token 消耗。 * **上下文窗口监控:** 通过彩色编码的油表可视化累积 Token 使用量。 * **Prompt 调试:** 自动以 Markdown 和 JSON 格式保存 Prompt。 * **零代码集成:** 通过代理环境变量与现有工具配合使用。 **安装与使用:** 1. 克隆仓库并在开发模式下安装 (`pip install -e .`)。需要 Python 3.10+ 和 Node.js 用于某些应用。 2. Sherlock 在首次运行时会引导您安装 mitmproxy CA 证书。 3. 使用 `sherlock run <您的 LLM 工具>` 或特定命令(如 `sherlock claude`)运行命令。 仪表盘提供 Token 使用量、请求日志和已保存 Prompt 的实时视图,帮助您理解和优化 LLM 成本和 Prompt。欢迎通过 Pull Request 贡献!

## Sherlock:用于LLM洞察的中间人代理 一种名为Sherlock的新工具允许用户检查LLM工具(如Claude Code和Gemini)与API之间的通信,揭示正在发送的确切提示,并实时跟踪token使用情况。Sherlock由jmuncor出于好奇心构建,作为“中间人”代理运行,捕获请求并将提示保存为Markdown和JSON格式。 虽然通过简单的CLI即可轻松使用,但有人担心该工具无条件禁用TLS验证,从而带来安全风险。创建者承认这一点,并正在探索安全改进,包括可能使用HTTP中继。用户也建议将Sherlock集成到现有的工具中,如mitmproxy,以提高信任度和功能。 该工具已被证明对调试昂贵的提示、优化上下文窗口使用以及理解LLM的行为很有用,一些用户正在使用Envoy Proxy和Docker等工具创建类似解决方案。开发者正在积极寻求反馈,并考虑诸如OpenTelemetry集成和改进的上下文窗口管理等功能。

找到5笔退款请求。已根据您的政策处理。 Sarah Chen:年度计划,使用14天—已批准并处理… Mike's Hardware:发票错误—已退款,已发送道歉… Alex Thompson:重复收费—已退款,已发送确认… TechStart Inc:使用45天,超出政策范围—已拒绝,已说明… Jordan Lee:产品问题—已应用部分信用额度…

## Kairos: AI实习生 - Hacker News讨论 Hacker News上的讨论围绕着**Kairos**展开,这是一家新服务,提供“AI实习生”来自动化任务。核心争论在于**将AI定义为“实习生”是否合适**,许多评论者认为这淡化了当前AI的局限性,并可能利用了传统实习中人才培养的概念。 多位用户指出,当前的AI更适合简单的、重复性的任务——“次级”工作,而不是复杂的解决问题。一位用户将其比作机器人“奴役”,并引用了“robot”一词的词源。 一位用户进行的详细测试表明,Kairos在执行看似简单的任务时遇到困难:识别罕见鸟类的目击报告。尽管访问了正确的网站,但AI未能找到最近的、确认的目击报告,突显了它目前无法有效利用现有信息。 Kairos背后的公司(bamitsmanas)积极参与讨论,承认了反馈并表示愿意改进他们的方案,可能通过缩小服务范围来实现。人们也对登陆页面的破坏性滚动行为以及演示需要分享电话号码一事表示担忧。

## 浏览器代码:网页编码代理 浏览器代码是一个浏览器扩展,它使 Claude(或类似代理)能够像操作文件系统一样与网页进行交互和修改。它将每个网站呈现为一个虚拟文件系统——`page.html` 代表 DOM,`console.log` 用于输出,目录用于脚本和样式——允许代理生成、编辑和管理用户脚本。 这些脚本使用浏览器的用户脚本 API(Chrome 120+ 和 Firefox)保存,并在匹配的 URL 上自动运行,甚至包括动态路由(例如 `/products/[id]`)。一个关键特性是版本控制,防止基于过时的 DOM 状态进行编辑。 该扩展以两种模式运行:**计划模式**(只读探索和规划)和 **执行模式**(脚本执行和 DOM 修改,在用户批准后)。它提供双向用户脚本同步到本地文件系统(Chrome)或导出功能(Firefox)。 代理使用 `Read`、`Edit`、`Write`、`Glob` 和 `Bash` 等工具来操作虚拟文件系统。它通过用户脚本 API 绕过内容安全策略 (CSP) 限制,从而能够在 LinkedIn 等网站上执行脚本。

## 用户脚本的游标:一个基于浏览器的编码代理 一位 Hacker News 的开发者分享了“游标”,这是一个实验性的浏览器扩展,它将一个编码代理(如 Claude Code/Cursor)直接嵌入到浏览器中。游标不再手动使用 JavaScript 在控制台中编辑 DOM,而是将网页视为构建在浏览器本地存储之上的虚拟文件系统中的文件。 该代理可以生成和维护用户脚本和 CSS,利用工具来读取/编辑文件、grep 内容,并通过模拟的 bash 环境执行 JS 代码——镜像了这些模型经常训练的 RL 沙箱。目前与 Opus 4.5 测试,已被证明对诸如数据提取到 CSV 等任务有用。 虽然 Chrome Web Store 的提交正在等待处理,但开发者出于信任原因优先考虑基于源代码的构建,因为该扩展具有广泛的权限。讨论强调了与其他模型(如 Gemini Flash)的潜在集成,以及与类似项目(如 QuillMonkey 和 RobotMonkey)的比较,强调了人们对这种网络脚本编写方法的日益增长的兴趣。

## Trinity-Large:开源AI新前沿 经过两个月的密集开发,团队发布了Trinity-Large,一个400B参数的稀疏混合专家(MoE)模型,以及两个附加变体:Trinity-Large-Base(真正的基础模型)和Trinity-Large-Preview(即用型聊天模型)。该项目耗资约2000万美元,代表着在可访问、高性能AI方面迈出了重要一步。 Trinity-Large拥有独特的架构,具有高稀疏性(1.56%的激活参数),能够实现更快、更高效的训练和推理——比同类模型快大约2-3倍。它在17T个策划数据上进行训练,在数学、编码和推理等领域实现了前沿水平的性能,匹配或超越了现有的开源模型。 发布的*Preview*版本优先考虑在创意任务和代理应用中的实用性,而*Base*模型则为研究人员提供了一个干净的检查点,用于研究预训练的影响。团队利用了基于动量的专家负载均衡和z-loss等创新技术来稳定训练。Trinity-Large-Preview目前在OpenRouter上免费提供,计划进行完全发布和进一步改进。此次发布旨在赋予开源社区一个强大、可拥有且处于前沿水平的模型。

## Trinity Large:一种新的开源AI模型 Arcee.ai 发布了 Trinity Large,一个400B参数的稀疏混合专家(MoE)模型,训练耗时33天,成本约为2000万美元。该模型性能接近QWEN和Deepseek,尽管每个token只使用13B激活参数。 讨论的重点在于训练方法的权衡。虽然更大的模型通常需要更多资源,但Trinity Large优先考虑每参数的性能,可能使其在推理方面更有效率。然而,一些人认为由于激活参数数量和总token数量较低(17T vs 20-30T+),它与GLM和Qwen等竞争对手相比训练不足。 用户对拥有一个用于研究的“真正的基础”模型以及将其提炼成其他架构的潜力感到兴奋。该模型以Apache-2.0许可提供权重,但数据集不开放。一个关键问题是Arcee.ai计划如何将其开源模型的商业化。已经提供量化版本,以便更轻松地本地使用。

## 构建人工智能体验:以人为本的旅行图像方法 挑战:如何将用户自由形式的旅行查询(例如“sfo-jfk”)转化为旅行规划应用程序(Stardrift)中精美且相关的图像? 仅仅通过人工智能生成图像被证明质量低且成本高昂,而谷歌搜索则存在版权问题风险。 解决方案结合了大型语言模型、传统软件工程,以及至关重要的*人工策划*。 系统分为三个步骤:首先,大型语言模型识别查询中的“地点”,并为每个地点定义名称和类型(城市、地区、国家)。 其次,数据库将这些“地点”映射到从Unsplash获取的策划照片。 最后,软件检索适当的图像,即使对于未识别的地点,也会使用地理定位来查找最近的已映射地点。 填充数据库是一个手动但令人愉悦的过程。 虽然该系统并非完美——存在差距,并且图像选择反映了个人品味——但它展示了一个强大的原则:利用人工智能的优势,并辅以人类专业知识。 这种方法可以产生更精致、更“品味”的人工智能体验,避免完全依赖自动化解决方案的陷阱。 该系统还包括缺失地点提醒,允许通过手动补全进行持续改进。

## 黑客新闻讨论摘要:AI 与旅行图像 最近黑客新闻上出现了一场关于一篇文章的讨论,该文章详细介绍了一个系统,可以将旅行查询(例如“sfo-jfk”)转化为相关的照片。作者使用LLM(具体来说是Haiku)来解释查询并从策划的数据库中选择图像——**这些图像*不是* AI 生成的**,这是评论中争论的焦点。 用户们争论了构建自定义本地模型与使用云API的实用性,许多人同意尽管有成本,云服务目前效率更高。人们对潜在的对平面设计师的影响表示担忧,但大多数人澄清该系统更像是一个专门的图像搜索引擎。 讨论的很大一部分集中在黑客新闻上使用的具有误导性的标题上,最初将该项目定位为AI图像*生成*。几位用户指出标题不能准确反映文章内容。其他人质疑使用可能不真实的图像来描绘旅行目的地的价值,提倡使用真实的摄影作品。最后,一些人批评了创造理想化、可能具有欺骗性的视觉体验的想法。

## JFMM.net:改进大型手册的搜索 作者在海军服役期间,对3470页《联合舰队维护手册》(JFMM)缓慢而繁琐的搜索过程感到沮丧,因此构建了[JFMM.net](https://jfmm.net/)——一个语义搜索引擎,旨在改善对这些关键信息的访问。传统的文本搜索效果不佳,需要精确的词语匹配,并且在政府笔记本电脑上每次查询需要超过一分钟。 最初的版本使用了向量相似性搜索,使用`nomic-embed-text-v1.5`嵌入文本块,并将其存储在云托管的Postgres数据库中,使用`PGVector`。虽然功能可用,但成本很高。重写侧重于经济性和相关性。 作者切换到带有`sqlite-vec`扩展的轻量级SQLite数据库,从而能够在本地嵌入整个手册并部署更小的容器。量化,将模型精度降低到8位,进一步减少了RAM的使用。为了提高结果准确性,添加了一个重排序模型(`BAAI/bge-reranker-v2-m3`),尽管这会略微增加延迟。实施了HATEOAS分页方法,利用URL管理状态并提高效率。 结果是一个更相关、更便宜、更方便开发者的搜索工具,现在每月成本低于2美元,但由于重排序,查询速度略有下降。

这次黑客新闻的讨论集中在优化语义搜索,特别是在联合舰队维护手册 (JFMM.net) 的背景下。发帖者详细介绍了他们搜索系统的调整,评论者分享了实践经验和技术。 主要收获包括令人惊讶的简单方法——例如分类嵌入和混合多个模型的分数——通常优于付费解决方案。利用特定领域的词汇表和缩略词映射被强调为重要的提升因素。 一位评论者详细介绍了使用 ASP.NET、Postgres/pgvector 和 OpenAI 嵌入构建巴哈马关税信息的 RAG(检索增强生成)系统。他们发现 SQLite 是较小数据集的可行替代方案,在 Postgres 不使用索引的情况下。双方都强调构建有用搜索系统的迭代性质以及分享解决常见痛点的“战场笔记”的价值。

更多

联系我们 contact @ memedata.com