每日HackerNews RSS

黑客新闻 新 | 过去 | 评论 | 提问 | 展示 | 招聘 | 提交 登录 铅汽油禁令有效,一个世纪的头发样本证明了这一点 (arstechnica.com) 19 分,由 jnord 1 小时前发布 | 隐藏 | 过去 | 收藏 | 1 条评论 ChrisArchitect 31 分钟前 [–] [重复] https://news.ycombinator.com/item?id=46865275 回复 指南 | 常见问题 | 列表 | API | 安全 | 法律 | 申请 YC | 联系 搜索:

彭博社 需要帮助?请联系我们 我们检测到您的计算机网络存在异常活动 要继续,请点击下面的框来确认您不是机器人。 为什么会发生这种情况? 请确保您的浏览器支持 JavaScript 和 cookies,并且没有阻止它们加载。 更多信息请查看我们的服务条款 和 Cookie 政策。 需要帮助? 关于此消息的咨询,请联系 我们的支持团队并提供下面的参考ID。 阻止参考ID:6bab6db1-03b8-11f1-a2d5-541b77733538 订阅 Bloomberg.com,随时掌握最重要的全球市场新闻。 立即订阅

黑客新闻 新的 | 过去的 | 评论 | 提问 | 展示 | 工作 | 提交 登录 俄克拉荷马州建筑师如何将俗气变成艺术 (bloomberg.com) 7 分,MarlonPro 1小时前 | 隐藏 | 过去的 | 收藏 | 1 条评论 wizardforhire 17分钟前 [–] 如果有人感兴趣,关于戈夫有一部很棒的纪录片。https://imdb.com/title/tt12239628/ 回复 指南 | 常见问题 | 列表 | API | 安全 | 法律 | 申请YC | 联系 搜索:

## 芝加哥意想不到的生态系统:熔渣女王与她们的研究 生态学家艾莉森·阿纳斯塔西奥和她的合作者,被称为“熔渣女王”,正在研究芝加哥卡卢梅特地区的工业废弃场中蓬勃发展的令人惊讶的生态系统。受瑞典石灰岩荒地(贫瘠的石灰岩景观)中顽强植物的启发,她们开始调查钢渣——炼钢的副产品——并发现了丰富的生物多样性。 与预期相反,“钢渣荒地”并非荒地。它们孕育着原生草原草、稀有乳草、矮化树木,甚至是一种被认为本地灭绝的灯芯草。熔渣女王认为,这些新型生态系统不应以昂贵的修复手段“清理”,而应被理解和管理,以发挥其独特的生态价值——可能有助于碳封存并为传粉者提供栖息地。 她们在玛丽安·R·伯恩斯自然保护区和大型沼泽公园等地点进行的研究,挑战了传统的恢复方法,表明即使容忍入侵物种也可能是有益的。最终,熔渣女王的目标是重新定义我们对后工业景观的看法,认识到它们作为有价值的、不断演化的栖息地的潜力。

最近一篇关于“矿渣之美”的文章在Hacker News上引发了一场讨论,凸显了生命在恶劣环境中惊人的适应力。 讨论的中心是生长在矿渣上的植物——矿渣是金属冶炼的副产品,通常含有毒素。 一位评论者分享了他父亲从事危险废物清理工作的故事,以及一位研究人员正在研究可以主动吸收和隔离矿渣中毒素的植物,可能用于环境修复。 这引发了“大自然,嗯,总能找到办法”的观察。 该帖子以一种有趣的方式承认了小众科学的好奇心,评论者承认自己被这个话题吸引,并可能进一步探索类似的“奇特植物”。 这证明了即使在看似荒凉的景观中,也存在着意想不到的美丽和潜力。

这项研究探讨了大型语言模型(LLM)是否能从FORTH和关联编程语言架构中受益,从而摆脱递归、自顶向下的问题解决方式。核心思想是**优先考虑连接而非整合**,从基础开始构建解决方案——在确定上下文*之前*生成组件,这反映了我们预测序列中下一个词的方式。 作者使用“奇偶树”基准测试验证了这一假设。模型(Opus和Haiku)的任务是构建表示数字序列奇偶性(偶数/奇数)的二叉树,使用前缀(自顶向下)和后缀(自底向上)表示法。 结果表明,**后缀表示法始终优于前缀表示法**,并且**Opus的性能显著优于Haiku**。这表明模型在首先生成子解决方案时“思考”得更有效,这与关联方法相符。作者建议这一原则可以为数据库层优化提供信息,利用有限自动机的转换。最终,这项研究倡导LLM架构向逐步构建解决方案转变,而不是递归分解问题。

## FORTH 与 LLM:Hacker News 讨论 最近一则 Hacker News 帖子引发了关于编程语言 FORTH 及其与大型语言模型 (LLM) 潜在相关性的讨论。最初的发布者 (rescrv) 质疑 LLM 是否在使用类似于 FORTH 后缀表示法的语言时,性能会更好。 对话显示了各种观点。一些人认为 FORTH 的简单性和高效的通用学习特性可能是有益的,而另一些人则认为 LLM 足够复杂,可以处理更复杂的语法,并且 FORTH 的隐式堆栈操作实际上会*阻碍*性能,因为它需要全局推理。 几位评论者分享了他们使用 FORTH 的经验,指出它易于实现,并且程序员倾向于创建自己的解释器。一位用户强调了一篇最近的首页文章,展示了一个富有创意的 FORTH 应用程序。 Rescrv 分享了一个基准测试 ([https://github.com/rescrv/stack-bench](https://github.com/rescrv/stack-bench)),以便其他人测试他们的假设,并强调他们并非提倡直接使用 FORTH,而是探索更紧凑的语言在数据查询方面的潜力。

本文概述了 GitHub 平台上的功能和资源,该平台用于软件开发和版本控制。GitHub 为开发生命周期的每个阶段提供工具,包括**代码创建**(借助 Copilot & Spark 等人工智能辅助)、**开发者工作流**自动化(Actions、Codespaces)和**应用程序安全**(Advanced Security)。 它服务于各种用户——从**企业**到**初创公司**——并支持 DevOps、CI/CD 和应用程序现代化等各种**用例**,涵盖医疗保健和金融等行业。 除了核心开发之外,GitHub 还提供广泛的**资源**,如文档、博客和培训(GitHub Skills)。它还通过开源倡议、赞助和支持论坛来培养强大的**社区**。该平台提供各种**企业解决方案**和附加组件,如高级支持和高级安全功能,并提供详细的**定价**信息。

## Gigacode:轻松切换编码代理 Gigacode是一个新项目,利用OpenCode平台实现快速切换AI编码代理,例如Claude Code、Codex和Amp。它并非*取代*OpenCode,而是*使用*其协议通过“Sandbox Agent SDK”(通用HTTP API)连接到这些代理。 开发者构建Gigacode是为了满足针对特定任务使用最佳代理的需求:Claude Code用于快速迭代,Codex用于复杂项目,OpenCode用于精确编辑。他们强调,围绕这些模型的“框架”(系统提示和API访问)正变得和模型本身一样重要。 Gigacode建立在OpenCode的灵活性和可扩展性之上,开发者们正在积极探索与Agent Client Protocol (ACP)的兼容性,以实现标准化的代理通信。目前可以通过简单的`curl`命令进行安装,并且在GitHub上开源。

关于按住版权联系我们创作者广告开发者条款隐私政策和安全性YouTube的工作原理测试新功能© 2026 Google LLC

黑客新闻 新 | 过去 | 评论 | 提问 | 展示 | 招聘 | 提交 登录 玩得很凶的鼹鼠之谜 (2019) [视频] (youtube.com) 9 分,作者 archagon 3 小时前 | 隐藏 | 过去 | 收藏 | 1 条评论 stochaztic 44 分钟前 [–] 不确定是什么导致最近对这个旧视频的兴趣激增,我从分析和类似这篇文章的帖子中看到的情况是这样,但很高兴人们喜欢它。地球冒险的ROM修改场景很小但很有趣。回复 指南 | 常见问题 | 列表 | API | 安全 | 法律 | 申请 YC | 联系 搜索:

## Horizons 服务器摘要 Horizons 是一个用于构建和执行由 LLM 和工具驱动的有向无环图 (DAG) 的框架。它专为复杂工作流设计,并提供 Python 和 Rust SDK,以及一个 TypeScript 客户端。 **入门:** 推荐使用 Docker Compose 在 `http://localhost:8000` 上进行快速设置,并具有持久化存储。或者,您可以直接构建并运行 Rust 服务器(需要 Rust 1.85+),默认使用 SQLite 和本地文件系统后端。 **主要特性:** Horizons 通过 API (`/api/v1/graph/*`) 暴露一个图引擎,允许您列出、验证和执行用 YAML 定义的图。Python 执行默认使用本地子进程,并提供可选的嵌入式解释器。 **重要提示:** 服务器会自动将组织和项目 ID 注入到图输入中。LLM 节点使用环境变量中的 API 密钥。工具调用可以路由到远程执行器。该项目采用 FSL-1.1-Apache-2.0 许可,限制竞争性产品开发两年,之后转换为 Apache 2.0。

Synth Laboratories 发布了 Horizons,一个开源的智能体执行引擎(可在 GitHub 上获取:github.com/synth-laboratories)。Horizons 旨在简化基于智能体的产品构建,它提供了一个完整的堆栈,用于智能体优化(使用 GEPA 和 MIPRO 等方法)、评估(RLM)和大规模部署。 它旨在成为一个可自托管的“开箱即用”替代方案,类似于 OpenAI 的 Frontier 和 OpenClaw 等平台,支持与 Claude、Codex 和 OpenCode 的集成。主要功能包括用于后端集成的双向事件驱动接口、多智能体控制 (MCP) 支持以及基于角色的访问控制 (RBAC) 规划。 开发者设想 Horizons 可以满足对上下文更新、内存管理和持续学习标准化实现的需求——特别是当项目规模扩大并需要管理具有权限操作的多个智能体时。早期用户反馈强调了它在调整长周期任务和超越手动提示优化方面的潜力。

## agent-slack:AI 代理的 Slack 自动化 CLI `agent-slack` 是一个基于 TypeScript/Bun 的 CLI 工具,旨在为 AI 代理提供无缝的 Slack 集成。其核心原则是**高效的 token 输出**——提供紧凑的 JSON 响应,并去除数据中的 null/空字段,以最大限度地降低 LLM 成本。 **主要特性:** * **零配置认证:** 使用 Slack Desktop 自动认证(具有 Chrome 回退和手动选项)。 * **消息处理:** `get`(单条消息 + 线程元数据)、`list`(完整线程)、`send`(回复)和 `react` 命令。 * **搜索:** 强大的消息和文件搜索功能,具有过滤选项(频道、用户、日期、内容类型)。 * **工件:** 自动下载文件(代码片段、图片等)到本地目录,为代理提供通过绝对路径直接访问文件的能力。 * **Canvas 支持:** 获取 Slack canvases 并将其转换为 Markdown。 * **用户管理:** 列出并获取用户信息。 **安装:** `curl -fsSL https://raw.githubusercontent.com/stablyai/agent-slack/master/install.sh | sh` 或通过 `npx skills add stablyai/agent-slack`。 `agent-slack` 专为用作代理技能(与 Claude、Codex、Cursor 兼容)而设计,并优先考虑易用性和 LLM 数据处理效率。输出始终为 JSON 格式,针对经济高效的处理进行了优化。

## Slack 命令行工具 - 摘要 StablyAI 发布了一款新的开源命令行工具,允许用户直接从命令行与 Slack 消息和画布交互,专为那些无法访问官方 Slack MCP 的用户设计。该工具在 GitHub 上可用,具有零配置安装(使用 Slack Desktop 自动认证)和高效的令牌使用。 主要功能包括粘贴 Slack URL 以直接访问、自动下载文件/代码片段,以及将 Slack 画布读取为 Markdown 的能力。初步用户反馈证实了其功能性,但线程中用户名解析被指出需要改进——开发者计划使用专用标志来解决这个问题。一位用户还建议添加令牌导入支持以增强安全性。该项目采用 MIT 许可证发布。

## Claude Opus 4.6:人工智能驱动的网络安全飞跃 Anthropic的Claude Opus 4.6在识别软件漏洞方面展现出显著进步,标志着人工智能在网络安全领域可能迎来转折点。与模糊测试等传统方法不同,Claude能够*推理*代码——分析提交历史、识别问题模式和理解逻辑——从而发现高危漏洞,即使是在经过良好测试、拥有数十年安全投入的代码库中。 该团队已经使用Claude发现了500多个开源软件中的漏洞并进行了验证,包括GhostScript、OpenSC和CGIF中之前未被发现的问题。这是通过向Claude提供代码和标准工具*而无需*专门指令来实现的,突显了其“开箱即用”的能力。 为了减轻潜在的滥用,Anthropic正在实施新的“探测”机制来检测恶意活动和实时干预措施。他们承认需要不断发展的披露规范,因为LLM发现的漏洞可能超出目前的90天报告窗口。 这代表着在扩大规模下赋能防御者和保护代码的重要一步,但需要持续的工作来平衡有效性和安全性,并适应人工智能驱动的漏洞研究的快速发展环境。

最近的Hacker News讨论集中在Anthropic关于LLM发现的0天漏洞的帖子。有些人认为这是营销,而另一些人则承认他们的Opus 4.6模型在安全研究能力上取得了真正的飞跃。一位用户报告说,Opus 4.6在广泛的、未提示的测试后,主动识别了一个公共API中的真实漏洞——以前的模型需要大量的指导才能做到这一点。 然而,人们担心LLM可能会产生大量的误报,让维护者不堪重负(引用了curl项目结束漏洞赏金计划的经验)。强调了人工验证的重要性,以过滤掉“幻觉”漏洞,正如Anthropic雇用内部和外部安全研究人员进行验证和补丁开发。 怀疑论者质疑了所发现漏洞的复杂性,并认为该帖子主要是宣传材料。这场对话凸显了一个日益增长的担忧:风险的增加不一定在于*发现*漏洞,而在于管理由越来越强大的LLM产生的潜在不准确报告的数量。

## Monty:为AI代理设计的安全Python解释器 Monty是一个极简、安全的Python解释器,用Rust构建,旨在安全地执行大型语言模型(LLM)生成的代码。它避免了传统沙箱(如Docker)的开销,启动时间低于1微秒——明显快于替代方案。 Monty支持Python的一个子集,包括类型提示,并允许受控地访问开发者定义的宿主函数。它阻止了对文件系统、环境变量和网络的直接访问。主要功能包括资源跟踪(内存、时间)、stdout/stderr捕获以及快照功能,用于暂停和恢复执行。 虽然功能有限(除了少量模块外没有标准库,目前还没有类或匹配语句),但Monty在特定用途上表现出色:使LLM能够编写和执行Python代码以执行诸如工具使用之类的任务,提供了一种更快、更便宜、更可靠的传统工具调用方法的替代方案。它旨在为Pydantic AI中的代码模式等功能提供支持。 Monty可用于Rust、Python和JavaScript,可以通过pip或npm安装。它目前仍处于实验阶段,但与Docker、Pyodide和直接Python执行等解决方案相比,性能表现出希望。

## Monty:一种用于人工智能的安全 Python 解释器 一个名为 Monty 的全新精简 Python 解释器,由 Rust 构建,由 Pydantic 团队开发,因其在 AI 沙盒中的潜力而备受关注。它旨在快速且安全地执行由 LLM 生成的 Python 代码,启动时间以微秒为单位。 讨论的中心是其安全性——特别是它在与 LLM 交互时,如何有效防止“突破”到宿主环境。虽然这个想法受到赞扬,但关于其安全边界的实际限制仍然存在疑问。 一位评论员建议创建全新的、更严格的语言专门用于 AI 使用,认为 LLM 可以轻松理解简单的规范,并且不需要现有语言的复杂性。这种方法将优先考虑严格性和减少歧义,更适合 AI 生成的代码。

更多

联系我们 contact @ memedata.com