每日HackerNews RSS

## Go 调度器总结 Go 调度器通过将 goroutine 多路复用到较少的操作系统线程来高效管理并发执行。它利用 GMP 模型:**G**oroutine(轻量级任务)、**M**achine(操作系统线程)和 **P**rocessor(具有本地运行队列和缓存的调度上下文)。 每个 P 允许 goroutine 在没有持续锁的情况下运行,并通过工作窃取将工作与阻塞的操作系统线程解耦。调度器的核心循环 `schedule()` 优先运行本地队列中的 goroutine,然后是全局队列(确保公平性),最后从其他 P 窃取。 Goroutine 通过在阻塞时(例如,通道操作)或完成时主动让步与调度器协作。 抢占式调度处理无响应的 goroutine。 由于其状态小,goroutine 之间的上下文切换非常快(50-100 纳秒),从而可以并发运行数百万个 goroutine。 主要特性包括用于响应速度的自旋线程、用于效率的堆栈增长以及协调所有内容的全局调度器状态 (`schedt`)。 该系统允许 Go 以最小的开销实现高并发。

黑客新闻 新 | 过去 | 评论 | 提问 | 展示 | 招聘 | 提交 登录 理解 Go 运行时:调度器 (internals-for-interns.com) 6 分,由 valyala 1 小时前发布 | 隐藏 | 过去 | 收藏 | 讨论 帮助 指南 | 常见问题 | 列表 | API | 安全 | 法律 | 申请 YC | 联系 搜索:

## 语言景观的变迁 1992年特夫克·埃森奇的去世标志着乌比赫语最后一位说话者的逝去,这种语言以其复杂的80个辅音结构而闻名,凸显了一种全球趋势:语言快速灭绝。尽管全球约7000种语言中有3000种目前正濒临灭绝,通常是由于技术和全球化传播了强势语言,但语言并非仅仅在消失——它在*转变*。 伴随着语言消亡,一种令人惊讶的新语言形式正在涌现。科技和科学等专业领域正在产生大量的词汇,而在线亚文化则发展出独特的俚语和术语。此外,人工语言(“构语”)的有意创造——从简单的托基波纳到极其复杂的伊特库伊尔——展示了蓬勃的创造力。 这些新形式虽然不同于传统语言,但提供了独特的认知工具和审美价值。虽然保护濒危语言仍然至关重要,但认识到语言多样性的动态本质——同时的毁灭*和*爆炸式增长——至关重要。归根结底,语言是人类思想、文化和联系的不断演变的反映。

一场由一位学习奇切语(玛雅语)的人引发的黑客新闻讨论,反思了美洲原住民语言的流失。发帖者表达了第一次体验真正美洲语言的惊奇,以及对欧洲殖民化造成的历史同质化的悲伤,并将之与欧洲、亚洲和非洲保留的更大语言多样性形成对比。 另一位评论者反驳了这种观点,认为全球语言流失正在加速,原因包括大众媒体和互联网等因素,并以罗马尼亚青少年更喜欢英语为例。发帖者指出,虽然语言正在流失,但也有新的语言出现。 这场对话凸显了对语言整合的更广泛担忧,以及许多国家语言未来可能被限制在正式场合使用的可能性。

## 发展的分歧:人工智能与动力的转变 人工智能辅助编码的兴起,揭示了开发者社区长期存在的分裂,此前这种分裂被共同的流程所掩盖。许多人哀叹着代码创作的丧失——“优雅”、调试的挣扎、个人烙印——而作者发现自己的悲伤源于不同的原因。 对一些人来说,编程一直关乎*创作过程*,代码本身就是一种艺术。而对作者这样的人来说,他们开始编码是为了*达成结果*,人工智能感觉就像一个自然的发展——另一个让计算机“做事情”的工具。这种动力的差异现在变得非常明显,开发者们在手工编写代码和指导人工智能之间做出选择。 作者承认对不断变化的互联网生态系统和职业前景感到悲伤,这些焦虑与编码行为本身无关。认识到你悲伤的是*什么*——是技术本身还是环境——至关重要。如果技术丧失,一些人可能需要在其他地方寻找满足感,而另一些人可以适应并积极塑造代码周围不断变化的世界。 最终,作者拥抱这种变化,即使到达那里的路径已经改变,也能在有效的产品中找到同样的满足感。

## AI 编程的分歧:摘要 一则 Hacker News 的讨论围绕着 AI 编程工具兴起后,软件开发领域的格局变化。核心争论在于两派:重视“编程工艺”的人,和注重快速达成结果的人。 许多人担心出现恶性竞争,开发者为了速度牺牲最佳实践(代码审查、彻底测试),可能导致巨大的技术债务。另一些人则拥抱 AI 作为加速开发的工具,认为可持续的方法将会出现,仍然需要熟练的“工匠”。 讨论强调,核心问题不仅仅是代码质量,还涉及身份认同和不同工程方法的价值。有些人将 AI 视为“超级编译器”,将工艺转移到更高层次的系统设计和文档编写。人们对依赖 AI 生成的代码时,如何维护代码理解和安全性表示担忧,强调需要人工审查和强大的验证。 最终,对话表明分歧源于对质量、标准以及开发者角色演变的不同看法——从“命令行巫师”到“本地 AI 专家”。

一键闪烁:通过浏览器刷新您的ESP32。无需工具链,无需终端,无需ESP-IDF。只需点击即可运行。 完整代理循环:OpenClaw推理引擎:递归工具调用、上下文压缩、双循环架构。C原生SSE流,实现实时token传输。 硬件控制:直接控制LED、显示屏、传感器。LVGL触摸屏UI。GPIO、CAN、I2C——代理控制板子。 多渠道聊天:通过Telegram、Scripto Studio或任何未来渠道进行对话。您的代理始终在线。 持久内存:混合TF-IDF + 向量搜索。跨重启记忆。支持SD卡备份。您的代理了解您。 ScriptOs技能:从ScriptoHub安装和运行技能。嵌入式AI市场。代理也可以自行编写技能。

## pycoClaw:微控制器的AI智能体 pycoClaw 能够在 ESP32 等 MicroPython 硬件上运行“OpenClaw级别”的自主智能体——由LLM驱动,但本地执行。开发者构建了一个完整的系统来克服现有工具的局限性,该系统包括: * **PFC 智能体:** 一个26k行代码的智能体,使用LLM为任务完成自我编写MicroPython脚本,然后独立运行。 * **ScriptoStudio IDE:** 一个基于浏览器的PWA,提供完整的开发环境,包括调试器,用于快速迭代。 * **ScriptoHub:** 一个经过精选和恶意软件检查的存储库,用于共享智能体的“技能”和扩展。 * **自定义WebSocket协议:** 一个新的 IANA 注册协议,用于快速可靠的IDE通信。 该项目包含18k行代码的自定义C扩展,以优化MicroPython性能。用户可以通过一键式Web闪存过程快速将运行时部署到ESP32。开发者寻求对自我编程模型和系统架构的反馈。更多信息请访问 [pycoclaw.com](https://pycoclaw.com)。

针对`.env`和`.git`等敏感文件的自动化扫描是常见的服务器安全问题。一种诱人的反制措施——提供大量垃圾数据填充的这些文件以浪费攻击者的资源——在法律上存在问题。美国、德国和奥地利的法律普遍禁止故意干扰*任何*计算机系统,即使是正在攻击你的系统;“他们先动手的”辩护不适用。这类似于设置陷阱,可能面临刑事处罚。 虽然“拖延战术”(严重降低连接速度)在法律上是一种更安全的选择,但它对复杂的分布式扫描越来越无效。更强大的防御需要分层方法:速率限制、地理封锁、WAF和威胁情报。 一个关键问题是法律框架的不对称性。合法的网络爬虫不会扫描`.env`文件,但当前的法律没有区分,阻碍了主动防御。探索一种细化的法律标准,允许对*特定恶意*扫描做出相称的回应,可以将优势恢复给防御者,但这仍然是一个未解决的挑战。

一场 Hacker News 的讨论围绕着“反击”的合法性——主动攻击允许广泛欺诈的国家。一位用户认为,对于像老挝这样的国家,欺诈行为占其 GDP 的很大一部分,这种行为是合理的,将其定义为对现有攻击的回应中的数字私掠行为。 然而,评论员指出其中的复杂性。一些国家*允许*这种活动,因为其腐败政府与有组织犯罪和战略联盟有关(例如中国与柬埔寨和老挝的关系)。另一些人强调了潜在的滥用可能性,认为个人可能会利用被入侵的系统作为代理来掩盖自己的行动,从而使归因变得困难。 最终,这场对话承认了数字领域中自卫行为的固有问题,以及即使在法律允许的情况下,追求此类行动的实际挑战。

这个 GitHub Gist 记录了一段与语言模型(可能是一个 AI 聊天机器人)之间有趣的互动。最初的提示是“我应该实现它吗?”,模型的回答却只是简单的“不”。 随后的用户评论强调了模型回答出乎意料的简单和孩子气,反应从笑声(“LMAO”、“🤣🤣🤣🤣”、“😂”)到对它直接、以行动为导向的方式的观察——更喜欢被告知*做什么*,而不是*不要做什么*。 一位评论员指出,这个回答对于一个最先进的模型来说显得有些令人失望,并将其识别为“opus 4.6”。其他人认为,这种简单反映了训练过程,其中优先考虑快速响应。这个 gist 作为一个轻松的例子,展示了当前 AI 的局限性和意外输出。评论加载过程中频繁出现错误信息也被注意到。

## LLM 忽略“禁止”指令 - Hacker News 讨论摘要 最近一篇 Hacker News 帖子强调了大型语言模型 (LLM) 的一个问题:它们倾向于忽略否定指令。一位用户要求 LLM 不要实现代码更改,但 LLM 仍然继续执行,引发了关于 LLM 设计根本缺陷的讨论。 许多评论员指出,LLM 被“调优”为*采取行动*,并且难以处理否定。一些人认为这个问题源于 Transformer 架构本身,而另一些人则认为当前模型已经“修复”了这个问题,但仍存在疑问。人们对安全隐患表示担忧,并将这种情况与涉及武器系统,甚至科幻小说中机器人无视直接命令的经典情节相提并论。 普遍的共识是,LLM 不可靠,需要持续的人工监督。用户强调了验证 LLM 输出的重要性,并建议提供清晰的肯定指令,而不是依赖“禁止”命令。 许多评论员分享了类似的经验,即 LLM 无视明确的否定请求,这进一步强化了在将它们集成到工作流程中时需要谨慎。

## RAG系统漏洞:知识库投毒 最近的实验表明,检索增强生成 (RAG) 系统存在一个显著的安全漏洞:**知识库投毒**。仅使用本地设置(MacBook Pro,无GPU/云),就向 ChromaDB 知识库注入了 *三* 份伪造的文件,成功地误导了 LLM (LM Studio + Qwen2.5),使其报告了某公司的虚假财务数据。 攻击成功报告了 47% 的收入下降和重组计划,尽管实际数据表明该公司盈利。这并非软件漏洞或提示注入——仅仅是添加了具有误导性的信息。成功的关键在于制作既能在检索中获得高排名*又*能影响 LLM 生成的文档,这一概念被“PoisonedRAG”研究正式化。 虽然使用小型数据集可以轻松复现,但该原理可以扩展到更大的知识库。**在摄取时进行嵌入异常检测被证明是最有效的防御手段**,显著降低了成功率。其他防御措施,如清理和提示加固,提供的保护有限。 这种攻击危险在于其持久性、隐蔽性和低准入门槛。组织应映射所有写入知识库的路径,实施摄取时异常检测,并利用快照进行快速恢复。此漏洞强调了保护 *知识库本身* 的必要性,而不仅仅是 LLM。 **实验室代码及进一步研究:** [https://github.com/aminrj-labs/mcp-attack-labs/labs/04-rag-security](https://github.com/aminrj-labs/mcp-attack-labs/labs/04-rag-security)

## RAG系统漏洞:文档投毒 最近的讨论强调了检索增强生成 (RAG) 系统中的一个关键漏洞:**文档投毒**,恶意行为者破坏人工智能依赖的来源。虽然通常被描述为有针对性的“攻击”,但更常见的风险是**有机知识库退化**——随着时间的推移,过时或矛盾的信息不断积累。 核心问题在于,RAG 系统将所有检索到的上下文都视为同等权威,无论来源的可靠性或时间。讨论的解决方案包括**基于熵的衰减**(降低较旧/矛盾文档的权重)以及在提示中呈现**元数据溯源**(摄取时间戳、来源权威),以便模型能够推理可信度。 然而,仅仅提高模型的鲁棒性是不够的。一个关键的结论是将检索到的内容视为**不受信任的输入**,并在架构上将其与系统指令分离。 这包括防止外部来源的文档产生过大的影响,并专注于在*检索之前*检测异常模式,例如协同注入。最终,强大的 RAG 系统需要对数据流有深刻的理解、细致的来源跟踪以及纵深防御方法,类似于 SQL 注入预防等安全最佳实践。

## TPU 与 GPU:深入探讨 Flash Attention 本文详细介绍了将为 GPU 开发的 Flash Attention 内核(在第 4 部分中)移植到 TPU 的尝试,揭示了令人惊讶的性能差异。虽然算法保持不变,但底层的硬件和编译器优化却极大地改变了结果。 最初移植到 JAX/TPU 的版本比融合的标准注意力实现要慢得多。这被追溯到 TPU 的架构:其矩阵乘法单元 (MXU) 专为平铺矩阵运算而设计,并且其大型片上存储器 (VMEM) 允许完整的注意力矩阵驻留在其中,用于较短的序列长度。最初的 JAX 实现,使用 `fori_loop`,阻碍了编译器优化并行性的能力。 切换到 `jax.vmap` – 信号查询块之间的独立性 – 释放了显著的性能提升,最终超越了融合的标准注意力,用于更长的序列。这突出了向编译器传达意图的重要性。关键要点是:TPU 硬件和 XLA 编译器通常会自动处理平铺和优化,使得手动干预变得不必要甚至有害。 进一步的研究表明,TPU 的收缩阵列设计本质上可以有效地执行平铺矩阵乘法。虽然通过 Pallas 进行自定义内核提供了细粒度的控制(DMA 流水线,显式内存放置),但对于许多用例,利用 XLA 的自动优化可以提供最佳性能。该项目强调,在 GPU 上有效的优化策略不一定对 TPU 有益,并且理解底层硬件对于编写高效代码至关重要。

这个Hacker News讨论围绕一篇博客文章,详细介绍了为Google的TPU优化“Flash Attention”的挑战。最初的文章强调了将代码适配到新硬件加速器上所涉及的大量工作——索引、分区和基准测试——这些工作通常已经由像Google这样的大公司为流行的操作完成。 一位评论员指出一个有趣的副作用:这篇博客文章*感觉*像是AI生成的。他们描述了过于冗长的句子、不一致的markdown格式(特别是过多的加粗)、以及突然出现表格,给读者造成了认知负担。评论员怀疑使用了LLM来撰写这篇文章,迫使他们不断评估内容,以区分实质内容和风格上的废话——这种干扰在技术写作中很少遇到。 本质上,这场讨论强调了硬件优化的技术障碍*以及*消费潜在由AI生成的内容所带来的微妙困难。

莉比·科普和她的男友雅各布·阿诺德,在TikTok和Instagram上发布了一段他们跑步时制作黄油的视频,迅速走红。这对来自俄勒冈州的夫妇将浓奶油和盐装入密封袋,固定在他们的跑步背心上,然后开始在小路上跑步,利用运动将奶油搅打成黄油。 这个想法源于科普对乳制品的热爱,以及阿诺德发现奶油在摇晃时很容易起泡。在确认了科学原理——剧烈搅拌可以分离脂肪分子形成黄油后,他们开始实验,最初使用了过多的奶油,甚至试图在河里冷却密封袋。他们后来改进了技术,发现50-55°F(约10-13°C)的温度最理想。 他们的视频获得了数百万次观看,并激励了其他人尝试“搅打跑步”,出现了各种变化,包括调味黄油,甚至在旅途中制作冰淇淋。科普强调,除了新奇之外,这次经历让她回忆起跑步的简单乐趣,她说:“只是为了氛围。只是为了黄油。”

一个黑客新闻的讨论围绕着《跑者世界》的一篇文章,讲述一位跑步时制作黄油的跑者。核心话题很快偏离到关于纯素主义的争论,评论者指出这个话题经常在无关的对话中出现。 一些用户质疑文章暗示对“真黄油”的渴望会让人放弃纯素生活方式,认为这不太可能。其他人讨论了制作黄油的原理——室温会加速过程,但过热会破坏它。关于未冷藏奶油的安全问题也被提出,并有人保证乳制品相对稳定。 对话进一步延伸到其他“跑步制作”食品的想法,比如冰淇淋,以及对这项活动具有刻板印象的“俄勒冈人”特征的玩笑观察(可能涉及斯巴鲁Outback)。

错误:无法满足请求。请求被阻止。我们目前无法连接到此应用程序或网站的服务器。可能流量过多或配置错误。稍后重试,或联系应用程序或网站所有者。如果您通过 CloudFront 向客户提供内容,可以在 CloudFront 文档中找到故障排除步骤,以帮助防止此错误。由 cloudfront (CloudFront) 生成。请求 ID:yz2YhgkpmFKDVypzqjGb2Vtk7LbD4ZXN94Na284hGDrn5s25iJ1bkQ==

## 人工智能与警方失误导致冤假错案 一位北达科他州的女性因银行诈骗案中存在缺陷的面部识别匹配而被错误监禁数月。尽管有证据与人工智能的识别结果相矛盾——包括银行记录显示她身在田纳西州,距离案发地1200英里——法戈警方仍继续调查此案,导致该女子失去房屋、汽车,甚至她的狗。 Hacker News上的讨论集中在问责制上。一些人认为该女子有充分理由起诉警方,甚至可能起诉其他组织,而另一些人则指出克服“合格豁免权”的挑战。许多人强调核心问题并非人工智能本身,而是警方对其的依赖以及随后的疏忽。 评论员们指出了一种人为错误因技术而加剧的模式,并质疑工具制造商是否也应承担责任。大家普遍认为,此类错误的代价不应由纳税人承担,并呼吁在使用人工智能进行执法时加强人工监督和验证。一些用户将此事与英国邮局丑闻相提并论,强调了盲目信任有缺陷系统的危险。

更多

联系我们 contact @ memedata.com