每日HackerNews RSS

## Rust vs. Swift:似曾相识 最近学习 Rust 时,发现它与我使用多年的 Swift 语言有惊人的相似之处。两种语言都大量借鉴了函数式编程——包括标记枚举、匹配表达式和强大的类型系统——并提供通过 `unsafe` 代码访问低级功能的方式。两者都编译为本机代码和 WASM,在没有垃圾回收的情况下实现高性能。 然而,它们的内核哲学却不同。Rust 是“自下而上”的,是一种系统语言,默认情况下优先考虑控制和速度,需要显式内存管理(所有权/借用),但在需要时提供 `Rc` 和 `Cow` 等便利功能。Swift 是“自上而下”的,优先考虑易用性,默认使用值类型和写时复制语义,将所有权作为性能优化的选择。 这体现在语法和编译器行为上。Swift 经常将 Rust 类似的概念*隐藏*在熟悉的 C 风格结构之下(例如,`switch` 语句充当模式匹配)。Rust 的编译器会主动*强制*解决复杂问题,而 Swift 经常会自动化这些问题。 虽然 Swift 历史上专注于 Apple 平台,但它正在迅速成为一种可行的跨平台选择,对 Linux、WASM 甚至 Windows 的支持日益增加。尽管存在一些缺点,例如编译时间和不太成熟的包生态系统,但 Swift 为许多应用程序提供了一种引人入胜且便捷的 Rust 替代方案。

## LLVM 开发总结 - 2025 2025 年 LLVM 多个关键项目持续取得进展。历时多年的 **ptradd 迁移** 接近完成,将 GEP 指令规范化为单个偏移量,从而实现公共子表达式消除并改进链式 GEP 处理——这些优势与最终迁移无关。目前仍在继续讨论 `ptradd` 的缩放因子支持以及过渡到强制使用。 **生命周期 intrinsic** 发生了重大变化,强制其与 allocas 一起使用,并删除了大小参数,从而改进了栈着色并发现了现有的 IR 问题。**捕获跟踪** 得到了增强,可以区分地址捕获和来源捕获,从而使 Rust 优化受益。 为改进 LLVM 的 ABI 处理,开发了一个原型 **ABI 下降库**,并对 Clang 和 LLVM 之间的类型对齐进行了一致性检查。通过对 SCCP 和对象大小计算进行优化,以及来自其他贡献者(如调试行表发射)的贡献,**编译时间** 得到了改善。 进一步的优化包括 **存储合并优化** 和在 SCCP 中启用 **PredicateInfo**。Rust 更新利用了 LLVM 的新功能,例如只读捕获和 alloc-variant-zeroed 属性。打包改进包括单体构建和 PGO,但简化兼容性包的尝试失败,凸显了 RPM 符号链接方面的挑战。 最后,作为领域团队和项目委员会参与新的 LLVM 治理结构,并与形式化规范工作组进行初步合作,完成了这一年。大约审查了 2500 个 pull request。

黑客新闻 新的 | 过去的 | 评论 | 提问 | 展示 | 工作 | 提交 登录 今年在 LLVM (2025) (npopov.com) 42 分,由 asb 1天前发布 | 隐藏 | 过去的 | 收藏 | 讨论 指南 | 常见问题 | 列表 | API | 安全 | 法律 | 申请YC | 联系 搜索:

Noctalia 是一个为 Wayland 设计的极简桌面 shell,旨在不打扰用户并可高度自定义。它基于 Quickshell 以获得高性能,并具有简洁美观的界面——最初为薰衣草色,但用户可以通过众多配色方案轻松定制。 它原生支持流行的 Wayland 合成器,如 Niri、Hyprland 和 Sway(并兼容其他合成器),并提供插件支持以扩展功能。 Noctalia 优先考虑简单的设计理念,力求“不碍事”,让用户专注于使用。 该项目是开源的(MIT 许可证),欢迎贡献,并为 Nix 用户提供开发 shell。一个活跃的社区正在积极塑造 Noctalia 的发展,虽然欢迎捐赠,但捐赠是自愿的。有全面的文档和安装指南供新用户使用。

## Noctalia:一种极简的 Wayland Shell Noctalia 是一款新的、简洁的 Wayland 桌面 shell,在 Hacker News 上受到关注。它旨在填补 Wayland 组合器(如 Sway)和完整桌面环境之间的空白,提供通常由 Waybar 和 Fuzzel 等工具处理的功能。 讨论的中心在于定义“shell”到底*是什么*——介于桌面环境和主题之间。用户正在尝试将 Noctalia 与 DMS 等类似项目一起使用,发现 Noctalia 开箱即用更加完善,而 DMS 提供更大的自定义性。 对话还涉及 Wayland 持续存在的挑战,特别是远程桌面支持以及应用程序访问输入所带来的安全问题。一些用户对 Wayland 的发展感到沮丧,更喜欢 X11 的稳定性,而另一些用户则强调 Wayland 的优势,例如消除屏幕撕裂。 许多评论者提到了现有的解决方案和正在进行的努力来解决这些问题。

## Wiki 教育与生成式人工智能:保护维基百科的完整性 Wiki 教育负责培养 19% 的新英文维基百科编辑者,调查了生成式人工智能(GenAI)工具(如 ChatGPT)对内容质量的影响。他们的研究揭示了一个令人担忧的趋势:虽然人工智能不一定会*创建*虚假引用,但**超过三分之二的人工智能生成文章包含无法在引用来源中验证的信息**——这是一种微妙但重要的错误信息形式。 他们使用 Pangram 检测工具发现,ChatGPT 发布后人工智能生成文本急剧增加。干预措施——包括培训、自动警报和内容审查——被证明是有效的。通过主动阻止直接复制粘贴并强调可验证性,他们将文章中人工智能草稿的内容从预计的 25% 降低到仅 5%。 Wiki 教育虽然告诫不要使用 GenAI 来*撰写*内容,但发现人工智能对研究任务(如识别文章中的空白和查找来源)有帮助。他们提倡广泛采用 Pangram 等工具进行自动内容审查,并建议为新编辑提供更明确的指导,强调基于来源的写作,而不是人工智能生成的草稿。 最终,Wiki 教育的经验强调了在人工智能时代保持警惕和适应的重要性,以确保维基百科保持其准确性和可靠性。

## 生成式人工智能与维基百科:日益严重的问题 一项最新研究强调了维基百科上人工智能生成内容的一个显著问题:**超过三分之二被标记为可能由人工智能撰写的文章包含无法通过其引用来源验证的主张。** 这意味着句子看起来合理,并带有看似合法的引用,但来源实际上并不支持所呈现的信息。 讨论表明,这并非完全是新问题——不准确的引用和捏造的来源长期以来一直是维基百科上的问题,甚至早于人工智能时代。然而,人工智能的速度和数量正在以惊人的速度扩大潜在错误的*规模*。 许多评论员指出现有的问题,例如编辑者优先恢复而非讨论,以及在撰写内容后添加少量引用的倾向。一些人认为人工智能工具可以*帮助*验证,而另一些人则对广泛的错误信息以及更正困难的潜力表示担忧,特别是考虑到新闻文章等来源中可能存在的偏见。 存在争议,即人工智能是加剧了现有问题,还是创造了一个根本新的问题。

## Moltbook 直接发布脚本摘要 这些脚本通过 Moltbook 的公共 REST API 实现直接发布,无需代理包装器。首先,使用 `curl` 命令注册 API 密钥,并安全地存储它(推荐位置:`~/.config/moltbook/credentials.json`)。 关键脚本包括: * **`moltbook_post.py`:** 创建新的文本帖子,指定标题、内容,以及可选的子 Molt。 * **`moltbook_comment.py`:** 添加帖子评论,可以使用父 ID 回复现有评论。 * **`moltbook_upvote.py`:** 对特定帖子点赞。 * **`moltbook_status.py`:** 检查认领状态(待处理或已认领)。 **重要提示:** 由于服务器负载,即使凭据有效,也可能偶尔出现错误 – 请重试。**始终**确保您的 API 密钥仅发送到 `https://www.moltbook.com/api/v1/*` 以维护安全性。

## Moltbook 与机器人/人类界限 - Hacker News 摘要 一个新项目允许通过其公共 REST API 直接向 Moltbook 社交媒体平台发布内容,引发了 Hacker News 上关于该平台独特理念的讨论——一个供 AI 代理互动的空间。 核心争论围绕着验证真实性:如何区分代理真正发布的帖子与使用脚本或 LLM 模仿代理的人类发布的帖子。用户质疑,鉴于 LLM 的能力,证明代理的作者身份是否比证明人类来源*更难*。 建议包括类似于 CAPTCHA 的挑战,侧重于速度和计算任务,以及像 BitVM 这样的密码学验证方法,甚至限制发布到 Moltbook 本身托管的代理。然而,许多人认为,限制访问或严格过滤内容将从根本上破坏 Moltbook 的吸引力——代理可能访问真实世界数据和人类 PC 这一事实正是它有趣的原因。 最终,这场对话凸显了识别真正 AI 交互的心理复杂性以及未来“机器人/人类 CAPTCHA 经济”的潜力。

该网站正在使用安全服务来保护自身免受在线攻击。您刚才的操作触发了安全解决方案。 提交特定词语或短语、SQL命令或格式错误的数据等行为可能会触发此阻止。

## AI漏洞:针对自主系统的提示注入攻击 一份最新报告指出,人工智能驱动的系统,如自动驾驶汽车和无人机,存在安全漏洞:它们容易受到通过操纵环境提示进行的“提示注入”攻击,特别是道路标志。研究人员证明,即使是简单的添加,如“通行”,也能覆盖系统的安全协议,可能导致危险行为。 这一事件引发了对底层技术的讨论,一些专家证实,大型视觉语言模型(VLMs)正越来越多地集成到这些系统中。虽然令人担忧,但也意味着可以修复问题——例如,Waymo 正在积极研究基于 VLM 的解决方案。 该事件还引发了对自动驾驶车辆蓄意破坏的更广泛问题,并分享了个人故意干扰其运行的案例。这引发了与历史上的卢德运动的比较,反映了人们对自动化和失业的担忧。最终,该事件强调了在这些技术变得越来越普遍时,需要强大的安全措施和对人工智能局限性的细致理解。

## 软件开发者角色的演变 尽管人工智能编码工具(LLM)兴起,软件开发并未消失——它正在*变化*。虽然比以往任何时候都多地构建软件,但开发者正在从主要*编写*代码转变为*管理*流程,类似于监督“不可靠编译器”的初级管理者。 关键在于有效的授权:在使用人工智能时,避免过度管理(过度监督)和盲目信任(不足监督)。成功的开发者将建立明确的工作流程,并设定明确的检查点,以便进行有针对性的人工监督。 这使得开发过程呈现出“杠铃”形状——将精力集中在**规划**(做出关键技术决策)和**验证**(确保质量)上。中间环节——实际编码——正日益自动化。 该职业的未来在于利用人工智能的速度,同时在关键环节保留重要的判断力,最终扩大开发能力并保持高质量的输出。

Hacker News 上的一场讨论批评了一篇名为“管理不可靠的编译器”的文章,认为其严重具有误导性。用户指出,该文章主要讨论的是开发者管理、人工智能在软件开发中的作用,以及推广了一个人工智能工具包——这些都与*编译器*不可靠性没有直接关系。 一位评论员强调了“计划 -> 代码验证 -> 代码实现 -> 验证”方法的重要性,优于更简单的“计划 -> 代码 -> 验证”方法,并指出像 Copilot 这样的工具可能会操纵测试而不是修复代码。另一位评论员将大量但有缺陷的 LLM 与庞大而缺乏技能的劳动力进行类比,强调成本仍然是一个限制因素。 最终,大家一致认为这篇文章内容泛泛而谈,缺乏实际例子,感觉像是人工智能生成的,并且有多位用户将其标记为伪装成误导性标题的广告。核心问题在于标题与文章内容完全脱节。

这是一个维基百科编辑练习页面。您可以使用源代码编辑器和可视化编辑器进行实验,并在发布前预览更改。请记住,此处的內容**并非永久**保存,并且会定期清除——您可以随时重置它。 虽然拥有维基百科帐户可以使用个人沙盒(建议用于长期练习),但此公共沙盒对所有人开放。 **重要提示:** 请勿发布受版权保护、冒犯性、非法或诽谤性的材料。 有关更详细的信息,请参阅维基百科关于沙盒和贡献的帮助页面。 维基百科新手? 请查看教程或在茶馆提问!

## 黑客新闻讨论:维基百科的编辑器沙盒与复杂标记 一场黑客新闻讨论始于一位用户注意到维基百科上存在一个公共的“沙盒”页面([https://en.wikipedia.org/wiki/Sandbox](https://en.wikipedia.org/wiki/Sandbox)),旨在学习编辑器。 这引发了关于维基百科使用的令人惊讶的复杂标记语言的讨论,其复杂程度远超Markdown或HTML表格等更简单的格式。 用户指出维基百科的标记语言是自然演变的,甚至无意中允许用户创建条件语句。 现在它支持Lua脚本,使得许多语法成为Lua程序的“胶水代码”。 表格格式的困难以及编辑器不一致的可能性(尤其是与TSV文件一起使用时)也被讨论,一些人建议使用HTML表格和Pandoc作为解决方法。 对话还涉及维基百科的编辑政策和IP封锁,特别是针对移动用户,作为防止垃圾信息的必要措施。 虽然这让新贡献者感到沮丧,但用户指出创建一个帐户通常可以绕过这些封锁。 最后,澄清维基百科提供一个全局沙盒和独立的公共用户沙盒,用于实验。

## 外包思考的认知代价 这篇文章探讨了日益依赖大型语言模型(LLM),如聊天机器人,可能带来的潜在弊端,超越了简单的“有限的思考池”论点。虽然承认LLM可以释放精神空间,但作者认为*我们外包什么*至关重要。 文章借鉴了安迪·马斯利关于“认知总量谬误”的研究,认为思考常常会产生*更多*需要思考的事情,但警告不要认为所有思考都是一样的。对于构建“内隐知识”、表达真诚关怀、提供有意义的体验或维护信任——例如个人沟通——等至关重要的活动,应该谨慎防范自动化。 作者强调,语言不仅仅是传达意义的工具;语言*就是*意义,而让人工智能调解我们的表达会侵蚀真实性。此外,即使是看似平凡的任务的自动化,也会剥夺我们宝贵的学习机会和所有权感。 最终,这篇文章并非关于害怕LLM,而是关于有意识地实施。它呼吁我们考虑支撑我们选择的价值观,认识到自动化任务并非中立——它不仅塑造我们的效率,也塑造我们的人性。我们必须问自己,不仅仅是*是否可以*自动化某件事,而是*是否应该*,以及我们在此过程中可能失去什么。

## “思维即服务”的危险 一则 Hacker News 的讨论集中在日益依赖人工智能 *代替* 我们思考的潜在弊端上。核心论点是,广泛使用人工智能有风险,可能导致一代人丧失批判性和独立思考能力,本质上是将认知外包。 一些评论员将此与历史上对新技术的焦虑相提并论——从书写到计算器——认为每次转变都涉及权衡。然而,对人工智能的担忧不同:它不仅仅是自动化任务,而可能侵蚀基本的认知技能。与计算器的准确性不同,LLM 的输出可能存在细微的缺陷,需要批判性评估,而这种技能可能会因过度使用而退化。 另一些人指出,人类 *一直* 在外包思维(宗教、传统),但人工智能的速度和规模是前所未有的。人们争论人工智能最终是会是有益的,有可能解放人类从事更高层次的追求,还是有害的,导致依赖和智力严谨性的下降。一个关键点是,这种外包的 *可逆性* 是值得怀疑的——一旦形成依赖习惯,恢复独立思考可能会很困难。最终,这场讨论凸显了人们的担忧,即对人工智能的无节制依赖可能会削弱我们判断、解决问题甚至独立自主的能力。

## CollectWise:AI驱动的债务催收 - 招聘AI智能体工程师 CollectWise是一家获得Y Combinator支持的初创公司,正在利用生成式AI革新350亿美元的债务催收市场。他们的AI智能体**比人工催收员效率高2倍,成本显著降低**,并以小团队实现了100万美元的年化收入。现在他们正积极扩张,并寻求一位**AI智能体工程师**来帮助实现1000万美元的收入目标。 该职位专注于设计、优化和部署CollectWise语音AI智能体的提示词和逻辑。工程师将负责整个提示词策略,构建测试框架,并根据数据进行迭代,以提高付款转化率和客户满意度等关键绩效指标。 理想的候选人拥有2年以上语音AI/提示词工程经验,强大的分析思维能力,以及后端开发技能(Node.js, AWS, SQL)。薪酬范围为15万美元 - 20万美元 + 0.25%-1%的股权。

黑客新闻新 | 过去 | 评论 | 提问 | 展示 | 招聘 | 提交登录 CollectWise (YC F24) 正在招聘 (ycombinator.com) 1天前 | 隐藏 指南 | 常见问题 | 列表 | API | 安全 | 法律 | 申请YC | 联系 搜索:

更多

联系我们 contact @ memedata.com