每日HackerNews RSS

## 1亿行PHP挑战总结 一项PHP编码挑战正在进行中,要求参与者将1亿次页面访问的数据集(CSV格式)解析为结构化的JSON文件。挑战时间为2月24日至**2026年3月15日(CET 23:59)**。 参与者fork提供的仓库,在`app/Parser.php`中实现解析方案,并通过pull request提交他们的工作。解决方案使用提供的工具进行本地验证(`composer install`,`php tempest data:generate`,`php tempest data:validate`)。JSON输出必须按URL路径分组,并按日期排序。 提交将在一台专用服务器(Intel Digital Ocean Droplet,2vCPU,1.5GB RAM)上进行基准测试,并启用特定的PHP扩展。前三名最快、*原创*的解决方案将获得PhpStorm和Tideways赞助的奖品,包括其产品的许可证。 结果将在`leaderboard.csv`中跟踪。人工验证和单次提交运行确保公平比较。鼓励参与者tag @brendt 或 @xHeaven 以获得支持或查询基准测试状态。

## 1亿行PHP性能挑战总结 一位开发者brentroose在成功优化一个脚本,从5天运行时间缩短到30秒以内(在社区帮助下)后,向PHP社区发起了一项性能挑战。该挑战涉及使用PHP尽可能高效地解析1亿行数据,奖品包括备受追捧的PhpStorm Elephpant许可证。 讨论迅速分化为优化策略,建议范围从数据库调优和高效数据结构到利用SQLite等外部工具,甚至考虑使用Go或Rust等替代语言以获得卓越的性能。许多评论者指出,现实世界中的性能瓶颈通常源于数据库查询和低效的ORM使用,而非PHP语言本身。 参与者正在争论最佳方法,一些人使用DuckDB等工具取得了令人印象深刻的结果。有人对挑战依赖于最新的PHP版本以及输出格式要求的模糊性表示担忧。该挑战旨在*在*PHP内部解决,不包括调用外部代码的方法,例如FFI。

## 张量缓存中的读写锁性能悖论 在 Rust 中对高性能张量缓存进行基准测试时,结果令人惊讶:对于 Apple Silicon M4 硬件上的高读取负载,`RwLock` 的性能明显 *差* (~5 倍) 于 `Mutex`。这与通常认为 `RwLock` 允许多个并发读取,从而提高吞吐量的观点相矛盾。 问题源于“缓存行乒乓”。即使是读取操作也需要对读取计数器进行原子递增,迫使核心不断地使同一缓存行失效并获取。在极快的缓存查找(纳秒级)的背景下,这种开销超过了并发读取的好处。`Mutex` 虽然一次只允许一个线程,但通过授予独占访问权来避免这种竞争。 关键要点是,在选择锁定策略时要 **分析硬件性能**。对于短的关键段,`RwLock` 的原子操作开销可能是有害的。解决方案包括分片缓存以减少锁竞争,或者如果读取操作非常快,则直接使用 `Mutex`。`RwLock` 在读取部分很大或写入不频繁时仍然很有价值,但仔细考虑和分析至关重要。

## 读锁:性能陷阱 最近 Hacker News 上的一场讨论集中在断言读写锁(RWLock)并不总是像看起来那样能提升性能。核心问题在于,即使使用优化的实现,RWLock 也可能因缓存争用以及读者和写者竞争访问而导致可扩展性问题,从而在核心之间产生“乒乓效应”。 评论者指出,标准的 RWLock 实现通常会导致写者被大量的读者饿死,或者读者被单个写者阻塞。讨论中提到的替代方案包括无锁数据结构,如 `ConcurrentHashMap`(Java),以及具有原子交换的不可变数据结构(HashiCorp 在 Vault、Consul 和 Nomad 等项目中采用)。这些方法通过最大限度地减少锁争用来优先考虑读取可扩展性。 其他提到的解决方案包括每个核心的 RWLock 状态(如 `folly::SharedMutex`)以及 Rust 中的 `arc-swap` crate,它们促进了 Reader-CPU 内存(RCU)模式,实现几乎免费的读取。讨论强调,最佳解决方案很大程度上取决于读/写比例和特定的硬件架构。最终,在选择同步原语时,仔细考虑底层硬件和数据访问模式至关重要。

Event Horizon Labs是一家位于旧金山的初创公司,由来自Citadel、Jump Trading和顶尖大学的专家创立,正在构建**用于自主AI研究和问题解决的基础设施**。他们认为下一次重大的AI进展不在于更好的模型,而在于利用这些模型的系统。 目前专注于金融市场,因为该市场反馈迅速且结果明确,团队正在开发一个完全自主的系统——协调器、代理和知识库,该系统已经能够识别和扩展盈利的交易策略。 他们正在寻找**创始工程师**来构建这个平台,重点领域包括分布式系统、计算调度、数据管道、代理可观察性以及低延迟交易。该职位需要精通Python、Go、Kubernetes和流数据技术。这是一个需要到岗工作的职位,提供有竞争力的薪资和大量股权。

黑客新闻新 | 过去 | 评论 | 提问 | 展示 | 招聘 | 提交登录Event Horizon Labs (YC W24) 正在招聘 (ycombinator.com)12小时前 | 隐藏 指南 | 常见问题 | 列表 | API | 安全 | 法律 | 申请YC | 联系 搜索:

## 通过 QEMU 对 RISC-V Snap 进行测试 作者希望在 RISC-V 架构上测试他们的 snap(软件包),但缺乏必要的硬件。尽管 RISC-V 感觉像一项很有前途的未来技术,但能够运行最新 Ubuntu (25.10) 的可用板仍然要等到一年多以后,因为指令集架构规范 (RVA20 与 RVA23) 仍在不断发展。 与其购买过时的硬件,他们成功地在 ThinkPad 上使用 QEMU 设置了一个 RISC-V 虚拟机。虽然由于 CPU 模拟,虚拟机比原生执行速度慢得多,但它让他们确认了他们的 snap,Notepad Next,在该架构上运行正常。 这次经历凸显了他们需要审计近 50 个 snap 以确保其 RISC-V 兼容性。目前大多数仅针对 amd64,而其他 snap *应该* 可以为 RISC-V 构建,但需要进一步调查。作者计划解决这个问题,旨在在其 snap 产品组合中支持更多架构。 目前,QEMU 提供了一个可行的、免费的解决方案,用于基本的 RISC-V 测试,提供了一个“合理性检查”,以确保 snap 在 2026 年更强大、更容易获得的 RISC-V 硬件到来之前按预期运行。

一个 Hacker News 的讨论集中在一个开发者在 RISC-V 虚拟机上测试 snaps (软件包格式),因为缺乏可用的 RISC-V 硬件。最初的评论者建议使用价格实惠的 Orange Pi RV2 板,但其他人指出这些板仅支持较旧的 RVA20 架构,而不是 Ubuntu 25.10 等较新操作系统版本所需的 RVA23。 目前,真正符合 RVA23 标准的板预计要到 2026 年才能问世。这造成了一个困境:为未来架构打包,但目前没有硬件支持,或者坚持使用较旧的兼容版本。一些人认为 Ubuntu 过早地支持 RVA23 是一个糟糕的选择,而另一些人建议以更广泛的兼容性为目标,定位 RVA20,即使这意味着使用较旧的操作系统,如 Ubuntu 24.04。核心问题是硬件差距阻碍了对最新 RISC-V 标准的实际测试和部署。

丹麦正在积极地从微软产品转向开源软件,如LibreOffice,旨在实现“数字主权”并减少对美国科技公司的依赖。数字部下个月将过渡超过一半的员工,并在年底前完成迁移,这得益于成本节约和对市场支配地位的担忧。 这一举措紧随哥本哈根和奥胡斯等城市的类似决定,并符合更广泛的欧洲趋势。德国的石勒苏益根州也在放弃Microsoft Office,转而使用LibreOffice,并用Open-Xchange替代Outlook,计划完全迁移到Linux。 这一转变部分源于过去的政治紧张和数据保护问题,尤其是在特朗普总统任期内。丹麦数字部保留在出现挑战时恢复使用微软的权利,但这一转变代表着朝着更大的数字独立性和对其自身技术基础设施的控制迈出的重要一步。

## Claude 远程控制:摘要 Claude 的远程控制功能(Pro 和 Max 计划可用,Team/Enterprise 计划不可用)让您可以在不同设备之间无缝继续编码会话——从桌面到手机或另一台电脑。与在云端运行的 Claude Code Web 版本不同,远程控制*完全*在您的机器上运行,访问您的本地文件、工具和环境。 要使用它,请通过命令行启动会话 (`claude remote-control` 或在现有会话中使用 `/remote-control`)。这将生成一个 URL 或二维码,以便使用 claude.ai/code 或 Claude 移动应用程序从其他设备连接。如果会话中断,会自动重新连接。 **主要优势:**完全访问您的本地环境,在不同设备之间同步对话,即使网络出现问题也能继续工作。 远程控制非常适合进行中的本地项目,而 Claude Code Web 版本更适合快速任务或处理尚未克隆的仓库。请记住,运行会话的终端必须保持打开状态,并且长时间的网络中断将终止会话。

## 二进制反编译与控制流结构化历史 本系列分为两部分,探讨二进制反编译的历史——将编译后的代码(如C++、Rust)转换回人类可读的形式——以及控制流结构化这一难题。早期工作,特别是Cristina Cifuentes于1994年的博士论文,奠定了核心支柱:恢复控制流图(CFG)、变量恢复以及将CFG结构化为高级代码结构。这包括识别CFG中的模式(如`if`语句和循环)。 虽然IDA Pro和Reko等工具出现,但学术研究多年来一直有限。一个重要的突破是2013年的Phoenix反编译器,标志着顶级安全会议上发表的首次相关工作。然而,进展缓慢,自此之后发表的相关论文屈指可数,尽管反编译的重要性以及持续存在的挑战不容忽视。 目前的重点是改进控制流结构化,这一过程受到逆向工程歧义的阻碍——单个CFG可以产生多个有效的代码输出。最近的研究探索了编译器感知算法,并利用机器学习进行符号恢复和代码改进。尽管进展缓慢,但像Ghidra这样的开源反编译器的出现预示着该领域充满希望的未来,这将在第二部分中进一步探讨。

黑客新闻 新的 | 过去的 | 评论 | 提问 | 展示 | 招聘 | 提交 登录 30年反编译和未解决的结构化问题:第一部分 (2024) (mahaloz.re) 24点 由 userbinator 17小时前 | 隐藏 | 过去的 | 收藏 | 讨论 帮助 指南 | 常见问题 | 列表 | API | 安全 | 法律 | 申请YC | 联系 搜索:

## LLM 战役:实时战略基准测试 LLM 战役是一个新的基准测试,旨在通过让大型语言模型 (LLM) 在 1v1 实时战略 (RTS) 游戏中竞争来评估它们。 受 Screeps 游戏启发,LLM 编写并执行 Javascript 代码来控制单位、收集资源并最终摧毁对手的基地。 该基准测试侧重于*上下文学习*——LLM 分析前几轮(总共五轮)的结果,以完善其策略。 结果表明,大多数模型(Claude Opus 4.5、GLM 4.7、GPT 5.2 和 Grok 4.1 Fast)在第 1 轮和第 5 轮之间的胜率有所提高,表明了学习能力。 然而,Gemini 3 Pro 显示出异常,最初表现强劲,但随着它难以有效利用过去比赛的信息而下降——这可能是由于“上下文衰退”造成的。 该研究还强调了性能和成本之间的权衡,Claude Opus 4.5 实现了最高的技能,但价格明显高于 GPT 5.2。 LLM 战役为评估 LLM 编码能力和在动态环境中进行战略思考提供了一个强大的平台。

## scheme-langserver:一种新的Scheme代码编辑方法 Z. Wang 在第18届欧洲Lisp研讨会 (ELS`25) 上介绍了 `scheme-langserver`,这是一种语言服务器协议 (LSP) 实现,旨在改善 Scheme 编程体验。与依赖 REPL 或简单分词的现有 Lisp 语言服务器 (Geiser, Racket LSP 等) 不同,`scheme-langserver` 利用静态代码分析来实现自动补全、“跳转到定义”和类型推断等功能——即使在不完整代码中也能实现。 该项目解决了分析 Scheme 灵活语法的挑战,特别是宏,以提供更准确的代码理解。主要功能包括对 R6RS/R7RS/S7 标准的支持、跨平台索引、自制类型推断系统(集成到自动补全中)以及与 Akku 包管理器的兼容性。 `scheme-langserver` 目前正在积极开发中,可通过 VSCode 使用,是一个社区驱动的开源项目,寻求贡献和资金。虽然仍包含错误,但它代表着朝着更强大、更智能的 Scheme 开发环境迈出的重要一步。进一步的开发目标包括数据流分析以及自制类型推断系统的综合指南,记录在一本计划出版的书籍中。 **项目和资源地址:** [https://doi.org/10.5281/zenodo.15384882](https://doi.org/10.5281/zenodo.15384882) (由于潜在的访问限制,提供镜像)。

## Scheme-langserver:Lisp 的全新 IDE 体验 一位 Hacker News 的开发者创建了“scheme-langserver”,这是一个 Scheme 的语言服务器协议实现,旨在改善超出 DrRacket 和 REPL 等现有工具的开发体验。由于 Scheme/Lisp 缺乏现代 IDE 功能——例如自动补全、类型推断和“跳转到定义”——该开发者构建了这个项目以提供这些功能。 该项目可在 GitHub 上找到 ([https://github.com/ufo5260987423/scheme-langserver](https://github.com/ufo5260987423/scheme-langserver)),目前处于“自举”阶段,允许通过其自身的 VSCode 插件进行持续开发。虽然利用 Chez Scheme 的分词器引入了一些错误(通常可以通过重启 VSCode 解决),但现在的重点是开发一个可定制的宏展开器,以允许用户定制 LSP 行为。 该开发者欢迎反馈和讨论,并希望继续改进该项目,未来可能会将其与其他工作集成。

无需再纠结“这适合我吗?”。可以提前预览。 只需一张照片就够了!上传即可。其他用户可以立即体验。 产品信息标签:可以立即查看朋友分享的美妆、时尚、美发产品信息。一目了然地了解你喜欢的造型的产品清单。 全球潮流:现在就来发现全球美妆、时尚、美发爱好者的造型。

## LookTake:AI驱动的虚拟试穿 LookTake (looktake.io) 是一个全新的社交平台,允许用户在社区内分享的照片上虚拟“试穿”美妆、时尚和发型。LookTake由一位前韩国游戏公司AI研究员Taemin创建,旨在解决现有虚拟试穿技术的局限性。 与简单的滤镜或品牌特定的试穿不同,LookTake使用多阶段AI流程——包括目标检测和图像修复——来准确地转移风格,*同时*保留用户的身份和关键风格细节(如图案和纹理)。目标是超越浏览产品照片,让用户能够想象物品*穿在自己身上*的效果。 LookTake于一个月前在美国和韩国推出,可在iOS和Android上使用。创建者正在寻求对试穿体验的真实感和质量的反馈。提供的链接中有一个演示视频。

更多

联系我们 contact @ memedata.com