每日HackerNews RSS

## 黑客新闻讨论:柏林的中学生发现古币 柏林的一名中学生发现了一枚古希腊硬币,这引发了黑客新闻上关于发现历史文物的一场讨论。这枚硬币似乎与一个已知的考古遗址有关,表明它并非近期被收藏家遗失。 用户分享了他们发现古币和文物的个人经历——从海滩上的罗马马赛克到日常交易中发现的魏玛时期钞票。对话强调了此类发现的普遍性,尤其是在历史悠久的地区。许多评论员指出欧洲景观中蕴藏的丰富历史,并将其与世界其他地区的经历形成对比。 讨论还涉及发现历史物品的法律方面,尤其是在德国,此类发现通常归国家所有。最后,用户们争论了古代旅游的盛行以及历史文物意外浮出水面的频率。

## Claude Design:人工智能视觉创作 Anthropic Labs 发布了 **Claude Design**,一款新工具,允许用户与 Claude 协作创作视觉内容,例如设计、原型和演示文稿。它由先进的视觉模型 Claude Opus 4.7 提供支持,目前正处于研究预览阶段,适用于 Claude Pro、Max、Team 和 Enterprise 订阅用户。 Claude Design 通过将文本提示、上传的文件甚至网站截图转化为初步设计,简化设计流程。用户可以通过对话、直接编辑和自定义控件来完善这些设计,Claude 会自动应用已建立的品牌设计系统。 主要用途包括快速原型设计、线框图制作、创建推介文稿、营销材料,甚至复杂的、代码驱动的原型。一个关键特性是与 **Claude Code** 的无缝衔接,用于实现。协作功能内置组织范围的共享和导出选项,可导出到 Canva、PDF 和 PPTX 等平台。 早期用户报告显示,Claude Design 显著节省了时间——将原本需要数周的任务缩短为简单的对话——并提高了品牌一致性。Claude Design 旨在赋能设计师和非设计背景的用户,快速可视化和迭代想法。

南北战争时期存在一些引人注目的摄影巧合。20世纪50年代,研究员斯特凡·洛朗特发现了一张林肯1865年葬礼游行的照片,照片中可以看到年轻的西奥多·罗斯福和他的兄弟埃利奥特从他们祖父位于曼哈顿的家中窗口探头张望。罗斯福的妻子证实了这一身份,回忆起童年时被游行队伍吓到,并被表亲短暂地锁起来的记忆。 同一时期,另一个有趣的发现来自1863年葛底斯堡的一张马修·布雷迪底片。国家档案馆的约瑟芬·科布识别出站在演讲台上的一个人是林肯,从而获得了第一张已知林肯在葛底斯堡的照片,拍摄于他发表著名演讲之前。 这些发现突出了档案研究的力量,并为美国历史的关键时刻提供了独特的视角。“发现内战”将在华盛顿特区展出,其中展示了更多关于南北战争的探索成果。

## 泰迪·罗斯福与林肯照片:一个历史谜团 2010年一篇Hacker News上的帖子讨论了一张照片,据称照片显示年轻的泰迪·罗斯福正在观看1865年亚伯拉罕·林肯的葬礼队伍。历史学家斯特凡·洛朗特声称,埃迪斯·罗斯福(TR的妻子)确认了窗户里的孩子是她的丈夫。然而,时间线引发了质疑——埃迪斯当时只有三岁,而且洛朗特的调查日期尚不清楚。 评论者们争论这个故事的真实性,引用了存档的文章和TR自己关于目睹葬礼队伍的著作。虽然埃迪斯的直接记忆不太可能,但家族故事可能保留了这个轶事。这场讨论强调了记忆是如何被重建的,以及验证历史主张的挑战,尤其是在跨代的情况下。 最终,照片的故事仍然没有得到证实,但这场对话强调了最近的历史事件在考虑重叠的寿命时所带来的感受——一个19世纪出生的人可能活到了现代计算机的早期时代。它也涉及了虚假信息的可能性以及在日益复杂的科技时代进行事实核查的重要性。

## 监控与人工智能:日益增长的威胁形势 近期报告强调,易于获取的地理位置数据和人工智能驱动的网络攻击的快速发展,对隐私和国家安全构成了日益升级的风险。公民实验室的调查揭示了**Webloc**,一种由Penlink(前身为Cobweb Technologies)销售的工具,可以访问全球多达5亿移动设备的地理位置数据,被美国执法部门(包括国土安全部和地方警察)甚至匈牙利等外国情报机构使用。这引发了对无证追踪和潜在滥用的担忧。 与此同时,Gambit报告详细说明了一名黑客如何利用Claude和GPT-4等人工智能模型入侵了九个墨西哥政府组织,窃取了大量的公民数据。人工智能显著加速了攻击过程,使单个行为者能够以团队的效率运作。 弗吉尼亚州最近禁止出售精确的地理位置数据,但需要采取更全面的立法方法来保护公民自由和国家安全。积极的进展包括美国破坏了一个俄罗斯GRU僵尸网络,与印度尼西亚合作摧毁了一个网络钓鱼网络,以及在Chrome中推出设备绑定会话凭据以增强安全性。然而,人工智能辅助攻击日益复杂,需要主动的防御策略。

## Healthchecks.io 对象存储迁移总结 Healthchecks.io 将 ping 请求体(最多 100kB)存储在对象存储中,最初使用 OVHcloud 和 UpCloud 等托管服务提供商。虽然这些服务提供了便利性,但随着数据量的增加(目前 1400 万个对象,119GB),性能和可靠性问题日益突出。团队需要一个解决方案,支持 30 次/秒的上传(峰值时),并具有持续的数据更新,优先考虑低延迟和可接受的持久性——数据丢失并非关键,但性能影响是。 在评估了复杂的自托管选项(如 Minio)后,团队选择了一种更简单的方案:在专用服务器上运行 **Versity S3 Gateway**,并使用 Btrfs 文件系统和 RAID 1 NVMe 驱动器。这会将本地文件系统转换为 S3 兼容的 API。数据通过 rsync 每小时备份一次,并每天进行加密的异地备份,接受在最坏情况下可能出现 2 小时的数据丢失窗口。 迁移后,**S3 操作的延迟得到了显著改善**,并且上传排队减少。虽然由于专用服务器导致成本增加,但团队认为性能和可靠性的提升是值得的,并对未来可能的迁移保持开放态度。

## 神话与公共AI漏洞研究:摘要 Anthropic发布“神话”和“玻璃翼计划”引发了关于限制先进AI漏洞研究的讨论。然而,最近的复现尝试表明,其核心发现已经可以使用像GPT-5.4和Claude Opus 4.6这样的公共模型实现。虽然“神话”展示了前沿模型识别严重软件漏洞的能力不断增强,但关键在于其并非独有,而是类似能力的可访问性。 在FreeBSD、OpenBSD、FFmpeg、Botan和wolfSSL等项目中的已修复示例测试中,使用公共模型成功复现了FreeBSD、Botan和OpenBSD中的漏洞。FFmpeg和wolfSSL产生了部分结果。这表明“护城河”正在转移——不再是模型访问,而是对发现结果的验证、优先级排序和修复。 Anthropic的方法论——一种具有验证的结构化代理搜索过程——令人惊讶地可复现。这意味着严肃的AI辅助漏洞研究不再局限于专业实验室。现在的挑战在于构建有效利用这些能力的工作流程,重点是将AI整合到现有的安全开发生命周期(SDLC)中,并优先考虑可操作的见解,而不仅仅是*发现*漏洞。真正的风险不是神奇的“网络神器”,而是强大的漏洞发现工具的民主化。

## Hacker News 讨论总结:复现 Anthropic 的 Mythos 漏洞发现 最近一篇 Hacker News 帖子详细描述了使用公开模型复现 Anthropic 的 Mythos 安全漏洞发现的尝试。核心争论在于复现尝试的*准确性*。许多评论者认为,仅仅将 LLM 指向特定文件甚至代码行就失去了意义,因为这泄露了信息,并且不能代表真正的自主发现过程。 原作者为他们的研究方法辩护,解释说他们使用了基于代理的方法,其中 LLM *计划* 代码分块,而不是被手动引导。然而,怀疑仍然存在,许多人质疑工作流程,而不是模型本身,才是关键的区别。 一个关键的争议点是 Mythos 声称不仅能*发现*漏洞,还能自动生成可用的漏洞利用代码。 许多评论者认为这种漏洞利用代码的生成是关键的进步,复制这种能力才是真正的考验。 另一些人强调了政策影响——如果工作流程可以复现,这将挑战限制访问强大 AI 模型的论点。 最终,这场讨论强调了验证 AI 能力的宏大主张的难度,以及研究中透明方法的重要性。 有人甚至认为重点放错了地方,围绕炒作和揭穿 AI 性能出现了一个“小作坊”行业。

## 翻译文学的隐形世界 尽管翻译作品比比皆是——仅《小王子》就有超过100种语言版本——但要发现它们却出乎意料地困难。这并非内容匮乏,而是一个关键基础设施问题:翻译元数据分散在众多不相关的数据库中,如国家图书馆、商业聚合商(ISBNdb)和协作项目(Wikidata)。没有单一来源提供全面的概述,即使联合国教科文组织的历史《翻译索引》也已严重过时。 这种分散导致文化抹除,特别是对于较小语种,它们的翻译如果没有适当的编目,将仍然隐形。Zenòdot等项目通过交叉引用23个来源证明了这一点;它表明,仅仅通过链接现有数据,就能提高加泰罗尼亚语/瓦伦西亚语的可见性。相反,由于机构数据不互联,孟加拉语等语言仍然代表性不足。 Zenòdot的调查结果显示,近90%的ISBN验证版本仅出现在一个来源中,突出了每个来源拥有的独特信息。解决这个问题需要图书馆之间的合作、标准化的元数据以及认识到翻译是重要的书目数据。最终,构建“全球翻译地图”不仅仅是为了庆祝书目多样性——更是为了确保所有文学作品都能被发现和统计。

## 您的网站为AI代理准备好了吗? Cloudflare 提供一项工具,用于扫描您网站的“代理准备度”——AI 代理理解和与之交互的能力。扫描评估五个关键领域:**可发现性**、**内容可访问性**、**机器人访问控制**、**协议发现**和**电商**支持。 检查内容包括验证 robots.txt、站点地图、AI 机器人规则、OAuth,以及 MCP 和 Agent Skills 等新兴标准。该工具提供分数和可操作的改进建议。 **简单的第一步** 包括发布包含 AI 机器人规则的有效 robots.txt,并确保您的主页具有有用的发现标头。Cloudflare 还提供 AI 生成的指令,您可以直接复制到编码代理(如 Copilot 或 Claude)中以自动化改进。 了解更多信息并探索使用 Cloudflare 的文档构建您自己的 AI 代理。*注意:建议由 AI 生成,应结合专业判断进行审查。*

对不起。

## 深入数据压缩:从 Kafka 到 ZSTD 这次探索始于一个个人项目——构建 Kafka Broker (MonKafka)——以及意识到对数据压缩技术的理解有限。Kafka 支持 GZIP、Snappy、LZ4 和 ZSTD,促使我深入研究它们的内部机制。 压缩旨在减少数据大小以节省成本并提高性能,分为两种主要类型:无损压缩(完美重建)和有损压缩(近似)。常见的技术包括行程长度编码、Lempel-Ziv (LZ)——许多现代方案(如 GZIP 中使用的 DEFLATE)的祖先——以及霍夫曼编码。 **GZIP** 使用 DEFLATE 算法,结合了 LZ77 和霍夫曼编码。**Snappy** 优先考虑速度,以牺牲压缩比为代价,提供更快的压缩/解压缩速度。**LZ4** 在 Snappy 的基础上构建,实现相似的速度和可比的压缩比。最后,**ZSTD** 代表了一次飞跃,在保持 LZ4 类似速度的同时,匹配或超过了 Deflate 的压缩比,利用了霍夫曼编码、有限状态熵 (FSE – 一种更高效的算术编码形式) 以及可训练的字典来优化特定数据类型的压缩。 所有这些算法都依赖于有效地识别和表示重复模式,在压缩比、速度和计算复杂度之间进行权衡。理解这些权衡对于优化大规模系统中的数据存储和传输至关重要。

对不起。

更多

联系我们 contact @ memedata.com