每日HackerNews RSS

## 广藿香:开源EMR平板项目 广藿香是一个开源项目,致力于开发电磁共振(EMR)绘图平板的硬件。其目标是使用现成的组件创建可定制、低延迟的笔输入体验,并与许多现有的商业笔兼容。 除了硬件——包括线圈阵列和射频前端——广藿香还提供详细的文档,详细介绍了EMR技术、电路实现、信号处理以及来自各种制造商的笔协议。这种全面的方法旨在揭示EMR技术的神秘面纱,并将其开放给更广泛的使用和创新。 该项目的代码采用GPLv3许可,硬件采用CERN-OHL-S许可,文档采用CC BY 4.0许可。它正在积极开发中,并由NLnet基金会NGI Zero Core基金赞助。资源和代码可在GitLab上找到。

黑客新闻 新的 | 过去的 | 评论 | 提问 | 展示 | 招聘 | 提交 登录 Patchouli 项目:开源电磁绘图板硬件 (patchouli.readthedocs.io) 17 分,由 ffin 发表于 39 分钟前 | 隐藏 | 过去的 | 收藏 | 讨论 指南 | 常见问题 | 列表 | API | 安全 | 法律 | 申请 YC | 联系 搜索:

必须启用 Javascript 才能查看开放基础设施地图 开放基础设施地图 关于 统计 导出

黑客新闻 新 | 过去 | 评论 | 提问 | 展示 | 招聘 | 提交 登录 开放基础设施地图 (openinframap.org) 29 分,由 efskap 发表于 2 小时前 | 隐藏 | 过去 | 收藏 | 1 条评论 efskap 2 小时前 [–] 我发现这个网站太迷人了,可以看到所有巨大的电力线路如何连接到遥远的发电厂,并随着连接到消费者时逐渐降低电压。还有我不知道的所有海底电缆和管道。回复 指南 | 常见问题 | 列表 | API | 安全 | 法律 | 申请 YC | 联系 搜索:

苹果和 Chase 宣布达成合作,Chase 将成为 Apple Card 的新发卡行,预计过渡期为 24 个月。现有 Apple Card 用户将继续享受当前卡片权益,包括高达 3% 的 Daily Cash 返现、财务管理工具、Apple Card Family 和高收益储蓄账户,Mastercard 将继续作为支付网络。 苹果和 Chase 都强调了双方对创新和客户财务健康的共同承诺。此举将为 Chase 带来超过 200 亿美元的卡片余额,但摩根大通预计需要准备 22 亿美元的信贷损失准备金。 用户在过渡期间可以照常使用 Apple Card,更多细节将在变更日期临近时提供。Apple Card 于 2019 年推出,因其用户友好的体验、无费用以及对隐私和安全的关注而广受欢迎。

Chase 将成为新的 Apple Card 发卡行,取代高盛。这一消息最初发布在 Hacker News 上,引发了关于苹果为何更换合作伙伴的讨论。 评论员推测,苹果可能在对高盛提出的一些独特要求上做出了一些妥协——据报道,这些要求导致了运营上的麻烦(例如客户支持同步账单日期)和监管问题(CFPB 罚款)。 当前和未来卡片产品的一个关键区别在于滞纳金;高盛不收取滞纳金,而 Chase 目前收取 40 美元的滞纳金。Chase 是否会为 Apple Card 维持此费用还有待观察。普遍的看法是,银行最初并不热衷于合作,而与高盛的合作经验也不佳,这表明 Chase 可能会做出让步以确保这笔交易。

## Linux内核漏洞寿命与自动化检测:摘要 最近对20年来125,183个Linux内核漏洞修复的分析显示,平均漏洞未被发现的时间为2.1年,但有些漏洞会持续数十年——一个缓冲区溢出漏洞持续存在了超过20年!某些子系统,如CAN总线驱动程序(4.2年)和SCTP网络(4.0年),隐藏漏洞的时间明显更长。 该研究表明漏洞检测率正在提高;2022年引入的漏洞在几个月内被发现,而2010年的漏洞则需要近10年时间,这可能归功于Syzkaller和KASAN等工具。然而,仍存在大量的旧漏洞(约13.5%隐藏超过5年)。竞争条件尤其难以发现,平均发现时间为5.1年。 为了解决这个问题,开发了一种名为VulnBERT的新模型,其召回率为92.2%(捕获大多数漏洞),误报率为1.2%。VulnBERT结合了神经网络和手工特征,性能显著优于以前的方法。该研究强调需要继续投资于自动漏洞检测,同时结合人工审查和模糊测试,以主动解决隐藏内核漏洞的持续威胁。 数据集和代码可在[github.com/quguanni/kernel-vuln-data](https://github.com/quguanni/kernel-vuln-data)获取。

Hacker News 新闻 | 过去 | 评论 | 提问 | 展示 | 招聘 | 提交 登录 内核漏洞平均隐藏两年。有些隐藏20年 (pebblebed.com) 16 分,来自 kmavm 41 分钟前 | 隐藏 | 过去 | 收藏 | 2 条评论 snvzz 5 分钟前 | 下一个 [–] 数百万行代码,全部以管理员模式运行。一个漏洞足以破坏整个系统。 单体 UNIX 内核在 60 年代是一个好的设计;今天,我们应该更懂。回复 sedatk 11 分钟前 | 上一个 [–] Firefox 的漏洞会公开存在这么久。回复 指南 | 常见问题 | 列表 | API | 安全 | 法律 | 申请 YC | 联系 搜索:

启用 JavaScript 和 Cookie 以继续。

最近Hacker News上的一篇讨论引发了对Wegmans超市实施面部识别技术的担忧。这篇文章(adafruit.com)引发了关于规避监控可行性的争论。 一些人建议简单的解决方案,例如戴口罩(甚至N95口罩以获得额外的健康益处),但许多评论者指出其局限性。使用现金以外的任何支付方式、使用商店奖励计划,甚至从银行取款都会将购买行为与个人联系起来。现有的广泛摄像头网络,例如大型商店和公共场所中的摄像头,已经可以追踪行动。 许多用户表达了悲观情绪,认为鉴于面部识别技术的进步,即使尝试混淆,完全匿名几乎是不可能的。国际旅行必然会进行面部扫描,而且复杂的系统可以从低分辨率图像中识别个人。普遍的观点倾向于接受普遍监控作为新常态,一些人建议自给自足(“自己种植食物”)作为最后的手段。

## ICE 正在扩张的监控网络 美国移民及海关执法局 (ICE) 预计将大幅扩张其监控能力,2025 年的预算提案为 287 亿美元——几乎是其先前资金的三倍,并与资金充足的国民军队的预算相匹敌。作为美国移民执法部门,ICE 的触及范围远远超出无证人士,影响到合法居民、公民,甚至行使抗议权利的人。 在价值数十亿美元的合同驱动下,ICE 正在积极获取用于全面监控的技术。这包括通过 Cellebrite 等公司解锁电话数据,从 Paragon 获取间谍软件,通过移动数据和车牌识别器跟踪位置,以及使用 PenLink 和 Fivecast 的工具监控社交媒体。一个中央系统 ImmigrationOS 由 Palantir 提供支持,整合了来自各种来源的数据——包括私营公司甚至美国国税局——打破了传统的数据孤岛。 这种扩张引发了严重的隐私问题。专家警告说,这些工具在民主党和共和党政府下都存在被滥用的风险。像 EFF 这样的组织正在通过诉讼挑战 ICE 的做法,并倡导更严格的隐私法律来反击。保护自己包括更新软件、利用社交媒体上的隐私设置,以及意识到抗议活动中的监控风险——但最终,需要一个健全的法律框架来遏制这种日益增长的监控国家。

## ICE 监控扩张与担忧 最近一篇EFF文章强调了人们对美国移民及海关执法局(ICE)大幅扩张其监控能力日益增长的担忧,并将之与施塔西进行了比较。Hacker News上的评论员对此表示震惊,并引用最近发生的事件——包括一名美国公民在明尼阿波利斯被ICE官员枪杀——作为权力滥用的证据。 许多人担心ICE正在超越其法律界限,一些人呼吁解散ICE并起诉其领导层。讨论的中心是批量监控的常态化,从车牌识别器和面部识别技术到潜在访问Ring摄像头等庞大数据档案。 一些用户指出,自特朗普政府以来,ICE的角色发生了转变,人们担心权力不受约束以及针对个人的行为,甚至包括美国公民。虽然一些人承认ICE执行在法律支持下的移民法律,但辩论的重点在于*如何*执行这些法律以及日益侵入性监控策略的伦理影响。总体情绪表明,人们对ICE深感不信任,并担心一个迅速扩张的警察国家。

## LLM 注意力的核心:Q、K 和 V 矩阵 大型语言模型 (LLM) 利用注意力机制来关注输入数据的相关部分,就像我们理解语境时的大脑一样。这通过三个关键矩阵实现:**查询 (Q)、键 (K) 和值 (V)**。这些矩阵是通过使用学习到的权重矩阵 (Wq、Wk、Wv) 转换输入嵌入来创建的。 **Q** 代表模型*正在寻找什么*,**K** 代表输入数据的每个部分*包含什么*,而 **V** 包含要使用的实际*信息*。本质上,每个词都会生成一个查询,以与所有键进行比较,从而识别出相关的要关注的信息(值)。 这个过程取代了旧的循环神经网络的顺序处理方式,实现了并行注意力,从而加快了训练速度并更好地理解了词语之间的关系,即使这些词语在句子中相隔很远。这些矩阵的维度(特别是 *d_k*,投影维度)会影响模型的容量和效率——更大的维度可以实现更复杂的关系,但需要更多的计算。 Q、K 和 V 是自注意力的基础步骤,最终产生注意力分数、加权值和最终的上下文感知输出。它们使 LLM 能够动态地优先处理信息,从而驱动其强大的语言处理能力。

一个 Hacker News 的讨论集中在理解大型语言模型 (LLM) 中使用的 Q、K、V 矩阵以及注意力机制。一个关键点是注意力机制与核方法之间的联系,并建议探索核平滑方面的资源以获得更深入的理解。 用户们争论了对初学者解释的清晰度,有人建议 Sebastian Raschka 的《从头开始构建大型语言模型》作为更易于理解的资源。一个争议点是 Q、K 和 V 的“数据库查找”类比——有些人觉得这令人困惑,更倾向于将它们视为线性代数变换,从而实现序列中 token 之间的关系。 讨论强调了 LLM 注意力的复杂性以及真正掌握这些概念所需的深入学习。
Play Aardwolf MUD 20 小时前

## SSD 性能与 `fsync` 延迟:总结 本分析研究了使用 `O_DIRECT` 文件访问时,频繁 `fsync` 调用(每次写入后)对性能的影响,重点关注 InnoDB 的 `innodb_flush_method` 选项。核心发现:**SSD 上的写入速度很快,但 `fsync` 操作可能显著较慢**,尤其是在缺乏掉电保护 (PLP) 的消费级驱动器上。 该研究比较了不同 SSD(Crucial T500、Samsung 990 Pro、Intel D7-P5520、Solidigm PM-9a3)和存储配置(本地 NVMe、Google Hyperdisk)的服务器性能。结果表明,消费级 SSD 的 `fsync` 延迟远高于具有 PLP 的企业级 SSD。`fdatasync` 通常比 `fsync` 具有更低的延迟,但仍然会影响性能。 使用 `O_DIRECT_NO_FSYNC` 可以减少 `fsync` 频率,从而提高性能,但需要仔细考虑。虽然旧的实现存在可靠性问题,但现代文件系统会处理必要的元数据同步。 **关键要点:** * **环境很重要:** 性能因 SSD 类型和系统配置而异。 * **PLP 有益:** *没有* PLP 的 SSD 会受到较慢的 `fsync` 时间的影响。 * **测试您的设置:** 在部署性能关键型应用程序之前,请了解 `fsync` 和 `fdatasync` 延迟。

这次黑客新闻的讨论集中在向NVMe SSD写入数据时,`fsync`或刷新命令的必要性,特别是关于断电保护(PLP)。 核心争论在于,对于具有PLP的现代企业级SSD,刷新是否多余,因为NVMe规范指出,如果存在非易失性写缓存,刷新命令将不起作用。然而,评论员指出,在不使用直接IO的情况下,或者当代码可能在*没有*PLP的消费级SSD上运行时(例如开发者的机器),刷新仍然很有价值。 一个主要担忧是,通过IOCTL检测真正非易失性缓存的可靠性——一些具有PLP的驱动器仍然报告易失性缓存。该讨论链接到一篇关于高性能数据库和`io_uring`的相关文章,强调了优化数据持久性的更广泛背景。最终,共识倾向于为了健壮性而包含刷新命令,并接受企业级驱动器上微小的性能损失。

黑客新闻 新 | 过去 | 评论 | 提问 | 展示 | 招聘 | 提交 登录 从2006年到2014年DRAM行业的“鸡游戏” [pdf] (snu.ac.kr) 14点 由 walterbell 5小时前 | 隐藏 | 过去 | 收藏 | 1评论 ironbound 3小时前 [–] 日本的内存条曾经是挑战者 https://www.youtube.com/watch?v=ZOKBUI3p_cs 回复 指南 | 常见问题 | 列表 | API | 安全 | 法律 | 申请YC | 联系 搜索:

更多

联系我们 contact @ memedata.com