每日HackerNews RSS

## APEX GPU:在AMD GPU上运行CUDA – 无需代码更改 APEX GPU是一个轻量级的翻译层,能够使未经修改的NVIDIA CUDA应用程序在AMD GPU上运行,无需重新编译。它利用`LD_PRELOAD`,在运行时拦截CUDA调用,并将其转换为AMD等效项(HIP、rocBLAS、MIOpen)。这消除了对源代码访问、手动移植和耗时的工程努力的需求。 该项目为核心CUDA操作(内存管理、内核、流)、线性代数(cuBLAS到rocBLAS)和深度学习(cuDNN到MIOpen)提供桥接。它目前与运行ROCm 5.0+的Linux上的AMD RDNA2/RDNA3/CDNA GPU兼容。 APEX拥有可忽略的性能开销(计算密集型任务小于1%)和27个CUDA函数的100%测试通过率。它可以无缝替代PyTorch、TensorFlow和NVIDIA CUDA示例。 目前采用非商业许可(CC BY-NC-SA 4.0),APEX GPU旨在使CUDA应用程序真正可移植,并通过利用AMD硬件来降低成本。开发正在积极进行中,并持续努力扩展覆盖范围和优化。 [https://github.com/yourusername/APEX-GPU](https://github.com/yourusername/APEX-GPU)

一位名为ArchitectAI的开发者创建了“Apex GPU”,这是一个93KB的翻译层,允许CUDA应用程序在AMD GPU上运行,*无需*任何代码更改或重新编译。它利用`LD_PRELOAD`拦截CUDA API调用,并将其转换为HIP/rocBLAS/MIOpen等效项。 目前支持38个CUDA运行时函数,以及cuBLAS和cuDNN的关键操作,已经演示了成功的PyTorch训练和推理。该项目使用动态加载技术快速构建,旨在规避NVIDIA的CUDA锁定,为在AMD硬件上利用现有的CUDA工作负载提供了一条最省力的途径。 Hacker News上的帖子还详细介绍了对一名参与辱骂和无关行为的用户采取的版规措施,强调了该网站致力于维护一个尊重的社区。

该网站正在使用安全服务来保护自身免受在线攻击。您刚才的操作触发了安全解决方案。 提交特定词语或短语、SQL命令或格式错误的数据等行为可能会触发此阻止。

将此建议添加到可以作为一个提交应用的一批建议中。此建议无效,因为未对代码进行任何更改。在拉取请求关闭时无法应用建议。在查看部分更改时无法应用建议。每行只能应用一个建议到一批中。将此建议添加到可以作为一个提交应用的一批建议中。不支持对已删除行应用建议。您必须更改此行中的现有代码才能创建有效的建议。此建议已被应用或标记为已解决。无法从待处理的评审中应用建议。无法对多行注释应用建议。无法在拉取请求排队合并时应用建议。现在无法应用建议。请稍后重试。您现在无法执行此操作。

针对GNOME Bazaar(一个应用商店)的提交请求,该请求添加了可定制的进度条主题,被以“种族主义”为由拒绝。 提议的定制允许用户从一系列旗帜中选择,包括LGBTQIA+骄傲旗帜,但也可能包括其他旗帜。 这一拒绝引发了Hacker News上的辩论。 一些用户认为,这一拒绝反应过度,指出该请求仅仅是视觉定制,并质疑了其背后的理由。 另一些用户则捍卫了这一决定,强调了认识边缘化群体的重要性,并批评了将此与“异性恋骄傲”请求相提并论的尝试。 一位医疗保健提供者评论了包容性的重要性,并认为添加更多旗帜并不会降低对现有旗帜的认可。 然而,另一位用户反驳说,该功能迎合了LGBTQIA+社区内“吵闹的少数派”,而不是更广泛的人群。 此外,人们还对Bazaar项目的整体方向表示担忧,一些人建议应该专注于功能而不是有争议的定制选项。

## 机械键盘的自制触控ID 由于苹果的硬件保护,机械键盘缺乏触控ID功能,作者为此进行了一项复杂的“黑客”改造,以集成此功能。该过程包括拆解苹果触控ID魔术键盘——由于大量的粘合剂,这是一项出乎意料的困难任务——并将触控ID传感器和逻辑板移植到定制的3D打印外壳中。 受到Snazzy Labs的启发,作者详细介绍了主要挑战:小心地用热风枪移除键盘的后盖,小心处理脆弱的柔性电缆,以及精确的3D打印(需要精细的层高)。组装微小的螺丝和螺母也证明了其复杂性。 该项目凸显了苹果对可维修性的抵制以及对触控ID功能在苹果生态系统之外的需求。作者抱怨苹果拒绝直接销售独立的触控ID模块,迫使用户牺牲一个完好的键盘并投入大量时间来获得他们依赖的功能。完整的视频教程可在他们的Level 2 Jeff频道上找到。

## Apple 与独立 Touch ID:Hacker News 讨论 最近 Hacker News 上出现了一场关于苹果为何不为 Mac 提供独立 Touch ID 传感器的讨论。用户抱怨为了在非苹果键盘上获得 Touch ID 的便利,不得不购买整个苹果妙控键盘(150 美元以上)。 一些用户已经成功地创建了 DIY 解决方案,从旧键盘(通常能以 45 美元左右的价格找到)中提取 Touch ID 模块,并将其放置在 3D 打印的外壳中或集成到现有设置中。 这场对话凸显了对简单、经济实惠的 Touch ID 选项的需求。虽然苹果在 MacBook 上提供 Face ID,并且可以使用 Apple Watch 进行身份验证,但许多人认为这些方法可靠性较低,或者更喜欢指纹扫描的简单性。有些人建议使用 Yubikey 作为替代方案,而另一些人则认为苹果更倾向于控制整个硬件生态系统并最大化利润,因此不提供独立产品。最终,许多人认为这个市场虽然专注,但规模不足以激励苹果开发和销售独立的 Touch ID 传感器。

## 保存雪花:制作你自己的化石 制作持久的雪花复制品是可能的,以便在室内进行详细研究。存在几种“石化”雪花的技术。 一种简单的技术,在《大众科学》中广受欢迎,使用快干胶。通过小心地将一滴冷的稀快干胶和盖玻片应用于冷却的显微镜载玻片上的雪花上,经过一两周的硬化,就可以形成复制品。 替代方法包括使用溶解在二氯乙烷中的Formvar(一种聚乙烯醇缩醛树脂),或透明丙烯酸喷漆。Formvar技术需要仔细配制溶液才能获得最佳效果,而丙烯酸喷漆最适合使用轻薄均匀的涂层,以避免融化冰。 这些保存技术允许在雪花融化后很久对雪花结构进行详细检查,为科学观察和欣赏提供了一个独特的机会。

这场 Hacker News 讨论围绕着雪花的保存展开。最初的帖子链接到加州理工学院的一篇文章,引发了用户分享相关经验和技术。 许多评论者提到了丹妮尔,一位用雪花制作珠宝的艺术家,她的方法可能涉及使用 Formvar——一种用于捕捉雪花形状的化学物质。其他人描述了替代方法,包括使用快干胶和将雪花转移到银或金上。 讨论还深入探讨了保存雪花的术语,争论这些雪花是否可以被认为是“化石”,因为雪花本身并非生物。有人建议使用“铸造”、“印记”或简单地称之为“保存标本”。一个有趣的岔路讨论了如果雪花以微生物为核,是否可以被认为是含有生命,从而有可能被化石化。实际考虑因素,例如在低温下粘合剂所需的长期固化时间,也被提及。

## 链式思考:一种强大的技巧,而非真正的推理 链式思考 (COT) 极大地提升了大型语言模型 (LLM) 的能力,使它们能够通过逐步解释来解决复杂问题,看似一项突破,但作者认为这很大程度上是一种*技巧*,用于从本质上有限的模型中引出推理。 核心问题在于效率。LLM 通过预测下一个词元运作,这是一个计算量大且随输出长度增加的过程。作者证明,需要真正“思考”的任务(例如寻找质数)应该比简单任务花费更长的时间,但 LLM 在未使用 COT 的情况下将它们同等对待。COT 通过允许模型通过更多词元来*模拟*扩展的计算,从而规避了这一点,本质上延长了它的“思考”时间。 然而,作者认为真正的推理并不依赖于语言。动物和人类经常进行非语言推理,例如梅西在瞬间做出的足球决策——速度快到无法进行内心独白。语言是一种瓶颈,是一种交流工具,而非思想的引擎。 COT 迫使 LLM 以一种低效的、基于词语的方式进行推理。就像图像生成在低维嵌入空间中更快一样,推理需要一个超越词元预测的专用空间。虽然 COT 是一项有价值的进步,但它是一种权宜之计,作者认为未来的 AI 需要根本不同的方法来实现真正的智能。

## 思维链:大型语言模型是否真的在推理? 一个Hacker News的讨论围绕着一篇2023年的博客文章展开,质疑“思维链”(CoT)提示在大型语言模型(LLM)中是否代表了真正的推理。核心论点认为LLM运作方式是复杂的马尔可夫链,从概率分布中进行采样。模型并非在*推理*,而只是“预热”——探索状态空间,直到到达可能包含正确答案的区域。 一些评论员指出,LLM被训练直接从语言分布中采样,而“预热”类似于在该分布中找到高概率区域,而不是真正地收敛到稳定状态。另一些人则将LLM与双过程理论(人类中的快速与慢速思维)进行类比,认为CoT模仿了系统2的思维方式。 这场辩论触及了生成回应与主动*寻找*解决方案之间的区别,一些人认为LLM缺乏独立识别问题的能力。最后,文章提到了一项关于爱因斯坦对语言和思想的看法的主张,并将其与最近围绕Yann LeCun的争议联系起来。最终,这场讨论质疑LLM中推理的表象是真正的认知过程,还是一种统计学上的假象。

监控机器和应用程序:Stork 汇总有关托管 Kea 的系统健康状况以及 Kea 本身的状态和活动级别的数据。报告的参数包括内存、CPU 利用率、软件版本和正常运行时间。 监控池利用率和高可用性:Stork 显示配置的池,包括已配置和分配的地址数量,甚至跟踪共享网络中的池利用率。图形元素突出显示高利用率区域,以提醒操作员采取行动。监控高可用性对,并显示其配置的角色和状态,方便查看哪些服务器未建立备份,以及何时发生故障转移事件。 管理主机预留:使用图形界面选择主机标识符、分配主机名、预留 IP 地址、关联客户端类以及配置启动文件信息和 DHCP 选项,以添加、更新和查看 DHCPv4 和 DHCPv6 主机预留。

## Hacker News 上关于 Kea DHCP 的讨论 一场 Hacker News 讨论围绕着 Kea,一个现代的、开源的 DHCPv4 和 DHCPv6 服务器。它因其灵活性和功能而受到赞扬,特别是其钩子系统,可用于在大型部署(数十万台机器)中进行定制。但用户体验各不相同。 一些人报告了从 ISC DHCP 顺利迁移的情况,尤其是在 OPNSense 中(ISC DHCP 现在已被弃用),并赞赏 Kea 的稳定性和易于排错性。另一些人则在使用 pfSense 时遇到了静态 IP 预留问题,例如分配延迟或意外行为。人们也对 Kea 对于简单家庭使用的复杂性表示担忧,通常更喜欢 dnsmasq,因为它简单且占用资源少。 几位用户指出可能存在与 DNS 集成问题,一些人更喜欢 Pi-hole 或 unbound 等解决方案。一个反复出现的主题是取代 ISC DHCP 的挑战,因为它具有遗留支持,并且需要付出努力来适应独特的用例。该讨论还涉及了高可用性配置对于关键网络服务的重要性。

## ACME:自动化互联网安全 本文详细介绍了ACME(自动化证书管理环境)的历史和影响,该协议 благодаря Let’s Encrypt 推动了广泛的HTTPS采用。ACME诞生于简化获取和管理TLS/SSL证书的复杂过程的需求。Let’s Encrypt由Mozilla、EFF等机构于2013年创立,旨在提供免费、自动化的证书。 Let’s Encrypt成功的关键在于ACME——它使客户端能够在无需人工干预的情况下向证书颁发机构证明域名控制权。虽然事后看来自动化似乎理所当然,但对于将非营利性服务扩展到互联网规模而言,它至关重要。 ACME通过IETF(RFC 8555)标准化,促进了蓬勃发展的客户端生态系统,并与商业CA合作,甚至整合了外部帐户绑定等功能以用于计费。如今,ACME处理了超过60%的所有公共TLS证书,推动全球HTTPS使用率从39%提高到83%以上。 持续的创新,例如ARI扩展,不断发展ACME,但客户端采用仍然是一个挑战。展望未来,ACME的潜力超越了网络安全,并探索了设备证明和更广泛的证书颁发框架。ACME证明了开放协议和协作开发如何极大地改善互联网安全和可访问性。

## Let's Encrypt 与网络安全的发展 这个Hacker News讨论围绕一篇博客文章展开,详细介绍了Let's Encrypt (LE)对网络安全和隐私的影响。在LE出现之前,获取和维护TLS证书是一项手动、昂贵且常常被忽视的过程,导致许多网站运行在不安全的HTTP协议上。LE通过提供免费、自动化的证书颁发和续订,彻底改变了这一现状,有效地使TLS成为网络的默认设置。 虽然LE因提升加密并保护免受被动网络监控(例如来自ISP)而受到广泛赞扬,但评论员们争论LE是否真正增强了*整体*隐私。一些人认为,“大科技”公司仍然主导着数据收集,而TLS只是将加密转移到有利于它们。人们也对TLS普及世界中固有的元数据泄露以及它对网络检查构成的挑战表示担忧。 对话涉及历史背景——包括斯诺登事件的影响以及谷歌推动加密的举措——并探讨了替代方法,如基于DNS的身份验证和证书透明度。最终,该讨论强调了LE对网络安全的重要贡献,同时也承认了面对强大的数据收集者时,在线隐私的持续复杂性。

基于FastLanes高性能的Zig整数压缩库。Zint内部使用FastLanes,因此实现了完全向量化的差分编码和位打包。安全的解压缩API。可以安全地解压缩不受信任的输入。动态压缩输入中的每个块(1024)元素。如果有利,则自动应用差分编码。 const Z = @require("zint").Zint(T); const compress_buf = try std.heap.page_allocator.alloc(u8, Z.compress_bound(input.len)); const compressed_size = Z.compress(input, compress_buf); const compressed = compress_buf[0..compressed_size]; const output = try std.heap.page_allocator.alloc(T, input.len); try Z.decompress(compressed, output); std.debug.assert(std.mem.eql(T, output, input)); 根据你的选择,以任一方式授权。除非你明确声明,否则你有意提交包含在作品中的任何贡献,如Apache-2.0许可中定义,将以双重许可方式授权,不包含任何其他条款或条件。

一个名为FastLanes的新整数压缩库,用Zig语言编写,最近在Hacker News上分享。开发者ozgrakkurt正在积极寻求反馈并改进项目。目前,FastLanes利用差分编码和位打包进行压缩。 最初的反馈质疑了该库的有效性,特别是处理大量重复值数据集(例如全零)的能力。人们担心当前的实现,每1024个字重置一次,在这些情况下可能会*增加*存储大小。开发者澄清说,1024字块大小是为了向量化差分编码和位打包而优化的,并计划将其调整为其他策略,如RLE。 讨论的一个关键点是,所有压缩算法都需要元数据,这意味着压缩数据有时可能大于原始输入。该库设计用于压缩文件格式中的列页,但开发者打算公开核心FastLanes API以供更广泛使用。

启用 JavaScript 和 Cookie 以继续。

## 猫咪沟通与照顾者:黑客新闻摘要 一项最新研究(来自黑客新闻讨论链接)调查了家猫的叫声,发现它们更频繁地向男性照顾者喵喵叫。这项在土耳其进行的小样本研究(n=31)表明,这可能是因为男性照顾者需要更明确的语音提示才能注意到并回应猫咪的需求。 讨论迅速扩展到更广泛的动物沟通话题。用户分享了用响片训练猫咪、教它们指令(成功率各异)以及观察到复杂的行为,表明猫咪的理解水平比以前认为的更高——甚至有人提出猫咪的语言能力可与3-4岁的孩子相媲美。然而,怀疑论盛行,许多人指出理解和服从之间的区别,并质疑复杂猫语的证据。 一些评论员强调了研究方法中潜在的问题,包括对p值操纵的担忧以及由于小样本量和特定文化背景导致的有限推广性。该帖子最终展示了一场关于猫咪智力和沟通能力的活跃辩论,由个人经验和科学探究推动。

更多

联系我们 contact @ memedata.com