每日HackerNews RSS

## Milk-V Titan:RISC-V Mini-ITX主板现已上市 在经历一些延误后,Milk-V Titan主板现已供货。该主板采用UltraRISC UR-DP1000八核RISC-V CPU,配备高达64GB DDR4内存、PCIe Gen4 x16显卡插槽和M.2 NVMe存储,旨在为更广泛的用户带来高性能RISC-V计算体验。 UR-DP1000拥有8个64位内核,运行频率高达2.0 GHz,配备16MB缓存。基准测试显示,其单核性能大致相当于树莓派4,而多核性能则更接近树莓派5。它提供千兆以太网、USB 3.0端口和BMC远程控制功能。 然而,该主板缺少板载视频输出,需要单独的显卡。空闲时的功耗约为14W,满负荷时约为30W。软件支持包括Ubuntu、Debian和Fedora,但文档仍在完善中。Milk-V Titan目前售价329美元,不包括内存、存储和潜在显卡费用。

## Milk-V Titan: RISC-V 讨论 一款售价 329 美元的 Milk-V Titan mini-ITX 板卡,配备 8 核 64 位 RISC-V 处理器和 PCIe Gen4x16,正在 Hacker News 上引发讨论。但初步反应不一。 一些评论员指出 Radxa Orion O6,这是一款 12 核 ARMv9 板卡,单核性能明显更高,并集成了 GPU,价格还便宜 100 美元。人们对 Titan 相对于 Raspberry Pi 5 甚至同价位的 Ryzen 板卡的性能表示担忧。 一个关键的技术点在于该板卡符合 RVA23 标准,缺少向量 (V) 扩展。一些人认为这一缺失会影响性能和价值。关于中国公司投资 RISC-V 的动机存在争论,有人认为是为了摆脱对西方国家的依赖,而另一些人则认为 ARM 对中国制造商来说仍然安全。 最终,该板卡被认为主要适合开发者和爱好者,在 RISC-V 性能提升和更广泛的软件支持成熟之前,其主流可行性受到质疑。

## Plan 9:概要 Plan 9 是贝尔实验室的研究操作系统,由创造 UNIX 的团队打造。它诞生于 1980 年代末,旨在进一步推进 UNIX 的核心理念,尤其是在网络和图形方面,力求简洁和清晰。其核心概念是**私有命名空间**(为每个进程提供独特的文件系统视图)和**文件接口**——将*一切*都视为文件,通过 ASCII 字符串访问,简化系统交互。 Plan 9 是一个分布式环境,利用终端、CPU 服务器和文件服务器。虽然最初 intended 作为研究,但它催生了几个衍生版本,包括 9front(当前活跃的分支)。但重要的是要理解:**Plan 9 *不是* UNIX**,也不是一个简单的移植(如 plan9port),或与 Inferno 有关。它刻意避免了过去的局限性,也不是面向大众消费的产品。 尽管存在复杂的许可历史和停滞时期,但一个 dedicated 的社区仍在继续开发和支持 Plan 9。它吸引了那些寻求简洁、一致的系统的人,但可能不适合依赖现代 Web 技术 的用户。最终,Plan 9 代表了一种独特的操作系统设计方法,优先考虑优雅的抽象和统一的文件中心接口。

## 黑客新闻上关于Plan 9的讨论 最近黑客新闻上重新讨论了Plan 9,这是一个由贝尔实验室开发的分布式操作系统。尽管年代久远,Plan 9仍然积极维护,其代码库(9front)每天都有提交。 用户分享了他们的经验,认为它在编码方面优雅且有趣,但由于缺乏现代浏览器和视频加速,在日常桌面使用方面存在挑战。 “一切皆文件”的核心理念是讨论的关键点,因其简单性和统一资源访问的能力而受到赞扬。 一些人争论了它在Web API和SQL数据库主导的世界中的相关性,而另一些人则强调了它构建独特系统和避免复杂抽象的潜力。 讨论涉及了与FUSE、Rust和其他操作系统概念的比较,一些人认为Plan 9的方法提供了一个更简洁、更通用的接口。 今年晚些时候计划在不列颠哥伦比亚省维多利亚市举行一次会议。

## 电动汽车电池寿命:真实世界观察 Geotab 对超过 22,700 辆电动汽车的最新分析表明,现代电池非常耐用,通常可以使用超过车辆的使用寿命,但降解率各不相同。平均电池每年损失 2.3% 的容量——恢复到 2020 年的水平,这可能是由于较新车辆的使用增加和快速充电所致。八年后,预计电池容量约为原始容量的 81.6%。 影响电池健康的关键因素包括**充电习惯**和**气候**。频繁使用直流快速充电(超过 12% 的充电会话)会使降解率增加到每年 2.5%,使用高功率直流快速充电(高于 100kW)则会增加到 3.0%。炎热的气候也会导致更快的降解(增加 0.4%)。 令人惊讶的是,除非电池始终处于这些极端状态,否则严格保持 20-80% 的充电量并非至关重要。**车辆使用情况**也会影响寿命——更高的里程会加速磨损,但最大化正常运行时间的优势通常超过这一点。 车队管理者可以通过尽可能优先选择较低功率的充电、注意气候,以及战略性地部署车辆以平衡生产力与电池健康来优化电池寿命。使用远程通信技术的、数据驱动的方法是主动监控和最大化投资回报的关键。

## Figma-Use:AI驱动的Figma自动化 Figma-use是一个CLI工具,连接LLM和Figma,使AI代理能够使用熟悉的JSX语法直接操作设计。与依赖冗长JSON和MCP协议的传统方法不同,它利用了一种高效的token方式——发送LLM易于理解的JSX代码。这大大减少了通信开销,尤其是在复杂操作中。 主要功能包括:一个将JSX转换为Figma节点的`render`命令,用于创建基本形状和组件的命令,以及用于管理变量、样式和评论的工具。它还支持创建带有变体的组件集。一个`SKILL.md`文件为Claude Code和Cursor等AI代理提供了全面的参考。 Figma-use通过利用Figma内部的多人协作协议(实验性)实现了显著的速度提升(约快100倍)。虽然可能存在与Figma更新不稳定的风险,但它解锁了强大的自动化可能性。安装涉及CLI安装和一个Figma插件。它还提供了一个MCP端点以实现兼容性。 最终,Figma-use通过AI的力量,使开发者能够以前所未有的轻松和效率构建和修改Figma设计。

## Figma-Use:基于CLI的AI驱动设计 Dan Note 创建了 `figma-use`,一个允许AI代理直接在Figma中设计的CLI工具。它包含100个命令,用于形状创建、文本操作、样式修改和资源导出,以及一个比现有插件API快得多的JSX导入功能。该工具解决了Figma只读MCP服务器的限制,允许AI *创建* 设计,而不仅仅是读取它们,并避免了占用LLM令牌限制的冗长JSON模式。 讨论强调了AI协助设计师的潜力,举例说明了设计师可以利用AI快速原型设计,但难以向工程团队交付。用户正在探索涉及Figma变量/Tokens和组件库的设置,以保持设计一致性。 关注点在于管理AI生成代码的质量(避免大型、难以审查的PR)以及Figma和代码库之间更深层次集成的需求。 该工具可以通过 `bun install -g @dannote/figma-use` 安装,开发者正在寻求关于易用性和功能请求的反馈。它代表着AI与设计工具更直接交互的转变,可能简化工作流程并增强设计师和开发人员的能力。

## Tauformer:一种新的Transformer注意力机制 Tauformer是一种新型的Transformer架构,旨在提高效率并将领域知识注入到注意力机制中。它用基于“taumode”(从代表“领域记忆”的图拉普拉斯算子导出的标量)的系统取代了标准的点积注意力。注意力是使用这些taumode之间的距离计算的,优先考虑领域相关的关系。 一个30M参数的TauGPT模型已被训练,并显示出令人鼓舞的早期结果。验证损失在前2000步内从4.93降至2.36,在4500步后达到最佳损失1.91 – 实现约60K tokens/秒。一个关键优势是潜在的缓存减少;Tauformer存储一个与值一起的标量,而不是完整的键/值张量,可能节省约50%的缓存空间。 进一步的研究集中在“自适应”taumode策略上,根据训练动态重新校准taumode,并将模型扩展到100M参数。有趣的是,taumode值似乎与损失降低同时收敛,表明学习到的表示与潜在的领域结构之间存在相关性。这种架构旨在增加可学习的结构,从而可能带来更高效和强大的Transformer。

## 拓扑Transformer 总结 Hacker News上的一篇帖子讨论了一种新的Transformer模型方法,用图论中的“拓扑Transformer”取代了传统的注意力机制。作者使用这种方法训练了一个3000万参数的模型,并分享了初步结果。 讨论的重点是如何验证这种替代方案——通过替换注意力模块来重新训练现有模型,进行公平比较(例如QRWKV-72B项目)。另一些人建议从一个更简单的“nanogpt”快速训练开始,以便更轻松地进行基准测试。 有人担心其可扩展性;该方法依赖于固定的矩阵,其在更大参数量下的有效性尚不清楚。一些评论员探讨了相关想法,例如使用嵌入和LSP上下文来丰富token表示,而另一些人则质疑其相对于传统Transformer的实际好处,并指出参数和计算之间可能存在权衡。 最终,社区强调在评估该技术的真正潜力之前,需要同行评审和更广泛的测试。该核心思想旨在通过基于关系重新排序输入token来改进Transformer中的局部建模,从而可能节省内存和计算资源。

这篇文章展示了简单的shell命令在某些数据处理任务上如何大幅超越Hadoop。作者受一个使用Amazon EMR和mrjob分析国际象棋游戏数据的项目启发,发现一个1.75GB的数据集使用Hadoop处理需要26分钟,而基于shell的方法在笔记本电脑上完成相同的任务仅需12秒。 关键在于利用shell管道固有的并行性。通过使用`grep`、`sort`、`uniq`和`awk`等工具,作者构建了一个流处理管道,几乎不需要内存,并且速度比Hadoop实现快超过235倍。使用`xargs`并行化瓶颈进一步提高了性能。 作者强调了“大数据”工具的常见误用,认为对于不需要大规模分布式处理的任务,更简单的解决方案通常更有效。最终的管道,利用`find`、`xargs`和`mawk`,在12秒内处理了3.46GB的数据,速度达到270MB/秒,展示了现成工具在高效数据分析方面的强大能力。结论是:在默认使用复杂大数据框架之前,请考虑更简单的替代方案。

这个Hacker News讨论重温了一篇2014年的文章,该文章认为命令行工具可以胜过Hadoop集群。评论者普遍认为情况已经恶化,现代数据栈(Airflow、dbt、Snowflake)经常被过度用于足够小,可以用更简单的工具(如bash脚本)高效处理的数据集——这源于对可扩展性的感知和职业激励。 几位用户分享了优化缓慢流程的经验:一位将Bash/Python重写为C#,速度提升了10倍,而另一位则回忆起用一个简单的bash脚本取代了一个复杂的系统。一个关键点是,分布式系统只有在数据集太大,无法在一台机器上处理时才真正必要(通常超过一天的处理时间)。 其他人强调了单个强大服务器胜过大型集群的例子(使用ScyllaDB和ClickHouse),并指出DuckDB和ClickHouse-local等工具日益增长的效率数据处理能力。这次对话强调了一个反复出现的主题:过度设计解决方案以及优先考虑流行技术而非务实的效率。

欧盟与南方共同市场(阿根廷、巴西、巴拉圭和乌拉圭)在巴拉圭亚松森签署了一项具有里程碑意义的自由贸易协议,建立了世界上最大的自由贸易区之一。该协议将在10-15年内逐步取消两个集团之间90%以上的关税,旨在将目前的1110亿欧元(1288亿美元)贸易额扩大。 欧盟领导人称赞该协议为“地缘政治胜利”,能够促进经济增长与合作。预计这将促进欧盟汽车和葡萄酒等产品的出口,同时为南方共同市场提供进入欧盟市场销售农产品的机会。 然而,该协议也面临反对。几个欧盟国家(奥地利、法国、匈牙利、爱尔兰和波兰)投了反对票,欧洲农民担心来自南美廉价进口商品带来的竞争加剧以及潜在的森林砍伐。 该协议现在需要欧洲议会和南方共同市场成员国批准。尽管最初参与其中,巴西总统卢拉·达席尔瓦没有出席签字仪式。

欧盟与南方共同市场国家(阿根廷、巴西、巴拉圭和乌拉圭)签署了一项具有里程碑意义的自由贸易协议,引发了Hacker News上的讨论。虽然普遍受到欧洲人的欢迎,但评论员指出瑞士已经与中国和印度分别签署了协议——后者尤其有利可图。 讨论涉及中国贸易协议的性质,一位用户认为它们可能存在单方面性,成为金融活动的渠道。另一些人对前美国总统特朗普没有采取关税或威胁干预表示惊讶。 该协议仍需欧洲议会和南方共同市场立法机构批准,一位评论员建议延迟干预可能是一种战略优势。更广泛的期望是,未来全球能够实现自由贸易和和平繁荣。

## Consent-O-Matic:自动化Cookie横幅管理 Consent-O-Matic是由奥胡斯大学CAVI中心开发的一款浏览器扩展,用于自动管理网站Cookie同意横幅。这些横幅旨在让用户控制其数据,但往往重复且耗时,尤其是在频繁清除Cookie的情况下。 该扩展通过识别超过200个常见的同意管理平台(CMP),包括UserCentrics和CookieBot,并应用预设的用户偏好来简化此过程。它采用开源模式,允许社区贡献以保持与不断发展的横幅设计的兼容性。 Consent-O-Matic需要最少的权限:读取网页以检测横幅、存储用户设置以及访问标签页URL以进行启用/禁用控制。它通过获取规则列表并将问题报告给奥胡斯大学(通过匿名URL)来运行。用户还可以通过提交自定义规则列表或向GitHub仓库提交拉取请求来贡献。 该扩展利用复杂的检测器和方法(例如点击按钮或切换复选框)系统,这些系统定义在JSON规则列表中,用于与CMP交互,从而提供更高效、更轻松的浏览体验。

## 黑客新闻讨论:Consent-O-Matic & Cookie 横幅 最近黑客新闻上的一场讨论围绕着“Consent-O-Matic”展开,这是一个旨在自动拒绝 Cookie 同意弹出窗口中跟踪的项目。用户普遍对这些横幅感到沮丧,指出它们通常会请求同意收集超出简单 Cookie 使用范围的大量数据,并且很难真正选择退出。 许多评论者强调了仅仅删除 Cookie 的无效性,认为浏览器指纹识别是一种更普遍的跟踪方法。一些用户推荐了像“I Don’t Care About Cookies”和“Cookie Auto Decline”这样的浏览器扩展来自动处理这些横幅,但人们对某些扩展的所有权和潜在跟踪(例如 Avast 收购“I Don’t Care About Cookies”)表示担忧。 一个关键的争论点是欧盟的 GDPR 实施。一些人认为欧盟可以通过尊重浏览器“Do Not Track”标头来简化隐私,而另一些人指出,由于嵌入了第三方跟踪器,许多欧盟网站*仍然*显示 Cookie 横幅,即使它们不需要这样做。最终,用户寻求在保护隐私的同时最大限度地减少干扰的解决方案,许多人提倡为 Cookie 横幅设置浏览器级别的“不,谢谢”选项。

## GibRAM:RAG 的内存知识图谱 GibRAM 是一款内存知识图谱服务器,旨在增强检索增强生成 (RAG) 工作流程。它将实体、关系和文档块*以及*它们的向量嵌入直接存储在 RAM 中,从而实现更快速、更具关联性的上下文检索。 与传统的向量数据库不同,GibRAM 允许“图感知检索”——通过遍历实体之间的关系来发现仅靠语义相似性难以发现的相关信息。数据是短暂的,具有可配置的生命周期,使其非常适合短期分析和探索。 一个 Python SDK 简化了文档索引和查询,提供了一种“GraphRAG”风格的工作流程。用户可以轻松自定义组件,例如分块器、提取器和嵌入器。GibRAM 可以通过脚本、Docker 或 Docker Compose 轻松部署,默认在 6161 端口上运行。它是一个 MIT 许可的项目。

## GibRAM:一个内存中的图RAG运行时 一个名为GibRAM的新开源项目旨在简化基于图的检索增强生成(GraphRAG),用于对监管文件进行短期的分析。其创建者发现传统的RAG流程难以连接文档中的相关信息,而现有的GraphRAG设置由于分离的图存储和向量索引而过于复杂。 GibRAM通过将*所有内容*——实体、关系、文本和嵌入——保存在单个进程的内存中来解决这个问题。它被设计为短暂的;数据不会被保存,而是依赖于在会话结束时快速重新计算。这使其非常适合探索性任务,如摘要和对话查询,优先考虑速度而非持久性。 开发者承认这是一个带有技术债务的“氛围编码”实验项目,而不是生产数据库。他们正在寻求来自从事RAG、搜索或图检索工作的人们的反馈,以改进以内存为主要约束的GraphRAG概念。 项目GitHub地址:[https://github.com/gibram-io/gibram](https://github.com/gibram-io/gibram)

Iconify 是一个大型图标库,提供超过 **18万个免费图标**,来自 **200多个图标套装**。这些套装涵盖了广泛的类别,包括:编程、徽标、表情符号、国旗、主题设计等等。 图标套装采用多种许可协议,主要包括 **Apache 2.0、MIT 和 CC BY 4.0**,以及 Open Font License 和 BSD 等。流行的套装包括 **Material Symbols、Font Awesome、Phosphor 和 Fluent UI System Icons**,但该系列还扩展到许多小众和专业选项,如 **Web3 Icons、Health Icons 甚至 Weather Icons**。 Iconify 提供各种风格(轮廓、实心、双色)和尺寸(16px、24px、32px)的图标。它是设计师和开发者寻求免费、高质量图标用于其项目的综合资源。

Hacker News 新闻 | 过去 | 评论 | 提问 | 展示 | 招聘 | 提交 登录 Iconify: 开源图标库 (iconify.design) 25 分,sea-gold 发表于 1 小时前 | 隐藏 | 过去 | 收藏 | 4 条评论 FireInsight 发表于 19 分钟前 | 下一个 [–] https://icones.js.org/ 是一个不错的搜索这些图标的网站,个人观点。 ulrischa 发表于 3 分钟前 | 上一个 | 下一个 [–] 向所有 Hacker News 用户提问:最好的图标库是什么? vjay15 发表于 14 分钟前 | 上一个 | 下一个 [–] 非常有用,谢谢! sea-gold 发表于 1 小时前 | 上一个 [–] 之前的讨论: 2024 年 9 月 (4 条评论,17 分) : https://news.ycombinator.com/item?id=41615563 指南 | 常见问题 | 列表 | API | 安全 | 法律 | 申请 YC | 联系 搜索:

更多

联系我们 contact @ memedata.com