每日HackerNews RSS

## 吉米·亨德里克斯:超越神话,一位系统工程师 吉米·亨德里克斯突破性的声音,尤其是在像“紫雾”(Purple Haze,录制于1967年2月3日)这样的曲目中,并非仅仅是天生的才华,而是创新工程的结果。他利用独特的模拟信号链——包括定制的Octavia踏板以及Fuzz、Wah和Uni-Vibe效果——将电吉他转变为多功能的“波形合成器”。 最初对他的声音的反应非常新颖,工程师们会随录音发送便条,澄清有意的失真并非故障。最近的一项分析,通过电路模拟,旨在揭穿“亨德里克斯是外星人”的说法,并用可重现的、以工程为中心的理解来取代它。 这项研究揭示了每个组件如何发挥作用——从Fuzz Face的信号整形到Octavia的八度加倍,再到Wah的类似人声的音色——从而增强了吉他的自然局限性。至关重要的是,亨德里克斯利用了放大器、房间声学和他的身体动作之间的反馈回路,本质上*调整*了不稳定性以产生表现力丰富的效果。他与罗杰·梅耶和埃迪·克莱默等工程师合作,像一位系统工程师一样快速迭代,以最大限度地发挥乐器的潜力。这项分析表明,亨德里克斯不仅仅是一位音乐家,更是一位声音操控的先驱。

## 吉米·亨德里克斯:工程师与艺术家 一篇《IEEE Spectrum》的文章通过工程学的视角探讨了吉米·亨德里克斯突破性的吉他音效,认为他的创新不仅仅是艺术天赋,更是对反馈和信号处理的精妙操控。亨德里克斯并非*解决*了一个工程问题,而是*利用*了高增益放大的混沌潜力,将失控的反馈转化为他音乐中可控、富有表现力的元素——以他对《星条旗永不落》的标志性演绎为例。 文章详细介绍了亨德里克斯如何直观地理解阻抗和谐波失真等概念,通过他的设备设置和演奏风格实现独特的音效。评论员们讨论了他的实验,可能是在模仿卡通和喷气机的声音,以及真空管放大器在创造动态、复杂的音色方面的重要性。 讨论还涉及艺术与工程之间的更广泛关系,质疑现代音乐家是否正在失去对基本技术理解的联系,并争论工具与直觉在创造性表达中的作用。最终,这篇文章强调亨德里克斯是一个独特的人物,他模糊了艺术家和工程师之间的界限,拓展了电吉他的可能性。

arXivLabs是一个框架,允许合作者直接在我们的网站上开发和分享新的arXiv功能。个人和与arXivLabs合作的组织都认同并接受我们开放、社群、卓越和用户数据隐私的价值观。arXiv致力于这些价值观,并且只与秉持这些价值观的合作伙伴合作。您是否有为arXiv社群增加价值的项目想法?了解更多关于arXivLabs的信息。

黑客新闻 新 | 过去 | 评论 | 提问 | 展示 | 招聘 | 提交 登录 自适应合并回收LoRA的吸引力与现实 (arxiv.org) 14点 由 PaulHoule 1天前 | 隐藏 | 过去 | 收藏 | 1评论 帮助 whynotmaybe 1天前 [–] 好的,所以今天才知道LoRa和LoRA是完全不同的东西,一个是无线通信协议,另一个是“使机器学习模型适应新环境”的技术。 指南 | 常见问题 | 列表 | API | 安全 | 法律 | 申请YC | 联系 搜索:

## Attyx:用Zig语言编写的确定性终端模拟器 Attyx是一个用Zig编程语言从头开始构建的终端模拟器,优先考虑正确性和清晰性。其核心是一个确定性的状态机——这意味着相同的输入*始终*产生相同的输出——这无需依赖传统的终端组件,如PTY或窗口系统来实现。 其架构清晰地分离了解析、状态管理和渲染。输入通过解析器处理,触发修改终端状态并更新网格显示的动作。Attyx支持广泛的VT功能,包括SGR颜色、超链接、鼠标报告和带括号的粘贴。 目前,Attyx具有GPU加速渲染(macOS上的Metal,Linux上的OpenGL)和一个功能性的PTY桥接,用于shell交互。配置通过TOML文件和CLI参数处理,并具有强大的测试套件,利用黄金快照比较。开发遵循基于里程碑的方法,许多核心功能已经实现并积极维护。Attyx的设计具有可扩展性,并正在为通过会话事件日志进行AI集成做准备。

## Attyx:一种新的GPU加速终端模拟器 Attyx是一种用Zig编写的新型、快速终端模拟器,最近在Hacker News上分享。它目前还处于非常早期的原型阶段——初始提交仅三日前,目前支持macOS(使用Metal)和Linux(使用OpenGL),有意跳过Windows以简化初始阶段。 开发者nicholasrq解释说,GPU加速旨在提供“更流畅的体验”并防止性能下降,尤其是在动态终端用户界面(TUI),例如`btop`。它通过将字符栅化到纹理图集中以实现快速渲染,而不是完全依赖CPU处理。所有终端内部都使用PTY。 讨论集中在GPU加速的好处(一些人质疑在现有加速的情况下是否有必要)、项目的早期阶段和需要清理以及与其他终端模拟器(如ghostty,开发者否认)的潜在相似性上。开发者正在寻求对该项目的反馈。

最近一项实验调查了Anthropic的Claude语言模型在被要求“随机选择一个名字”时的随机性。研究人员在五个模型和多种提示变体下生成了超过37,500个名字选择。令人惊讶的是,“Marcus”是最常被选择的男性名字,出现频率为23.6%。 该研究表明,缺乏真正的随机性;Opus 4.5在简单的提示下始终选择“Marcus”,表现出确定性行为。虽然更复杂的提示增加了名字的多样性,但也引入了新的偏差。使用随机词作为种子比随机噪声更能有效提高多样性。 完整的数据集和分析,包括成本明细(总计27.58美元),已公开提供,以便进一步研究语言模型偏差以及在生成真正随机输出方面的局限性。实验的复制代码也已提供。

## LLM 与“随机性”:马库斯案例 一位用户要求 Claude 生成 37,500 个随机名称,结果发现 AI 反复输出“马库斯”。这凸显了大型语言模型 (LLM) 的一个关键局限性:它们并不能真正生成随机性。相反,它们根据训练数据预测最可能的下一个词元。像温度这样的“随机性”设置只是调整概率分布,而不是创造真正的不可预测性。 讨论表明,LLM 在均匀采样方面存在困难,导致结果出现偏差。如果需要真正的随机性,应使用外部来源。进一步的测试显示,其他 LLM(Gemini、Grok)甚至在生成随机数等简单任务中也存在类似偏差,通常偏爱 '7'。 许多评论员指出,提示缓存和来自人类反馈的强化学习 (RLHF) 等因素会导致这些偏差。这一问题引发了对现有笑话和模仿可预测行为的比较,并强调 LLM 是强大的预测器,不一定是可靠的随机生成器。最终,这一事件表明了 LLM *表现* 方式与其底层机制之间的根本差异。

启用 JavaScript 和 Cookie 以继续。

## 消失的精通用户 一项关键技能正在消失:真正*理解*我们所使用技术的的能力。 曾经很常见,但快速掌握系统运作方式、调试问题和阅读错误信息的能力正在衰退,取而代之的是被动消费。 这并非偶然; 过去二十年来,科技巨头故意设计了这种转变,将用户定位为依赖于封闭、受控平台的消费者。 如今的一代人通常缺乏基本的计算知识——不了解文件系统,无法执行基本任务,例如连接到服务器或理解网络基础知识。 这也延伸到开发者,他们越来越依赖于抽象,而缺乏对底层机制的理解。 智能手机,尤其是 iOS 和 Android,加速了这一趋势,优先考虑精心策划的体验而非用户控制。 虽然提供了便利,但它们培养了对平台的依赖,这些平台限制了修改并优先考虑供应商控制。 这种损失不仅仅是关于个人技能; 而是关于失去审计、适应和追究平台责任的能力。 技术能力下降会削弱我们的韧性并扼杀创新。 夺回这些失落的知识需要个人努力——主动学习工具的工作原理,拥抱开放协议,并抵制纯粹管理体验的吸引力——即使行业正在积极阻止这样做。

## 权力用户的衰落 - 摘要 一篇最近的博客文章和随后的Hacker News讨论哀叹着精通技术的计算机用户数量的减少。核心论点是,现代软件优先考虑易用性和抽象化,屏蔽用户对事物运作方式的理解——从DNS和SSH等基本网络概念到基本的系统操作。这造成了对不透明系统的依赖和实践知识的丧失。 评论者争论这是否是真正的损失或自然演变。一些人同意,指出日益增长的复杂性和“人为依赖”,用户被锁定在生态系统中。另一些人认为,高级技能*一直*是小众的,服务于普通用户更有利可图且更有益。 一个关键点是向商品化IT的转变,了解底层机制对于基本功能来说是不必要的,就像驾驶汽车一样。然而,这种依赖性可能会在需要专业知识时产生漏洞并增加成本。讨论还涉及人工智能的作用、复杂的软件架构以及苹果等平台在促进这一趋势中的作用。最终,争论的中心在于,简化技术是赋予用户权力还是降低了他们的理解和控制力。

这段代码演示了 Chatterjee-Xi 相关性的使用,这是一种衡量两个变量之间关联性的指标,尤其适用于标准相关性方法不太适用时。 示例首先生成完全相关的数据 (y = sin(x)),并显示 Xi 统计量接近 1.0,p 值非常低,表明存在强关联。向 'y' 引入噪声可预测地*降低*了该统计量。代码还确认,当 'y' 是连续变量时,指定 `y_continuous=True` 不会改变结果。 最后,脚本解决了 'x' 变量中存在并列值的问题。它表明并列值会影响统计量,并建议随机打破并列值,或者对多个随机打破并列值的场景取平均结果以获得更稳健的估计——尽管后者可能计算成本较高。代码说明了这两种方法。

Hacker News 新闻 | 过去 | 评论 | 提问 | 展示 | 招聘 | 提交 登录 Scipy.stats. Chatterjeexi (scipy.org) 33 分,来自 kamaraju 1 天前 | 隐藏 | 过去 | 收藏 | 2 条评论 帮助 simlevesque 1 天前 [–] 论文:https://arxiv.org/abs/1909.10140 canjobear 1 天前 | 父评论 [–] 之前的讨论:https://news.ycombinator.com/item?id=29687613 回复 指南 | 常见问题 | 列表 | API | 安全 | 法律 | 申请 YC | 联系 搜索:

## gotreesitter:纯Go Tree-sitter 运行时 gotreesitter 是 Tree-sitter 解析库的纯 Go 重新实现,消除了对 CGo 和 C 工具链的需求。这使得交叉编译(包括 WASM)成为可能,简化了 CI/CD,并提高了与 Go 工具(竞态检测器、模糊测试)的兼容性。它与现有的 Tree-sitter 语法完全兼容,无需重新编译。 性能是一项关键优势:增量编辑,对于编辑器和语言服务器至关重要,比标准的 CGo 绑定快高达 **90 倍**。这是通过积极的子树重用和自定义内存池分配器来实现的。 该库支持 Tree-sitter 的查询语言、高亮显示和标记功能。它包含用于管理语法 blob(嵌入式、外部或缓存)的工具,并提供内存使用量的配置选项。目前支持 205 种语言,gotreesitter 正在积极开发中,持续努力提高查询引擎的兼容性和鲁棒性。它可以通过 `go get github.com/odvcencio/gotreesitter` 获取。

## Tree-sitter 移植到 Go:摘要 一名开发者将 Tree-sitter 解析库移植到 Go,旨在消除 CGO 依赖,并实现更广泛的应用,尤其是在基于 Go 的工具中。该项目源于对 TUI 编辑器的需求,并扩展到包含一套语义代码分析工具(“gts-suite”)和一个名为“Got”的新版本控制系统。 “Got” 旨在成为一个结构化 VCS,专注于实体感知差异和历史跟踪,以改进并发编辑。然而,该名称已被另一个项目占用,促使开发者征求建议。 该移植在性能方面获得了显著提升(在 Go 源代码上快 90 倍),并生成相对较小的二进制文件(所有语言的二进制文件大小为 15MB)。该项目吸引了正在开发 Bazel、Git 仓库(Gitea、Forgejo)和替代版本控制系统等工具的开发者的关注,其中一些人对依赖 AI 生成的代码表示担忧,并强调需要进行彻底审查。开发者承认了 AI 方面的担忧,并强调了个人代码审查的重要性。

## Om 语言概要 Om 是一种新的、极简的、连接性的和自指的编程语言,专为算法表示而设计。它优先考虑简洁性——任何有效的 UTF-8 文本都是有效的 Om 程序——并作为 C++ 库实现。目前,Om 仍处于“概念验证”阶段,缺乏许多基本功能,如数字和文件操作,但已发布以鼓励社区开发。 主要特性包括前缀表示法,旨在通过单次解析和优化的内存使用来实现高效评估。Om 利用独特的“全形态”类型系统,其中所有数据都表示为操作数,允许操作通过通用接口查询数据。 开发涉及使用 CMake 从源代码构建,需要 ICU4C 和 Boost 等依赖项。解释器接受 UTF-8 区域设置输入,并从标准输入处理程序到标准输出。欢迎通过 GitHub 贡献,重点是添加操作和扩展程序类型。虽然处于早期阶段,但 Om 旨在成为一种灵活而强大的语言,用于表达算法。

## Om 编程语言 - 摘要 Om 编程语言最近在 Hacker News 上被介绍,是一种新颖的、连接性的、同像的语言,旨在实现最大的简洁性。它被呈现为一个“概念验证”,探索替代编程范式,而不是一个可以直接使用的工具。 讨论的中心是网站的呈现方式——特别是缺乏立即可见的代码示例。许多评论者认为语法应该“在首屏可见”以便快速吸引潜在用户。其他人则争论了在人工智能驱动的代码生成取得进展的情况下,新语言的相关性,一些人认为大型语言模型可能会使传统语言过时。有趣的是,一位用户报告称 Claude(一种大型语言模型)表达了对一种类似于 Forth 且添加了静态类型等功能的语言的渴望。 Om 的设计强调可组合性和递归性,与 Forth 和 Tcl 进行了比较。该语言独特地将操作流与堆栈统一起来。虽然仍处于早期开发阶段,但创建者欢迎贡献,并旨在展示编程中的新概念。

## Anthropic 与五角大楼:摘要 Anthropic(一家专注于人工智能安全的的公司)与五角大楼之间就人工智能服务合同产生争议。最初,合同规定五角大楼必须遵守 Anthropic 的使用政策。然而,五角大楼寻求重新谈判,要求“不受限制的访问”用于“所有合法目的”,从而有效地取消了这些限制。 Anthropic 拒绝了这一要求,除非能保证其人工智能不会被用于对美国公民进行大规模监控或自主武器系统(“杀手机器人”)。五角大楼的回应包括威胁,例如取消合同、援引《国防生产法》,或——最具争议的是——将 Anthropic 指定为“供应链风险”,从而有效地扼杀其业务。后一种威胁,通常保留给外国对手,被视为前所未有的越权行为。 核心问题在于五角大楼对不受限制的人工智能访问的需求与 Anthropic 对负责任的人工智能开发和公民自由的承诺之间的冲突。人工智能社区的许多人,包括 OpenAI 和 Google 等竞争对手,都在支持 Anthropic,担心这会为政府控制和扼杀创新树立危险的先例。这种情况凸显了滥用权力的可能性以及在人工智能部署中伦理考量的重要性。

## 五角大楼 vs. Anthropic:摘要 五角大楼正在施压人工智能公司Anthropic修改其Claude AI模型,可能移除安全限制,甚至重新训练用于军事应用。 这源于一份合同纠纷,五角大楼威胁利用《国防生产法》——并可能将Anthropic列为“供应链风险”——以迫使其遵守。 冲突的核心在于Anthropic不愿允许政府无限制地访问一个设计了安全防护机制的模型。 一些人推测五角大楼希望使用Claude进行大规模监控或自主武器系统。 讨论的重点在于五角大楼施压的方式(公开威胁与私下谈判),所要求修改是否构成超出原始合同范围的“新产品”,以及潜在地牺牲安全以换取军事优势的伦理影响。 许多评论员对政府过度干预以及由此设定的先例表示担忧,而另一些人则质疑Anthropic最初决定与军方合作的决定,鉴于其自身宣称的价值观。 有人建议五角大楼转向其他人工智能供应商,而另一些人则担心政府对关键技术的控制将成为一种更广泛的趋势。

更多

联系我们 contact @ memedata.com