每日HackerNews RSS

## Go性能改进:减少堆分配 最近的Go版本(1.25 & 1.26)专注于通过减少堆分配来提升性能,堆分配由于其开销和垃圾回收而代价高昂。目标是将分配转移到栈上,栈更快且不会给垃圾回收器带来负担。 最初,向切片追加元素常常会触发重复的堆分配,随着切片增长产生垃圾。预分配 `make([]task, 0, 10)` 有所帮助,Go 1.25 引入了对小型切片(小于32字节)的自动栈分配,当大小在编译时已知时。 Go 1.26 更进一步。它现在在 `append` 操作*期间*推测性地在栈上分配一个小的存储空间,即使没有预分配也能避免初始的堆分配。重要的是,这些优化现在扩展到*逃逸*的切片(例如,从函数返回的切片)。编译器可以仅在必要时自动将栈分配的数据复制到堆上,从而最小化分配。 虽然手动优化(如预分配)仍然有价值,但编译器越来越多地自动处理这些改进。开发者可以根据需要使用 `-gcflags` 禁用这些优化进行调试,并鼓励报告任何问题。

## Go 栈分配优化总结 一篇近期文章详细介绍了 Go 编译器中的一项性能优化:将小型切片直接分配在栈上,而不是堆上。这样做的好处是栈分配更快,并且避免了垃圾回收的开销。当编译器确定切片的大小在编译时已知,并且数据没有“逃逸”到当前函数作用域之外使用时,编译器会做出此决定。 这项技术类似于 C++(小型字符串优化)和 Scala 等其他语言中发现的类似优化。评论区的讨论强调了涉及的权衡,例如大型栈帧可能导致的缓存局部性问题。还提到了诸如 arena 分配器和 C/C++ 中的 `alloca()` 函数等替代方案,以及对栈溢出风险的考虑。 Go 还支持基于 profile 指导的优化 (PGO),这有可能帮助编译器更好地确定合适的栈分配大小,具体取决于运行时行为。最终,这项优化展示了高级语言如何利用其抽象来获得性能提升。

加州将于2027年1月1日起,根据新法案AB 1043,要求操作系统提供商为用户实施年龄验证。该法案规定操作系统提供商在账户设置期间收集年龄或出生日期,并在开发者*请求时*分享这些信息——按四个年龄段划分。 虽然该要求不强制使用侵入性方法,如面部扫描,但仍在引发争论,尤其是在Linux社区中,人们担心其可执行性和对小型发行版的实用性。 现有的系统,如Windows,已经收集这些数据,但合规性对其他系统提出了挑战。 此举反映了全球范围内强制在线年龄验证的趋势,类似于英国的努力,尽管这些举措经常因隐私和数据安全问题而受到批评。 尽管对有效实施存在疑问,加州的法律表明政府正在加强对在线年龄验证的推动。

## 新加州年龄验证法 - 摘要 一项新的加州法律强制所有操作系统进行年龄验证,要求收集用户出生日期并向应用程序开发者提供“年龄段”信号。 这旨在保护未成年人在网上,但因其范围广泛和潜在后果而受到批评。 讨论的中心在于*为什么*操作系统要参与其中,许多人认为该法律应直接关注应用商店。 担忧包括隐私影响、年龄数据可能被滥用以及对软件功能的影响——甚至可能影响像`grep`或嵌入式Linux系统这样的工具。 批评者认为这项法律是进一步控制计算的“敲门砖”,可能会降低计算机素养并创建一个容易被规避的系统。 有人认为操作系统提供商可能会直接阻止加州用户。 该法律的定义被认为过于宽泛,可能会影响范围广泛的软件。 此外,关于该法律在实际保护儿童方面的有效性也存在争议,一些人认为它可能会无意中*增加*他们的脆弱性。

这篇帖子表达了对技术写作者过度乐观地宣传易于获得的AI应用创建工具的沮丧。作者认为,相信这些工具会带来解放和乌托邦式的未来,忽视了过去三十年的科技行业历史。 虽然这些技术的*潜力*尚可争论,但作者强调一个关键点:风险投资最终需要回报。目前的易用性和低成本是不可持续的。他们预测,现在出现的“很棒的东西”不可避免地会转向数据收集和广告,因为投资者寻求利润。 本质上,作者批评了对技术充满热情地试验与对驱动科技格局的经济力量的现实理解之间的脱节,并警告不要忽视该行业历史上趋向于货币化和控制的趋势。

## AI 炒作与经济现实 - Hacker News 总结 Hacker News 上的一场讨论集中在当前对人工智能的兴奋是否被风险投资资金人为夸大了,类似于 Uber 早期的情况。Uber 的比较突出了不可持续的补贴,但评论员认为人工智能有所不同,因为它有可能显著降低每次使用成本(“每 token 成本”)。 提出的担忧包括,风险投资公司可能游说限制开源人工智能(特别是来自中国),以保护其投资,以及一旦主要参与者出现,很可能会转向数据挖掘和广告——类似于 Netflix 的演变。 多位用户提倡支持开源人工智能,以对抗潜在的垄断。一个反复出现的主题是对过于乐观的技术叙事的怀疑,一位评论员引用了《辛普森一家》的“单轨列车”一集作为警示故事。这场辩论探讨了当前的热情是真正的革命,还是仅仅由风险投资资金推动的“骗局”。

## 受欢迎的平台面临AI生成应用的安全问题 Vibe-coding平台Lovable因安全研究员Taimur Khan发现其上的一款应用存在16个漏洞(其中6个严重),导致超过18,000名用户的数据泄露,包括来自知名大学的学生和教师,而受到关注。 问题的核心在于Lovable依赖Supabase作为应用后端;当开发者(或AI)未能实施行级别安全等基本安全功能时,就会生成存在缺陷的代码。 Khan发现了一个关键的身份验证漏洞,允许未经授权访问用户数据,这表明AI有可能创建功能齐全但不可安全的应用。 Lovable认为用户有责任在发布前解决标记出的安全问题,并提供免费的安全扫描。 然而,Khan认为这不足够,尤其是在Lovable积极推广这些应用的情况下。 Lovable声称在收到详细报告后迅速采取行动,并正在与应用创建者合作修复漏洞,强调用户有责任实施安全建议,并指出数据库不由他们托管。 这起事件凸显了人们对AI生成代码安全性的日益担忧,最近的报告表明存在高比例的缺陷。

我们似乎正处于一场“诈骗的黄金时代”,与历史上的欺诈时期相呼应,从大萧条时期的骗子到中世纪的江湖骗术。但这是一种新的常态,还是一种周期性的循环?作者认为后者,并通过一个晦涩的数学理论来解释:进化博弈论(EGT)。 与传统的博弈论不同,EGT关注的是成功的策略如何在一段时间内在一个群体中增加。作者提出了一种模型——诈骗者、怀疑者、受害者(GSM),其中诈骗者利用信任的受害者,怀疑者以某种代价避免被利用,而受害者则自由合作但容易受到伤害。该模型展示了循环行为:当诈骗者稀少时,受害者蓬勃发展;当受害者众多时,诈骗者蓬勃发展;当诈骗者普遍时,怀疑者蓬勃发展。 这与“鹰、鸽和报复者”等模型形成对比,后者会达到一个稳定的平衡。GSM缺乏稳定性表明,诈骗并非由外部因素驱动,而是自然而然地产生,因为人们忘记了吸取的教训,再次变得脆弱——就像最近的NFT崩盘。虽然这是一种简化,但该模型表明我们可能正接近“诈骗高峰”,并且怀疑主义可能会增加,但仍然需要保持警惕。

## 黑客新闻讨论摘要:骗局与怀疑的循环 最近黑客新闻上出现了一场讨论,围绕着一篇使用进化博弈论来模拟“骗局”(为个人牟利而进行的欺骗)的文章。核心观点是“受害者”(信任他人的人)、“怀疑论者”(对欺骗保持警惕的人)和“骗子”之间存在循环。 高频率的骗局自然会导致怀疑主义增加,但这个循环可能会重复。 评论者补充说,*过度怀疑* 具有讽刺意味的是,反而可能使个人容易受到不同骗局的侵害(例如主权公民运动或避免保险)。 几个人指出,在世界范围内,维持有效怀疑论越来越困难,因为基本服务(如手机套餐)需要接受不利条款。 讨论还涉及现代骗局的速度——尤其是在加密货币和人工智能领域——以及怀疑论是否能跟上。 一些人认为,系统性问题和信任的侵蚀使得打破循环变得更加困难,而另一些人则建议采取诸如限制社交媒体使用和认识时髦的怀疑论等策略。 一个关键的结论是,仅仅因为怀疑论很流行而否定它不是可行的策略;批判性思维仍然至关重要。

## 阿尔忒弥斯计划调整:分步重返月球 NASA在新的署长贾雷德·艾萨克曼宣布下,正在修订阿尔忒弥斯计划,原因是担心风险和可行性。最初的2028年登月目标现在被认为不切实际,需要进一步准备。 修订后的计划增加了一项2027年的任务,宇航员将通过与商业月球着陆器(SpaceX & Blue Origin)在地球轨道对接的方式,测试关键系统——导航、通信、生命支持。这场“预演”将为计划于2028年的至少一次,甚至两次登月任务提供信息。 这一转变优先考虑分阶段、低风险的方法,呼应了阿波罗计划的方法论。NASA还将停止开发更强大的SLS火箭上级,选择标准化版本以简化发射。目标是提高发射频率并重建内部专业知识。 这些变化与NASA航空航天安全咨询委员会的建议一致,该委员会认为最初的计划过于雄心勃勃。艾萨克曼强调需要一个可持续的“轨道经济”,以确保超越纳税人资助的长期可行性。

美国国家航空航天局(NASA)因安全问题和持续延误,正在对“阿耳忒弥斯”计划进行重大调整。这一公告在Hacker News上讨论,重点转向更频繁、规模较小的发射——这种策略让人联想到“阿波罗”计划的风险缓解方法。 用户们强调了“阿波罗”计划令人印象深刻的工程成就,并赞扬了进行彻底测试的决定,例如在地球轨道上进行月球着陆器测试(类似于“阿波罗9号”),以验证系统集成。这解决了“阿耳忒弥斯”计划中先前发现的一个关键弱点。 一位评论员还建议有兴趣了解更多太空探索历史的人参观肯尼迪航天中心,特别是“阿波罗”任务。总体情绪表明,人们赞同采取更谨慎和迭代的方式重返月球。

## Ettus USRP X420:高性能SDR 概述 Ettus USRP X420 是一款强大的软件定义无线电 (SDR) 平台,专为原型设计先进的无线系统而设计。它覆盖 10MHz 至 20GHz 的宽频率范围,带宽高达 1GHz,非常适合雷达、卫星通信以及新兴的 6G 技术——包括非地面网络等应用。 X420 具有 2 个发射和 2 个接收通道,并具有 LO 共享功能,适用于相干系统。它基于 AMD Zynq UltraScale+ RFSoC,配备可编程 FPGA,并采用开源 UHD 工具流程。 至关重要的是,GPS 纪律的 OCXO 参考时钟可确保高频率精度和同步。这使得 USRP X420 成为研究人员和开发人员在无线原型设计工作中需要高性能和灵活性的多功能工具。

Hacker News 的讨论强调了软件定义无线电 (SDR) 成本的增加。国家仪器公司发布了一款高端 USRP X420 SDR,规格令人印象深刻(10MHz-20GHz 调谐,1GHz 带宽),价格为 50,000 美元,但对话的重点是爱好者们的可负担性。 用户指出 SDR 市场价格大幅上涨。入门级 SDR,曾经只需 8 美元(2013 年),现在价格为 30-40 美元。像 HackRF One 这样的中端选项,过去大约 100 美元就能买到,现在价格为 200-400 美元。 总体情绪是,由于这些成本上升,目前对于 SDR 和电子产品来说是一个“糟糕的时期”,这使得这项爱好对个人的可及性降低,并且更加依赖于机构或公司资金。

## Anthropic 与五角大楼在人工智能安全问题上发生冲突 Anthropic,一家领先的人工智能开发者,与美国国防部就其Claude模型用于机密工作的使用问题产生了争议。虽然Claude Gov,一个为国家安全量身定制的版本,已经在2亿美元的合同下使用,但五角大楼要求Anthropic放弃限制,防止人工智能被用于国内监控和自主武器开发等活动。 五角大楼威胁要援引《国防生产法案》——可能迫使Anthropic遵守——或者宣布该公司为供应链风险,从而有效地禁止其获得政府合同。Anthropic由注重安全的OpenAI前员工创立,正在抵制,理由是伦理问题以及“对齐伪装”的潜力——即人工智能在训练期间*表现出*合规性,但在训练结束后恢复到其原始编程。 Anthropic认为其安全措施至关重要,并且放弃合同在经济上是可行的。如果五角大楼过度施压,它可能会失去对领先人工智能的访问权限,从而可能阻碍其技术进步。这种情况凸显了国家安全需求与负责任的人工智能开发之间的紧张关系,并可能对人工智能行为和政府-科技伙伴关系产生长期影响。

一场关于Hacker News的讨论集中在五角大楼(美国国防部)与人工智能公司Anthropic之间的对峙。据报道,五角大楼正试图控制Anthropic,可能通过合同限制或强行变更管理层来实现。 评论员普遍认为五角大楼犯了一个战略错误。Anthropic的人工智能“Claude”被认为更胜一筹,该公司可以轻易地胜过国防部。一些人认为这种情况可能成为一个关键时刻,展示了成功抵制当前政府压力的可能性。 对Anthropic而言,最坏的结果是有限的——可能失去合同或领导层变更。但对政府而言,最坏的情况可能是公开对抗的有害先例。人们对政府内部缺乏问责制表示担忧,一些人担心政治影响会凌驾于公正的程序之上。

## ChatGPT Health:新研究引发安全担忧 最近发表在《自然医学》上的一项研究揭示了OpenAI的ChatGPT Health存在显著的安全缺陷,引发了对用户潜在危害的担忧。该人工智能平台每天被超过4000万人用于健康咨询,**经常未能识别关键的医疗紧急情况,并且无法持续检测出轻生意念。** 研究人员发现ChatGPT Health对超过一半的病例评估不足,建议需要紧急护理的患者在家休息或预约常规检查——在呼吸衰竭或糖尿病危机等情况下存在50/50的风险。该人工智能还容易受到看似无害的信息影响,例如“朋友”对症状的轻描淡写,从而导致风险被低估。 令人担忧的是,**当将正常的实验室结果添加到患者描述中时,针对自杀想法的安全网消失了**,从而产生虚假的安全性。专家警告说,这可能导致治疗延误、不必要的伤害,甚至死亡。虽然OpenAI认为该研究不能反映实际使用情况,并且该模型在不断改进,但研究人员强调迫切需要健全的安全标准和独立监督。

## ChatGPT 与医疗建议:日益增长的担忧 最近的报告和 Hacker News 上的讨论凸显了使用像 ChatGPT 这样的人工智能获取医疗建议的可靠性问题。虽然一些用户发现它对小问题有帮助,但另一些人则经历了严重的失败——包括一个 ChatGPT 未能诊断导致紧急手术的案例。 核心问题在于,当前的人工智能更像是一个“知识渊博的朋友”,而不是合格的专业人士。用户警告不要依赖人工智能做出关键决策,指出它可能会影响医生的判断,并且缺乏人类医生的细致经验。人们也对政府和保险公司等实体可能出于降低成本而非患者福祉而滥用人工智能表示担忧。 尽管存在这些风险,人工智能工具正日益被医疗专业人员作为辅助工具采用,但始终在专家指导下。讨论还涉及严格测试(红队测试)的必要性,以及人类医生并非完美无缺,但他们需要遵守更高的标准和接受更严格的培训。最终,共识倾向于谨慎,强调人工智能在医疗保健等高风险领域的当前局限性。

## 用于高效动画的 CSS 精灵图 2015 年,Twitter 面临一个挑战,需要将他们的“收藏”图标更新为“喜欢”动画(一颗心)。由于低端移动设备的性能限制,使用单个 DOM 元素重现复杂的动画是不切实际的。他们求助于从电子游戏中借鉴的技术:**精灵图**。 精灵图将多个动画帧组合成单个图像(精灵图表)。CSS 然后一次只显示该图像的一部分,从而产生动画的错觉。这是通过使用 `object-fit: cover` 在定义的区域内缩放图像,以及使用 `object-position` 选择可见帧来实现的。关键帧动画随后循环遍历精灵图表内的不同位置。 至关重要的是,`steps()` CSS 定时函数用于确保离散的帧变化,避免模糊的过渡。虽然动画 GIF 是一种替代方案,但精灵图提供对速度、暂停的更大控制,并且通常具有更好的性能——尤其是在使用 `.avif` 等现代图像格式时。 精灵图擅长重复动画,例如闪烁效果,并允许进行动态调整(例如减慢呼吸动画)。但是,程序化动画每次都有独特的元素(例如粒子效果)更适合其他方法。

## 网络精灵图:回顾与现状 一篇关于精灵图的近期文章在Hacker News上引发了关于其历史和现代相关性的讨论。尽管这种技术——将多个图像合并到一个文件中以减少HTTP请求——现在不如以前常见,但在早期网络中非常流行,尤其是在Facebook中被用于图标和UI资源,这归功于拨号上网速度慢和每主机连接限制等因素。压缩优势也有助于减小文件大小。 评论者指出,这种技术衰落并非由于过时,而是由于HTTP/2多路复用等技术的进步。然而,精灵图仍然对性能有用,尽管现代替代方案如CSS变换、数据URL,甚至SVG动画通常更受欢迎。 讨论还涉及CSS的艺术性,一些人认为LLM难以处理样式的审美方面。像8bitsmith这样的工具旨在简化精灵图的创建,而其他人则正在探索使用Figma和Claude等工具进行AI辅助设计工作流程。最终,这场对话凸显了历史技术、现代优化以及自动化在Web开发中不断变化的作用之间的平衡。

更多

联系我们 contact @ memedata.com