每日HackerNews RSS

Anker 发布了“Thus”,这是一款专为小型设备(如耳机、移动配件和物联网设备)设计的突破性人工智能处理器。这款创新芯片采用“存储计算”设计,与传统人工智能芯片相比,大大减小了尺寸和功耗。 与当前技术不断在存储和处理单元之间移动数据不同,Thus 在人工智能模型存储的地方执行计算,从而提高效率并实现更复杂的人工智能功能。 Anker 的首次应用将体现在其即将推出的旗舰 Soundcore 耳机中,解决在空间受限的设备中集成人工智能的难题。Thus 芯片将驱动先进的降噪功能,结合更大的神经网络、八个麦克风和骨传导传感器,即使在嘈杂的环境中也能提供更清晰的通话音质。 Liberty 5 Pro Max 和 Liberty 5 Pro 耳机,售价分别为 229.99 美元和 169.99 美元,预计将率先采用该技术,完整细节将于 5 月 21 日揭晓。

## 变价回归:从价签到监控 几个世纪以来,零售价格通过讨价还价确定。1870年代,约翰·瓦纳梅克的宏伟商场作为最早引入固定价签的百货公司之一,改变了这一模式,提高了市场效率。然而,随着数据收集和在线购物的兴起,这种透明度正在被侵蚀。 如今,企业利用大量的个人数据——购买历史、位置、人口统计数据——实施“监控定价”,对相同的商品或服务收取不同的价格。例如,Ticketmaster的动态定价、Uber的 surge pricing,以及基于浏览数据的定向优惠。这并非个性化,而是*最大化*消费者剩余的提取。 最近的监管尝试,例如纽约州的算法定价披露法案,要求披露数据驱动的定价,被认为是不够的。真正的保护需要执法,正如联邦法案中提出的禁止监控定价和赋能消费者的建议。然而,这些法案面临障碍,包括潜在的宪法第一修正案挑战,源于将数据收集等同于受保护言论的判决。 最终,解决监控定价问题需要解决数据剥削和信息不对称的根本问题,而不仅仅是强制透明度,以防止未来消费者因其数字档案而被系统性地高价收费。

对不起。

## Claude Mythos 预览访问:摘要 Anthropic 强大的 Claude Mythos 预览模型的访问权限高度限制,主要集中在美国的基础设施、安全、金融和政府机构。最近的泄露事件显示,一小群人通过第三方供应商获得了未经授权的访问,但 Anthropic 坚称核心系统不受影响。 目前,已有 12 家已命名的合作伙伴确认获得访问权限,以及 40 多家未公开的组织——包括第二批关键基础设施建设者。据报道,美国国家安全局 (NSA) 拥有访问权限,而五角大楼则被法律禁止访问,这凸显了美国政府内部的分歧。 全球范围内,监管机构正在积极响应,澳大利亚、欧洲和亚太地区的机构正在监测相关的网络风险。访问权限似乎与“五眼联盟”情报成员国(美国、英国、澳大利亚)保持一致,欧盟和中国因美国出口管制而被明显排除。此访问追踪器详细记录了已确认、报告和被阻止的访问点,提供了一份关于这项敏感人工智能技术分布的持续更新记录。

对不起。

一种名为“tokenmaxxing”的新趋势正在科技创业界兴起,即首席执行官吹嘘在人工智能计算能力(如Claude和ChatGPT)上的花费超过员工工资。这被视为一种身份象征和增长的衡量标准,一些初创公司的每月人工智能账单高达数万美元。 其理念是通过最少的人员实现快速扩张——通过自动化传统上由人类完成的任务,以极少的员工实现高收入。Swan AI和Medvi等公司是这方面的例子,它们的目标是利用高度依赖人工智能的小团队获得可观的收入。 然而,这种对人工智能支出的关注正面临一些质疑。人们越来越担心其真正价值、财务可持续性以及可能需要昂贵的人工干预来纠正错误(“workslop”)。虽然人工智能公司通常处于亏损状态,并得到投资者的补贴,但这种模式的长期可行性仍然不确定。尽管存在这些问题,越来越多的企业家正在优先“雇用”人工智能而不是人,希望建立高度自动化、 “自主”的公司。

## AI 支出与炒作周期疑虑 Swan AI 首席执行官 Amos Bar-Joseph 近期在 LinkedIn 上的一篇帖子,炫耀其在 AI 工具上的支出超过了人力员工,引发了 Hacker News 的讨论。许多评论员认为这是一个令人担忧的趋势,由 AI 炒作推动,可能是一种试图给投资者留下深刻印象的误导性尝试。 核心批评在于,仅仅*花费*在 AI 上并不等同于生产力或成功。一些用户将其比作浪费性支出——例如,一家运输公司吹嘘其燃油消耗量——并指出可量化的指标很容易被操纵。人们对过度依赖第三方 AI 服务表示担忧,这可能会外包核心能力并造成漏洞。 许多人将其与 2021 年的加密货币/NFT 狂潮相提并论,同样的参与者在推动叙事并利用炒作来获取经济利益。一些人担心这种趋势预示着劳动力的贬值以及未来由资本所有者主导,可能导致社会动荡。另一些人质疑对这一趋势的报道的记者诚信,认为某些来源存在明显的反技术偏见。最终,这场讨论凸显了人们对当前 AI 热潮的怀疑,以及对投资未能转化为实际价值的担忧。

这篇内容反思了人工智能,特别是大型语言模型(LLM)对软件开发以及更广泛领域的影响。最近与肯特·贝克的一次讨论强调了人工智能可能由于缺乏“懒惰”而导致创建更大、效率更低的系统——“懒惰”是程序员的核心美德,定义为努力寻找优雅、简单的解决方案以节省精力。 作者认为,人类的懒惰推动了有价值的抽象和优化,而LLM本身并不具备这些品质,因为对它们来说,“工作”没有成本。这有可能导致代码膨胀以及对系统关键特性的关注丧失。文章强调了约束的重要性,例如我们有限的时间,这有助于培养良好的工程实践。 文章举例说明,包括将测试驱动开发应用于AI提示,以及一个关于过度复杂化简单播放列表修改的思考实验。最后,作者将情况与科幻电影《黑暗星》相提并论,提倡设计具有内置怀疑和不采取行动能力的人工智能系统,尤其是在高风险场景中,将克制作为安全自主的关键能力。

## 5x5像素字体概要 该项目详细介绍了为资源受限的微控制器(如AVR128DA28)创建的高度紧凑的5x5像素字体。该字体灵感来自ZX Spectrum的风格,优先考虑在最小的350字节空间内实现可读性——这对于RAM有限的设备至关重要。 虽然探索了更小的尺寸(3x3、2x2),但它们严重影响了可读性。5x5网格提供了最佳平衡,允许区分大小写字母,并保持一致的字符宽度以简化编程布局。 该字体针对小型OLED显示屏(160x128或128x64)进行了优化,在这些显示屏上,像素效率至关重要。尽管存在像素化图形的限制,该字体受益于某些显示屏的次像素渲染,从而产生伪阴影效果和更高的清晰度。 此外,还测试了替代的3x5和3x4变体,以进一步节省空间,但代价是牺牲了一些字符细节。

## 适用于小屏幕的微型像素字体 一则黑客新闻的讨论集中在极小的像素字体上,特别是 5x5 甚至更小(如 3x2 和 1x1)的字体,以及它们的潜在用途。原始帖子展示了一款专为微型屏幕设计的 5x5 字体,引发了关于可读性和实际应用方面的争论。 用户分享了示例,展示了即使在现代高分辨率显示器上,通过次像素渲染,这些字体也能出人意料地具有可读性。另一些人指出,需要间距,并且在如此小的网格中表示所有字符存在局限性。 许多评论员提到了类似字体在早期计算机、终端和嵌入式系统中的历史用途,例如较旧的卡西欧掌上电脑或现代设备(如电子墨水显示器)。 对话还涉及了替代方法,例如灰度字体以及为密度而非传统字母表而优化的新字符集。 虽然承认这个话题的利基性质,但许多人认为这个项目很有趣,并且证明了在严格的约束条件下巧妙的设计。

请启用 JavaScript 并禁用任何广告拦截器。

## 西兰花:AI驱动的代码自动化 西兰花通过将Linear问题转化为拉取请求,自动化代码审查和部署。它完全在**您的**Google Cloud项目(GCP)内运行,确保数据隐私和控制 – 不涉及第三方控制平面。 **主要特性:** * **自动化PR:** 在Linear中分配一个问题,西兰花将规划、实现并打开一个拉取请求。 * **安全基础设施:** 部署到您的GCP,使用您的Postgres数据库、密钥和数据。 * **AI代码审查:** Claude和Codex分析代码变更,提供可操作的反馈,甚至建议修复方案。 * **可定制提示:** 使用和版本化预构建的提示模板,用于AI任务。 * **快速部署:** 通过一个脚本和一个配置文件,可在约30分钟内部署。 **设置包括:** 创建GCP项目(或使用现有项目),配置GitHub App,设置Linear机器人用户和API密钥,以及提供OpenAI和Anthropic API密钥。提供详细的分步指南,并提供自动化项目创建和密钥管理的选项。 西兰花利用Cloud Run、Secret Manager和持久化的Postgres数据库,提供一个生产就绪的解决方案。它专为希望自动化重复性编码任务并提高代码质量的开发者设计。

## 西兰花:一个开源编码代理工具 西兰花是一个新的开源工具,旨在通过自动化从问题跟踪到创建拉取请求的整个过程来简化编码任务。由一个面临管理多个编码代理挑战的团队开发,西兰花在隔离的云沙箱中运行任务,检出仓库,利用工单上下文,实现解决方案,运行测试,并最终打开拉取请求供人工审查。 目前,西兰花支持Linear用于项目管理和GitHub用于代码托管,并已显示出成功的结果,过去四周内,100%的非开发者拉取请求和60%的开发者拉取请求都来自该系统。它利用GCP和Blaxel进行沙箱处理,并同时使用Codex和Claude Code进行实现。 创建者强调拥有编码框架的价值,特别是对于严重依赖代码的企业,并希望通过其开源发布([https://github.com/besimple-oss/broccoli](https://github.com/besimple-oss/broccoli)) 促进社区反馈。该项目旨在提供超越仅仅依赖云端编码代理的控制力和效率。

请启用Cookie。 错误 1005 Ray ID:9f063384c9c3fd65 • 2026-04-22 17:03:19 UTC 拒绝访问 发生了什么? 该网站(gizmodo.com)的所有者禁止您的IP地址所在的自治系统编号(ASN 45102)访问此网站。 请参阅 https://developers.cloudflare.com/support/troubleshooting/http-status-codes/cloudflare-1xxx-errors/error-1005/ 了解更多详情。 此页面是否有帮助? 是 否 感谢您的反馈! Cloudflare Ray ID:9f063384c9c3fd65 • 您的IP: 点击显示 47.245.80.60 • 由Cloudflare提供性能和安全保障。

对不起。

## Palantir 的宣言与人工智能驱动的控制的未来 本文分析了 Palantir 最近发布的 CEO Alexander Karp 的著作 *《技术共和国》* 摘要,认为它揭示了驱动公司的核心意识形态——以及美国国家安全的未来。该宣言提倡不受限制的军事统治,特别是通过人工智能优势,作为保护美国免受各种威胁的唯一途径。 该摘要源于 Palantir 在反恐战争期间接受中央情报局资助的起源,将人工智能开发定位为不是市场产品,而是硅谷欠国家的“道德债务”——呼吁为五角大楼制造武器。这创造了对像 Palantir 这样的人工智能提供商的危险依赖,将军事工业复合体从合作关系转变为霸权之争。 作者批评这种愿景是一种以社会责任为幌子的权力攫取,可能通过大规模数据整合侵蚀隐私并压制异议。Palantir 对“暴力犯罪”的关注被视为针对边缘化社区,而其对人工智能使用伦理问题的驳斥被视为抵制民主挑战的策略。最终,本文警告说,未来将由技术寡头寻求巩固权力所驱动的海外和国内战争定义。

对不起。

更多

联系我们 contact @ memedata.com