每日HackerNews RSS

## Claude Code 用户报告用量限制问题 Anthropic 的 AI 编码工具 Claude Code 的用户正在经历分配的令牌(用于衡量 AI 服务消耗的单位)耗尽速度异常快的问题。Anthropic 承认了这个问题,并表示修复是他们的“首要任务”,有报告显示即使付费订阅也在迅速耗尽。一些用户报告称,简单的任务消耗了不成比例的大量令牌。 这紧随 Anthropic 实施高峰时段限制之后,在高需求期间增加了令牌消耗。该公司最近还面临另一事件,由于人为错误意外发布了 Claude Code 的部分内部源代码,但没有客户数据受到损害。 Anthropic 还在与美国政府就该工具可能被国防部使用的法律纠纷,并积极寻求专家以防止滥用其 AI。Claude Code 订阅费用从每月 20 美元到 200 美元不等,此外还有企业定价方案。

对不起。

彭博社 需要帮助?请联系我们 我们检测到您的计算机网络存在异常活动 要继续,请点击下面的框来确认您不是机器人。 为什么会发生这种情况? 请确保您的浏览器支持 JavaScript 和 cookies,并且没有阻止它们加载。 更多信息请查看我们的服务条款 和 Cookie 政策。 需要帮助? 关于此消息的咨询,请联系 我们的支持团队并提供以下参考ID。 阻止参考ID:fdacd548-2e5d-11f1-afbb-65c9f3afeb0e 通过彭博社订阅,随时掌握最重要的全球市场新闻。 立即订阅

对不起。

AI招聘初创公司Mercor已确认一起安全事件,源于针对开源项目LiteLLM的供应链攻击,该项目被黑客组织TeamPCP入侵。勒索组织Lapsus$声称对入侵Mercor并访问数据负责,但与LiteLLM攻击的关联仍在调查中。 估值100亿美元的Mercor每天促成超过200万美元的AI领域专家付款,并与OpenAI和Anthropic等公司合作。该公司表示已迅速采取行动控制漏洞,并正在进行法医调查。 Lapsus$分享了一份据称被盗数据的样本——包括Slack和工单信息,以及AI承包商互动的录音——但Mercor尚未确认客户或承包商数据是否受到损害。上周发现的LiteLLM最初的漏洞促使该项目加强其安全合规流程。受影响的公司范围以及任何数据泄露情况仍不清楚。

## Mercor 网络攻击与安全讨论 - 总结 Mercor,一家人工智能公司,最近遭受了一次与 LiteLLM 漏洞相关的网络攻击。该事件促使 LiteLLM 将合规认证提供商从 Delve 切换至 Vanta。此事引发了 Hacker News 上关于 SOC2 和 ISO27001 等安全认证的价值和局限性的热烈讨论。 许多评论员认为这些认证往往是“安全秀”,侧重于合规和文档,而非真正的安全能力。虽然并非无用——它们可以推动必要的流程改进并证明安全支出的合理性——但它们并非万无一失。一些人将其比作 FAA 认证,为供应商提供责任转移框架。 对话还涉及沙箱技术,特别是 Docker,并就其作为安全边界的有效性进行了辩论。人们对错误配置会抵消其优势表示担忧,而另一些人则认为它比没有沙箱更好。此次攻击还凸显了供应链安全和 CI/CD 管道监控的重要性。最终,共识倾向于主动安全措施,以及关注真正重视安全的组织。

您的请求已被阻止,原因是网络策略。请登录或在此处创建帐户以恢复浏览。如果您正在运行脚本或应用程序,请在此处注册或使用您的开发者凭据登录。此外,请确保您的User-Agent不为空,并且是独特且具有描述性的,然后重试。如果您正在提供替代的User-Agent字符串,请尝试改回默认设置,因为这有时会导致阻止。您可以在此处阅读Reddit的服务条款。如果您认为我们错误地阻止了您,或者想讨论更轻松地获取所需数据的方式,请在此处提交工单。联系我们时,请提供您的Reddit帐户以及以下代码:019d4cc9-3ca1-7ca2-8511-7feecb0afc0c。

对不起。

SALOMI 是一个研究存储库,调查极低比特的 Transformer 量化,具体研究二进制或近二进制权重表示是否能与三元方法相媲美。它提供量化、推理、评估和实验工具,但旨在作为研究工作区,而非即用型软件包。 主要发现表明,严格的 1 比特事后量化对于 GPT-2 级别的语言建模是不可行的;使用诸如 Hessian 引导的向量量化等技术,略高的比特率(~1.2-1.35 bpp)可以产生更实用的结果。 该存储库包含广泛的文档——特别是 `RESEARCH.md`,提供全面的概述,以及 `HONEST_ASSESSMENT.md`,对结果进行现实评估。存在历史实验文件,但建议用户优先考虑策划的文档和验证的测试,以便最准确地理解项目的当前结论。代码采用 Apache-2.0 许可。

对不起。

## 电子邮件地址混淆技术总结(截至2026年1月30日) 本文详细介绍了各种保护电子邮件地址免受垃圾邮件收集器的技术,以及基于实际测试的有效性统计数据。虽然*每种*方法在理论上都可能被破解,但研究发现大多数收集器出乎意料地简单,即使是简单的混淆也能产生很高的效果。 **主要发现:** * **基于JavaScript的技术(JS连接、Rot18、转换、AES加密、用户交互)在保护纯文本地址时,始终阻止了318个测试垃圾邮件发送者中的100%**。CSS `display:none` 和 HTML SVG 也实现了100%的阻止率。 * **对于可点击的“mailto:”链接,基于JS的方法再次被证明是最有效的(阻止了299个垃圾邮件发送者中的100%)**,与HTML SVG和HTTP重定向一起。 * **像HTML实体这样的简单方法提供了出乎意料的良好保护**(纯文本的阻止率为95-98%),尽管它们很容易被解码。 * **收集器优先考虑高流量页面**,这意味着访问量较少的页面可能未被抓取,从而产生虚假的安全性。 作者积极利用这项研究作为“蜜罐”,跟踪垃圾邮件发送者绕过哪些技术,以完善统计数据。数据表明,实施*任何*混淆都有益处,因为大多数垃圾邮件都来自不复杂的机器人。

## 2026年电子邮件混淆:Hacker News 摘要 最近 Hacker News 上出现了一场关于各种防止电子邮件收集技术的有效性的讨论,起因是一篇关于该主题的新文章。虽然用户承认电子邮件地址不可避免地会泄露,但他们争论了延迟或减少垃圾邮件的方法。 诸如 HTML 实体和 `display:none` CSS 之类的简单技术,尽管易于实现,但令人惊讶地对许多收集器仍然有效。讨论了更复杂的方法,例如基于 JavaScript 的混淆,甚至 brainf*ck 编码,但由于其复杂性增加和潜在的可访问性问题,其实用性受到了质疑。 许多评论者分享了个人经验,指出仅仅发布电子邮件地址通常不会导致压倒性的垃圾邮件,这可能归功于有效的垃圾邮件过滤。然而,数据泄露仍然是泄露地址的重要来源。几位用户提倡使用 plus-addressing(使用 `[email protected]`)并利用人工智能驱动的垃圾邮件过滤器,其中一位报告使用本地 LLM 达到了 97% 的准确率。 共识倾向于分层方法:对公共地址使用简单的混淆,结合强大的垃圾邮件过滤和谨慎使用 plus-addressing,认识到完全保密是不现实的。

你需要启用 JavaScript 才能运行此应用。

对不起。

这篇帖子详细介绍了对《疯狂出租车》`.shp`文件格式的反向工程过程,该格式被怀疑包含3D模型数据。在之前解码`.all`存档格式的基础上,作者以`cube0.shp`作为起点,认为其名称和大小暗示了一个简单的立方体模型。 调查包括在十六进制编辑器中分析文件结构,记录模式和偏移量。通过理解GameCube的图形流水线(Flipper GPU & GX API)——特别是顶点数据和显示列表的处理方式,不断完善最初的猜测。主要发现包括识别顶点位置、颜色和纹理坐标的部分,以及包含绘制调用的显示列表。 数据使用定点表示法(Q8.8)进行解释,并与GameCube的顶点属性表结构对齐。最终,这使得能够在浏览器中使用noclip.website的GX模拟层成功渲染立方体,验证了反向工程的格式。作者强调了在反向工程过程中详细记录、用代码测试理论以及利用现有文档的重要性。下一步是处理剩余的2700个`.shp`文件及其可能更复杂的结构。

对不起。

## Suga 与订阅轰炸的兴起 最近,Suga 检测到一种微妙但恶意的攻击,名为“订阅轰炸”。这种攻击涉及机器人使用真实用户的电子邮件地址在大量网站上注册虚假名称,用不必要的“欢迎”和验证邮件淹没他们的收件箱。攻击目标并非入侵账户本身,而是将关键安全警报——例如密码重置请求或金融交易确认——淹没在噪音中,从而使攻击者能够实施欺诈。 Suga 最初注意到少量不活跃账户拥有无意义的名称,并伴随着“忘记密码”页面的活动增加。分析显示,机器人使用被盗电子邮件地址注册,然后立即请求密码重置,在几分钟内向受害者发送大量电子邮件。该攻击旨在低容量并规避典型的机器人检测。 为了应对这种情况,Suga 实施了 Cloudflare Turnstile,一种 CAPTCHA 替代方案,并限制电子邮件发送,*仅*在地址确认之前发送验证电子邮件。这些更改有效地阻止了攻击。虽然 Suga 受到的直接影响很小,但团队认识到对受害者的重大危害,并主动解决了漏洞,强调了所有网站进行电子邮件验证的重要性,以防止成为这种有害行为的帮凶。

更多

联系我们 contact @ memedata.com