## AI网络安全进展:Anthropic的Claude Mythos预览版评估 人工智能安全研究所(AISI)最近评估了Anthropic的Claude Mythos预览版在网络安全方面的能力,发现相较于之前的AI模型有了显著进步。虽然2023年AI的网络安全技能有限,但Mythos预览版现在可以自主执行多阶段网络攻击并利用漏洞——这些任务此前需要大量的人工努力。 评估包括“夺旗赛”(CTF)挑战,Mythos预览版在专家级任务中表现出色(73%的成功率)。更令人印象深刻的是,它成功完成了复杂的32步企业网络攻击模拟(“The Last Ones”),在10次尝试中成功3次,平均完成22步,超越了Claude Opus 4.6(16步)。 然而,也存在局限性;该模型在运营技术场景中表现挣扎。AISI强调,这些结果来自缺乏真实世界防御措施(如主动安全监控)的受控环境。Mythos预览版展示了对防御薄弱系统进行自主攻击的潜力,突显了加强网络安全实践的紧迫性——包括更新、访问控制和日志记录——以及对网络防御的积极投资。AISI计划将未来的评估重点放在更逼真、有防御措施的环境中。
调查记者罗伯特·法图雷奇(Robert Faturechi)是ProPublica的记者,成为WhatsApp、Signal和LinkedIn上冒充他身份者的目标。这些使用他的ProPublica头像的“假冒账户”联系了与外国军队有关联的人员——具体在加拿大、拉脱维亚(参与乌克兰无人机开发)以及可能其他国家——试图获取关于无人机(UAV)的信息。
冒充者没有索要金钱,而是试图提取敏感信息,甚至尝试网络钓鱼手段以获取电子邮件访问权限。虽然WhatsApp等平台采取了行动关闭这些假冒账户,但Signal的加密性质使得检测和删除变得困难。
这并非孤立事件;《纽约时报》和《路透社》等其他新闻机构,甚至政府,都报告了类似的冒充事件,其中一些可能由国家支持。专家警告说,这种趋势威胁着调查性新闻,因为它会削弱与潜在消息来源的信任,消息来源可能会犹豫是否分享信息,如果他们担心与欺诈者互动。法图雷奇强调了通过官方网站联系方式验证记者身份以及提高公众对这些骗局的认识的重要性。
## AI末日论与对萨姆·奥特曼的袭击
一名20岁的丹尼尔·莫雷诺-加马用燃烧瓶袭击了萨姆·奥特曼的家,并威胁要烧毁OpenAI总部,其动机是对人工智能的极端恐惧。他已被指控犯有谋杀未遂罪。莫雷诺-加马深度参与“暂停AI”社区,使用“Butlerian Jihadist”的网名,并在网上分享末日内容,包括推荐书籍《如果有人建造它,所有人都会死去》——该书认为人工智能不可避免地导致人类灭绝。
这起事件凸显了某些人工智能安全圈内危险的升级。作者详细描述了一种“纯洁螺旋”,成员们通过越来越极端的末日预测,甚至鼓吹暴力来竞争展示他们的决心。这源于一个核心信念,由埃利泽·尤德科夫斯基推广,即先进的人工智能*将*导致人类灭绝,从而证明了采取任何行动来阻止其发展都是合理的。
作者认为,这种优先考虑确定性而非细微差别的框架,可预测地会导致极端主义。尤德科夫斯基自己的声明表明,暴力只是被战略性地推迟,而非在道德上被拒绝。尽管他与这起袭击划清界限,但尤德科夫斯基的逻辑本质上 оправдывает 阻止人工智能发展的任何必要手段,这种三段论现在已被悲剧性地付诸行动。作者总结说,这并非一个安全运动,而是一种赋予少数“理性”思想家对技术进步拥有权威的信仰体系。