## AI领域的世界模型崛起 领先的AI实验室正在经历一场重大转变,共同聚焦于**世界模型**——通过模拟*预测环境的下一个状态*的AI系统,而不是像当前LLM那样仅仅预测序列中的下一个token。这不同于推理模型(为奖励优化)和基于模仿的系统(模式匹配)。 Meta(Yann LeCun的新实验室)、Google(Genie 3)、Anthropic和OpenAI(Sora/Veo)等主要参与者正在积极开发这些模型。Meta的Code World Model通过在状态转换上训练,准确预测代码执行,展示了效率提升。 重要的是,世界模型并非全新事物;推荐引擎、交易系统和天气模型*已经*作为特定领域的模拟运行。现在的目标是创建**通用**世界模型,这在静态模型失效的对抗性环境中尤为重要。LLM具有独特优势,可以促进这一发展,摄取真实世界的数据并预测后果。 添加**价值函数**——评估未来状态的期望值——可以增强这些模型,从而实现高效的多步规划。真正的“护城河”不在于模拟本身,而在于**反馈循环**,即真实世界的结果改进模型。这代表着从预测*人们如何描述*世界到预测*世界中发生的事情*的转变,开启了AI能力的新时代。
美国正致力于永久性地保护其公民免受外国审查企图,特别提及对英国在线安全法案和欧盟数字服务法案的担忧。这一承诺近期得到国务院副国务卿莎拉·罗杰斯重申,并源于一系列始于2025年10月不断升级的事件。
这些事件包括英国监管机构Ofcom对4chan的罚款,引发了对主权豁免权的争论,并最终促成了“GRANITE法案”。该法案最初在一个博客上提出,现已在怀俄明州最终确定,旨在保护美国平台免受外国监管。
与此同时,美国众议院正在考虑一项联邦审查屏蔽法,参议员埃里克·施密特也在制定相关立法。欧盟对X的近期罚款进一步推动了这一进程。国务院现在已明确表示致力于保护第一修正案免受外国干涉,该博客的作者对全面的法律保护表示乐观。
英国政府新推出的“人工智能技能中心”,旨在到2030年提升1000万工人的技能,但尽管由普华永道耗资410万英镑(约合566万美元)开发,却面临强烈批评。该网站普遍被认为设计糟糕、存在漏洞,且缺乏原创内容——主要功能是链接到Salesforce的Trailhead等现有外部资源目录。
除了可用性问题和可访问性故障外,该中心还包含事实错误,引用了美国的“合理使用”法,而不是英国的“公平交易”指南。批评人士对浪费的公共资金感到愤怒,尤其是在医疗保健和教育等基本服务目前面临压力的情况下。人们还对将合同授予大型跨国公司而不是支持能够以更低的成本交付更优质产品的较小的英国本土网站开发公司这一决定表示担忧。该项目被视为政府支出令人失望的例子,以及培养本地人才的错失良机。