## 现代技术信任的侵蚀与人工智能用户能动性的需求
数十年以来,我们一直信任计算机能够简单地*按照*指示执行,就像信任物理工具一样可靠。然而,如今的互联网设备运作方式不同——它们嵌入了创造者的利益,这些利益可能与我们的不一致。这种转变,受到云计算、投资者压力和监管薄弱的影响,意味着持续的、通常是不可见的的数据收集和潜在滥用。
网络浏览器提供了一个建立更好信任的模型:充当“用户代理”,通过透明的标准和市场竞争来平衡我们的需求与网站的功能。这种集体谈判方式避免了与每个在线实体进行单独谈判。
随着人工智能代理的出现——旨在*代表*我们行动的LLM,这种对明确“用户代理”角色的需求至关重要。如果没有它,我们面临着复制当前信任问题的风险,人工智能可能会在缺乏问责制或明确界限的情况下运作。像Web一样,标准化的、公开负责的人工智能平台比由单一公司控制的专有系统更可取。
定义人工智能能动性需要约束,在平衡创新与用户权利的同时,促进一个值得信赖的生态系统。这是一个从单纯的“安全”到建立*功能性权利*的转变,即控制人工智能如何与我们的数据和周围世界互动。
## 重新思考深度学习:将规模与计算分离
传统上,深度学习模型的“能力”等同于模型规模(参数数量)。然而,最近的研究表明,**计算**,模型实际执行的工作量,同样重要——并且是独立于规模的。这挑战了参数越多*自动*意味着计算更多、性能更好的常见假设。
两种新方法突出了这种区别。**哈希层**通过使用哈希机制有效地将数据路由到特定参数,从而增加模型规模而不增加计算量,在语言建模中取得了强劲的结果——甚至优于现有的稀疏模型。相反,**阶梯注意力**模型通过重复应用Transformer来增加计算量*而不*增加参数,从而通过提高“每参数的效率”来提升性能。
这些方法并非相互排斥;将它们结合使用可以产生更大的收益。这项研究表明,我们在设计深度学习模型的方式正在发生转变,重点是战略性地平衡参数和计算,以最大限度地提高效率和性能,并根据可用资源进行调整。最终,理清这些概念为构建更强大、更实用的AI开辟了新的途径。
英国议会通过了一项开创性法律,旨在通过禁止2008年以后出生的人合法购买香烟,从而创造一个“无烟一代”。《烟草和电子烟法案》预计将于2027年1月成为法律,将逐年提高购买年龄,直到实际上禁止向未来世代销售。
虽然吸烟本身仍然合法,但该立法针对的是获取烟草产品。该禁令适用于英格兰、苏格兰、北爱尔兰和威尔士,与全球其他类似(但最近在新西兰被推翻)的努力相呼应。
该法律还将扩大无烟区域,包括操场、学校场地和医院场所,并扩展到无电子烟的室内空间。批评者认为该法律没有解决吸烟的根本原因,但支持者认为这是一项重要的公共卫生干预措施,可以挽救生命。不含烟草的电子烟产品不包括在禁令范围内。
## Discret 11:法国电视过去的辉煌
在20世纪80年代的法国,电视节目仅限于三个频道,直到1984年Canal Plus的推出,它提供无广告的电影和体育节目——通过订阅资助。挑战?阻止非付费用户观看。解决方案:“Discret 11”,一个出人意料的简单加密系统。
Discret 11 并没有真正*加密* SECAM信号,而是通过在每个电视行上延迟几个“像素”,并在左侧填充黑色来巧妙地实现。这种延迟由一个11位密钥决定,该密钥用于线性反馈移位寄存器,为每一行生成一个伪随机偏移。该系统巧妙地利用了电视信号中已存在的黑色边框来重建丢失的数据。
为了对抗盗版,Canal Plus每月更换一次11位密钥,通过邮寄的八位数字代码进行传递,这些代码与解码器的序列号哈希运算。尽管如此,电路图还是泄露了,导致解码器盗版猖獗。尽管寿命不长——在1992年被Nagravision取代——Discret 11为Canal Plus成为欧洲主要广播公司的成功铺平了道路,证明即使是基本的加密最初也可以保护有价值的服务。