## 迷失在地图中:驾驭大型语言模型时代 受布尔赫斯的故事启发,即地图变得与其帝国一样大,本文认为大型语言模型(LLM)正超越对信息的有用呈现,并积极*重塑*我们对信息的理解。 就像越来越详细的地图一样,LLM 有可能掩盖它们所代表的“领土”——它们处理的原始数据和复杂现实。 作者借鉴波德里亚的表征阶段,强调 LLM 如何从忠实的复制品转变为扭曲的摘要,甚至可能完全掩盖现实的缺失。 这造成了一个危险的滑坡,依赖 LLM 的输出可能会降低批判性思维和来源验证能力。 然而,与传统地图不同,LLM 是个性化和可塑的,可以适应个人提示甚至用户的背景。 这为总结和探索提供了独特的优势,但也要求掌握一种新的技能:一种“内隐知识”,用于辨别何时信任、质疑以及直接参与底层信息。 最终,作者提倡一种平衡的方法——避免过度依赖和漠视,以有效地利用这些强大的工具,并保持与它们所代表的“领土”的联系。 随着 LLM 的不断发展,这种技能将变得越来越重要。
## 渲染引擎中的神经网络:摘要
本文详细介绍了将神经网络(NN)集成到渲染引擎的过程,最初始于2021年基于UBO2014数据训练的神经材质(NM)。早期实现侧重于推理,由于硬件加速支持有限,需要基于自定义计算着色器的NN基础设施。
*运行时*训练的需求,以神经辐射缓存(NRC)为例,扩展了框架以包含训练流水线。一个关键挑战出现:现有的硬件加速(NVIDIA Tensor Cores、Intel XMX、AMD WMMA)缺乏跨平台着色器访问。这促使探索Vulkan的协同矩阵和DirectX的WaveMatrix,旨在实现抽象和硬件利用。
NVIDIA的协同向量(VK_NV_cooperative_vector)的最新进展为需要发散网络评估的场景提供了一种解决方案——不同的像素需要不同的网络权重(如NM)。协同向量从矩阵-矩阵运算转变为向量-矩阵运算,能够有效地处理每个像素的数据,并使用单个网络。NRC从中受益匪浅,因为它对所有像素使用相同的网络,但输入参数不同。
协同向量利用“长向量”——扩展的数据结构——并利用硬件将向量-矩阵请求组合成加速的矩阵运算。虽然训练目前仍需要CPU端的矩阵运算,但该框架支持推理和训练,为更高效和动态的渲染技术铺平了道路。
比特币矿工正面临巨大的经济压力,目前每个区块的亏损率达到21%,原因是比特币价格约为69,200美元,而预计的生产成本为88,000美元。 这一困境因伊朗冲突和油价上涨(影响网络约8-10%的能源成本)而加剧,正在给比特币网络带来压力。
今年网络难度下降了近10%,哈希率降至920 EH/s,区块时间超过了10分钟的目标。矿工收入(算力价格)接近盈亏平衡点。 这迫使矿工出售比特币以弥补成本,给市场带来下行压力,尤其是在现有供应的大部分已经处于亏损状态的情况下。
上市公司矿工正在通过多元化进入人工智能和高性能计算领域来适应。 预计四月份将进行另一次难度调整,很可能会延续下降趋势。 虽然网络会随着矿工退出而通过降低难度进行自我修正,但亏损时期会造成市场不稳定,并可能导致价格进一步下跌。