Learning to Reason with LLMs

原始链接: https://openai.com/index/learning-to-reason-with-llms/

简单来说,用户分析了各种因素来评估大型语言模型的效率和成本,特别是 OpenAI 的最新产品 O1。 总结如下: 1. 规模:为了处理更大的数据集,与较小的版本相比,O1 模型的规模扩大了大约 2 个数量级(100 至 200 倍)。 2. 效率:根据观察到的数据,O1 模型可能需要 1000 倍以上的资源用于“推理成本”(即计算能力),才能产生与最小版本类似的结果。 3. 时间:从提供的示例来看,生成响应背后的推理过程可能存在很大差异 - 从数百个到数万个令牌。 实际响应大小可能比生成的令牌大 10 倍。 4. 定价:根据 OpenAI 的定价信息,O1 模型似乎比较小的模型要贵得多,输入和输出代币的价格都较高。 总体而言,用户得出的结论是,O1 需要大量计算资源才能生成更长、更详细的响应,这解释了使用这种强大但昂贵的模型所需的高成本。
相关文章

原文

联系我们 contact @ memedata.com