## 构建你自己的GPT:实践工作坊总结 本次工作坊将指导你从*零*开始构建一个GPT语言模型——不允许使用预训练模型或黑盒库。灵感来源于Andrej Karpathy的nanoGPT,旨在通过自己实现每个组件,让你深入理解LLM的工作原理。 你将创建一个约1000万参数的模型,能够生成类似莎士比亚风格的文本,并且可以在标准笔记本电脑上在一小时内完成训练。工作坊内容包括:构建字符级分词器,设计Transformer架构(嵌入层、注意力机制、前馈层),实现训练循环(损失函数、优化器),以及通过采样生成文本。 该项目被分解为易于管理的部分,并提供清晰的解释,最终生成你亲自编写的功能性`model.py`、`train.py`和`generate.py`文件。它支持Apple Silicon (MPS)、NVIDIA (CUDA)、CPU和Google Colab。它强调字符级分词处理小型数据集,并说明了如何过渡到BPE处理大型数据集。本次工作坊旨在揭开AI的神秘面纱,并使你能够超越仅仅*使用*LLM,真正*理解*它们。
PGX 正在确保流行的 PostgreSQL 备份和恢复工具 pgBackRest 的持续稳定,现在以 **pgxbackup** 的名义进行。pgBackRest 由 David Steele 创建,以其可靠性以及并行处理、时间点恢复和强大的安全性等功能而闻名。
由于原始项目开发活动放缓,PGX 正在介入提供持续支持,以满足其客户的需求。这包括关键的错误修复、与新 PostgreSQL 版本的兼容性,以及确保现有备份仍然可以恢复——所有这些都尊重 Steele 避免以 pgBackRest 名义进行分叉的要求。
pgxbackup 仍然在相同的许可下开源,鼓励社区贡献错误报告和兼容性补丁。该项目可在 GitHub 上找到:[github.com/pgexperts/pgxbackup](github.com/pgexperts/pgxbackup)。