1.前言
一个月前,Meta 发布了开源大模型 llama3 系列,在多个关键基准测试中优于业界 SOTA 模型,并在代码生成任务上全面领先。
此后,开发者们便开始了本地部署和实现,比如 llama3 的中文实现、llama3 的纯 NumPy 实现等。
几天前,有位名为「Nishant Aklecha」的开发者发布了一个从零开始实现 llama3 的存储库,包括跨多个头的注意力矩阵乘法、位置编码和每个层在内都有非常详细的解释,帮助我们理解大语言模型是如果构建和工作的。

该项目得到了大神 Karpathy 的称赞,他表示项目看起来不错,完全展开后,通过模块嵌套和相互调用,可以更容易看到实际的情况。
项目地址:https://github.com/naklecha/llama3-from-scratch
2.从零实现Llama3中文版
详细实现见仓库地址:https://github.com/wdndev/llama3-from-scratch-zh
项目主要翻译「Nishant Aklecha」的 https://github.com/naklecha/llama3-from-scratch 仓库,并对中文版做了特殊的适配,使该项目能在一台 16G RAM 的笔记本电脑上运行:
-
将英文翻译为中文,文中的 Youtube 视频也替换为 Bilibili链接,方便查看; -
将原版 Llama3-8B模型上传至Modescope社区,方便国内下载; -
因原版 Llama3-8B 模型采用32层 Transformers,且大佬「Nishant Aklecha」使用CPU加载,如果加载全部的参数,16G内存机器加载失败,故选取原版 Llama3-8B 模型权重的前2层,重新保存,大小约占为2.7G,此教程也可以直接加载,实际测试内存占用约4~5G,唯一缺点是后续推理结果不对,但不影响学习矩阵变换等其他知识; -
Jupyter文件,可直接在 16G RAM 笔记本电脑运行;
2.1 实现细节
-
分词器(Tokenizer):
-
使用 tiktoken
库进行文本分词。 -
定义了一些特殊标记,如文本开始 <|begin_of_text|>
、文本结束<|end_of_text|>
等。 -
通过 tokenizer.encode
将文本转换为标记序列,通过tokenizer.decode
将标记序列转换回文本。
-
模型权重和配置: -
维度 dim
: 4096 -
层数 n_layers
: 32 -
注意力头数 n_heads
: 32 -
键值头数 n_kv_heads
: 8 -
词汇表大小 vocab_size
: 128256 -
其他参数如 multiple_of
、ffn_dim_multiplier
、norm_eps
、rope_theta
等。 -
加载Llama3-8B模型Pytorch格式权重。 -
加载Llama3-8B模型配置,包括: -
文本到标记(Tokenization): -
使用分词器将输入文本转换为标记序列。 -
将标记转换为对应的标记ID。 -
标记嵌入(Embeddings): -
使用 torch.nn.Embedding
层将标记ID转换为词嵌入向量。 -
将词嵌入向量进行归一化处理。 -
Transformer层: -
归一化: 使用RMS归一化对输入进行归一化。 -
注意力机制: -
多头注意力: 对每个注意力头重复上述过程,并将结果合并。 -
输出权重: 使用模型权重将注意力输出映射到最终的输出向量。 -
使用模型权重初始化查询(Query)、键(Key)、值(Value)矩阵。 -
对查询矩阵进行拆分,得到每个注意力头的查询向量。 -
通过点积计算查询向量与键向量的关系,得到注意力分数矩阵。 -
对注意力分数应用掩码,防止未来信息的泄露。 -
使用Softmax函数对注意力分数进行归一化。 -
将归一化的注意力分数与值向量相乘,得到加权的值向量。 -
实现了Transformer模型的一个层,包括: -
前馈网络(Feed-Forward Network): -
使用SwiGLU网络架构,增加模型的非线性表达能力。 -
通过矩阵乘法实现前馈网络的计算。 -
多层堆叠: -
将上述Transformer层和前馈网络堆叠32层。 -
每一层都会对输入进行更复杂的变换和抽象。 -
输出解码: -
使用模型的输出层权重将最终的嵌入向量映射到词汇表上。 -
通过取最大值获取预测的下一个标记ID。 -
使用分词器将标记ID解码回文本。 -
详细展示了从头开始构建大型语言模型的一个层的完整过程。 -
通过分步实现文本分词、标记嵌入、注意力机制、多头注意力、前馈网络等关键组件,让读者能够深入理解模型的工作原理。