从零实现一个MOE(专家混合模型)
什么是混合模型(MOE)
MOE主要由两个关键点组成:
一是将传统Transformer中的FFN(前馈网络层)替换为多个稀疏的专家层(Sparse MoE layers)。每个专家本身是一个独立的神经网络,实际应用中,这些专家通常是前馈网络 (FFN),但也可以是更复杂的网络结构。
二是门控网络或路由:此部分用来决定输入的token分发给哪一个专家。
可能有对FFN(前馈网络层)不太熟悉的小伙伴可以看一下下面的代码及图例,很简单就是一个我们平时常见的结构。
1 2 3 4 5 6 7 8 9 10 11 12 13 14
| class FeedForward(nn.Module): def __init__(self, dim_vector, dim_hidden, dropout=0.1): super().__init__() self.feedforward = nn.Sequential( nn.Linear(dim_vector, dim_hidden), nn.ReLU(), nn.Dropout(dropout), nn.Linear(dim_hidden, dim_vector) ) def forward(self, x): out = self.feedforward(x) return out
|
MLP
从零实现一个MOE
完整的从零实现MOE代码已集成至git代码训练框架项目,项目包括一个每个人都可以以此为基础构建自己的开源大模型训练框架流程、支持主流模型使用deepspeed进行Lora、Qlora等训练、主流模型的chat template模版、以及一些tricks的从零实现模块。欢迎大家star 共同学习!:
https://github.com/mst272/LLM-Dojo/blob/main/llm_tricks/moe/READEME.md### 1. 创建一个专家模型
这一步也很简单了,其实就是一个多层感知机MLP。
1 2 3 4 5 6 7 8 9 10 11 12 13
| class Expert(nn.Module): def __init__(self, n_embd): super().__init__() self.net = nn.Sequential( nn.Linear(n_embd, 4 * n_embd), nn.ReLU(), nn.Linear(4 * n_embd, n_embd), nn.Dropout(dropout), )
def forward(self, x): return self.net(x)
|
2. 创建TopKrouter
即创建MOE的路由部分。
假设我们定义了4个专家,路由取前2名专家,即expert=4, top_k=2。接收注意力层的输出作为输入X,即将输入从(Batch size,Tokens,n_embed)的形状(2,4,32)投影到对应于(Batch size,Tokens,num_experts)的形状(2,4,4),其中num_experts即expert=4。其中返回的indices可以理解为对于每个token的4个专家来说,选的两个专家的序号索引。
代码如下:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19
|
class TopkRouter(nn.Module): def __init__(self, n_embed, num_experts, top_k): super(TopkRouter, self).__init__() self.top_k = top_k self.linear =nn.Linear(n_embed, num_experts) def forward(self, mh_output): logits = self.linear(mh_output) top_k_logits, indices = logits.topk(self.top_k, dim=-1) zeros = torch.full_like(logits, float('-inf')) sparse_logits = zeros.scatter(-1, indices, top_k_logits) router_output = F.softmax(sparse_logits, dim=-1) return router_output, indices
|
看完代码之后配合整体流程图将会更清晰:

更清晰的图示如下,每个字代表一个token:
3. 添加noisy噪声
从本质上讲,我们不希望所有token都发送给同一组“受青睐”的expert。需要一个良好平衡,因此,将标准正态噪声添加到来自门控线性层的logits。
代码对比2中的代码只改动了几行,非常的简单。
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26
| class NoisyTopkRouter(nn.Module): def __init__(self, n_embed, num_experts, top_k): super(NoisyTopkRouter, self).__init__() self.top_k = top_k self.topkroute_linear = nn.Linear(n_embed, num_experts) self.noise_linear =nn.Linear(n_embed, num_experts)
def forward(self, mh_output): logits = self.topkroute_linear(mh_output)
noise_logits = self.noise_linear(mh_output)
noise = torch.randn_like(logits)*F.softplus(noise_logits) noisy_logits = logits + noise
top_k_logits, indices = noisy_logits.topk(self.top_k, dim=-1) zeros = torch.full_like(noisy_logits, float('-inf')) sparse_logits = zeros.scatter(-1, indices, top_k_logits) router_output = F.softmax(sparse_logits, dim=-1) return router_output, indices
|
4. 构建完整的稀疏MOE module
前面的操作主要是获取了router分发的结果,获取到这些结果后我们就可以将router乘给对应的token。这种选择性加权乘法最终构成了稀疏MOE。
代码部分如下所示:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40
| class SparseMoE(nn.Module): def __init__(self, n_embed, num_experts, top_k): super(SparseMoE, self).__init__() self.router = NoisyTopkRouter(n_embed, num_experts, top_k) self.experts = nn.ModuleList([Expert(n_embed) for _ in range(num_experts)]) self.top_k = top_k
def forward(self, x): gating_output, indices = self.router(x) final_output = torch.zeros_like(x)
flat_x = x.view(-1, x.size(-1)) flat_gating_output = gating_output.view(-1, gating_output.size(-1))
for i, expert in enumerate(self.experts): expert_mask = (indices == i).any(dim=-1) flat_mask = expert_mask.view(-1) if flat_mask.any(): expert_input = flat_x[flat_mask] expert_output = expert(expert_input)
gating_scores = flat_gating_output[flat_mask, i].unsqueeze(1) weighted_output = expert_output * gating_scores
final_output[expert_mask] += weighted_output.squeeze(1)
return final_output
|
其中的一些讲解都在注释中了,特别注意的是该部分的逻辑是:以专家为单位遍历每个专家,抽取每个专家对于所有token中在前top_k的tokens。可能有一些绕,但是结合上述代码注释中的序号,可以参考下面tensor流向图,可以完整清晰的理解该内容,图中的序号代表注释中的数字顺序。

这一部分主要就是将上述所做的工作与常规的transformer层结合,即用moe替代MLP层。
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
| class Block(nn.Module): """Mixture of Experts Transformer block: communication followed by computation (multi-head self attention + SparseMoE) """ def __init__(self, n_embed, n_head, num_experts, top_k): super().__init__() head_size = n_embed // n_head self.sa = MultiHeadAttention(n_head, head_size) self.smoe = SparseMoE(n_embed, num_experts, top_k) self.ln1 = nn.LayerNorm(n_embed) self.ln2 = nn.LayerNorm(n_embed)
def forward(self, x): x = x + self.sa(self.ln1(x)) x = x + self.smoe(self.ln2(x)) return x
|
总结
最终我们得到了上述block,算是一个完整的模块了,并从头到尾将MOE的实现细节都讲解了一遍,理解原理后我们就可以对当前的一些主流模型进行moe魔改等操作了。
完整的从零实现MOE代码已集成至git代码训练框架项目,项目包括一个每个人都可以以此为基础构建自己的开源大模型训练框架流程、支持主流模型使用deepspeed进行Lora、Qlora等训练、主流模型的chat template模版、以及一些tricks的从零实现模块。欢迎大家star 共同学习!:
https://github.com/mst272/LLM-Dojo