标签:MoE 模型

欢迎 Mixtral – 当前 Hugging Face 上最先进的 MoE 模型

最近,Mistral 发布了一个激动人心的大语言模型: Mixtral 8x7b,该模型把开放模型的性能带到了一个新高度,并在许多基准测试上表现优于 GPT-3.5。我们很高兴...