跳到主内容

模型权重

我们开源了预训练模型和指令微调模型。这些模型并未针对安全性进行调优,因为我们希望让用户能够根据其用例测试和完善内容审核。如需更安全的模型,请参阅我们的内容审核教程

许可证

注意

如果您有兴趣购买我们模型的商业许可证,请联系我们的团队

下载

模型下载链接特性
Mistral-7B-v0.1Hugging Face
原始权重 (md5sum: 37dab53973db2d56b2da0a033a15307f)
- 32k 词汇量
- Rope Theta = 1e4
- 带有滑动窗口
Mistral-7B-Instruct-v0.2Hugging Face
原始权重 (md5sum: fbae55bc038f12f010b4251326e73d39)
- 32k 词汇量
- Rope Theta = 1e6
- 无滑动窗口
Mistral-7B-v0.3Hugging Face
原始权重 (md5sum: 0663b293810d7571dad25dae2f2a5806)
- 扩展词汇量至 32768
Mistral-7B-Instruct-v0.3Hugging Face
原始权重 (md5sum: 80b71fcb6416085bcb4efad86dfb4d52)
- 扩展词汇量至 32768
- 支持 v3 Tokenizer
- 支持函数调用
Mixtral-8x7B-v0.1Hugging Face- 32k 词汇量
- Rope Theta = 1e6
Mixtral-8x7B-Instruct-v0.1Hugging Face
原始权重 (md5sum: 8e2d3930145dc43d3084396f49d38a3f)
- 32k 词汇量
- Rope Theta = 1e6
Mixtral-8x7B-v0.3更新模型即将推出!- 扩展词汇量至 32768
- 支持 v3 Tokenizer
Mixtral-8x7B-Instruct-v0.3更新模型即将推出!- 扩展词汇量至 32768
- 支持 v3 Tokenizer
- 支持函数调用
Mixtral-8x22B-v0.1Hugging Face
原始权重 (md5sum: 0535902c85ddbb04d4bebbf4371c6341)
- 32k 词汇量
Mixtral-8x22B-Instruct-v0.1/
Mixtral-8x22B-Instruct-v0.3
Hugging Face
原始权重 (md5sum: 471a02a6902706a2f1e44a693813855b)
- 32768 词汇量
Mixtral-8x22B-v0.3原始权重 (md5sum: a2fa75117174f87d1197e3a4eb50371a)- 32768 词汇量
- 支持 v3 Tokenizer
Codestral-22B-v0.1Hugging Face
原始权重 (md5sum: 1ea95d474a1d374b1d1b20a8e0159de3)
- 32768 词汇量
- 支持 v3 Tokenizer
Codestral-Mamba-7B-v0.1Hugging Face
原始权重 (md5sum: d3993e4024d1395910c55db0d11db163)
- 32768 词汇量
- 支持 v3 Tokenizer
Mathstral-7B-v0.1Hugging Face
原始权重 (md5sum: 5f05443e94489c261462794b1016f10b)
- 32768 词汇量
- 支持 v3 Tokenizer
Mistral-Nemo-Base-2407Hugging Face
原始权重 (md5sum: c5d079ac4b55fc1ae35f51f0a3c0eb83)
- 131k 词汇量
- 支持 v3 tekken.json tokenizer
Mistral-Nemo-Instruct-2407Hugging Face
原始权重 (md5sum: 296fbdf911cb88e6f0be74cd04827fe7)
- 131k 词汇量
- 支持 v3 tekken.json tokenizer
- 支持函数调用
Mistral-Large-Instruct-2407Hugging Face
原始权重 (md5sum: fc602155f9e39151fba81fcaab2fa7c4)
- 32768 词汇量
- 支持 v3 Tokenizer
- 支持函数调用
Pixtral-2409Hugging Face- 131k 词汇量
- 支持 v3 tekken.json tokenizer
- 支持函数调用
- 支持图像
Mistral-Small-Instruct-2409Hugging Face- 32768 词汇量
- 支持 v3 Tokenizer
- 支持函数调用
Ministral-8B-Instruct-2410Hugging Face- 131k 词汇量
- 支持 v3 tekken.json tokenizer
- 支持函数调用
Mistral-Large-Instruct-2411Hugging Face- 32768 词汇量
- 支持 v7 tokenizer
- 支持函数调用
Pixtral-Large-Instruct-2411Hugging Face- 32768 词汇量
- 支持 v7 tokenizer
- 支持函数调用
- 支持图像
Mistral-Small-Base-2501Hugging Face- 131k 词汇量
- 支持 v7 tekken.json tokenizer
- 支持函数调用
Mistral-Small-Instruct-2501Hugging Face- 131k 词汇量
- 支持 v7 tekken.json tokenizer
- 支持函数调用
Mistral-Small-Base-2503Hugging Face- 131k 词汇量
- 支持 v7 tekken.json tokenizer
- 支持函数调用
- 支持图像
Mistral-Small-Instruct-2503Hugging Face- 131k 词汇量
- 支持 v7 tekken.json tokenizer
- 支持函数调用
- 支持图像

尺寸

名称参数数量活跃参数数量推理所需最低 GPU 内存 (GB)
Mistral-7B-v0.37.3B7.3B16
Mixtral-8x7B-v0.146.7B12.9B100
Mixtral-8x22B-v0.3140.6B39.1B300
Codestral-22B-v0.122.2B22.2B60
Codestral-Mamba-7B-v0.17.3B7.3B16
Mathstral-7B-v0.17.3B7.3B16
Mistral-Nemo-Instruct-240712B12B28 - bf16
16 - fp8
Mistral-Large-Instruct-2407123B123B250
Pixtral-240912B12B28 - bf16
16 - fp8
Mistral-Small-240922B22B60
Ministral-8B-24108B8B24
Mistral-Large-Instruct-2411123B123B250
Pixtral-Large-Instruct-2411124B124B250
Mistral-Small-Base-250124B24B60
Mistral-Small-Instruct-250124B24B60
Mistral-Small-Base-250324B24B60
Mistral-Small-Instruct-250324B24B60

如何运行?

请查看 mistral-inference,这是一个用于运行我们模型的 Python 软件包。您可以通过以下方式安装 mistral-inference

pip install mistral-inference

要了解更多关于如何使用 mistral-inference 的信息,请查看 README 并深入研究此 colab notebook 以开始使用

Open In Colab