模型权重
我们开源了预训练模型和指令微调模型。这些模型并未针对安全性进行调优,因为我们希望让用户能够根据其用例测试和完善内容审核。如需更安全的模型,请参阅我们的内容审核教程。
许可证
- Mistral 7B、Mixtral 8x7B、Mixtral 8x22B、Codestral Mamba、Mathstral、Mistral Nemo、Pixtral 12B 和 Mistral Small 遵循 Apache 2.0 许可证,该许可证允许不受任何限制地使用它们。
- Codestral 遵循 Mistral AI 非生产用途 (MNPL) 许可证。
- Ministral 8B、Mistral Large 和 Pixtral Large 遵循 Mistral 研究许可证。
注意
如果您有兴趣购买我们模型的商业许可证,请联系我们的团队
下载
模型 | 下载链接 | 特性 |
---|---|---|
Mistral-7B-v0.1 | Hugging Face 原始权重 (md5sum: 37dab53973db2d56b2da0a033a15307f ) | - 32k 词汇量 - Rope Theta = 1e4 - 带有滑动窗口 |
Mistral-7B-Instruct-v0.2 | Hugging Face 原始权重 (md5sum: fbae55bc038f12f010b4251326e73d39 ) | - 32k 词汇量 - Rope Theta = 1e6 - 无滑动窗口 |
Mistral-7B-v0.3 | Hugging Face 原始权重 (md5sum: 0663b293810d7571dad25dae2f2a5806 ) | - 扩展词汇量至 32768 |
Mistral-7B-Instruct-v0.3 | Hugging Face 原始权重 (md5sum: 80b71fcb6416085bcb4efad86dfb4d52 ) | - 扩展词汇量至 32768 - 支持 v3 Tokenizer - 支持函数调用 |
Mixtral-8x7B-v0.1 | Hugging Face | - 32k 词汇量 - Rope Theta = 1e6 |
Mixtral-8x7B-Instruct-v0.1 | Hugging Face 原始权重 (md5sum: 8e2d3930145dc43d3084396f49d38a3f ) | - 32k 词汇量 - Rope Theta = 1e6 |
Mixtral-8x7B-v0.3 | 更新模型即将推出! | - 扩展词汇量至 32768 - 支持 v3 Tokenizer |
Mixtral-8x7B-Instruct-v0.3 | 更新模型即将推出! | - 扩展词汇量至 32768 - 支持 v3 Tokenizer - 支持函数调用 |
Mixtral-8x22B-v0.1 | Hugging Face 原始权重 (md5sum: 0535902c85ddbb04d4bebbf4371c6341 ) | - 32k 词汇量 |
Mixtral-8x22B-Instruct-v0.1/ Mixtral-8x22B-Instruct-v0.3 | Hugging Face 原始权重 (md5sum: 471a02a6902706a2f1e44a693813855b ) | - 32768 词汇量 |
Mixtral-8x22B-v0.3 | 原始权重 (md5sum: a2fa75117174f87d1197e3a4eb50371a ) | - 32768 词汇量 - 支持 v3 Tokenizer |
Codestral-22B-v0.1 | Hugging Face 原始权重 (md5sum: 1ea95d474a1d374b1d1b20a8e0159de3 ) | - 32768 词汇量 - 支持 v3 Tokenizer |
Codestral-Mamba-7B-v0.1 | Hugging Face 原始权重 (md5sum: d3993e4024d1395910c55db0d11db163 ) | - 32768 词汇量 - 支持 v3 Tokenizer |
Mathstral-7B-v0.1 | Hugging Face 原始权重 (md5sum: 5f05443e94489c261462794b1016f10b ) | - 32768 词汇量 - 支持 v3 Tokenizer |
Mistral-Nemo-Base-2407 | Hugging Face 原始权重 (md5sum: c5d079ac4b55fc1ae35f51f0a3c0eb83 ) | - 131k 词汇量 - 支持 v3 tekken.json tokenizer |
Mistral-Nemo-Instruct-2407 | Hugging Face 原始权重 (md5sum: 296fbdf911cb88e6f0be74cd04827fe7 ) | - 131k 词汇量 - 支持 v3 tekken.json tokenizer - 支持函数调用 |
Mistral-Large-Instruct-2407 | Hugging Face 原始权重 (md5sum: fc602155f9e39151fba81fcaab2fa7c4 ) | - 32768 词汇量 - 支持 v3 Tokenizer - 支持函数调用 |
Pixtral-2409 | Hugging Face | - 131k 词汇量 - 支持 v3 tekken.json tokenizer - 支持函数调用 - 支持图像 |
Mistral-Small-Instruct-2409 | Hugging Face | - 32768 词汇量 - 支持 v3 Tokenizer - 支持函数调用 |
Ministral-8B-Instruct-2410 | Hugging Face | - 131k 词汇量 - 支持 v3 tekken.json tokenizer - 支持函数调用 |
Mistral-Large-Instruct-2411 | Hugging Face | - 32768 词汇量 - 支持 v7 tokenizer - 支持函数调用 |
Pixtral-Large-Instruct-2411 | Hugging Face | - 32768 词汇量 - 支持 v7 tokenizer - 支持函数调用 - 支持图像 |
Mistral-Small-Base-2501 | Hugging Face | - 131k 词汇量 - 支持 v7 tekken.json tokenizer - 支持函数调用 |
Mistral-Small-Instruct-2501 | Hugging Face | - 131k 词汇量 - 支持 v7 tekken.json tokenizer - 支持函数调用 |
Mistral-Small-Base-2503 | Hugging Face | - 131k 词汇量 - 支持 v7 tekken.json tokenizer - 支持函数调用 - 支持图像 |
Mistral-Small-Instruct-2503 | Hugging Face | - 131k 词汇量 - 支持 v7 tekken.json tokenizer - 支持函数调用 - 支持图像 |
尺寸
名称 | 参数数量 | 活跃参数数量 | 推理所需最低 GPU 内存 (GB) |
---|---|---|---|
Mistral-7B-v0.3 | 7.3B | 7.3B | 16 |
Mixtral-8x7B-v0.1 | 46.7B | 12.9B | 100 |
Mixtral-8x22B-v0.3 | 140.6B | 39.1B | 300 |
Codestral-22B-v0.1 | 22.2B | 22.2B | 60 |
Codestral-Mamba-7B-v0.1 | 7.3B | 7.3B | 16 |
Mathstral-7B-v0.1 | 7.3B | 7.3B | 16 |
Mistral-Nemo-Instruct-2407 | 12B | 12B | 28 - bf16 16 - fp8 |
Mistral-Large-Instruct-2407 | 123B | 123B | 250 |
Pixtral-2409 | 12B | 12B | 28 - bf16 16 - fp8 |
Mistral-Small-2409 | 22B | 22B | 60 |
Ministral-8B-2410 | 8B | 8B | 24 |
Mistral-Large-Instruct-2411 | 123B | 123B | 250 |
Pixtral-Large-Instruct-2411 | 124B | 124B | 250 |
Mistral-Small-Base-2501 | 24B | 24B | 60 |
Mistral-Small-Instruct-2501 | 24B | 24B | 60 |
Mistral-Small-Base-2503 | 24B | 24B | 60 |
Mistral-Small-Instruct-2503 | 24B | 24B | 60 |
如何运行?
请查看 mistral-inference,这是一个用于运行我们模型的 Python 软件包。您可以通过以下方式安装 mistral-inference
:
pip install mistral-inference
要了解更多关于如何使用 mistral-inference 的信息,请查看 README 并深入研究此 colab notebook 以开始使用