Mistral AI lance le modèle Small 3.1 : une nouvelle amélioration des capacités multimodales open source
Mistral AI a récemment annoncé le lancement de son dernier modèle Mistral Small 3.1, et a affirmé qu'il s'agissait du meilleur choix parmi les modèles équivalents disponibles.
Ce nouveau modèle s'appuie sur Mistral Small 3 et apporte des améliorations significatives en matière de performances textuelles, de compréhension multimodale et de traitement contextuel, avec une fenêtre contextuelle qui s'étend jusqu'à 128k tokens.Les données officielles de Mistral AI montrent que Small 3.1 surpasse des modèles comparables tels que Gemma 3 et GPT-4o Mini, tout en maintenant le taux de 150 par seconde. jetons La vitesse de raisonnement.
L'un des points forts de Mistral Small 3.1 est l'adoption de la licence open source Apache 2.0, qui permet au modèle d'être utilisé et étudié plus largement.

Les applications modernes d'IA imposent des exigences accrues aux capacités des modèles, qui doivent être capables de traiter du texte, de comprendre des entrées multimodales, de prendre en charge plusieurs langues et de gérer de longs contextes, tout en présentant une faible latence et un bon rapport coût-efficacité. Mistral AI estime que Mistral Small 3.1 est le premier modèle open source qui atteint ou dépasse les performances des principaux petits modèles fermés dans tous ces domaines. modèles open source.
Selon les données de performance publiées par Mistral AI, Mistral Small 3.1 obtient de bons résultats dans un certain nombre de tests de référence. Pour assurer la comparabilité des données, Mistral AI a utilisé des chiffres rapportés par d'autres fournisseurs ранеее lorsque cela était possible, sinon le modèle a été évalué à l'aide de son outil d'évaluation générique.
Instruction conformité performance
Analyse comparative des commandes de texte
Vous trouverez ci-dessous une comparaison des performances du Mistral Small 3.1 par rapport à d'autres modèles, notamment le Gemma 3-it (27B), le Cohere Aya-Vision (32B), le GPT-4o Mini et le Claude-3.5 Haiku.
Tableaux de données de performance


Évaluation comparative de l'enseignement multimodal
Vous trouverez ci-dessous les résultats de l'évaluation comparative des commandes multimodales, avec le score MM-MT-Bench compris entre 0 et 100. Les modèles également inclus dans la comparaison sont Gemma 3-it (27B), Cohere Aya-Vision (32B), GPT-4o Mini et Claude-3.5 Haiku.
Tableaux de données de performance


multilinguisme
Mistral Small 3.1 démontre également ses points forts en matière de traitement multilingue, en le comparant à des modèles tels que Gemma 3-it (27B), Cohere Aya-Vision (32B) et GPT-4o Mini.
Tableaux de données de performance

capacité de traitement en contexte long
Pour le traitement des contextes longs, Mistral Small 3.1 a été comparé à Gemma 3-it (27B), GPT-4o Mini et Claude-3.5 Haiku afin de valider ses performances dans le traitement des textes longs.
Tableaux de données de performance

Performance avant l'entraînement
Mistral AI a également publié un modèle de base pré-entraîné pour Mistral Small 3.1.
Toutes les données de pré-entraînement
Le Mistral Small 3.1 Base (24B) a été comparé au Gemma 3-pt (27B) pour les performances avant entraînement.
Tableaux de données de performance

scénario d'application
Mistral Small 3.1 se présente comme un modèle polyvalent conçu pour traiter un large éventail de tâches d'IA générative, notamment le suivi de commandes, l'assistance au dialogue, la compréhension d'images et l'appel de fonctions, et Mistral AI estime qu'il constitue une base solide pour les applications d'IA destinées aux entreprises et au grand public.
Attributs et capacités clés
- Léger. Mistral Small 3.1 fonctionne avec une seule carte graphique RTX 4090 ou un Mac doté de 32 Go de RAM. Il s'agit donc d'une solution idéale pour les scénarios côté appareil.
- Dialogue de réaction rapide (Rapid Response Dialogue Assist). Idéal pour les assistants virtuels et autres applications nécessitant une réponse rapide et précise.
- Appels de fonctions à faible latence. Capacité à exécuter rapidement des fonctions dans le cadre d'un flux de travail automatisé ou d'un agent.
- Affinage dans des domaines spécifiques. Mistral Small 3.1 peut être affiné pour des domaines spécifiques afin de créer des modèles précis de domaines spécialisés. Ceci est particulièrement utile dans des domaines tels que le conseil juridique, les diagnostics médicaux et l'assistance technique.
- Fondements du raisonnement avancé. Mistral AI affirme que la capacité de la communauté à construire des modèles Mistral open source est impressionnante. Au cours des dernières semaines, d'excellents modèles d'inférence construits sur Mistral Small 3 ont vu le jour, tels que le modèle DeepHermes 24B.. À cette fin, Mistral AI a publié le modèle de base et les points de contrôle du modèle de commande pour Mistral Small 3.1 afin de faciliter la personnalisation du modèle en aval.
Mistral Small 3.1 offre un large éventail de scénarios d'application couvrant les applications d'entreprise et grand public qui nécessitent une compréhension multimodale, telles que la validation de documents, les diagnostics, le traitement d'images côté appareil, l'inspection visuelle pour le contrôle de la qualité, la détection d'objets dans les systèmes de sécurité, l'assistance à la clientèle basée sur l'image et les assistants généraux.
l'utilisabilité
Mistral Small 3.1 est disponible en téléchargement sur le site Hugging Face :Mistral Small 3.1 Base répondre en chantant Mistral Small 3.1 Instruct. Pour les déploiements en entreprise nécessitant une infrastructure d'inférence privée et optimisée, contactez Mistral AI.
Les utilisateurs peuvent également utiliser la plateforme de développement de Mistral AI pour La Plateforme Essayez les appels API. Le modèle est également disponible sur Google Cloud Vertex AI. Mistral Small 3.1 sera disponible sur NVIDIA NIM et Microsoft Azure AI Foundry dans les semaines à venir.
© déclaration de droits d'auteur
Article copyright Cercle de partage de l'IA Tous, prière de ne pas reproduire sans autorisation.
Articles connexes
Pas de commentaires...