Comment choisir le modèle d'intégration pour construire l'application RAG ?

Le choix du bon modèle d'intégration est une étape cruciale lors de la mise en place d'un système RAG. Voici, à titre de référence, mes facteurs clés et mes suggestions sur les éléments à prendre en compte lors du choix d'un modèle d'intégration :

Définir des scénarios d'application

Tout d'abord, les scénarios d'application spécifiques et les exigences du système RAG doivent être clarifiés. Par exemple, s'agit-il de données textuelles, d'images ou de données multimodales ? Des types de données différents peuvent nécessiter des modèles d'intégration différents. Par exemple, pour les données textuelles, vous pouvez vous référer aux classements MTEB (Massive Text Embedding Benchmark : a collection of evaluation metrics for measuring text embedding models) de HuggingFace pour choisir un modèle approprié, ou consulter les classements de la communauté domestique Magic Matching.

Besoins génériques et spécifiques à un domaine

Deuxièmement, choisissez un modèle en fonction de la généralité ou de la spécificité de la tâche. Si la tâche que vous souhaitez mettre en œuvre est plus générique et n'implique pas trop d'expertise dans le domaine, vous pouvez choisir un modèle d'intégration générique ; si la tâche implique un domaine spécifique (par exemple, le droit, les soins de santé, etc., l'éducation, la finance, etc.

multilinguisme

Si le contenu de la base de connaissances existe dans votre système et que vous devez prendre en charge plusieurs langues, vous pouvez choisir des modèles d'incorporation multilingues, tels que BAAI/bge-M3, bce_embedding (chinois-anglais), etc., qui sont plus performants dans un environnement multilingue. Si votre base de connaissances contient principalement des données chinoises, vous pouvez choisir des modèles tels que iic/nlp_gte_sentence-embedding_chinese-base, etc.

Évaluation des performances

Ces classements couvrent plusieurs langues et types de tâches et peuvent vous aider à trouver les modèles les plus performants pour des tâches spécifiques. Ensuite, vous devez tenir compte des contraintes de taille et de ressources du modèle. Les modèles plus grands peuvent offrir de meilleures performances, mais ils augmentent également les coûts de calcul et les besoins en mémoire. En outre, des dimensions d'intégration plus importantes fournissent généralement des informations sémantiques plus riches, mais peuvent également entraîner des coûts de calcul plus élevés. Il convient donc de peser le choix en fonction des ressources matérielles réelles et des exigences de performance.

Essais pratiques et validation

Enfin, si possible, vous pouvez sélectionner 2 ou 3 modèles pour la comparaison des effets, tester et valider les performances des modèles sélectionnés dans des scénarios commerciaux réels, observer des mesures telles que la précision et le rappel pour évaluer les performances des modèles sur des ensembles de données spécifiques, et procéder à des ajustements sur la base des résultats.

Recommandation de modèle d'intégration

Les cinq modèles d'intégration les plus courants, recommandés pour la construction de systèmes RAG, sont présentés ci-dessous :

Embarquement BGE: Développé par le Wisdom Source Research Institute, il prend en charge plusieurs langues et propose plusieurs versions, dont l'efficace reranker. Le modèle est open source et sous licence libre, et convient à des tâches telles que la recherche, la classification et le regroupement de données.

GTE Embedding : lancé par l'Alibaba Dharma Institute, basé sur le cadre BERT, il est applicable à des scénarios tels que la recherche d'informations et l'évaluation de la similarité sémantique avec d'excellentes performances.

Jina Embedding : conçu par l'équipe Finetuner de Jina AI, formé sur l'ensemble de données Linnaeus-Clean, il convient à la recherche d'informations et à l'évaluation de la similarité sémantique avec des performances exceptionnelles.

Conan-Embedding : il s'agit d'un modèle d'intégration optimisé pour le chinois, qui atteint le niveau SOTA (State-of-the-Art) sur C-MTEB, et qui est particulièrement adapté aux systèmes RAG qui nécessitent une représentation sémantique chinoise de haute précision.

text-embedding-ada-002 : Développé par l'équipe Xenova, il est compatible avec la bibliothèque Hugging Face et fournit des représentations vectorielles de texte de haute qualité pour une large gamme de tâches NLP.

Bien sûr, il y a aussi Sentence-BERT, E5-embedding, Instructeur et ainsi de suite, la performance de ces modèles dans différents scénarios sera un peu différente, selon vos besoins spécifiques et les considérations que j'ai énumérées ci-dessus, vous pouvez choisir le bon modèle pour construire un système RAG.

© déclaration de droits d'auteur

Articles connexes

Pas de commentaires

Vous devez être connecté pour participer aux commentaires !
S'inscrire maintenant
aucun
Pas de commentaires...