AI Engineering Institute : 3Fine-tuning (réglage fin de grands modèles linguistiques)

📚 Structure de la base de données

Modèles/CatalogueDescription et contenu
AxolotlUn cadre pour le réglage fin des modèles linguistiques
GemmaLa dernière mise en œuvre du Big Language Model par Google
finetune-gemma.ipynb - gemma-sft.py - Gemma_finetuning_notebook.ipynbPeaufiner les carnets de notes et les scripts
LLama2Le modèle Open Source de Meta pour les grandes langues
generate_response_stream.py - Llama2_finetuning_notebook.ipynb - Llama_2_Fine_Tuning_using_QLora.ipynbLignes directrices pour la mise en œuvre et la mise au point
Llama3Expériences à venir en matière de modélisation linguistique à grande échelle (Meta Large Language Modelling)
Llama3_finetuning_notebook.ipynbExpériences initiales de mise au point
LlamaFactoryUn cadre pour la formation et le déploiement de grands modèles linguistiques
LLMArchitecture/ParameterCountDétails techniques de l'architecture du modèle
Mistral-7bMistral AI Le modèle à 7 milliards de paramètres
LLM_evaluation_harness_for_Arc_Easy_and_SST.ipynb - Mistral_Colab_Finetune_ipynb_Colab_Final.ipynb - notebooks_chatml_inference.ipynb - notebooks_DPO_fine_tuning.ipynb - notebooks_SFTTrainer TRL.ipynb - SFT.pyCarnet de notes intégré pour l'évaluation, la mise au point et le raisonnement
MixtralLe modèle de mélange expert de Mixtral
Mixtral_fine_tuning.ipynbAffiner la réalisation
VLMmodèle de langage visuel
Florence2_finetuning_notebook.ipynb - PaliGemma_finetuning_notebook.ipynbMise en œuvre du modèle de langage visuel

🎯 Aperçu du module

1. architecture LLM

  • Examinez les mises en œuvre des modèles suivants :
    • Llama2 (modèle open source de Meta)
    • Mistral-7b (modèle efficace à 7 milliards de paramètres)
    • Mixtral (Architecture experte des mélanges)
    • Gemma (dernière contribution de Google)
    • Llama3 (expérience à venir)

2. 🛠️ technologie de réglage fin

  • stratégie de mise en œuvre
  • Méthodologie LoRA (Low Rank Adaptation)
  • Méthodes d'optimisation avancées

3. 🏗️ analyse de l'architecture du modèle

  • Une étude approfondie de la structure du modèle
  • Méthode de calcul des paramètres
  • Considérations sur l'évolutivité

4. 🔧 L'épanouissement professionnel

  • Code Llama pour les tâches de programmation
  • Modélisation du langage visuel :
    • Florence2
    • PaliGemma

5. 💻 Applications pratiques

  • Bloc-notes Jupyter intégré
  • Pipeline de génération de réponses
  • Guide de mise en œuvre du raisonnement

6 🚀 Thèmes avancés

  • DPO (Optimisation des préférences directes)
  • SFT (réglage fin supervisé)
  • Méthodologie d'évaluation
© déclaration de droits d'auteur

Articles connexes

Pas de commentaires

Vous devez être connecté pour participer aux commentaires !
S'inscrire maintenant
aucun
Pas de commentaires...