AI Personal Learning
und praktische Anleitung

AI Engineering Institute: 3Fine-tuning (Feinabstimmung von großen Sprachmodellen)

Dieser Artikel wurde am 2024-12-08 20:17 aktualisiert, ein Teil des Inhalts ist zeitkritisch, falls er ungültig ist, bitte eine Nachricht hinterlassen!

📚 Aufbau der Datenbank

Modelle/Katalog Beschreibung und Inhalt
Axolotl Ein Rahmen für die Feinabstimmung von Sprachmodellen
Gemma Googles neueste Implementierung des Big Language Model
finetune-gemma.ipynb - gemma-sft.py - Gemma_finetuning_notebook.ipynb Feinabstimmung von Notizbüchern und Skripten
LLama2 Metas Open-Source-Modell für große Sprachen
generate_response_stream.py - Llama2_Feinabstimmung_notebook.ipynb - Llama_2_Feinabstimmung_mit_QLora.ipynb Leitlinien für die Umsetzung und Feinabstimmung
Llama3 Kommende Experimente mit Meta Large Language Modelling
Llama3_Feinabstimmung_Notizbuch.ipynb Erste Versuche zur Feinabstimmung
LlamaFactory Ein Rahmen für das Training und den Einsatz großer Sprachmodelle
LLMArchitektur/ParameterZahl Technische Details der Modellarchitektur
Mistral-7b Mistral AI Das Modell mit 7 Milliarden Parametern
LLM_Auswertungsgeschirr_für_Arc_Easy_und_SST.ipynb - Mistral_Colab_Finetune_ipynb_Colab_Final.ipynb - notebooks_chatml_inference.ipynb - notebooks_DPO_Feinabstimmung.ipynb - notebooks_SFTTrainer TRL.ipynb - SFT.py Integriertes Notizbuch für Bewertung, Feinabstimmung und Argumentation
Mixtral Mixtrals Modell der Expertenmischung
Gemischte_Feinabstimmung.ipynb Feinabstimmung der Umsetzung
VLM visuelles Sprachmodell
Florenz2_Feinabstimmung_Notizbuch.ipynb - PaliGemma_Feinabstimmung_Notizbuch.ipynb Implementierung des visuellen Sprachmodells

🎯 Modulübersicht

1. die LLM-Architektur

  • Untersuchen Sie die folgenden Modellimplementierungen:
    • Llama2 (das quelloffene Modell von Meta)
    • Mistral-7b (effizientes Modell mit 7 Milliarden Parametern)
    • Mixtral (Expert Mixture Architecture)
    • Gemma (der neueste Beitrag von Google)
    • Llama3 (bevorstehendes Experiment)

2. 🛠️ Feinabstimmungstechnologie

  • Umsetzungsstrategie
  • LoRA-Methodik (Low Rank Adaptation)
  • Fortgeschrittene Optimierungsmethoden

3. 🏗️ Analyse der Modellarchitektur

  • Eine eingehende Untersuchung der Struktur des Modells
  • Methode zur Berechnung der Parameter
  • Überlegungen zur Skalierbarkeit

4. 🔧 Berufliche Entfaltung

  • Code Llama für Programmieraufgaben
  • Visuelle Sprachmodellierung:
    • Florenz2
    • PaliGemma

5. 💻 Praktische Anwendungen

  • Integriertes Jupyter-Notebook
  • Pipeline zur Erzeugung von Reaktionen
  • Leitfaden zur Implementierung von Reasoning

6. 🚀 Erweiterte Themen

  • DPO (Optimierung der Direktpräferenz)
  • SFT (überwachte Feinabstimmung)
  • Methodik der Bewertung
AI Leichtes Lernen

Der Leitfaden für Laien zum Einstieg in die KI

Hilft Ihnen, die Nutzung von KI-Tools kostengünstig und von Null an zu erlernen.KI ist, wie Bürosoftware, eine wesentliche Fähigkeit für jeden. Die Beherrschung von KI verschafft Ihnen einen Vorteil bei der Stellensuche und die Hälfte des Aufwands bei Ihrer zukünftigen Arbeit und Ihrem Studium.

Details ansehen>
Darf nicht ohne Genehmigung vervielfältigt werden:Chef-KI-Austauschkreis " AI Engineering Institute: 3Fine-tuning (Feinabstimmung von großen Sprachmodellen)

Chef-KI-Austauschkreis

Der Chief AI Sharing Circle konzentriert sich auf das KI-Lernen und bietet umfassende KI-Lerninhalte, KI-Tools und praktische Anleitungen. Unser Ziel ist es, den Nutzern dabei zu helfen, die KI-Technologie zu beherrschen und gemeinsam das unbegrenzte Potenzial der KI durch hochwertige Inhalte und den Austausch praktischer Erfahrungen zu erkunden. Egal, ob Sie ein KI-Anfänger oder ein erfahrener Experte sind, dies ist der ideale Ort für Sie, um Wissen zu erwerben, Ihre Fähigkeiten zu verbessern und Innovationen zu verwirklichen.

Kontaktieren Sie uns
de_DE_formalDeutsch (Sie)