Axolotl |
Ein Rahmen für die Feinabstimmung von Sprachmodellen |
Gemma |
Googles neueste Implementierung des Big Language Model |
- finetune-gemma.ipynb - gemma-sft.py - Gemma_finetuning_notebook.ipynb |
Feinabstimmung von Notizbüchern und Skripten |
LLama2 |
Metas Open-Source-Modell für große Sprachen |
- generate_response_stream.py - Llama2_finetuning_notebook.ipynb - Llama_2_Fine_Tuning_using_QLora.ipynb |
Leitlinien für die Umsetzung und Feinabstimmung |
Llama3 |
Kommende Experimente mit Meta Large Language Modelling |
- Llama3_finetuning_notebook.ipynb |
Erste Versuche zur Feinabstimmung |
LlamaFactory |
Ein Rahmen für das Training und den Einsatz großer Sprachmodelle |
LLMArchitektur/ParameterZahl |
Technische Details der Modellarchitektur |
Mistral-7b |
Mistral AI Das Modell mit 7 Milliarden Parametern |
- LLM_evaluation_harness_for_Arc_Easy_and_SST.ipynb - Mistral_Colab_Finetune_ipynb_Colab_Final.ipynb - notebooks_chatml_inference.ipynb - notebooks_DPO_fine_tuning.ipynb - notebooks_SFTTrainer TRL.ipynb - SFT.py |
Integriertes Notizbuch für Bewertung, Feinabstimmung und Argumentation |
Mixtral |
Mixtrals Modell der Expertenmischung |
- Mixtral_fine_tuning.ipynb |
Feinabstimmung der Umsetzung |
VLM |
visuelles Sprachmodell |
- Florence2_finetuning_notebook.ipynb - PaliGemma_finetuning_notebook.ipynb |
Implementierung des visuellen Sprachmodells |