Axolotl |
用于微调语言模型的框架 |
Gemma |
Google 最新的大语言模型实现 |
- finetune-gemma.ipynb - gemma-sft.py - Gemma_finetuning_notebook.ipynb |
微调笔记本和脚本 |
LLama2 |
Meta 的开源大语言模型 |
- generate_response_stream.py - Llama2_finetuning_notebook.ipynb - Llama_2_Fine_Tuning_using_QLora.ipynb |
实现和微调指南 |
Llama3 |
即将推出的 Meta 大语言模型实验 |
- Llama3_finetuning_notebook.ipynb |
初始微调实验 |
LlamaFactory |
大语言模型的训练和部署框架 |
LLMArchitecture/ParameterCount |
模型架构的技术细节 |
Mistral-7b |
Mistral AI 的 70 亿参数模型 |
- LLM_evaluation_harness_for_Arc_Easy_and_SST.ipynb - Mistral_Colab_Finetune_ipynb_Colab_Final.ipynb - notebooks_chatml_inference.ipynb - notebooks_DPO_fine_tuning.ipynb - notebooks_SFTTrainer TRL.ipynb - SFT.py |
用于评估、微调和推理的综合笔记本 |
Mixtral |
Mixtral 的专家混合模型 |
- Mixtral_fine_tuning.ipynb |
微调实现 |
VLM |
视觉语言模型 |
- Florence2_finetuning_notebook.ipynb - PaliGemma_finetuning_notebook.ipynb |
视觉语言模型的实现 |