アホロートル |
言語モデルを微調整するフレームワーク |
ジェマ |
グーグルのビッグ言語モデルの最新実装 |
- finetune-gemma.ipynb(ファインチューン・ゲンマ・アイピーエヌビー - gemma-sft.py - ジェンマ_ファインチューニング_ノートブック.ipynb |
ノートブックとスクリプトの微調整 |
ラマ2 |
メタのオープンソース大規模言語モデル |
- generate_response_stream.py - ラマ2_ファインチューニング_ノートブック.ipynb - ラマ2_ファイン_チューニング_使用_QLora.ipynb |
実施と微調整のガイドライン |
ラマ3 |
メタ大規模言語モデリングの今後の実験 |
- ラマ3_ファインチューニング_ノートブック.ipynb |
初期微調整実験 |
ラマファクトリー |
大規模言語モデルの学習と展開のためのフレームワーク |
LLMArchitecture/ParameterCount |
モデル・アーキテクチャの技術的詳細 |
ミストラル-7b |
ミストラルAI 70億パラメータモデル |
- LLM_evaluation_harness_for_Arc_Easy_and_SST.ipynb - ミストラル_実験室_ファインチューン_ipynb_実験室_最終.ipynb - ノートブック_chatml_inference.ipynb - ノートブック_DPO_ファインチューニング.ipynb - ノート_SFTTrainer TRL.ipynb - SFT.py |
評価、微調整、推論のための統合ノートブック |
ミクストラル |
ミックストラルのエキスパート・ミキシング・モデル |
- ミクストラル・ファイン・チューニング.ipynb |
微調整の実現 |
ブイエルエム |
視覚言語モデル |
- Florence2_finetuning_notebook.ipynb - PaliGemma_finetuning_notebook.ipynb |
視覚言語モデルの実装 |