AIパーソナル・ラーニング
と実践的なガイダンス

AI工学研究所:3ファインチューニング(大規模言語モデルの微調整)

データベースの構造

モデル/カタログ 説明と内容
アホロートル 言語モデルを微調整するフレームワーク
ジェマ グーグルのビッグ言語モデルの最新実装
finetune-gemma.ipynb(ファインチューン・ゲンマ・アイピーエヌビー - gemma-sft.py - ジェンマ_ファインチューニング_ノートブック.ipynb ノートブックとスクリプトの微調整
ラマ2 メタのオープンソース大規模言語モデル
generate_response_stream.py - ラマ2_ファインチューニング_ノートブック.ipynb - ラマ2_ファイン_チューニング_使用_QLora.ipynb 実施と微調整のガイドライン
ラマ3 メタ大規模言語モデリングの今後の実験
ラマ3_ファインチューニング_ノートブック.ipynb 初期微調整実験
ラマファクトリー 大規模言語モデルの学習と展開のためのフレームワーク
LLMArchitecture/ParameterCount モデル・アーキテクチャの技術的詳細
ミストラル-7b ミストラルAI 70億パラメータモデル
LLM_evaluation_harness_for_Arc_Easy_and_SST.ipynb - ミストラル_実験室_ファインチューン_ipynb_実験室_最終.ipynb - ノートブック_chatml_inference.ipynb - ノートブック_DPO_ファインチューニング.ipynb - ノート_SFTTrainer TRL.ipynb - SFT.py 評価、微調整、推論のための統合ノートブック
ミクストラル ミックストラルのエキスパート・ミキシング・モデル
ミクストラル・ファイン・チューニング.ipynb 微調整の実現
ブイエルエム 視覚言語モデル
Florence2_finetuning_notebook.ipynb - PaliGemma_finetuning_notebook.ipynb 視覚言語モデルの実装

モジュールの概要

1.LLMアーキテクチャ

  • 以下のモデルの実装を調べる:
    • ラマ2(メタのオープンソースモデル)
    • Mistral-7b(効率的な70億パラメータモデル)
    • ミクストラル(エキスパート混合アーキテクチャ)
    • ジェマ(グーグルの最新寄稿文)
    • ラマ3(今後の実験)

2. 🛠️ 微調整技術

  • 実施戦略
  • LoRA(低ランク適応)の方法論
  • 高度な最適化手法

3. 🏗️ モデルのアーキテクチャ分析

  • モデルの構造に関する徹底的な研究
  • パラメータ算出方法
  • スケーラビリティに関する考察

4. 🔧 職業上の充実感

  • プログラミング・タスクのためのコードラマ
  • 視覚言語モデリング:
    • フローレンス2
    • パリジェンマ

5.💻実践的アプリケーション

  • 統合されたジュピター・ノートブック
  • レスポンス・ジェネレーション・パイプライン
  • 推論実施ガイド

6. 🚀 高度なテーマ

  • DPO(ダイレクト・プリファレンス・オプティマイゼーション)
  • SFT(スーパーバイズド・ファイン・チューニング)
  • 評価方法
AIイージー・ラーニング

AIを始めるための素人ガイド

AIツールの活用方法を、低コスト・ゼロベースから学ぶことができます。AIはオフィスソフトと同様、誰にとっても必須のスキルです。 AIをマスターすれば、就職活動で有利になり、今後の仕事や勉強の労力も半減します。

詳細を見る
無断転載を禁じます:チーフAIシェアリングサークル " AI工学研究所:3ファインチューニング(大規模言語モデルの微調整)

チーフAIシェアリングサークル

チーフAIシェアリングサークルは、AI学習に焦点を当て、包括的なAI学習コンテンツ、AIツール、実践指導を提供しています。私たちの目標は、高品質のコンテンツと実践的な経験の共有を通じて、ユーザーがAI技術を習得し、AIの無限の可能性を一緒に探求することです。AI初心者でも上級者でも、知識を得てスキルを向上させ、イノベーションを実現するための理想的な場所です。

お問い合わせ
ja日本語