AIパーソナル・ラーニング
と実践的なガイダンス

Tifa-Deepsex-14b-CoT:ロールプレイングと超長編小説の生成に特化した大型モデル。

この記事は2025-02-11 08:00に更新されました。内容の一部は時間的制約があります!

はじめに

Tifa-Deepsex-14b-CoTは、Deepseek-R1-14Bの深層最適化に基づき、ロールプレイング、架空のテキスト生成、Chain of Thought (CoT)推論能力に焦点を当てた大規模モデルである。多段階の学習と最適化により、オリジナルモデルの問題点であった長文テキスト生成における一貫性の不足とロールプレイ能力の弱さを解決し、特に長距離の文脈相関を必要とする創造的なシナリオに適したモデルとなっている。高品質のデータセットとインクリメンタルな事前学習を融合させることで、このモデルは文脈の関連性を大幅に強化し、非回答を減らし、中国語と英語の混在を排除し、ロールプレイングと小説生成のパフォーマンスを向上させるためにドメイン固有の語彙を増加させる。さらに、このモデルは、深い対話と複雑なオーサリングを必要とするシナリオのために、128kの超長文コンテクストをサポートしています。

これはDeepseek-R1-14Bのバージョンで、長編小説やロールプレイング・シナリオに深く最適化されており、シンプルなAndroidクライアントがダウンロードできる。

Tifa-Deepsex-14b-CoT:超長文文脈出力をサポートするロールプレイングとフィクション生成のためのグランドモデル-1

 

機能一覧

  • ロールプレイシナリオのための詳細な対話をサポートし、キャラクターの性格や背景に合った応答を生成します。
  • 首尾一貫した長い物語や筋書きを作るために、フィクションの文章を作るスキルを提供する。
  • 論理的な推論や複雑な問題解決を必要とするシナリオに対応する思考連鎖(CoT)推論スキル。
  • 128kの超長文コンテキストをサポートし、長文テキスト生成の高い一貫性と一貫性を確保。
  • 最適化されたモデルにより、回答が拒否される現象が減少し、多様なオーサリングのニーズに対してセキュリティが適度に保たれる。
  • さまざまなハードウェア環境に対応するため、さまざまな定量化バージョン(F16、Q8、Q4など)を提供し、導入と使用を容易にする。

 

ヘルプの使用

インストールと展開

Tifa-Deepsex-14b-CoTモデルはHugging Faceプラットフォーム上でホストされており、ユーザーはハードウェア環境と要件に基づいて適切なモデルのバージョン(例:F16、Q8、Q4)を選択する必要があります。以下は、詳細なインストールと展開のプロセスです:


1.モデルのダウンロード

  • ハギング・フェイスのモデル・ページはhttps://huggingface.co/ValueFX9507/Tifa-Deepsex-14b-CoT。
  • ハードウェアの対応状況に応じて、適切な定量化バージョン(例:Q4_K_M.gguf)を選択します。対応するファイルをクリックして、モデルウェイトをダウンロードしてください。
  • Demo APKを使用する必要がある場合は、公式に提供されているデモアプリケーションを直接ダウンロードすることができます(手動でキャラクターカードをインポートし、カスタムAPIを選択する必要があります)。

2.環境準備

  • Python環境がインストールされていることを確認する(Python 3.8以上を推奨)。
  • transformersやhuggingface_hubなど、必要な依存ライブラリをインストールする。これらは以下のコマンドでインストールできる:
    pip install transformers huggingface-hub
    
  • GGUFフォーマットのモデルを使用している場合は、以下のものをインストールすることをお勧めします。 ラマ.cpp または関連するサポート・ライブラリ。は以下のコマンドでクローンし、コンパイルすることができる:
    git clone https://github.com/ggerganov/llama.cpp
    cd llama.cpp
    作る
    

3.モデル・ローディング

  • 変圧器を使ってモデルに負荷をかける:
    from transformers import AutoModelForCausalLM, AutoTokenizer
    model_name = "ValueFX9507/Tifa-Deepsex-14b-CoT"
    tokenizer = AutoTokenizer.from_pretrained(model_name)
    model = AutoModelForCausalLM.from_pretrained(model_name)
    
  • GGUFフォーマットを使用している場合は、llama.cppを介して実行することができます:
    ./main -m Tifa-Deepsex-14b-CoT-Q4_K_M.gguf --colour -c 4096 --temp 0.7 --repeat_penalty 1.1 -n -1 -p "あなたのキューワード"
    

    ここで-c 4096は、必要に応じてより大きなコンテキスト長(例えば128k)に調整できるが、ハードウェアの制限に注意すること。

4.構成と最適化

  • モデルの出力に影響を与えないように、返されるコンテキストから思考ラベル(例)を取り除くようにします。これは以下のコードで実現できる:
    content = msg.content.replace(/[◆series]◆?/gi, '')
    
  • フロントエンドインターフェースを使用する場合は、コンテキスト処理を適応させるためにフロントエンドコードを手動で修正する必要があります。

機能 操作の流れ

ロールプレイング機能

  1. キャラクター設定の入力:キャラクターの背景、性格、会話シーンなどをプロンプトで指定します。例
    あなたは謎の古代都市を探索する勇敢な冒険者ティファです。あなたの冒険を描写し、遭遇するNPCに話しかけてください。
    
  2. 応答の生成: モデルは、キャラクターの設定に基づいて、そのキャラクターらしい会話や語りを生成します。ユーザーは入力を続けることができ、モデルは文脈の一貫性を維持します。
  3. パラメーターの調整:temperature(生成されるテキストのランダム性を制御する)とrepeat_penalty(繰り返される内容を制御する)を調整して出力を最適化する。

斬新なジェネレーション機能

  1. 物語の背景を設定する:例えば、物語の始まりや概要を説明する:
    遠い王国で、若き魔道士が時の秘密を解き明かそうとする。この物語の続きをどうぞ。
    
  2. ストーリーの生成:このモデルは、プロンプトに基づいて首尾一貫した長いストーリーを生成し、複数段落の出力をサポートします。
  3. 長いコンテキストのサポート:128kコンテキストのサポートにより、ユーザーは長いストーリーのコンテキストを入力することができ、モデルはプロットの一貫性を維持します。

思考連鎖推論

  1. 複雑な問題の入力:例
    ある都市が1日あたり100トンの廃棄物を排出し、そのうち60%がリサイクル可能で、40%がリサイクル不可能な廃棄物である場合、リサイクル施設は1日あたり30トンのリサイクル可能な廃棄物しか処理できないとしたら、残りのリサイクル可能な廃棄物はどのように処理するのか。
    
  2. 推論プロセスの生成:モデルは問題を段階的に分析し、論理的で明確な答えを提供し、長期的な推論をサポートする。

ほら

  • ハードウェア要件:このモデルの実行には高度なグラフィックメモリが必要です。少なくとも16GBのグラフィックメモリを搭載したGPUまたは高性能CPUを推奨します。
  • セキュリティとコンプライアンス:このモデルはトレーニング中も特定のセキュリティ設定を保持するため、ユーザーは使用シナリオが関連法規に準拠していることを確認する必要があります。
  • コンテキストの管理:非常に長いコンテキストを使用する場合は、ハードウェアの制限を超えないように、プロンプトの単語をセグメントで入力することをお勧めします。

これらのステップにより、ユーザーはロールプレイング、小説作成、複雑な推論など、ティファ-Deepsex-14b-CoTモデルを簡単に使い始めることができ、高品質な生成結果を得ることができます。

シーディーエヌ
無断転載を禁じます:チーフAIシェアリングサークル " Tifa-Deepsex-14b-CoT:ロールプレイングと超長編小説の生成に特化した大型モデル。

チーフAIシェアリングサークル

チーフAIシェアリングサークルは、AI学習に焦点を当て、包括的なAI学習コンテンツ、AIツール、実践指導を提供しています。私たちの目標は、高品質のコンテンツと実践的な経験の共有を通じて、ユーザーがAI技術を習得し、AIの無限の可能性を一緒に探求することです。AI初心者でも上級者でも、知識を得てスキルを向上させ、イノベーションを実現するための理想的な場所です。

お問い合わせ
ja日本語