はじめに
Story-FlicksはオープンソースのAIツールで、ユーザーがHDストーリービデオを素早く生成できるようにすることに重点を置いています。ユーザーはストーリーのトピックを入力するだけで、システムは大規模な言語モデルを通じてストーリーのコンテンツを生成し、AIが生成した画像、音声、字幕と組み合わせて、完全なビデオ作品を出力します。このプロジェクトのバックエンドはPythonとFastAPIフレームワークに基づいており、フロントエンドはReact、Ant Design、Viteで構築されています。OpenAI、AliCloud、DeepSeekなどのモデルサービスプロバイダをサポートしており、ユーザーはテキストや画像の生成モデルを柔軟に選択できる。童話、短編アニメーション、教育用ビデオなど、Story-Flicksは開発者、クリエイター、教育者のニーズに簡単に応えることができる。
機能一覧
- ワンクリックでビデオを作成ストーリーのトピックを入力すると、画像、テキスト、音声、字幕を含むビデオが自動的に生成されます。
- マルチモデル対応OpenAI、Aliyun、DeepSeek、Ollamaと互換性があります。 シリコンフロー テキストと画像モデルの
- セグメントのカスタマイズユーザーはストーリーの段落数を指定でき、段落ごとに対応する画像が生成される。
- 多言語出力グローバルユーザー向けに、多言語でのテキストおよび音声生成をサポート。
- オープンソース展開手動インストールとDockerデプロイの両方を提供し、ローカルでの運用を容易にします。
- 直感的なインターフェースフロントエンドのページは使いやすく、パラメーターの選択とビデオのプレビューをサポートしています。
ヘルプの使用
設置プロセス
Story-Flicksは手動インストールとDockerデプロイの2つのインストール方法を提供しています。以下は、ユーザーがスムーズに環境を構築できるようにするための詳細な手順です。
1.手動インストール
ステップ1:プロジェクトのダウンロード
ターミナルで以下のコマンドを入力して、プロジェクトをローカルにクローンする:
git clone https://github.com/alecm20/story-flicks.git
ステップ2:モデル情報の設定
バックエンドのディレクトリに行き、環境設定ファイルをコピーする:
cd バックエンド
cp .env.example .env
見せる 環境
ファイルでテキストと画像の生成モデルを設定します。例
text_provider="openai "#テキスト生成サービスプロバイダー、openai, aliyun, deepseekなど選択可能。
image_provider="aliyun "#画像生成サービスプロバイダ。
openai_api_key="Your OpenAI key" OpenAI用の# APIキー。
aliyun_api_key="あなたのAliyunキー" # Aliyun APIキー
text_llm_model="gpt-4o" # テキストモデル、例:gpt-4o
image_llm_model="flux-dev" # 画像モデル、例:flux-dev
- OpenAIを選択する場合は、次のようにすることをお勧めします。
ガット
テキストモデルとして。ダールイー3
イメージモデルとして。 - AliCloudを選択する場合は、以下の使用をお勧めします。
クウェンプラス
もしかしたらクウェンマックス
(テキストモデリング)とフラックス・デヴ
(イメージモデル、現在無料トライアル中。アリユン・ドキュメンテーション). - 設定が完了したらファイルを保存する。
ステップ3:バックエンドの起動
ターミナルでバックエンドディレクトリに移動し、仮想環境を作成し、依存関係をインストールする:
cd backend
conda create -n story-flicks python=3.10 # Python 3.10 環境を作成する。
conda activate story-flicks # 環境を有効にします。
pip install -r requirements.txt # 依存関係をインストールする。
uvicorn main:app --reload # バックエンドサービスを開始する。
起動に成功すると、端末にこう表示される:
INFO: Uvicornがhttp://127.0.0.1:8000 (CTRL+Cで終了)
INFO: アプリケーションの起動が完了しました。
これは、バックエンド・サービスが http://127.0.0.1:8000
.
ステップ4:フロントエンドの起動
新しいターミナルでフロントエンドのディレクトリに移動し、依存関係をインストールして実行する:
cd frontend
npm install # フロントエンドの依存関係をインストールします。
npm run dev # でフロントエンドサービスを開始します。
起動に成功すると、端末にこう表示される:
VITE v6.0.7 準備完了 199 ms
➜ ローカル: http://localhost:5173/
ブラウザからアクセス http://localhost:5173/
フロントエンドのインターフェイスを見ることができる。
2.Dockerデプロイメント
ステップ1:環境を整える
DockerとDocker Composeがローカルにインストールされていることを確認し、インストールされていない場合は公式サイトからダウンロードする。
ステップ2:プロジェクトの開始
プロジェクトのルート・ディレクトリで実行する:
docker-compose up --build
Dockerは自動的にフロントエンドとバックエンドのサービスをビルドして起動する。完了したら http://localhost:5173/
フロントエンドのページを見る。
使用方法
インストール後、ユーザーはフロントエンドのインターフェイスからストーリービデオを生成することができます。具体的な操作の流れは以下の通り:
1.フロントエンド・インターフェースへのアクセス
ブラウザに入力 http://localhost:5173/
Story-Flicksのメインページが開きます。
2.発電パラメーターの設定
このインターフェイスには以下のオプションがある:
- テキスト生成モデル・プロバイダーセレクション
オベナイ
そしてアリユン
その他 - 画像生成モデル・プロバイダーセレクション
オベナイ
そしてアリユン
その他 - テキストモデルモデル名を入力してください。
ガット
もしかしたらクウェンプラス
. - イメージモデリングモデル名を入力してください。
フラックス・デヴ
もしかしたらダールイー3
. - ビデオ言語中国語や英語など、言語を選択してください。
- 声のタイプ男性、女性など、オーディオのスタイルを選択します。
- トピックス例:「ウサギとキツネの冒険」。
- ストーリーの段落数各セグメントが画像に対応するように、数字(例えば3)を入力します。
3.ビデオ生成
パラメータを入力した後、「生成」ボタンをクリックしてください。システムは設定に従ってビデオを生成します。生成時間は段落数に関係し、段落数が多いほど時間がかかります。完成したら、ビデオはページに表示され、再生とダウンロードをサポートします。
ほら
- 生成に失敗した場合は
環境
ファイルに正しいAPIキーを入力するか、ネットワーク接続が機能していることを確認してください。 - 利用する オーラマ 設定時
ollama_api_key="ollama"
おすすめクウェン2.5:14b
またはそれ以上のモデルでは、小型のモデルではうまく動作しない場合があります。 - SiliconFlowのイメージモデルはまだテストされていない。
BLACK-forest-labs/FLUX.1-dev
対応機種をお選びください。
注目の機能操作
ワンクリックでフルビデオを生成
インターフェイスで「オオカミとウサギの物語」と入力し、3つの段落を設定して「生成」をクリックします。数分後、3つの画像、ナレーション、字幕が入ったビデオが出来上がります。例えば、公式デモビデオでは、「ウサギとキツネ」と「オオカミとウサギ」の物語が紹介されています。
多言語サポート
英語のビデオを作成したいですか?ビデオ言語」を「英語」に設定すれば、システムは英語のテキスト、音声、字幕を生成します。他の言語への切り替えも簡単です。
カスタム・セグメンテーション
長いストーリーが必要ですか?段落数を5以上に設定してください。段落ごとに新しい画像が生成され、それに応じてストーリーが展開します。
以上の手順で、Story-Flicksを簡単にインストールして使用し、HDストーリーテリングビデオを素早く作成することができます。個人的な娯楽であれ、教育目的であれ、このツールはクリエイティブな作業に役立ちます!