AIパーソナル・ラーニング
と実践的なガイダンス
讯飞绘镜

Parler-TTS: 入力テキストから話者固有の音声合成モデルを生成する

はじめに

Parler-TTSは、Hugging Face社によって開発された、高品質で自然な音声を生成するためのオープンソースの音声合成(TTS)モデルライブラリです。Parler-TTSは、論文 "Natural language guidance of high-fidelity text-to-speech with synthetic "の研究成果に基づいています。Parler-TTSは、論文「Natural language guidance of high-fidelity text-to-speech with synthetic annotations(合成アノテーションを用いた高忠実度音声合成の自然言語ガイダンス)」の研究成果に基づいており、データセット、前処理、学習コード、重みのすべてが公開されている完全なオープンソースです。

Parler-TTS:根据输入文本生成特定说话人风格的文本转语音模型-1


 

機能一覧

  • 高品質スピーチ生成複数の話者スタイルをサポートし、自然で滑らかな音声を生成します。
  • オープンソースすべてのコードとモデルのウエイトは、地域社会の発展と改善のために一般に公開されている。
  • 軽量な依存関係インストールも使用も簡単で、依存関係もほとんどありません。
  • 複数のモデル・バージョン例えば、Parler-TTS MiniとParler-TTS Largeです。
  • クイック・ジェネレーションSDPAとフラッシュ・アテンション2に対応し、生成速度を最適化。
  • データセットとウェイト豊富なデータセットと訓練済みモデルの重みを提供し、訓練と微調整を容易にします。

 

ヘルプの使用

設置プロセス

  1. Python環境がインストールされていることを確認する。
  2. Parler-TTSライブラリをインストールするには、以下のコマンドを使用します:
复制复制复制复制复制复制复制复制复制
复制
   pip install git+https://github.com/huggingface/parler-tts.git
  1. アップル・シリコン・ユーザーの場合は、以下のコマンドを実行してbfloat16をサポートする:
复制复制复制复制复制复制复制复制
复制
   pip3 install --pre torch torchaudio --index-url https://download.pytorch.org/whl/nightly/cpu

使用方法

ランダムスピーチの生成

  1. 必要なライブラリをインポートする:
复制复制复制复制复制复制复制
复制
   import torch
from parler_tts import ParlerTTSForConditionalGeneration
from transformers import AutoTokenizer
import soundfile as sf
  1. モデルとスプリッターをロードする:
复制复制复制复制复制复制
复制
   device = "cuda:0" if torch.cuda.is_available() else "cpu"
model = ParlerTTSForConditionalGeneration.from_pretrained("parler-tts/parler-tts-mini-v1").to(device)
tokenizer = AutoTokenizer.from_pretrained("parler-tts/parler-tts-mini-v1")
  1. テキストを入力し、音声を生成します:
复制复制复制复制复制
复制
   prompt = "Hey, how are you doing today?"
description = "A female speaker delivers a slightly expressive and animated speech with a moderate speed and pitch."
inputs = tokenizer(prompt, return_tensors="pt").to(device)
outputs = model.generate(**inputs, description=description)
sf.write("output.wav", outputs.cpu().numpy(), 22050)

特定のスピーカーのスタイルでスピーチを作成する

  1. 特定のスピーカーのスタイルを使った説明:
复制复制复制复制
复制
   description = "A male speaker with a deep voice and slow pace."
inputs = tokenizer(prompt, return_tensors="pt").to(device)
outputs = model.generate(**inputs, description=description)
sf.write("output_specific.wav", outputs.cpu().numpy(), 22050)

トレーニングモデル

  1. データセットをダウンロードして準備する。
  2. モデルのトレーニングは、提供されたトレーニングコードを使用して実行されます:
复制复制复制
复制
   python train.py --dataset_path /path/to/dataset --output_dir /path/to/output

最適化された推論

  1. SDPAとFlash Attention 2を使用して最適化:
复制复制
复制
   model = ParlerTTSForConditionalGeneration.from_pretrained("parler-tts/parler-tts-mini-v1", use_flash_attention=True).to(device)
無断転載を禁じます:チーフAIシェアリングサークル " Parler-TTS: 入力テキストから話者固有の音声合成モデルを生成する
ja日本語