質問やディスカッションには専用チャンネルをご利用ください。ヘルプは、より多くの人が恩恵を受けることができるように公開されている場合、はるかに価値があります。
タイプ | プラットフォーム |
---|---|
GitHub イシュー トラッカー | |
GitHub イシュー トラッカー | |
Github ディスカッション | |
Github ディスカッションまたはGitter Room |
タイプ | リンク |
---|---|
ドキュメントを読む | |
TTS/README.md | |
CONTRIBUTING.md | |
主な開発計画 | |
TTS リリースと実験モデル |
下線部の「TTS*」と「Judy*」は
Trainer API。
dataset_analysis。
また、より多くのモデルの実装を支援することもできます。
リリースされた音声で音声を合成することにのみ興味がある場合
pip install TTS
モデルのコーディングまたはトレーニングを計画している場合は、クローンを作成します
git clone https://github.com/coqui-ai/TTS
pip install -e .[all,dev,notebooks] # Select the relevant extras
Ubuntu (Debian) を使用している場合は、次のコマンドを実行してインストールすることもできます。
$ make system-deps # intended to be used on Ubuntu (Debian). Let us know if you have a different OS.
$ make install
Windows を使用している場合は、
提供されたモデルを一覧表示します。
$ tts --list_models
モデル情報を取得します (tts_models と vocoder_models の両方について):
タイプ/名前によるクエリ: model_info_by_name は --list_models からの名前をそのまま使用します。
$ tts --model_info_by_name "<model_type>/<language>/<dataset>/<model_name>"
例えば:
$ tts --model_info_by_name tts_models/tr/common-voice/glow-tts
$ tts --model_info_by_name vocoder_models/en/ljspeech/hifigan_v2
タイプ/idx によるクエリ: model_query_idx は、--list_models からの対応する idx を使用します。
$ tts --model_info_by_idx "<model_type>/<model_query_idx>"
例えば:
$ tts --model_info_by_idx tts_models/3
デフォルト モデルで TTS を実行します。
$ tts --text "Text for TTS" --out_path output/path/speech.wav
デフォルトのボコーダー モデルで TTS モデルを実行します。
$ tts --text "Text for TTS" --model_name "<model_type>/<language>/<dataset>/<model_name>" --out_path output/path/speech.wav
例えば:
$ tts --text "Text for TTS" --model_name "tts_models/en/ljspeech/glow-tts" --out_path output/path/speech.wav
リストから特定の TTS およびボコーダー モデルで実行します。
$ tts --text "Text for TTS" --model_name "<model_type>/<language>/<dataset>/<model_name>" --vocoder_name "<model_type>/<language>/<dataset>/<model_name>" --out_path output/path/speech.wav
例えば:
$ tts --text "Text for TTS" --model_name "tts_models/en/ljspeech/glow-tts" --vocoder_name "vocoder_models/en/ljspeech/univnet" --out_path output/path/speech.wav
独自の TTS モデルを実行します (Griffin-Lim Vocoder を使用):
$ tts --text "Text for TTS" --model_path path/to/model.pth --config_path path/to/config.json --out_path output/path/speech.wav
独自の TTS およびボコーダー モデルを実行します。
$ tts --text "Text for TTS" --model_path path/to/config.json --config_path path/to/model.pth --out_path output/path/speech.wav --vocoder_path path/to/vocoder.pth --vocoder_config_path path/to/vocoder_config.json
利用可能なスピーカーを一覧表示し、その中から <speaker_id> として選択します。
$ tts --model_name "<language>/<dataset>/<model_name>" --list_speaker_idxs
マルチスピーカー TTS モデルをターゲット スピーカー ID で実行します。
$ tts --text "Text for TTS." --out_path output/path/speech.wav --model_name "<language>/<dataset>/<model_name>" --speaker_idx <speaker_id>
独自のマルチスピーカー TTS モデルを実行します。
$ tts --text "Text for TTS" --out_path output/path/speech.wav --model_path path/to/config.json --config_path path/to/model.pth --speakers_file_path path/to/speaker.json --speaker_idx <speaker_id>
|- notebooks/ (Jupyter Notebooks for model evaluation, parameter selection and data analysis.) |- utils/ (common utilities.) |- TTS |- bin/ (folder for all the executables.) |- train*.py (train your target model.) |- distribute.py (train your TTS model using Multiple GPUs.) |- compute_statistics.py (compute dataset statistics for normalization.) |- ... |- tts/ (text to speech models) |- layers/ (model layer definitions) |- models/ (model definitions) |- utils/ (model specific utilities.) |- speaker_encoder/ (Speaker Encoder models.) |- (same) |- vocoder/ (Vocoder models.) |- (same)