一个简单易懂的 TTS / SVS / SVC 框架.
从阅读 Wiki 开始!
-
获取授权和知识产权侵权:用户应自行负责获取其培训过程中所使用的任何数据集的必要授权,并对因使用输入源而产生的任何侵权问题承担全部责任。Fish Diffusion 及其开发者不承担因使用未授权数据集而可能产生的任何问题的责任。
-
适当归属:任何基于 Fish Diffusion 的衍生作品都必须明确表示项目及其许可证。在分发 Fish Diffusion 的代码或发布由该项目生成的结果时,用户必须注明原始作者和源代码(Fish Diffusion)。
-
音频视觉内容及 AI 生成披露:使用 Fish Diffusion 创建的所有衍生作品,包括音频或视频素材,必须明确表示使用了 Fish Diffusion 项目,并声明内容是 AI 生成的。如果使用第三方发布的视频或音频,必须提供原始链接。
-
同意条款:通过继续使用 Fish Diffusion,用户明确同意本文档中所述的条款和条件。Fish Diffusion 及其开发者不对可能出现的任何后续问题承担责任。
基于 DiffSinger 实现歌声音色转换。相较于原 diffsvc 仓库,本仓库优缺点如下
- 支持多说话人
- 本仓库代码结构更简单易懂, 模块全部解耦
- 声码器同样使用 44.1khz Diff Singer 社区声码器
- 支持多机多卡训练, 支持半精度训练, 拯救你的训练速度和显存
以下命令需要在 python 3.10 的 conda 环境下执行
# 安装 PyTorch 相关核心依赖, 如果已安装则跳过
# 参考 https://pytorch.org/get-started/locally/
conda install "pytorch>=2.0.0" "torchvision>=0.15.0" "torchaudio>=2.0.0" pytorch-cuda=11.8 -c pytorch -c nvidia
# 安装 PDM 依赖管理工具, 如果已安装则跳过
# 参考 https://pdm.fming.dev/latest/
curl -sSL https://raw.githubusercontent.com/pdm-project/pdm/main/install-pdm.py | python3 -
# 安装依赖 (推荐)
pdm sync
# 如果 PDM 不可用, 或者速度较慢, 可以使用 pip 安装依赖
pip install -r requirements.txt
pip install -e .
Fish Diffusion 需要 FishAudio NSF-HiFiGAN 声码器来生成音频.
python tools/download_nsf_hifigan.py
如果你的训练环境处于国内, 可以使用 GitHub Proxy 来加速下载.
python tools/download_nsf_hifigan.py --use-ghproxy
如果你正在使用脚本自动化训练, 可以使用传参 --agree-license
的方式同意 CC BY-NC-SA 4.0 许可证.
python tools/download_nsf_hifigan.py --agree-license
下载 Fish Diffusion Release 中的 nsf_hifigan-stable-v1.zip
解压 nsf_hifigan
文件夹到 checkpoints
目录下 (如果没有则创建)
如果你想手动下载 ContentVec, 你可以从 这里 下载, 并将其放入 checkpoints
目录下.
仅需要以以下文件结构将数据集放入 dataset 目录即可
dataset
├───train
│ ├───xxx1-xxx1.wav
│ ├───...
│ ├───Lxx-0xx8.wav
│ └───speaker0 (支持子目录)
│ └───xxx1-xxx1.wav
└───valid
├───xx2-0xxx2.wav
├───...
└───xxx7-xxx007.wav
# 提取全部数据的特征, 如 pitch, text features, mel features 等
python tools/preprocessing/extract_features.py --config configs/svc_hubert_soft.py --path dataset/train --clean
该项目仍在积极开发, 请记得备份你的 config 文件
该项目仍在积极开发, 请记得备份你的 config 文件
该项目仍在积极开发, 请记得备份你的 config 文件
# 单机单卡 / 单机多卡训练
python tools/diffusion/train.py --config configs/svc_hubert_soft.py
# 多机训练
python tools/diffusion/train.py --config configs/svc_content_vec_multi_node.py
# 需要在每个节点上配置环境变量,具体请见 https://pytorch-lightning.readthedocs.io/en/1.6.5/clouds/cluster.html
# 继续训练
python tools/diffusion/train.py --config configs/svc_hubert_soft.py --resume [checkpoint file]
# 微调预训练模型
# 注意: 你应该调整配置文件中的学习率调度器为 warmup_cosine_finetune
python tools/diffusion/train.py --config configs/svc_cn_hubert_soft_finetune.py --pretrained [checkpoint file]
# 命令行推理, 你可以使用 --help 查看更多参数
python tools/diffusion/inference.py --config [config] \
--checkpoint [checkpoint file] \
--input [input audio] \
--output [output audio]
# Gradio Web 推理, 其他参数会被转为 Gradio 默认参数
python tools/diffusion/inference.py --config [config] \
--checkpoint [checkpoint file] \
--gradio
python tools/diffusion/diff_svc_converter.py --config configs/svc_hubert_soft_diff_svc.py \
--input-path [DiffSVC ckpt] \
--output-path [Fish Diffusion ckpt]
如果你有任何问题, 请提交 issue 或 pull request.
你应该在提交 pull request 之前运行 pdm run lint
实时预览文档
pdm run docs
- diff-svc original
- diff-svc optimized
- DiffSinger Paper
- so-vits-svc
- iSTFTNet Paper
- CookieTTS
- HiFi-GAN Paper
- Retrieval-based-Voice-Conversion