如何使用Wav2Lip进行音频转视频?
文章目录
前言
提示:基本准备工作:
项目名称: Wav2Lip
git地址 : https://github.com/Rudrabha/Wav2Lip.git
工具:
使用语言: python
编辑器: PyCharm
包管理工具: Anaconda
一、基本环境配置流程
- Python 3.6 语言环境
- ffmpeg: sudo apt-get install ffmpeg 安装
- pip install -r requirements.txt 【系统用要求安装的依赖包】
- 人脸检测预训练模型应下载到Face_detection/detection/sfd/s3fd.pth。如果以上内容不起作用,请选择其他链接。【需要一个预训练模型】
**
在 PyCharm 中 新建一个项目 并关联 Anaconda 创建一个新的环境
**
注意: 在项目的 pip install requirements.txt 文件中
librosa==0.7.0
numpy==1.17.1
opencv-contrib-python>=4.2.0.34
opencv-python==4.1.0.25
torch==1.1.0 这个地方最好改成 torch==1.10.0 加一个 0
torchvision==0.3.0
tqdm==4.45.0
numba==0.48 至于这个地方版本冲突的问题 最好直接删除与他冲突的包 pip uninstall
二、下载模型
获得模型
模型说明
Wav2Lip | 高度精确的唇同步 |
---|---|
Wav2Lip + GAN | 嘴唇同步稍差,但视觉质量更好 |
Expert Discriminator | 专家鉴别器的权重 |
Visual Quality Discriminator | 在GAN设置中训练的视盘重量 |
根据自己需求在git地址中进行下载
项目根目录/Face_detection/detection/sfd/模型放置位置
1.命令行启动
代码如下(示例):
命令行启动开始生成
python inference.py --checkpoint_path /face_detection/detection/sfd/wav2lip.pth --face video.mp4 --audio 1.mp3
根据需求进行修改或者在根目录中添加目录,然后在启动命令中也要添加文件夹路径在命令中
总结
下一节开始配置如何训练自己的模型