Go to file
lipku 6294f64795 add musetalk init 2024-05-25 06:33:59 +08:00
assets update readme 2024-05-19 18:32:40 +08:00
data add voice clone 2024-02-25 18:54:40 +08:00
ernerf adjust directory struct 2024-05-02 21:05:16 +08:00
funasr fix gpt_voits 2024-04-19 22:29:08 +08:00
llm Merge pull request #60 from kuun993/main 2024-04-19 22:34:18 +08:00
musetalk add musetalk init 2024-05-25 06:33:59 +08:00
tts improve tts config 2024-04-21 18:19:24 +08:00
web add api to human 2024-05-06 08:14:06 +08:00
.gitignore git init 2023-12-20 17:30:25 +08:00
Dockerfile add docker 2024-01-07 14:19:21 +08:00
LICENSE Initial commit 2023-12-19 09:32:47 +08:00
README.md update readme 2024-05-19 18:32:40 +08:00
app.py improve audio quality 2024-05-12 10:30:47 +08:00
asrreal.py support custom video in silence 2024-05-04 10:10:41 +08:00
nerfreal.py improve audio quality 2024-05-12 10:30:47 +08:00
requirements.txt improve audio quality 2024-05-12 10:30:47 +08:00
webrtc.py improve audio quality 2024-05-12 10:30:47 +08:00

README.md

A streaming digital human based on the Ernerf model realize audio video synchronous dialogue. It can basically achieve commercial effects.
基于ernerf模型的流式数字人实现音视频同步对话。基本可以达到商用效果

效果演示

Features

  1. 支持声音克隆
  2. 支持大模型对话
  3. 支持多种音频特征驱动wav2vec、hubert
  4. 支持全身视频拼接
  5. 支持rtmp和webrtc
  6. 支持视频编排:不说话时播放自定义视频

1. Installation

Tested on Ubuntu 20.04, Python3.10, Pytorch 1.12 and CUDA 11.3

1.1 Install dependency

conda create -n nerfstream python=3.10
conda activate nerfstream
conda install pytorch==1.12.1 torchvision==0.13.1 cudatoolkit=11.3 -c pytorch
pip install -r requirements.txt
pip install "git+https://github.com/facebookresearch/pytorch3d.git"
pip install tensorflow-gpu==2.8.0
pip install --upgrade "protobuf<=3.20.1"

安装常见问题FAQ
linux cuda环境搭建可以参考这篇文章 https://zhuanlan.zhihu.com/p/674972886

2. Quick Start

默认采用webrtc推流到srs

2.1 运行rtmpserver (srs)

export CANDIDATE='<服务器外网ip>'
docker run --rm --env CANDIDATE=$CANDIDATE \
  -p 1935:1935 -p 8080:8080 -p 1985:1985 -p 8000:8000/udp \
  registry.cn-hangzhou.aliyuncs.com/ossrs/srs:5 \
  objs/srs -c conf/rtc.conf

2.2 启动数字人:

python app.py

如果访问不了huggingface在运行前

export HF_ENDPOINT=https://hf-mirror.com

用浏览器打开http://serverip:8010/rtcpush.html, 在文本框输入任意文字,提交。数字人播报该段文字
备注:服务端需要开放端口 tcp:8000,8010,1985; udp:8000

3. More Usage

3.1 使用LLM模型进行数字人对话

目前借鉴数字人对话系统LinlyTalker的方式LLM模型支持Chatgpt,Qwen和GeminiPro。需要在app.py中填入自己的api_key。

用浏览器打开http://serverip:8010/rtcpushchat.html

3.2 声音克隆

可以任意选用下面两种服务推荐用gpt-sovits

3.2.1 gpt-sovits

服务部署参照gpt-sovits
运行

python app.py --tts gpt-sovits --TTS_SERVER http://127.0.0.1:5000 --CHARACTER test --EMOTION default

3.2.2 xtts

运行xtts服务参照 https://github.com/coqui-ai/xtts-streaming-server

docker run --gpus=all -e COQUI_TOS_AGREED=1 --rm -p 9000:80 ghcr.io/coqui-ai/xtts-streaming-server:latest

然后运行其中ref.wav为需要克隆的声音文件

python app.py --tts xtts --REF_FILE data/ref.wav --TTS_SERVER http://localhost:9000

3.3 音频特征用hubert

如果训练模型时用的hubert提取音频特征用如下命令启动数字人

python app.py --asr_model facebook/hubert-large-ls960-ft 

3.4 设置背景图片

python app.py --bg_img bg.jpg 

3.5 全身视频拼接

3.5.1 切割训练用的视频

ffmpeg -i fullbody.mp4 -vf crop="400:400:100:5" train.mp4 

用train.mp4训练模型

3.5.2 提取全身图片

ffmpeg -i fullbody.mp4 -vf fps=25 -qmin 1 -q:v 1 -start_number 0 data/fullbody/img/%d.jpg

3.5.2 启动数字人

python app.py --fullbody --fullbody_img data/fullbody/img --fullbody_offset_x 100 --fullbody_offset_y 5 --fullbody_width 580 --fullbody_height 1080 --W 400 --H 400
  • --fullbody_width、--fullbody_height 全身视频的宽、高
  • --W、--H 训练视频的宽、高
  • ernerf训练第三步torso如果训练的不好在拼接处会有接缝。可以在上面的命令加上--torso_imgs data/xxx/torso_imgstorso不用模型推理直接用训练数据集里的torso图片。这种方式可能头颈处会有些人工痕迹。

3.6 不说话时用自定义视频替代

  • 提取自定义视频图片
ffmpeg -i silence.mp4 -vf fps=25 -qmin 1 -q:v 1 -start_number 0 data/customvideo/img/%d.png
  • 运行数字人
python app.py --customvideo --customvideo_img data/customvideo/img --customvideo_imgnum 100

3.7 webrtc p2p

此种模式不需要srs

python app.py --transport webrtc

用浏览器打开http://serverip:8010/webrtc.html

3.8 rtmp推送到srs

docker run --rm -it -p 1935:1935 -p 1985:1985 -p 8080:8080 registry.cn-hangzhou.aliyuncs.com/ossrs/srs:5
  • 运行数字人
python app.py --transport rtmp --push_url 'rtmp://localhost/live/livestream'

用浏览器打开http://serverip:8010/echo.html

4. Docker Run

不需要第1步的安装直接运行。

docker run --gpus all -it --network=host --rm  registry.cn-hangzhou.aliyuncs.com/lipku/nerfstream:v1.3

docker版本已经不是最新代码可以作为一个空环境把最新代码拷进去运行。
另外提供autodl镜像https://www.codewithgpu.com/i/lipku/metahuman-stream/base

5. Data flow

6. 数字人模型文件

可以替换成自己训练的模型(https://github.com/Fictionarry/ER-NeRF)

.
├── data
   ├── data_kf.json
   ├── au.csv			
   ├── pretrained
   └── └── ngp_kf.pth

7. 性能分析

  1. 帧率
    在Tesla T4显卡上测试整体fps为18左右如果去掉音视频编码推流帧率在20左右。用4090显卡可以达到40多帧/秒。
    优化:新开一个线程运行音视频编码推流
  2. 延时
    整体延时3s左右
    1tts延时1.7s左右目前用的edgetts需要将每句话转完后一次性输入可以优化tts改成流式输入
    2wav2vec延时0.4s需要缓存18帧音频做计算 3srs转发延时设置srs服务器减少缓冲延时。具体配置可看 https://ossrs.net/lts/zh-cn/docs/v5/doc/low-latency

8. TODO

  • 添加chatgpt实现数字人对话
  • 声音克隆
  • 数字人静音时用一段视频代替
  • MuseTalk

如果本项目对你有帮助帮忙点个star。也欢迎感兴趣的朋友一起来完善该项目。
Email: lipku@foxmail.com
知识星球: https://t.zsxq.com/7NMyO
微信公众号:数字人技术