LivePortrait的Comfyui版本。
!! 支持多人脸 、不同的脸 指定不同的动画
更新
expression_editor:
表情代码:修改自ComfyUI-AdvancedLivePortrait
face crop 模型参考comfyui-ultralytics-yolo
下载 face_yolov8m.pt 或者 face_yolov8n.pt 到 models/ultralytics/bbox/
ExpressionVideoNode:
可以创建2个表情之间的插值动画了!
教程
workflow
配合 comfyui-mixlab-nodes 使用
支持视频模式 video-to-video
全家福
Nodes
Live Portrait,用于生成动态肖像。
输入参数: source_image:输入一张静态图像,作为生成动态肖像的基础。 driving_video:输入一个驱动视频,决定动态肖像的动作和表情变化。 crop_info:输入人脸裁剪信息,用于指定人脸的裁剪区域。
输出: video:输出生成的动态肖像视频。 video_concat:输出与驱动视频合成后的动态肖像视频(如果有的话)。
Face Crop Info,用于提取图像中的人脸裁剪信息。
可调参数: face_sorting_direction:设置人脸排序方向,可选值为 "left-right"(从左到右)或 "large-small"(从大到小)。用于在图像中包含多张人脸时,确定哪张人脸优先处理。
face_index:指定要处理的人脸索引,默认值为 -1,表示处理所有检测到的人脸。可以设置为特定的索引值以选择特定的人脸。
debug:开启或关闭调试模式。设置为 true 时,会输出调试图像以便查看人脸检测和裁剪区域;设置为 false 时,不输出调试图像。
Retargeting 可开关eye lip是否驱动
models
放置到
Comfyui/models/liveportrait
Comfyui/models/insightface
python环境依赖
如果安装了 comfyui-mixlab-nodes ,是不需要再安装新的依赖的。