建设网站学习,wordpress 增加icon,百度推广客户端电脑版,写小说赚钱的网站一、概述 本章是《Stable Diffusion 从入门到企业级实战》系列的第四部分能力进阶篇《Stable Diffusion ControlNet v1.1 图像精准控制》第02节#xff0c; 利用Stable Diffusion ControlNet Openpose模型精准控制图像生成。上一节#xff0c;我们介绍了《Stable Diffusion C…一、概述 本章是《Stable Diffusion 从入门到企业级实战》系列的第四部分能力进阶篇《Stable Diffusion ControlNet v1.1 图像精准控制》第02节 利用Stable Diffusion ControlNet Openpose模型精准控制图像生成。上一节我们介绍了《Stable Diffusion ControlNet Inpaint模型精准控制》本部分内容位于整个Stable Diffusion生态体系的位置如下图黄色部分所示 二、定义
ControlNet v1.1 共提供了14个功能模型每一个模型对应一个适用的业务场景具体的模型信息如下图所示 本文介绍的是ControlNet Openpose模型Stable Diffusion openpose是在Stable Diffusion的图像生成过程中,结合openpose姿态估计技术,从而实现基于人体姿态的图像生成。
Openpose是一个通过深度学习来进行人体姿态估计的工具。它可以检测图片或视频中的人体,定位关键点,输出人体的骨架图和姿态。
三、工作流程
使用ControlNet Openpose工作流程如下图所示 完整的工作流程描述如下所示
使用Openpose检测输入的人体姿态图片,提取出人体骨架关键点。将提取出的骨架关键点作为条件,输入到Stable Diffusion中。Stable Diffusion结合关键点和其他文本描述,生成具有相应人体姿态的新图像。
四、创作成果
利用ControlNet Openpose技术通过姿态检测实现的图像精准控制效果如下图所示 目标人物和源人物保持同样的姿态信息。
五、创作过程
5.1 工作步骤
整个的创作过程可以分为4个步骤如下图所示 环境部署启动ControlNet Openpose WebUI服务
模型下载下载ControlNet Openpose WebUI模型
操作实战选择输入、配置参数和运行
运行演示展示图像生成的效果
5.2 环境部署
为了降低集成封装对于我们了解底层实现的影响我们采用的ControlNet v1.1 原生框架部署而非集成可视化界面环境具体的ControlNet Openpose服务程序如下图所示我们只需要启动该程序即可 5.3 模型下载
ControlNet v1.1 Openpose 预训练模型主要有两个如下图所示 5.4 操作实战
因为是可视化操作界面可以一目了然的了解操作的方法和过程具体细节我们不再赘述直接上配置界面如下图所示 5.5 运行演示 六、小结
本章是《Stable Diffusion 从入门到企业级实战》系列的第四部分能力进阶篇《Stable Diffusion ControlNet v1.1 图像精准控制》第02节 利用Stable Diffusion ControlNet Openpose模型精准控制图像生成。 上一节我们介绍了《Stable Diffusion ControlNet Inpaint模型精准控制》下一节我们将给大家带来利用《Stable Diffusion ControlNet Canny边缘检测精准控制图像生成》。