我用Stable diffusion复活了一个动漫女孩lofi girl

简介: 通过Stable diffusion的img2img功能,借助control net 把动漫人物还原成真实人物使用到的技术Stable diffusion web ui、control net、img2img以及prompt进行微调

1、先看效果

原图和结果对比.png


2、环境搭建

1.安装control_sd15_canny模型

!wget  https://huggingface.co/lllyasviel/ControlNet/resolve/main/models/control_sd15_canny.pth  -O /content/stable-diffusion-webui/extensions/sd-webui-controlnet/models/control_sd15_canny.pth


3、操作步骤汇总

1.基于原图+prompt生成第一版

2.把第一版的结果作为新的原图进行细节微调,生成第二版

3.把第二版的结果作为新的原图进行细节微调,生成最终结果

通过以上三步完成想要的结果(如果过程不理想可能还需要增加更多步骤)


4、详细操作步骤

4.1、基于原图+prompt生成第一版

参数如下:

Studying girl, best quality, ultra high res, (photorealistic:1.4), stack of books and brown flower pot on table, orange cat on white window ledge
Negative prompt: paintings, sketches, (worst quality:2), (low quality:2), (normal quality:2), lowres, normal quality, ((monochrome)), ((grayscale)), skin spots, acnes, skin blemishes, age spot, glans
Steps: 28, Sampler: DPM++ SDE Karras, CFG scale: 8, Seed: 3242059520, Size: 1024x560, Model hash: fc2511737a, Model: chilloutmix_NiPrunedFp32Fix, Denoising strength: 0.45

这一步的作用是通过img2img生成图片的整体风格、人、物、关系等主要元素,这里生成的结果一定不是完美的(基本接近了),没关系,这一步就会把90%的图片内容生成了,剩下的10%,我们要调整细节,为了可以快速选出生成质量优秀的图,这里可以把Batch size 调大一点,这样一次可以出来多张图,在里面选一个最优的即可。

效果如下:

第一步的效果.jpg


Denoising 不能设置的太高,否则就以提示词为准了,与原图有较大差异,我设置的是0.45


我们选一张比较好的保存下来,用于微调,比如这个基本接近原图了,但是右手和左手看着有点“残疾”,需要进行局部微调

我的办法是每次重绘一个地方,左右手分两次重绘(如果两处同时重绘且同时绘制完美的概率低)


4.2、把第一版的结果微调

目标:修复右手

我们借助controlnet进行右手重绘,参数如下:

Studying girl, best quality, ultra high res, (photorealistic:1.4), stack of books and brown flower pot on table, orange cat on white window ledge
Negative prompt: paintings, sketches, (worst quality:2), (low quality:2), (normal quality:2), lowres, normal quality, ((monochrome)), ((grayscale)), skin spots, acnes, skin blemishes, age spot, glans
Steps: 28, Sampler: Euler a, CFG scale: 8, Seed: 1134728641, Size: 1024x560, Model hash: f93e6a50ac, Model: uberRealisticPornMerge_urpmv13, Denoising strength: 0.25, Mask blur: 4, ControlNet Enabled: True, ControlNet Module: canny, ControlNet Model: control_sd15_canny [fef5e48e], ControlNet Weight: 0.35, ControlNet Guidance Start: 0, ControlNet Guidance End: 1


33.png

通过多张图可以看到中间的差异,重点看右手的位置,通过controlnet控制完成了局部重绘

44.gif


调整后效果如下,这里可以看到右手基本正常了,接下来重绘左手

45.png


4.3、第二版微调

目标:修复左手

把调整好右手的图保持下来,当做原图在此上传到系统上,同时借助controlnet进行左手重绘



46.png


4.4、第三版微调

目标:提升整体画质(细节)可以使用control_sd15_depth


47.png


相关文章
|
编解码 人工智能 物联网
少年侠客【InsCode Stable Diffusion美图活动一期】
lnscode提供了学习和使用Stable Diffusion的环境,已经安装了相关软件和组件库,可直接启动Stable Diffusion WebUI进行创作
126 1
|
4月前
|
搜索推荐
Stable Diffusion 人物发型提示词大全,中英文列表!
使用发型提示词能更精确描述所需图像的发型特征,如卷发、短发、颜色和风格。结合正负提示词,确保生成图片符合预期。尝试使用工具如[PromptChoose](https://promptchoose.com/)来创建个性化图像描述,包含多种发型选项,如刘海、马尾、波浪发型等,以增强图像细节和个性化。负面提示词防止不合适内容。利用提示词工具可提高生成图片的准确性和满足度。
|
存储 人工智能 Serverless
【收藏】制作艺术二维码,用 Stable Diffusion 就行!
艺术永远都不至于一种方式,基于函数计算部署 Stable Diffusion 制作艺术二维码,把你的艺术作品藏在二维码里面!
|
4月前
|
机器学习/深度学习 人工智能 计算机视觉
【计算机视觉】不来试试图片轮廓提取?
🚩 前言 最近学到了深度学习的卷积操作,在卷积神经网络出现之前,就已经有使用卷积核 (也叫滤波器),但那时的卷积核依靠人工的经验和知识来进行设计,而不能像卷积神经网络中那样让机器自己学习出合适的卷积核参数。 下面就介绍通过卷积来获取图像轮廓图的操作。
83 1
|
4月前
|
人工智能 IDE 开发工具
生成古风少女图片【InsCode Stable Diffusion美图活动一期】
生成古风少女图片【InsCode Stable Diffusion美图活动一期】
99 0
|
11月前
|
人工智能 IDE 物联网
【古风女孩-InsCode Stable Diffusion 美图活动一期】
【古风女孩-InsCode Stable Diffusion 美图活动一期】
100 1
|
人工智能 算法 Ubuntu
【朱颜不曾改,芳菲万户香。AIGC人物图片创作---InsCode Stable Diffusion 美图活动一期】
【朱颜不曾改,芳菲万户香。AIGC人物图片创作---InsCode Stable Diffusion 美图活动一期】
656 2
|
人工智能 IDE 开发工具
玩耍的猫咪【 InsCode Stable Diffusion 美图活动一期】
玩耍的猫咪【 InsCode Stable Diffusion 美图活动一期】
|
机器学习/深度学习 自然语言处理 云栖大会
用modelscope分析《天龙八部》,金庸大师最偏爱的是TA
用modelscope分析《天龙八部》,金庸大师最偏爱的是TA
|
编解码 人工智能 异构计算
Stable Diffusion 2.0来了!网友:太快了,V1还没整透彻,V2就来了
Stable Diffusion 2.0来了!网友:太快了,V1还没整透彻,V2就来了
320 0