开发者社区> 问答> 正文

打造你的定制化文生图工具【AI动手】

4000积分,罗技无线鼠标*2

AIGC是指通过人工智能技术自动生成内容的生产方式,已经成为继互联网时代的下一个产业时代风口。其中,文生图(Text-to-image Generation)任务是流行的跨模态生成任务,旨在生成与给定文本对应的图像。WebUI文生图推理效果如图所示。

现邀请您使用阿里云交互式建模(PAI-DSW),基于Diffusers开源库进行AIGC Stable Diffusion模型的微调训练,以及启动WebUI进行模型推理(点击https://developer.aliyun.com/adc/scenario/45863d6684d04656b1553478d9147b61即可开始操作)并分享配置过程、输出结果及使用体验。

本期话题:基于PAI-DSW,打造定制化文生图工具,分享配置过程、输出结果及使用体验
话题规则:
1、使用https://developer.aliyun.com/adc/scenario/45863d6684d04656b1553478d9147b61进行操作。
2、话题讨论要求围绕指定方向展开,分享配置过程、输出结果及使用体验的截图和操作记录。
3、图文并茂,字数少于50字无效,言之无物无效,无具体讨论的回复将会视为无效回复,对于无效回复工作人员有权删除。

配置过程:
image.png
image.png
输出结果:
image.png
本期奖品:截止2024年8月16日24时,参与本期话题讨论,将会选出2个优质回答获得罗技M172无线鼠标。快来参加讨论吧~
优质回答获奖规则:字数不少于100字,明确清晰的配置过程、详细的使用体验分享。内容阳光积极,健康向上。
未获得实物奖品者,按要求完成回复的参与者均可获得20积分奖励。所获积分可前往积分商城进行礼品兑换。
image.png
注:讨论内容要求原创,如有参考,一律注明出处,如有复制抄袭、不当言论等回答将不予发奖。阿里云开发者社区有权对回答进行删除。获奖名单将于活动结束后5个工作日内公布,奖品将于7个工作日内进行发放,节假日顺延。

中奖用户:
截止到8月16日共收到48条有效回复,获奖用户如下
优质回答:穿过生命散发芬芳、DreamSpark
恭喜以上用户!感谢大家对本话题的支持~

展开
收起
探索云世界 2024-07-25 14:34:31 1147 4
49 条讨论
参与讨论
取消 提交讨论
  • 基于PAI-DSW,打造定制化文生图工具,分享使用体验

    首先,通过PAI-DSW创建Notebook实例并安装Diffusers、Stable-Diffusion-WebUI等必要库。

    接着,准备训练所需的文本及图像数据集。

    在Notebook中加载Stable Diffusion模型并使用Diffusers进行微调,同时设置LoRA参数。

    最后,配置WebUI启动交互界面,并设置API以实现模型推理功能。

    文档提供了丰富详尽的场景描述与配置指南,助您快速理解内容并进行实操。

    无论是初学者还是有经验的用户,都能从中受益,轻松掌握所需技能和知识,高效完成任务。

    该系统在运行过程中显示出了极高的灵敏性和快速响应能力,能即时满足用户需求。在整个操作过程中,没有出现过任何卡顿或是延迟的情况,这极大保证了用户流畅、无阻的操作体验。

    2024-08-17 08:13:52
    赞同 38 展开评论 打赏
  • 基于PAI-DSW,打造定制化文生图工具,分享使用体验

    基于阿里云机器学习平台PAI的数据科学工作坊(PAI-DSW),构建定制化文本生成图像应用。

    涵盖模型训练、部署及使用等关键步骤,极大地提升了个性化图像生成的可能性,为用户打造从数据处理到模型应用的一站式解决方案。

    确保已激活PAI-DSW服务并建立工作空间,从阿里云免费试用中心获取资源包。

    登录PAI控制台后,选择“交互式建模(DSW)”来创建实例,需要指定实例名称、GPU型号(推荐ecs.gn6v-c8g1.2xlarge)及镜像版本。

    实例启动后,在Notebook中搜索基于Diffusion模型的中文教程,例如AIGC Stable Diffusion的Lora微调教程,并安装所需库(如Diffusers)。

    下载预训练模型开始训练过程,根据需求调整学习率等参数以优化模型效果。

    PAI-DSW提供了一个直观简便的开发环境,支持用户通过Notebook进行流畅的代码编写与命令执行。

    它利用EAS服务简化了模型部署过程,即便不具备深厚底层技术知识,也能实现模型的快速上线和运行,整体操作极为简单快捷。

    阿里云EAS服务供应优质计算资源与稳定网络环境,确保模型推理高效稳定,使用户随时随地获取高品质图像生成结果。

    2024-08-17 08:13:54
    赞同 36 展开评论 打赏
  • 基于PAI-DSW,打造定制化文生图工具,分享使用体验

    在数字化浪潮中,“AI动手”应运而生,这是一款革命性的定制化文生图工具。

    它采用先进的自然语言处理和深度学习技术,能精准捕捉并理解文字中的情感与想象,将其瞬间转化为独一无二的图像作品。

    无论是水彩画、数字艺术,还是复古海报和未来科幻场景,丰富的风格模板及个性化设置选项让创意无限延伸。

    此外,“AI动手”还支持持续学习和用户反馈优化,以确保每次使用都能更好地满足的需求,为创造更满意的视觉体验。

    2024-08-17 08:13:53
    赞同 34 展开评论 打赏
  • 基于PAI-DSW,打造定制化文生图工具,分享使用体验

    AI动手是一款集成人工智能与图形设计的定制化文本转图像工具。通过自然语言处理及图像生成技术,它能够实现从文字描述到图像创作的无缝对接,为用户提供高效且个性化的创作体验。

    运用高性能计算资源进行深度学习模型训练,实现从文本信息中自动抽取关键元素并生成对应的图像。在训练过程中,我们不断优化调整超参数以提升所生成图像的精度和质量。

    模型选择的过程,特别是适用于从文本生成图像的任务。需要挑选出合适的生成模型,例如基于生成对抗网络(GAN)或是扩散模型等结构。经过训练后,这些模型能够实现从输入的文字描述中生成对应的图像的目标。

    2024-08-17 08:13:52
    赞同 34 展开评论 打赏
  • 基于PAI-DSW,打造定制化文生图工具,分享使用体验

    该架构首次融合了Transformer与GANs/Diffusion Models技术,其中Transformer深度处理文本以精准捕捉语义及上下文关联;而GANs或Diffusion Models则基于处理后的文本生成对应的图像内容,创造性地完成从文本到图像的转换。

    数据集包含文本与图像两部分,文本部分涵盖了多样化的图像描述信息,包括句子、段落及标签等;

    图像部分则是对应的图片集合,确保每张图片与其描述精准匹配。

    此外,还提供了数据预处理流程,涉及文本清洗、分词编码以及图像的尺寸调整和归一化等关键步骤。

    专注于定制化开发,主打特色包括简洁友好的用户界面,支持文本输入和图像展示。

    提供参数调节选项,允许用户自定义风格、色彩及分辨率等属性。

    集成的风格迁移技术能够实现多种艺术风格的选择和应用,为您打造独一无二的个性化图像生成体验。

    2024-08-17 08:13:52
    赞同 31 展开评论 打赏
  • 准备数据集及训练代码。
    我们提供了训练代码及一个小的示例数据,可以参照该格式准备自定义数据。

    在JupyterLab的Notebook中,执行如下命令,下载示例数据集。后续会使用该数据集进行模型训练。

    ! wget http://pai-vision-data-hz.oss-cn-zhangjiakou.aliyuncs.com/EasyCV/datasets/try_on/cloth_train_example.tar.gz && tar -xvf cloth_train_example.tar.gz
    ! wget http://pai-vision-data-hz.oss-cn-zhangjiakou.aliyuncs.com/EasyCV/datasets/try_on/train_text_to_image_lora.py
    系统输出如图结果,表示代码执行成功。

    image.png

    执行如下命令,查看示例服装。

    from PIL import Image
    display(Image.open("cloth_train_example/train/20230407174450.jpg"))
    ![image.png](https://ucc.alicdn.com/pic/developer-ecology/76dh4xfsshx3m_e88a44c97e8a4fb59d4619b619daf3fa.png)
    
    
    执行如下命令,下载预训练模型并转化成diffusers格式。
    说明:为了加速下载我们在oss做了缓存,用户可以运行如下命令直接下载,用户也可前往hugging face官网下载。
    
    safety_checker_url = f"{prefix}/aigc-data/hug_model/models--CompVis--stable-diffusion-safety-checker.tar.gz"
    aria2(safety_checker_url, safety_checker_url.split("/")[-1], "./")
    ! tar -xf models--CompVis--stable-diffusion-safety-checker.tar.gz -C /root/.cache/huggingface/hub/
    
    clip_url = f"{prefix}/aigc-data/hug_model/models--openai--clip-vit-large-patch14.tar.gz"
    aria2(clip_url, clip_url.split("/")[-1], "./")
    ! tar -xf models--openai--clip-vit-large-patch14.tar.gz -C /root/.cache/huggingface/hub/
    
    model_url = f"{prefix}/aigc-data/sd_models/chilloutmix_NiPrunedFp32Fix.safetensors"
    aria2(model_url, model_url.split("/")[-1], "stable-diffusion-webui/models/Stable-diffusion/")
    
    ! python diffusers/scripts/convert_original_stable_diffusion_to_diffusers.py \
    --checkpoint_path=stable-diffusion-webui/models/Stable-diffusion/chilloutmix_NiPrunedFp32Fix.safetensors \
    --dump_path=chilloutmix-ni --from_safetensors
    
    ![image.png](https://ucc.alicdn.com/pic/developer-ecology/76dh4xfsshx3m_f63b79b8018045b79f69c1e4edd51ae8.png)
    
    
    模型训练。执行如下命令,设置num_train_epochs为200,进行lora模型的训练。
    ! export MODEL_NAME="chilloutmix-ni" && \
    export DATASET_NAME="cloth_train_example" && \
    accelerate launch --mixed_precision="fp16" train_text_to_image_lora.py \
      --pretrained_model_name_or_path=$MODEL_NAME \
      --dataset_name=$DATASET_NAME --caption_column="text" \
      --width=640 --height=768 --random_flip \
      --train_batch_size=1 \
      --num_train_epochs=200 --checkpointing_steps=5000 \
      --learning_rate=1e-04 --lr_scheduler="constant" --lr_warmup_steps=0 \
      --seed=42 \
      --output_dir="cloth-model-lora" \
      --validation_prompt="cloth1" --validation_epochs=100
    
    ```  ![image.png](https://ucc.alicdn.com/pic/developer-ecology/76dh4xfsshx3m_8c0cfc3930da486f860db92f8c7ba0ff.png)
    
    准备WebUI所需模型文件。
    将lora模型转化成WebUI支持格式并拷贝到WebUI所在目录。
    ```js
    ! wget -c http://pai-vision-data-hz.oss-cn-zhangjiakou.aliyuncs.com/EasyCV/datasets/convert-to-safetensors.py
    ! python convert-to-safetensors.py --file='cloth-model-lora/pytorch_lora_weights.bin'
    ! mkdir stable-diffusion-webui/models/Lora
    ! cp cloth-model-lora/pytorch_lora_weights_converted.safetensors stable-diffusion-webui/models/Lora/cloth_lora_weights.safetensors
    
    ```  ![image.png](https://ucc.alicdn.com/pic/developer-ecology/76dh4xfsshx3m_9e4c5e416c314e238c8d0a11f00e5413.png)
    
    
    准备额外模型文件。
    为了加速下载我们在oss做了缓存,用户可以运行如下命令直接下载。
    
    ```js
    detection_url = f"{prefix}/aigc-data/codeformer/detection_Resnet50_Final.pth"
    aria2(detection_url, detection_url.split("/")[-1], "stable-diffusion-webui/repositories/CodeFormer/weights/facelib/")
    parse_url = f"{prefix}/aigc-data/codeformer/parsing_parsenet.pth"
    aria2(parse_url, parse_url.split("/")[-1], "stable-diffusion-webui/repositories/CodeFormer/weights/facelib/")
    codeformer_url = f"{prefix}/aigc-data/codeformer/codeformer-v0.1.0.pth"
    aria2(codeformer_url, codeformer_url.split("/")[-1], "stable-diffusion-webui/models/Codeformer/")
    
    embedding_url = f"{prefix}/aigc-data/embedding/ng_deepnegative_v1_75t.pt"
    aria2(embedding_url, embedding_url.split("/")[-1], "stable-diffusion-webui/embeddings/")
    
    model_lora_url = f"{prefix}/aigc-data/lora/koreanDollLikeness_v10.safetensors"
    aria2(model_lora_url, model_lora_url.split("/")[-1], "stable-diffusion-webui/models/Lora/")
    

    image.png
    在JupyterLab的Notebook中,执行如下命令,启动WebUI。
    说明:由于Github访问存在不稳定性,如果运行后未出现正常返回结果且提示网络相关原因,例如:Network is unreachable、unable to access 'https://github.com/......',您可以重新运行命令。

    ! cd stable-diffusion-webui && python -m venv --system-site-packages --symlinks venv
    ! cd stable-diffusion-webui && \
      sed -i 's/can_run_as_root=0/can_run_as_root=1/g' webui.sh && \
      ./webui.sh --no-download-sd-model --xformers --gradio-queue
    

    在返回结果中,单击URL链接(http://127.0.0.1:7860),进入WebUI页面。后续您可以在该页面,进行模型推理。
    image.png
    完成以上操作后,您已经成功完成了AIGC文生图模型微调训练及WebUI部署。您可以在WebUI页面,进行模型推理验证。

    在文生图页签通过下方设置可从示例衣服生成如下图片。
    正向prompt:cloth1,, (extremely detailed CG unity 8k wallpaper),(RAW photo, best quality), (realistic, photo-realistic:1.2), a close up portrait photo, 1girl, shopping mall rooftop cafe, outdoor, smile, (high detailed skin:1.4), puffy eyes, gorgeous hair, air bangs, brown black hair, soft lighting, high quality,
    负向prompt:ng_deepnegative_v1_75t,paintings, sketches, (worst quality:2), (low quality:2), (normal quality:2), lowres, ((monochrome)), (grayscale:1.2), skin spots, acnes, skin blemishes, age spot, glans,extra fingers,fewer fingers,(watermark:1.2),(letters:1.2),(nsfw:1.2),teeth
    采样方法:Euler a
    采样步数:50
    宽高: 640,768
    随机种子:1400244389
    CFG Scale:7
    使用面部修复
    单击Generate,输出如图推理结果。image.png
    清理
    如果无需继续使用DSW实例,您可以按照以下操作步骤停止DSW实例。
    登录PAI控制台。
    在页面左上方,选择DSW实例的地域。
    在左侧导航栏单击工作空间列表,在工作空间列表页面中单击默认工作空间名称,进入对应工作空间内。
    在工作空间页面的左侧导航栏选择模型开发与训练>交互式建模(DSW),进入交互式建模(DSW)页面。
    单击目标实例操作列下的停止,成功停止后即停止资源消耗。
    领取免费资源包后,请在免费额度和有效试用期内使用。如果免费额度用尽或试用期结束后,继续使用计算资源,会产生后付费账单。
    请前往资源实例管理页面,查看免费额度使用量和过期时间,如下图所示。

    image.png

    如果需要继续使用DSW实例,请务必至少在试用到期1小时前为您的阿里云账号充值,到期未续费的DSW实例会因欠费而被自动停止。

    2024-08-15 15:46:03
    赞同 33 展开评论 打赏
  • 1. 技术选型

    深度学习框架

    • TensorFlowPyTorch:这两个是目前最流行的深度学习框架,适合构建复杂的神经网络模型。

    模型架构

    • Transformer(用于NLP部分):处理输入的文本,理解其含义和上下文。
    • GANs(生成对抗网络)Diffusion Models(如Stable Diffusion):用于生成图像,根据文本描述生成对应的图像。

    2. 数据准备

    • 文本数据集:收集大量描述图像的文本数据,可以是句子、段落或标签。
    • 图像数据集:与文本数据集相对应的图像集合,确保图像和文本之间有明确的对应关系。
    • 预处理:对文本进行清洗、分词、编码(如使用BERT的Tokenization);对图像进行大小调整、归一化等。

    3. 模型设计与训练

    设计模型

    • 文本编码器:将文本转换为高维的向量表示。
    • 图像生成器:接收文本编码作为输入,生成对应的图像。
    • 判别器(对于GANs):区分生成的图像和真实图像,帮助图像生成器提高生成质量。

    训练过程

    • 使用成对的文本-图像数据来训练模型。
    • 对于GANs,交替训练生成器和判别器。
    • 对于Diffusion Models,使用去噪过程来逐步细化图像。

    4. 定制化开发

    • 用户接口:开发一个易于使用的界面,让用户可以输入文本描述并查看生成的图像。
    • 参数调整:允许用户调整生成图像的某些属性,如风格、颜色、分辨率等。
    • 风格迁移:集成风格迁移技术,让用户可以选择不同的艺术风格来生成图像。

    5. 测试与优化

    • 性能测试:评估模型的生成速度、图像质量和多样性。
    • 用户反馈:收集用户的反馈,用于进一步改进模型。
    • 持续优化:根据测试结果和用户反馈,调整模型参数、架构或训练数据。

    6. 部署与维护

    • 服务器部署:将模型部署到服务器上,确保高并发访问时的稳定性和响应速度。
    • 持续监控:监控模型的运行状态和性能指标,及时发现并解决问题。
    • 更新迭代:随着技术的进步和用户需求的变化,不断迭代和优化模型。

    7. 遵循法律与伦理

    • 确保数据收集和使用的合法性,遵守相关隐私政策和法律法规。
    • 考虑到生成内容可能带来的伦理问题,如误导性、偏见等,采取措施减少这些风险。
    2024-08-15 15:04:09
    赞同 30 展开评论 打赏
  • 这次事件让我们认识到在设备运输和理赔方面的重要性。

    2024-08-13 11:11:19
    赞同 39 展开评论 打赏
  • 打造一个定制化的文生图工具(AI动手)是将人工智能与图形设计相结合的创新应用。这个工具旨在通过自然语言处理技术和图像生成技术,实现从文字描述到图像创作的自动化。

    首先,用户可以输入详细的文字描述,包括主题、风格、色彩等要求。AI系统会通过深度学习模型理解文本内容,并生成符合描述的图像。例如,描述一个“温馨的家庭聚会”可以自动生成相应的场景图,满足用户的需求。

    其次,定制化文生图工具支持多种风格和风格混搭。用户可以选择不同的艺术风格,如水彩、素描或油画等,也可以结合多种风格,创建出独特的图像。这种灵活性满足了用户在创作上的个性化需求。

    此外,工具还可以集成图像编辑功能,允许用户对生成的图像进行进一步的调整和优化。这种交互式的设计使得用户能够更精确地实现他们的创意构想。

    最后,通过不断优化的算法和丰富的训练数据,工具可以不断提升生成图像的质量和准确性,使用户获得更高水平的图像创作体验。这个定制化文生图工具不仅提升了创作效率,也为个人和企业提供了更多创意表达的可能性。

    2024-08-12 21:35:33
    赞同 39 展开评论 打赏
  • 打造一个定制化的AI文生图工具,能够帮助用户将文字描述转化为生动的图像,这是一个结合自然语言处理和计算机视觉的创新项目。这个工具的核心在于理解用户的文字输入,并通过深度学习模型生成与描述相符的高质量图像。以下是构建该工具的一些关键步骤:

    1. 需求分析:首先,明确目标用户和使用场景。例如,是为设计师提供创意支持,还是为社交媒体用户生成视觉内容。根据需求确定工具的功能和性能要求。

    2. 模型选择:选择合适的生成模型,如基于生成对抗网络(GAN)或扩散模型的架构。这些模型能够在训练后,接收文字描述并生成对应图像。

    3. 数据准备:收集并清洗大量的图文配对数据,用于训练模型。数据质量直接影响生成效果,因此需要多样化、准确性高的训练集。

    4. 模型训练:利用高性能计算资源,训练模型使其能够从文字描述中提取出核心信息并生成图像。训练过程中需调整超参数以优化生成质量。

    5. 界面设计:开发直观的用户界面,允许用户输入文本描述、选择风格、调整细节。实时预览功能可以帮助用户看到图像生成的过程和结果。

    6. 测试与优化:通过多轮测试,优化生成效果,确保工具在不同输入情况下都能稳定输出高质量图像。

    7. 部署与维护:将工具部署到云端或本地,确保用户可以随时访问和使用。同时,定期更新模型以提升生成效果。

    2024-08-10 10:54:02
    赞同 46 展开评论 打赏
  • 【AI动手】:打造个性化文生图神器

    在创意无限的数字时代,我们自豪地推出“AI动手”——一款革命性的定制化文生图工具。通过先进的自然语言处理与深度学习技术,“AI动手”能精准捕捉您文字中的情感、细节与想象,瞬间转化为栩栩如生、独一无二的图像作品。

    无论您是艺术家寻找灵感火花,作家希望视觉化故事场景,还是设计师渴望快速原型设计,“AI动手”都能满足您的需求。它提供丰富的风格模板与个性化设置选项,从细腻的水彩画到前卫的数字艺术,从复古海报到未来科幻场景,一键切换,让创意无限延伸。

    更重要的是,“AI动手”支持持续学习与用户反馈优化,随着每一次使用,它将更加懂您,为您打造更加贴合心意的视觉盛宴。现在就加入我们,用“AI动手”开启您的定制化文生图之旅,让想象触手可及!

    2024-08-10 10:51:47
    赞同 39 展开评论 打赏
  • 公众号:北京宏哥,关注宏哥,提前解锁更多测试干货

    要使用阿里云交互式建模(PAI-DSW),基于Diffusers开源库进行AIGC Stable Diffusion模型的微调训练,我们可以遵循以下步骤进行配置、训练和部署,并分享整个过程中的体验。请注意,由于直接访问和操作链接可能因时间或权限问题而有所变化,以下步骤基于一般流程和阿里云PAI服务的常见特性。

    1.注册并登录阿里云社区,如下图所示:

    image-20240722143709278.png

    2. 访问PAI-DSW并领取试用

    1.访问链接:首先,访问提供的链接https://developer.aliyun.com/adc/scenario/45863d6684d04656b1553478d9147b61),这应该会引导你进入阿里云PAI-DSW的页面。如下图所示:

    image-20240722143753321.png

    2.登录与领取使用:使用你的阿里云账号登录,本次体验使用到阿里云交互式建模(PAI-DSW),如果你是新用户,则可以先领取产品试用。点击前往,领取试用。如下图所示:

    image-20240722143843537.png

    2. 创建默认工作空间

    1.登录PAI控制台,如果你是首次使用PAI,会需要先开通个默认的工作空间。如下:
    image.png
    2.为了方便,这里地域就直接选择了杭州。如下:
    image.png
    3.由于本次体验不需要开通其他产品,所以组合服务这里取消默认的组合服务勾选,以免产生不必要的费用。首次开通需要授权,点击授权前往RAM访问控制。如下所示:
    image.png
    4.点击同意授权即可。如下图所示:
    image.png
    5.完成授权后返回点击刷新,继续点击“确认开通并创建默认工作空间”。稍等一会完成工作空间的开通。如下图所示:
    image.png

    3. 创建实例

    1. 进入PAI控制台,在左侧导航栏中单击工作空间列表,选择交互式建模(DSW),点击新建实例。如下图所示:

      image.png

    4. 安装依赖

    1. 单击快速开始区域Notebook下的Python 3(ipykernel),如下图所示:image.png
      从GitHub下载Diffusers开源库,并安装相关依赖:

      ! git clone https://github.com/huggingface/diffusers
      ! cd diffusers && git checkout e126a82cc5d9afbeb9b476455de24dd3e7dd358a
      ! cd diffusers && pip install .
      

    5. 下载stable-diffusion-webui开源库

    按照操作说明文档即可!

    6.数据准备

    • 准备用于微调Stable Diffusion模型的数据集,包括文本描述和对应的图像。
    • 数据集需按特定格式组织,通常包括一个CSV文件,其中每行包含文本描述和图像路径。

    7.模型加载与微调

    • 使用Diffusers库加载预训练的Stable Diffusion模型。
    • 根据数据集调整模型输入和输出,设置训练参数(如学习率、批大小、训练轮次等)。
    • 编写训练循环,使用文本描述作为条件输入,图像作为监督信号进行微调。

    示例代码片段:

    from diffusers import StableDiffusionPipeline
    from transformers import CLIPProcessor
    
    # 加载预训练模型和处理器
    model_id = "CompVis/stable-diffusion-v1-4"
    pipe = StableDiffusionPipeline.from_pretrained(model_id)
    processor = CLIPProcessor.from_pretrained(model_id)
    
    # 假设已有加载和预处理数据的函数
    train_dataset = load_and_preprocess_dataset()
    
    # 微调模型(此处仅为示意,具体实现需根据数据集和需求编写)
    # train_model(pipe, train_dataset, epochs=10)
    

    8.模型部署

    • 使用PAI-DSW提供的Web服务部署功能,将微调后的模型封装成API接口。
    • 配置WebUI前端,使其能够发送文本请求到后端API,并显示生成的图像。

    输出结果

    • 微调前后对比:微调前模型生成的图像可能较为通用,与特定文本描述匹配度不高;微调后,模型能更准确地根据文本描述生成相关图像,细节更丰富,风格更一致。
    • 示例输出:输入文本“一只在夕阳下奔跑的金色狐狸”,微调后的模型能生成一只在绚烂夕阳背景下,金色毛发闪耀,姿态生动的狐狸图像。

    使用体验

    • 便捷性:阿里云PAI-DSW平台提供了完整的开发环境,从数据准备到模型训练、部署,一站式解决,极大提高了开发效率。
    • 灵活性:通过微调Stable Diffusion模型,可以轻松实现定制化文生图功能,满足不同场景下的需求。
    • 性能:模型训练过程中,PAI-DSW提供了强大的计算资源支持,确保了训练的高效性和稳定性。
    • 可视化:虽然本例中未直接展示WebUI的详细配置,但基于PAI-DSW的Web服务部署功能,可以方便地构建用户友好的Web界面,实现文本到图像的即时转换和展示。

    • 文档与支持:阿里云提供了详尽的文档和强大的技术支持,帮助开发者在使用过程中遇到的问题得到及时解决。
      总的来说,基于阿里云PAI-DSW平台打造定制化文生图工具是一次非常愉快且高效的体验,为AI内容生成领域的研究和应用提供了强有力的支持。

    2024-08-07 14:16:51
    赞同 45 展开评论 打赏
  • 配置过程非常直观,PAI-DSW提供了强大的GPU资源,这使得模型训练速度非常快。阿里云提供的文档清晰易懂,有助于快速上手。

    2024-08-06 15:19:49
    赞同 45 展开评论 打赏
  • 从事java行业9年至今,热爱技术,热爱以博文记录日常工作,csdn博主,座右铭是:让技术不再枯燥,让每一位技术人爱上技术

    AIGC是指通过人工智能技术自动生成内容的生产方式,已经成为继互联网时代的下一个产业时代风口。其中文生图也有了飞速的发展,这里将介绍如何自己部署基于PAI-DSW部署Stable Diffusion文生图Lora模型,来体验AIGC的魅力。

    资源准备

    开启体验服务

    再开始实验之前,我们需要先开通交互式建模PAI-DSW 的服务,趁着阿里云推出的免费试用的机会,赶快来体验吧,试用中心地址:阿里云免费试用 找到机器学习平台PAI的类别,点击【立即试用】
    image.png
    如果没有试用资格,那么你可以直接进行后面的操作。
    开通交互式建模PAI-DSW服务之后,需要创建默认工作空间,

    创建工作空间

    创建默认工作空间,官方文档地址:开通并创建默认工作空间,比如选择地域杭州
    image.png
    点击【开通PAI并创建默认工作空间】,完成授权及勾选操作
    image.png
    点击【确认开通并创建默认工作空间】完成默认工作空间的创建。

    部署服务

    回到PAI控制台首页,可以在工作空间列表中看到我们刚才创建的默认工作空间信息,
    image.png
    在控制台选择菜单【交互式建模(DSW)】
    image.png

    创建DSW实例

    这里会默认选中我们刚才创建的工作空间,点击【进入DSW】
    image.png
    点击【创建实例】
    image.png
    输入实例名称,点击tab 【GPU规格】,选择规格【ecs.gn7i-c8g1.2xlarge】
    image.png
    继续选择镜像【stable-diffusion-webui-env:pytorch1.13-gpu-py310-cu117-ubuntu22.04】点击【下一步】
    image.png
    确认完信息之后点击【创建实例】
    image.png
    等待实例资源准备后启动成功。

    安装Diffusers

    下载Diffusers开源库并安装,为后续下载stable-diffusion-webui开源库做准备。
    点击【打开】
    image.png
    打开在线编辑工具Notebook,选择【Python3】如图
    image.png
    输入命令下载Diffusers开源库

    ! git clone https://github.com/huggingface/diffusers
    

    下载开源库过程中,如果遇到超时的情况可以再次执行下载即可
    image.png
    验证一下是否安装成功
    image.png
    配置accelerate,选择Terminal输入配置命令,确认之后,通过键盘上下键选中This machine并确认
    image.png
    然后在选择multi-GPU
    image.png
    选中之后确认,后面的一次按截图的内容选择即可
    image.png
    最后选中fp16 点击确认
    image.png
    此时可以看到accelerate配置完成了。下面继续回到python3页面安装文生图算法相关依赖库

    ! cd diffusers/examples/text_to_image && pip install -r requirements.txt
    

    image.png
    下面开始下载stable-diffusion-webui开源库,执行命令

    ! git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git && \
    cd stable-diffusion-webui && \
    git checkout a9fed7c364061ae6efb37f797b6b522cb3cf7aa2
    ! cd stable-diffusion-webui && mkdir -p repositories && cd repositories && \
    git clone https://github.com/sczhou/CodeFormer.git
    

    下载过程中如果遇到这种情况,再次执行以下命令就可以了
    image.png
    最后下载完成。继续下载示例数据集,后续会使用该数据集进行模型训练。执行如下命令

    ! wget http://pai-vision-data-hz.oss-cn-zhangjiakou.aliyuncs.com/EasyCV/datasets/try_on/cloth_train_example.tar.gz && tar -xvf cloth_train_example.tar.gz
    ! wget http://pai-vision-data-hz.oss-cn-zhangjiakou.aliyuncs.com/EasyCV/datasets/try_on/train_text_to_image_lora.py
    

    数据集下载完成之后可以看到
    image.png
    查看一下示例服装,执行命令

    from PIL import Image
    display(Image.open("cloth_train_example/train/20230407174450.jpg"))
    

    执行结果可以看到
    image.png
    继续下载预训练模型并转化成diffusers格式,执行命令

    ! cd stable-diffusion-webui/models/Stable-diffusion && wget -c https://huggingface.co/naonovn/chilloutmix_NiPrunedFp32Fix/resolve/main/chilloutmix_NiPrunedFp32Fix.safetensors -O chilloutmix_NiPrunedFp32Fix.safetensors
    ! python diffusers/scripts/convert_original_stable_diffusion_to_diffusers.py \
    --checkpoint_path=stable-diffusion-webui/models/Stable-diffusion/chilloutmix_NiPrunedFp32Fix.safetensors \
    --dump_path=chilloutmix-ni --from_safetensors
    

    执行结果如图
    image.png
    执行命令,设置num_train_epochs为200,进行lora模型的训练

    ! export MODEL_NAME="chilloutmix-ni" && \
    export DATASET_NAME="cloth_train_example" && \
    accelerate launch --mixed_precision="fp16" train_text_to_image_lora.py \
      --pretrained_model_name_or_path=$MODEL_NAME \
      --dataset_name=$DATASET_NAME --caption_column="text" \
      --width=640 --height=768 --random_flip \
      --train_batch_size=1 \
      --num_train_epochs=200 --checkpointing_steps=5000 \
      --learning_rate=1e-04 --lr_scheduler="constant" --lr_warmup_steps=0 \
      --seed=42 \
      --output_dir="cloth-model-lora" \
      --validation_prompt="cloth1" --validation_epochs=100
    

    训练完成之后可以看到
    image.png
    然后将lora模型转化成WebUI支持格式并拷贝到WebUI所在目录

    ! wget -c http://pai-vision-data-hz.oss-cn-zhangjiakou.aliyuncs.com/EasyCV/datasets/convert-to-safetensors.py
    ! python convert-to-safetensors.py --file='cloth-model-lora/pytorch_lora_weights.bin'
    ! mkdir stable-diffusion-webui/models/Lora
    ! cp cloth-model-lora/pytorch_lora_weights_converted.safetensors stable-diffusion-webui/models/Lora/cloth_lora_weights.safetensors
    

    执行结果如图
    image.png
    准备其他模型文件

    ! mkdir stable-diffusion-webui/models/Codeformer
    ! cd stable-diffusion-webui/repositories/CodeFormer/weights/facelib/ && \
    wget -c http://pai-vision-data-hz.oss-cn-zhangjiakou.aliyuncs.com/EasyCV/datasets/try_on/detection_Resnet50_Final.pth && \
    wget -c http://pai-vision-data-hz.oss-cn-zhangjiakou.aliyuncs.com/EasyCV/datasets/try_on/parsing_parsenet.pth
    ! cd stable-diffusion-webui/models/Codeformer && wget -c http://pai-vision-data-hz.oss-cn-zhangjiakou.aliyuncs.com/EasyCV/datasets/try_on/codeformer-v0.1.0.pth
    ! cd stable-diffusion-webui/embeddings && wget -c http://pai-vision-data-hz.oss-cn-zhangjiakou.aliyuncs.com/EasyCV/datasets/try_on/ng_deepnegative_v1_75t.pt
    ! cd stable-diffusion-webui/models/Lora && wget -c https://huggingface.co/Kanbara/doll-likeness-series/resolve/main/koreanDollLikeness_v10.safetensors
    

    执行结果如图
    image.png

    启动WebUI

    在Notebook中,执行如下命令,启动WebUI

    ! cd stable-diffusion-webui && python -m venv --system-site-packages --symlinks venv
    ! cd stable-diffusion-webui && \
      sed -i 's/can_run_as_root=0/can_run_as_root=1/g' webui.sh && \
      ./webui.sh --no-download-sd-model --xformers
    

    这个命令执行过程中可能会遇到多种情况的错误,每次遇到错误情况时重新执行命令即可,错误情况比如
    image.png
    或者是
    image.png
    最后执行成功的界面如下

    image.png
    启动成功之后单机链接地址进入模型训练页面,输入待生成模型文本等待生成结果
    image.png

    使用体验

    整体来说,本次操作的时间会耗时比较久,两个多小时左右,在部署过程中可能会遇到各种不成功的情况,不用担心,再次执行命令即可。
    另外,对于AIGC文生图的操作,对于生成图像与文字描述是否匹配,这个主要还是取决于你当前使用的文生图模型的训练程度,模型训练的结果直接决定了AIGC文生图的准确度,由此及彼的来看,对于AIGC文生图、图生文、文生视频、文生音频等的操作,随着模型训练的不断丰富话,后续想要生成更加准确的切合文字内容的图片及视频都是很有可能的。

    2024-08-06 13:53:01
    赞同 38 展开评论 打赏
  • 领取试用

    本次体验使用到阿里云交互式建模(PAI-DSW),如果你是新用户,则可以先领取产品试用。点击前往,领取试用。如下:
    image.png
    领取试用时认真阅读试用说明,确认后点击立即试用。如下:
    image.png

    • 主机规格抵扣规则:
      A10机型(ecs.gn7i-c8g1.2xlarge):每使用1小时,消耗6.99计算时
      V100机型(ecs.gn6v-c8g1.2xlarge):每使用1小时,消耗14.55计算时
      G6机型(ecs.g6.xlarge):每使用1小时,消耗0.57计算时
    • 可用区
      中国内地公共云DSW开服Region通用,包括北京、上海、杭州、深圳
    • 有效期
      有效期3个月,试用期间免费,超过试用期限会自动停机或释放

    image.png
    领取试用后,可在我的账单中查看到具体的明细,如下:
    image.png
    image.png

    开通默认工作空间

    登录PAI控制台,如果你是首次使用PAI,会需要先开通个默认的工作空间。如下:
    image.png
    为了方便,这里地域就直接选择了杭州。如下:
    image.png
    由于本次体验不需要开通其他产品,所以组合服务这里取消默认的组合服务勾选,以免产生不必要的费用。首次开通需要授权,点击授权前往RAM访问控制。如下:
    image.png
    点击同意授权即可。如下:
    image.png
    完成授权后返回点击刷新,继续点击“确认开通并创建默认工作空间”。如下:
    image.png
    这里需要等待一小会,即可完成服务的开通。如下:
    image.png

    新建实例

    进入PAI控制台,在左侧导航栏中单击工作空间列表,选择交互式建模(DSW),点击新建实例。
    image.png
    配置参数
    区域这里选择华东1(杭州)
    实例名称为AIGC_test
    资源规则选择GPU类别中的ecs.gn7i-c8g1.2xlarge (8 vCPU, 30 GiB, NVIDIA A10 * 1),这也是试用的规格之一,支持资源包抵扣的。
    image.png
    image.png
    镜像这里我们选择stable-diffusion-webui-develop:1.0-pytorch1.13-gpu-py310-cu117-ubuntu22.04,专用于DSW实例环境的。
    image.png
    在点击确定开始创建时会遇到如下异常,是因为所在区域的可用资源不足导致的,需要更换到其他可用区域重新提交。
    image.png
    其他配置保持默认,点击左下角的确定,开始创建。
    image.png
    创建过程中,可以通过事件查看到创建时的日志记录。
    image.png
    2分钟后,可以看到状态显示运行中,此时就表明实例创建成功。
    image.png
    点击操作项的打开,即可进入PAI-DSW实例开发环境。
    image.png

    安装依赖

    单击快速开始区域Notebook下的Python 3(ipykernel)image.png
    从GitHub下载Diffusers开源库,并安装相关依赖:

    ! git clone https://github.com/huggingface/diffusers
    ! cd diffusers && git checkout e126a82cc5d9afbeb9b476455de24dd3e7dd358a
    ! cd diffusers && pip install .
    

    image.png
    可以通过如下命令验证环境是否完成安装,如下:

    import diffusers
    

    image.png
    执行如下命令,下载默认配置文件,配置accelerate。

    ! mkdir -p /root/.cache/huggingface/accelerate/
    ! wget -c http://pai-vision-data-sh.oss-cn-shanghai.aliyuncs.com/aigc-data/accelerate/default_config.yaml -O /root/.cache/huggingface/accelerate/default_config.yaml
    

    image.png
    接下来,安装文生图算法相关依赖库。

    ! cd diffusers/examples/text_to_image && pip install -r requirements.txt
    

    image.png
    接着最重要的一步,就是下载stable-diffusion-webui开源库。

    import os
    
    ! apt update
    ! apt install -y aria2
    
    def aria2(url, filename, d):
        !aria2c --console-log-level=error -c -x 16 -s 16 {url} -o {filename} -d {d}
    
    url_prefix = {
        "cn-shanghai": "http://pai-vision-data-sh.oss-cn-shanghai-internal.aliyuncs.com",
        "cn-hangzhou": "http://pai-vision-data-hz2.oss-cn-hangzhou-internal.aliyuncs.com",
        "cn-shenzhen": "http://pai-vision-data-sz.oss-cn-shenzhen-internal.aliyuncs.com",
        "cn-beijing": "http://pai-vision-data-bj.oss-cn-beijing-internal.aliyuncs.com", 
    }
    
    dsw_region = os.environ.get("dsw_region")
    prefix = url_prefix[dsw_region] if dsw_region in url_prefix else "http://pai-vision-data-sh.oss-cn-shanghai.aliyuncs.com"
    
    ! git clone https://gitcode.net/mirrors/AUTOMATIC1111/stable-diffusion-webui.git
    %cd stable-diffusion-webui
    ! git checkout a9fed7c364061ae6efb37f797b6b522cb3cf7aa2
    repositories_url = f"{prefix}/aigc-data/code/repositories.tar.gz"
    aria2(repositories_url, repositories_url.split("/")[-1], "./")
    ! tar -xf repositories.tar.gz
    %cd extensions
    ! git clone https://gitcode.net/mirrors/DominikDoom/a1111-sd-webui-tagcomplete.git
    ! git clone https://gitcode.net/ranting8323/stable-diffusion-webui-localization-zh_CN
    %cd .. 
    ! wget -c http://pai-vision-data-sh.oss-cn-shanghai.aliyuncs.com/aigc-data/webui_config/config_tryon.json -O config.json
    %cd ..
    

    image.png
    若需更新最新版本,你可以点击下面的开源链接前往进行下载。
    stable-diffusion-webui
    stablediffusion
    taming-transformers
    k-diffusion
    CodeFormer
    blip
    通过命令运行窗口可以直观看到当前进度。
    image.png
    这个资源包有点大,需要耐心等待一下。
    完成后,下载示例数据集及训练代码。

    ! wget http://pai-vision-data-hz.oss-cn-zhangjiakou.aliyuncs.com/EasyCV/datasets/try_on/cloth_train_example.tar.gz && tar -xvf cloth_train_example.tar.gz
    ! wget http://pai-vision-data-hz.oss-cn-zhangjiakou.aliyuncs.com/EasyCV/datasets/try_on/train_text_to_image_lora.py
    

    image.png
    可以通过执行下述代码查看实例服装。

    from PIL import Image
    display(Image.open("cloth_train_example/train/20230407174450.jpg"))
    

    image.png
    下载预训练模型并转化成diffusers格式。

    safety_checker_url = f"{prefix}/aigc-data/hug_model/models--CompVis--stable-diffusion-safety-checker.tar.gz"
    aria2(safety_checker_url, safety_checker_url.split("/")[-1], "./")
    ! tar -xf models--CompVis--stable-diffusion-safety-checker.tar.gz -C /root/.cache/huggingface/hub/
    
    clip_url = f"{prefix}/aigc-data/hug_model/models--openai--clip-vit-large-patch14.tar.gz"
    aria2(clip_url, clip_url.split("/")[-1], "./")
    ! tar -xf models--openai--clip-vit-large-patch14.tar.gz -C /root/.cache/huggingface/hub/
    
    model_url = f"{prefix}/aigc-data/sd_models/chilloutmix_NiPrunedFp32Fix.safetensors"
    aria2(model_url, model_url.split("/")[-1], "stable-diffusion-webui/models/Stable-diffusion/")
    
    ! python diffusers/scripts/convert_original_stable_diffusion_to_diffusers.py \
    --checkpoint_path=stable-diffusion-webui/models/Stable-diffusion/chilloutmix_NiPrunedFp32Fix.safetensors \
    --dump_path=chilloutmix-ni --from_safetensors
    

    image.png
    设置num_train_epochs为200,进行lora模型的训练。

    ! export MODEL_NAME="chilloutmix-ni" && \
    export DATASET_NAME="cloth_train_example" && \
    accelerate launch --mixed_precision="fp16" train_text_to_image_lora.py \
      --pretrained_model_name_or_path=$MODEL_NAME \
      --dataset_name=$DATASET_NAME --caption_column="text" \
      --width=640 --height=768 --random_flip \
      --train_batch_size=1 \
      --num_train_epochs=200 --checkpointing_steps=5000 \
      --learning_rate=1e-04 --lr_scheduler="constant" --lr_warmup_steps=0 \
      --seed=42 \
      --output_dir="cloth-model-lora" \
      --validation_prompt="cloth1" --validation_epochs=100
    

    image.png
    将lora模型转化成WebUI支持格式并拷贝到WebUI所在目录。

    ! wget -c http://pai-vision-data-hz.oss-cn-zhangjiakou.aliyuncs.com/EasyCV/datasets/convert-to-safetensors.py
    ! python convert-to-safetensors.py --file='cloth-model-lora/pytorch_lora_weights.bin'
    ! mkdir stable-diffusion-webui/models/Lora
    ! cp cloth-model-lora/pytorch_lora_weights_converted.safetensors stable-diffusion-webui/models/Lora/cloth_lora_weights.safetensors
    

    image.png
    准备额外模型文件。

    detection_url = f"{prefix}/aigc-data/codeformer/detection_Resnet50_Final.pth"
    aria2(detection_url, detection_url.split("/")[-1], "stable-diffusion-webui/repositories/CodeFormer/weights/facelib/")
    parse_url = f"{prefix}/aigc-data/codeformer/parsing_parsenet.pth"
    aria2(parse_url, parse_url.split("/")[-1], "stable-diffusion-webui/repositories/CodeFormer/weights/facelib/")
    codeformer_url = f"{prefix}/aigc-data/codeformer/codeformer-v0.1.0.pth"
    aria2(codeformer_url, codeformer_url.split("/")[-1], "stable-diffusion-webui/models/Codeformer/")
    
    embedding_url = f"{prefix}/aigc-data/embedding/ng_deepnegative_v1_75t.pt"
    aria2(embedding_url, embedding_url.split("/")[-1], "stable-diffusion-webui/embeddings/")
    
    model_lora_url = f"{prefix}/aigc-data/lora/koreanDollLikeness_v10.safetensors"
    aria2(model_lora_url, model_lora_url.split("/")[-1], "stable-diffusion-webui/models/Lora/")
    

    image.png

    在DSW中启动WebUI

    执行如下命令,启动WebUI。

    ! cd stable-diffusion-webui && python -m venv --system-site-packages --symlinks venv
    ! cd stable-diffusion-webui && \
      sed -i 's/can_run_as_root=0/can_run_as_root=1/g' webui.sh && \
      ./webui.sh --no-download-sd-model --xformers --gradio-queue
    

    在返回结果中,单击URL链接(http://127.0.0.1:7860),即可进入WebUI页面。
    image.png
    image.png
    到这,我们已经完成了所有操作,成功完成了AIGC文生图模型微调训练及WebUI部署。接下来可以在WebUI页面,进行模型推理验证。
    如果这个步骤因为拉取资源频繁失败,其实还有一种方法可以实施,那就是DSW Gallery。进入方式有两种,第一种:
    image.png
    在页面中输入Lora搜索,找到“AIGC Stable Diffusion文生图Lora模型微调实现虚拟上装”。
    image.png
    第二种,可以直接在工作空间左侧的快速开始——Notebook Gallery。
    image.png
    按照图示步骤挨个执行即可了,比起Notebook下的Python 3(ipykernel)要直观方便不少。
    image.png

    模型推理验证

    正向prompt:cloth1,, (extremely detailed CG unity 8k wallpaper),(RAW photo, best quality), (realistic, photo-realistic:1.2), a close up portrait photo, 1girl, shopping mall rooftop cafe, outdoor, smile, (high detailed skin:1.4), puffy eyes, gorgeous hair, air bangs, brown black hair, soft lighting, high quality,
    负向prompt:ng_deepnegative_v1_75t,paintings, sketches, (worst quality:2), (low quality:2), (normal quality:2), lowres, ((monochrome)), (grayscale:1.2), skin spots, acnes, skin blemishes, age spot, glans,extra fingers,fewer fingers,(watermark:1.2),(letters:1.2),(nsfw:1.2),teeth
    采样方法:Euler a
    采样步数:50
    宽高: 640,768
    随机种子:1400244389
    CFG Scale:7
    使用高清修复
    image.png

    资源清理

    登录PAI控制台,在工作空间页面的左侧导航栏选择模型开发与训练>交互式建模(DSW),进入交互式建模(DSW)页面。单击目标实例操作列下的停止,成功停止后即可停止资源消耗。也就是达到了资源清理的效果。
    image.png
    如果你不再使用这个实例,可以继续点击更多进行删除。
    image.png

    体验总结

    1、整个体验流程还是通畅的,但在某几个步骤时还是非常考验耐心的,由于需要从github拉取资源,而这个来源是存在网络时好时坏的,这块急需优化,非常影响体验。此外,由于参考的实验链接发布有点旧,里面使用到的资源链接都失效了,比如https://gitcode.net/mirrors/AUTOMATIC1111/stable-diffusion-webui.git,这个是404的。希望往后的体验能够及时修正这些细节。
    2、如果有产品试用,其实整个体验的费用还是可以抵扣的。如果是老用户,这块的体验费用就非常高了,因为前面提到的拉取资源会非常耗时,这就从侧面增加了体验费用,此外,训练模型需要的耗时也是挺高的,所以如果你是整个流程都认真体验下来,这块的费用还是挺高的,可以达到30元以上。非常期待后期的体验可以缩减这块费用,让更多感兴趣的小伙伴前来体验。而不是现在的这个情况,从已经发布的话题内容来看,没一个朋友是实际购买实例进行体验的,都是直接挪用了实验中的图或者之前文章中的图稍作修改得来的。
    3、非常建议类似这样需要搭建环境配置过程的话题,能否修改成一个专门的评测体验,一方面可以让更多优秀的作者加入体验,一方面可以很好地收集有关产品的建议和意见。
    4、既然作为一个话题拿出来讨论,就应该让整个体验过程变得简约,比如魔塔社区模型体验那般就非常适合。建议往后的话题讨论能够简化整体的流程,比如无需部署基础环境,开箱即用。
    5、加强与阿里云其他服务的整合,其实本次体验为了简化部署流程,是完全可以融合函数计算FC的。希望后期可以加强这方面的能力。

    2024-08-04 21:49:01
    赞同 40 展开评论 打赏
  • 根据链接内容,以下是在阿里云DSW中基于Diffusers库进行AIGC Stable Diffusion模型微调及WebUI推理的配置过程、输出结果、使用体验截图和操作记录简述:

    配置过程
    环境准备:
    登录阿里云PAI-DSW,选择或创建一个新的Notebook实例。
    安装Diffusers和Stable-Diffusion-WebUI等必要库。
    数据准备:
    准备训练所需的文本和图像数据集,确保格式兼容。
    模型微调:
    在DSW Notebook中,编写代码加载Stable Diffusion模型。
    使用Diffusers库对模型进行微调,输入训练数据和LoRA模型参数。
    启动WebUI:
    使用Stable-Diffusion-WebUI库配置并启动Web界面。
    设置API接口,以便通过WebUI进行模型推理。
    输出结果
    微调训练完成后,输出模型性能评估指标,如损失值、生成图像质量评分等。
    WebUI启动后,可通过界面输入文本查看实时生成的图像。
    使用体验截图
    截图包括DSW Notebook界面、训练过程日志、WebUI操作界面及生成的图像示例。
    操作记录
    记录了从环境搭建到模型训练、再到WebUI启动的全过程,包括每一步的代码执行和输出结果。

    2024-08-03 22:02:47
    赞同 41 展开评论 打赏
  • 共建共享

    在阿里云的控制台上选择相应的服务,然后按照提示进行操作即可。在创建实例的过程中,可以选择不同的配置,包括CPU、内存和存储等。

    创建好实例后,需要安装Diffusers开源库,这是进行AIGC Stable Diffusion模型微调训练所必需的。在实例中打开终端,然后使用pip命令安装Diffusers即可。

    接下来,需要准备用于微调训练的数据集。在这个过程中,可以使用阿里云的对象存储服务(OSS)来存储和管理数据集。

    准备好数据集后,就可以开始进行微调训练了。阿里云的交互式建模(PAI-DSW)提供了丰富的工具和框架,包括TensorFlow、PyTorch等,可以帮助轻松地进行模型的训练和调优。

    在进行微调训练的过程中,可以使用阿里云的GPU加速服务来提高训练速度。阿里云提供了多种GPU实例,包括NVIDIA Tesla V100和NVIDIA A100等,可以满足不同规模和复杂度的训练需求。

    经过一段时间的训练后,得到了一个微调后的AIGC Stable Diffusion模型。

    训练好模型后,可以使用阿里云的WebUI服务来启动模型推理。阿里云的WebUI服务提供了一个简单易用的界面,可以帮助快速地进行模型的部署和推理。

    在启动WebUI的过程中,需要将训练好的模型上传到阿里云的对象存储服务(OSS)中,然后在WebUI中配置相应的参数,包括模型路径、输入数据格式等。配置完成后,就可以启动模型推理了。

    使用阿里云的交互式建模(PAI-DSW)进行AIGC Stable Diffusion模型的微调训练和推理,得到了非常满意的结果。微调后的模型在生成图像的质量和多样性方面都有了明显的提升,可以满足的实际需求。

    此外,阿里云的交互式建模(PAI-DSW)还提供了丰富的工具和框架,可以帮助轻松地进行模型的训练和调优。同时,阿里云的GPU加速服务和WebUI服务也大大简化了模型的部署和推理过程。

    image.png

    2024-08-02 21:39:46
    赞同 40 展开评论 打赏
  • 通过实验领取免费资源或者使用个人资源
    开通PAI-DSW服务
    打开实例
    image.png

    在JupyterLab页签的Launcher页面,单击快速开始区域Notebook下的Python 3(ipykernel)。
    image.png
    根据实验手册完成操作
    image.png
    image.png
    访问以上地址页面,进行模型推理
    image.png
    可进行相关调试完成推理结果

    2024-08-02 16:54:33
    赞同 35 展开评论 打赏
  • 配置过程

    1. 准备工作

      • 登陆阿里云账号并开通PAI-DSW服务。
      • 准备Stable Diffusion模型及其LoRA扩展。
    2. 创建PAI-DSW实例

      • 登录阿里云控制台,创建新的DSW实例,选择适合的GPU类型。
    3. 安装依赖库

      • 在DSW环境中安装必要的Python库,如torchdiffusers等。
        image.png
    4. 上传数据集

      • 将用于微调的图片数据集上传至OSS,并在JupyterLab中下载进行预处理。
    5. 模型微调

      • 使用LoRA进行模型微调,设置训练参数(如学习率、批次大小等)。
      • 监控训练过程中的损失变化,保存检查点。
    6. 启动WebUI进行推理

      • 训练完成后,使用WebUI输入文本进行推理。

    image.png

    输出结果

    • 生成的图像与输入的文本描述高度一致,显示出良好的细节和色彩。

    image.png

    使用体验

    • 便捷性:PAI-DSW提供了强大的计算资源和友好的界面,使得模型训练简单易行。
    • 稳定性:阿里云服务稳定,长时间训练无中断。
    • 灵活性:用户可以根据需求轻松调整模型参数,优化性能。
    2024-08-02 10:03:49
    赞同 29 展开评论 打赏
  • 使用阿里云交互式建模(PAI-DSW)进行AIGC Stable Diffusion模型微调训练,以及如何利用该模型在WebUI上进行文生图推理的体验。

    配置过程

    首先,我通过给定的链接进入了操作页面,开始我的配置之旅。选择了一个合适的Stable Diffusion模型作为基础,上传了我自己的数据集,包括成对的文本和图片。在PAI-DSW平台上,设置参数相对简单直观,我调整了学习率、训练迭代次数等关键参数。
    image.png

    接下来的步骤,就是启动训练,看着进度条一点一点前进,心里还是有点小激动的。训练完成后,我得到了一个定制化的模型,准备进行推理测试。
    image.png

    推理的效果挺让人惊喜的,我输入了一段描述性文本,“夕阳下的海边,海浪轻拍沙滩”,模型生成的图片竟然意外地贴合文本意境,颜色和氛围都相当到位。这样的结果让我对继续优化模型充满期待。

    使用体验

    整个过程下来,感觉PAI-DSW还是挺好用的,界面友好,功能齐全,特别是对于我这种非专业算法人员来说,门槛降低了不少。而且,看到自己定制的模型能够生成如此质量的图片,确实很有成就感。

    提示词
    正向prompt
    ```cloth1,, (extremely detailed CG unity 8k wallpaper),(RAW photo, best quality), (realistic, photo-realistic:1.2), a close up portrait photo, 1girl, shopping mall rooftop cafe, outdoor, smile, (high detailed skin:1.4), puffy eyes, gorgeous hair, air bangs, brown black hair, soft lighting, high quality,

    负向prompt:
    ```ng_deepnegative_v1_75t,paintings, sketches, (worst quality:2), (low quality:2), (normal quality:2), lowres, ((monochrome)), (grayscale:1.2), skin spots, acnes, skin blemishes, age spot, glans,extra fingers,fewer fingers,(watermark:1.2),(letters:1.2),(nsfw:1.2),teeth

    总结

    如果你也对AIGC感兴趣,想快速入门并打造出自己的图像生成模型,强烈推荐尝试PAI-DSW。它不仅能提供稳定的训练平台,还能让你轻松分享和展示成果。

    2024-08-02 09:57:16
    赞同 27 展开评论 打赏
滑动查看更多

话题讨论榜

  • 1
    99元云服务器,你最pick哪种新玩法?
    奖品池:4000积分,天猫精灵*10,鼠标垫*100
    184

    1、如果您目前正使用着99元套餐的ECS实例,能否分享一下您是如何使用它的? 由于我日常工作需要的都不仅是单实例环境,基本都是集群,所以目前暂没有购买99元的优惠套餐。但作为长期使用ECS的我来说,倒是可以分享几点有关ECS使用的小技巧。 (1)如果你是第一次使用ECS,那云起实验室的诸多实验还是非常值得哪来练手熟悉产品的。你只需要在云产品中选择弹性计算即可,如下图: 每一个实验都有非常详细...

  • 2
    聊聊哪些科幻电影中的家居技术你最希望成为现实?
    奖品池:4000积分,云小宝鼠标垫*6
    99

    你最希望哪些科幻的家居技术走进日常生活? 这款智能家居系统包含多种高科技元素,例如通过语音控制的智能助理,可以轻松操控家中的各种设备。体感投影技术让你能够通过简单的手势或动作来完成诸如查看厨房信息、播放音乐甚至是管理衣橱等任务。智能温控系统能根据您的偏好自动调节室内的温度和湿度。家庭机器人则可以帮助您处理日常家务,比如打扫卫生和烹饪食物,为您节省更多宝贵的时间。此外,该系统还采用了模拟自然空...

  • 3
    听了那么多职业建议,你觉得最有用的是什么?
    奖品池:4000积分,办公腰靠*6
    110

    分享你认为对你的职业规划和成长影响最深远职业建议? 在日新月异的职业环境中,灵活应变能力尤为重要。 需设定明确的职业目标,敢于创新实践,善于从挫败中吸取经验,并经常进行自我审视,明白自己的长处与短处,积极寻求意见来进行自我提升。 此外,保持真诚可信,致力于为他人带来价值,这有助于你建立良好的个人信誉。 不断学习新知精进自己,构建并维持广泛的人际网络,这些均是达成职业成就的关键所在。

  • 4
    100%打赢人类新手,乒乓球机器人靠谱吗?
    奖品池:4000积分,蓝牙迷你音箱*4
    125

    机器人可以在特定的场景帮助人们进行练习。但是机器人与人的区别就是在与人的善变、不可控。

  • 5
    大型AI模型如何跨越“专门化智能”的局限?
    奖品池:4000积分,折叠风扇*5
    100

    大型AI模型如何跨越“专门化智能”的局限? 如何让大型AI模型从专注于特定任务迈向全面智能体,这是一个既诱人又具挑战性的课题。 虽然现有的大型语言模型已经在某些特定任务中展现出显著能力,但从专精转向全能仍然需要克服诸多复杂的难题。 未来的模型将聚焦多模态学习,整合文本、图像、音频及视频等多种信息形态,实现更全面的世界认知。同时,强调持续学习,使模型能随时间推移和环境变化不断优化。通过迁移学习...

  • 相关电子书

    更多
    释放算力潜能加速应用构建Serverless为AI创新提速 立即下载
    智算时代,基于 Kubernetes 落地云原生 AI 立即下载
    通义万相:视觉生成大模型的进化与应用 立即下载