ModelScope
什么是ModelScope呢?ModelScope是开源的模型即服务共享平台,为泛AI开发者提供灵活、易用、低成本的一站式模型服务产品,让模型应用更简单!在这里你可以免费体验训练模型,同时一行命令实现模型预测,快速验证模型效果,同时也可以定制自己的个性化的模型,在体验的同时还能提升自己模型研发能力,还有这很热闹的社区,成长之路不孤单。其他ModelScope介绍和用法欢迎来到ModelScope文档中心,里面有你想要的一切答案,地址:https://modelscope.cn/#/docs
这里你可以先大概看一下ModelScope的概览介绍以及ModelScope能够提供给我们的服务,鉴于其提供的服务,我们可以实现哪些业务。下面我将主要通过人像卡通化模型演示来展示ModelScope的强大功能。
模型库
既然是要演示一下人像卡通化模型,那么首先就需要用到模型库,地址:https://modelscope.cn/#/models,在模型库里面找到人像卡通化的模型
这里的达摩卡通化模型其实就是我们通俗说的人像卡通化模型,图中也有一行红色小字标识【人像卡通化】,再体验完人像卡通化后后续会再演示一下【人像美肤模型】。
达摩卡通化模型
下面我们就来演示达摩卡通化模型,在模型介绍页我们也可以看到已经实现的人像卡通化的展示效果动图以及模型描述、使用方式和范围,如何使用等说明。
模型介绍的右侧可以直接上传本地图片进行测验,这里有我测验的效果,还是不错的,另外我演示的是要通过Notebook在线打开模型文件进行测试。
人像美肤模型
在演示完达摩卡通化模型后再演示一下【人像美肤模型】,为什么主要演示这两个模型呢,首先是个人比较感兴趣的也是这两个模型,当然也是因为这两个模型大家也比较喜欢,毕竟美肤和卡通化都是可以让照片美美哒的好方案,人像美肤模型模型介绍页
在线测试的测试结果对比原图来看,确实美白了呢,哈哈
环境准备
你可以选择两种方式来进行开发,一种是通过本地环境开发,
一种是通过Notebook在线开发,这里我选择的是Notebook在线开发,为什么呢?因为你看本地需要安装Python环境,安装深度学习框架,安装ModelScope Library,属实太复杂了,还是直接在Notebook中运行,Notebook中提供官方镜像无需自主进行环境安装,更加方便快捷,推荐大家也可以试试。
Notebook 开发
打开Notebook登录页面,如果没有账号需要注册一个
注册完账号登录之后可以看到
选择【方式一】,点击【启动】,启动过程需要一定时间,请耐心等待即可
一段时间后,
启动完成,点击【查看notebook】,可以看到如下在线开发页面
点击【Notebook】下Python3按钮,打开编辑页面
这时回到【达摩卡通化模型】,点击【快速使用】,复制【代码范例】
frommodelscope.pipelinesimportpipelinep=pipeline('image-portrait-stylization', model='damo/cv_unet_person-image-cartoon_compound-models')
到notebook在线开发工具中,点击执行按钮,可以看到日志输出
执行命令后,系统将进行模型的下载、推理等一系列操作日志,推理完毕后输入测试的内容即可得到输出结果。
模型调试-人像卡通化
在上一步根据task示例化一个pipeline对象后,下面就可以输入数据进行调试,这里我首先在本地准备一张人像照片
然后在到【达摩卡通化模型】的【模型介绍】找到【如何使用】,【代码范例】,这里需要将输入图片的地址改成我自己的本地图片路径
调试代码如下
importcv2frommodelscope.hub.snapshot_downloadimportsnapshot_downloadfrommodelscope.pipelinesimportpipelinemodel_dir=snapshot_download('damo/cv_unet_person-image-cartoon_compound-models', cache_dir='.') img_cartoon=pipeline('image-portrait-stylization', model=model_dir) result=img_cartoon('E:\\2345Downloads\\20220812131538.jpg') cv2.imwrite('result.png', result['output_img']) print('finished!')
将调试代码输入notebook,点击执行
无法找到本地文件,猜测可能是由于开发环境是线上,无法正常访问本地文件,那就更换一个网络图片来再次测试,代码修改为
importcv2frommodelscope.hub.snapshot_downloadimportsnapshot_downloadfrommodelscope.pipelinesimportpipelinemodel_dir=snapshot_download('damo/cv_unet_person-image-cartoon_compound-models', cache_dir='.') img_cartoon=pipeline('image-portrait-stylization', model=model_dir) result=img_cartoon('https://modelscope.oss-cn-beijing.aliyuncs.com/test/images/image_cartoon.png') cv2.imwrite('result.png', result['output_img']) print('finished!')
更改图片路径之后再次调试,执行可以看到日志无异常输出,程序执行完成打印【finished!】
点击结果图片可以看到
对比原图
整体基本没有差别,人像卡通化的效果很精确,细节上处理的也没有一点问题。
这里调试的执行日志也记录一下,方便后续使用
2022-08-1214:22:25,287-modelscope-INFO-File .DS_Storealreadyincache, skipdownloading!2022-08-1214:22:25,290-modelscope-INFO-FileREADME.mdalreadyincache, skipdownloading!2022-08-1214:22:25,292-modelscope-INFO-Filealpha.jpgalreadyincache, skipdownloading!2022-08-1214:22:25,294-modelscope-INFO-Filecartoon_anime_bg.pbalreadyincache, skipdownloading!2022-08-1214:22:25,296-modelscope-INFO-Filecartoon_anime_h.pbalreadyincache, skipdownloading!2022-08-1214:22:25,298-modelscope-INFO-Fileconfiguration.jsonalreadyincache, skipdownloading!2022-08-1214:22:25,301-modelscope-INFO-Filedemo.gifalreadyincache, skipdownloading!2022-08-1214:22:25,303-modelscope-INFO-Filedetector.pbalreadyincache, skipdownloading!2022-08-1214:22:25,305-modelscope-INFO-Filekeypoints.pbalreadyincache, skipdownloading!2022-08-1214:22:25,320-modelscope-INFO-initiatemodelfrom ./damo/cv_unet_person-image-cartoon_compound-models2022-08-1214:22:25,320-modelscope-INFO-initiatemodelfromlocation ./damo/cv_unet_person-image-cartoon_compound-models. 2022-08-1214:22:25,565-modelscope-INFO-loadingmodelfrom ./damo/cv_unet_person-image-cartoon_compound-models/cartoon_anime_h.pb2022-08-1214:22:25,696-modelscope-INFO-loadmodel ./damo/cv_unet_person-image-cartoon_compound-models/cartoon_anime_h.pbdone. 2022-08-1214:22:25,698-modelscope-INFO-loadingmodelfrom ./damo/cv_unet_person-image-cartoon_compound-models/cartoon_anime_bg.pb2022-08-1214:22:25,827-modelscope-INFO-loadmodel ./damo/cv_unet_person-image-cartoon_compound-models/cartoon_anime_bg.pbdone. finished!
在完成了人像卡通化演示之后,后面我们再体验一下人像美肤。
本地图片不识别处理
这里对于本地图片无法识别的问题,考虑到会有挺多小伙伴想拿自己的图片测验一下人像卡通化,这里提供一下后台技术人员提供的方法,在notebook页面点击上传按钮
选择上传的文件,上传完成之后可以看到
选中文件右键【Copy Path】
将复制的路径放在对应调试代码的图片路径位置,点击运行即可。
模型调试-人像美肤
由于人像卡通化的notebook开发环境我们选择的是【方式一】CPU环境,但是人像美肤在CPU环境运行下会报错,报错信息如下
2022-08-1215:13:31,245-modelscope-INFO-FileREADME.mdalreadyincache, skipdownloading!2022-08-1215:13:31,247-modelscope-INFO-Fileconfiguration.jsonalreadyincache, skipdownloading!2022-08-1215:13:31,252-modelscope-INFO-Fileexamples.jpgalreadyincache, skipdownloading!2022-08-1215:13:31,254-modelscope-INFO-Fileskin_retouching.pngalreadyincache, skipdownloading!2022-08-1215:13:31,256-modelscope-INFO-Filejoint_20210926.pthalreadyincache, skipdownloading!2022-08-1215:13:31,258-modelscope-INFO-Filepytorch_model.ptalreadyincache, skipdownloading!2022-08-1215:13:31,260-modelscope-INFO-Fileretinaface_resnet50_2020-07-20_old_torch.pthalreadyincache, skipdownloading!2022-08-1215:13:31,263-modelscope-INFO-Filetf_graph.pbalreadyincache, skipdownloading!2022-08-1215:13:31,279-modelscope-INFO-initiatemodelfrom/mnt/workspace/.cache/modelscope/damo/cv_unet_skin-retouching2022-08-1215:13:31,279-modelscope-INFO-initiatemodelfromlocation/mnt/workspace/.cache/modelscope/damo/cv_unet_skin-retouching. ---------------------------------------------------------------------------AssertionErrorTraceback (mostrecentcalllast) /opt/conda/lib/python3.7/site-packages/modelscope/utils/registry.pyinbuild_from_cfg(cfg, registry, group_key, default_args) 207else: -->208returnobj_cls(**args) 209exceptExceptionase: /opt/conda/lib/python3.7/site-packages/modelscope/pipelines/cv/skin_retouching_pipeline.pyin__init__(self, model, device) 54--->55self.generator=UNet(3, 3).to(device) 56self.generator.load_state_dict( /opt/conda/lib/python3.7/site-packages/torch/nn/modules/module.pyinto(self, *args, **kwargs) 906-->907returnself._apply(convert) 908/opt/conda/lib/python3.7/site-packages/torch/nn/modules/module.pyin_apply(self, fn) 577formoduleinself.children(): -->578module._apply(fn) 579/opt/conda/lib/python3.7/site-packages/torch/nn/modules/module.pyin_apply(self, fn) 577formoduleinself.children(): -->578module._apply(fn) 579/opt/conda/lib/python3.7/site-packages/torch/nn/modules/module.pyin_apply(self, fn) 577formoduleinself.children(): -->578module._apply(fn) 579/opt/conda/lib/python3.7/site-packages/torch/nn/modules/module.pyin_apply(self, fn) 577formoduleinself.children(): -->578module._apply(fn) 579/opt/conda/lib/python3.7/site-packages/torch/nn/modules/module.pyin_apply(self, fn) 600withtorch.no_grad(): -->601param_applied=fn(param) 602should_use_set_data=compute_should_use_set_data(param, param_applied) /opt/conda/lib/python3.7/site-packages/torch/nn/modules/module.pyinconvert(t) 904non_blocking, memory_format=convert_to_format) -->905returnt.to(device, dtypeift.is_floating_point() ort.is_complex() elseNone, non_blocking) 906/opt/conda/lib/python3.7/site-packages/torch/cuda/__init__.pyin_lazy_init() 209ifnothasattr(torch._C, '_cuda_getDeviceCount'): -->210raiseAssertionError("Torch not compiled with CUDA enabled") 211if_cudartisNone: AssertionError: TorchnotcompiledwithCUDAenabledDuringhandlingoftheaboveexception, anotherexceptionoccurred: AssertionErrorTraceback (mostrecentcalllast) /tmp/ipykernel_1040/365630354.pyin<module>4frommodelscope.utils.constantimportTasks5---->6skin_retouching=pipeline(Tasks.skin_retouching,model='damo/cv_unet_skin-retouching') 7result=skin_retouching('https://modelscope.oss-cn-beijing.aliyuncs.com/test/images/image_cartoon.png') 8cv2.imwrite('result2.png', result['output_img']) /opt/conda/lib/python3.7/site-packages/modelscope/pipelines/builder.pyinpipeline(task, model, preprocessor, config_file, pipeline_name, framework, device, model_revision, **kwargs) 248cfg.preprocessor=preprocessor249-->250returnbuild_pipeline(cfg, task_name=task) 251252/opt/conda/lib/python3.7/site-packages/modelscope/pipelines/builder.pyinbuild_pipeline(cfg, task_name, default_args) 161""" 162 return build_from_cfg(--> 163 cfg, PIPELINES, group_key=task_name, default_args=default_args) 164 165 /opt/conda/lib/python3.7/site-packages/modelscope/utils/registry.py in build_from_cfg(cfg, registry, group_key, default_args) 209 except Exception as e: 210 # Normal TypeError does not print class name.--> 211 raise type(e)(f'{obj_cls.__name__}: {e}')AssertionError: SkinRetouchingPipeline: Torch not compiled with CUDA enabledimport cv2from modelscope.outputs import OutputKeysfrom modelscope.pipelines import pipelinefrom modelscope.utils.constant import Tasksskin_retouching = pipeline(Tasks.skin_retouching,model='damo/cv_unet_skin-retouching')result = skin_retouching('https://modelscope.oss-cn-beijing.aliyuncs.com/test/images/image_cartoon.png')cv2.imwrite('result2.png', result[OutputKeys.OUTPUT_IMG])print('finished!')2022-08-12 15:18:40,342 - modelscope - INFO - File README.md already in cache, skip downloading!2022-08-12 15:18:40,345 - modelscope - INFO - File configuration.json already in cache, skip downloading!2022-08-12 15:18:40,349 - modelscope - INFO - File examples.jpg already in cache, skip downloading!2022-08-12 15:18:40,351 - modelscope - INFO - File skin_retouching.png already in cache, skip downloading!2022-08-12 15:18:40,353 - modelscope - INFO - File joint_20210926.pth already in cache, skip downloading!2022-08-12 15:18:40,356 - modelscope - INFO - File pytorch_model.pt already in cache, skip downloading!2022-08-12 15:18:40,358 - modelscope - INFO - File retinaface_resnet50_2020-07-20_old_torch.pth already in cache, skip downloading!2022-08-12 15:18:40,360 - modelscope - INFO - File tf_graph.pb already in cache, skip downloading!2022-08-12 15:18:40,376 - modelscope - INFO - initiate model from /mnt/workspace/.cache/modelscope/damo/cv_unet_skin-retouching2022-08-12 15:18:40,376 - modelscope - INFO - initiate model from location /mnt/workspace/.cache/modelscope/damo/cv_unet_skin-retouching.---------------------------------------------------------------------------AssertionError Traceback (most recent call last)/opt/conda/lib/python3.7/site-packages/modelscope/utils/registry.py in build_from_cfg(cfg, registry, group_key, default_args) 207 else:--> 208 return obj_cls(**args) 209 except Exception as e:/opt/conda/lib/python3.7/site-packages/modelscope/pipelines/cv/skin_retouching_pipeline.py in __init__(self, model, device) 54 ---> 55 self.generator = UNet(3, 3).to(device) 56 self.generator.load_state_dict(/opt/conda/lib/python3.7/site-packages/torch/nn/modules/module.py in to(self, *args, **kwargs) 906 --> 907 return self._apply(convert) 908 /opt/conda/lib/python3.7/site-packages/torch/nn/modules/module.py in _apply(self, fn) 577 for module in self.children():--> 578 module._apply(fn) 579 /opt/conda/lib/python3.7/site-packages/torch/nn/modules/module.py in _apply(self, fn) 577 for module in self.children():--> 578 module._apply(fn) 579 /opt/conda/lib/python3.7/site-packages/torch/nn/modules/module.py in _apply(self, fn) 577 for module in self.children():--> 578 module._apply(fn) 579 /opt/conda/lib/python3.7/site-packages/torch/nn/modules/module.py in _apply(self, fn) 577 for module in self.children():--> 578 module._apply(fn) 579 /opt/conda/lib/python3.7/site-packages/torch/nn/modules/module.py in _apply(self, fn) 600 with torch.no_grad():--> 601 param_applied = fn(param) 602 should_use_set_data = compute_should_use_set_data(param, param_applied)/opt/conda/lib/python3.7/site-packages/torch/nn/modules/module.py in convert(t) 904 non_blocking, memory_format=convert_to_format)--> 905 return t.to(device, dtype if t.is_floating_point() or t.is_complex() else None, non_blocking) 906 /opt/conda/lib/python3.7/site-packages/torch/cuda/__init__.py in _lazy_init() 209 if not hasattr(torch._C, '_cuda_getDeviceCount'):--> 210 raise AssertionError("Torch not compiled with CUDA enabled") 211 if _cudart is None:AssertionError: Torch not compiled with CUDA enabledDuring handling of the above exception, another exception occurred:AssertionError Traceback (most recent call last)/tmp/ipykernel_1040/2692908915.py in <module> 4 from modelscope.utils.constant import Tasks 5 ----> 6 skin_retouching = pipeline(Tasks.skin_retouching,model='damo/cv_unet_skin-retouching') 7 result = skin_retouching('https://modelscope.oss-cn-beijing.aliyuncs.com/test/images/image_cartoon.png') 8 cv2.imwrite('result2.png', result[OutputKeys.OUTPUT_IMG])/opt/conda/lib/python3.7/site-packages/modelscope/pipelines/builder.py in pipeline(task, model, preprocessor, config_file, pipeline_name, framework, device, model_revision, **kwargs) 248 cfg.preprocessor = preprocessor 249 --> 250 return build_pipeline(cfg, task_name=task) 251 252 /opt/conda/lib/python3.7/site-packages/modelscope/pipelines/builder.py in build_pipeline(cfg, task_name, default_args) 161 """162returnbuild_from_cfg( -->163cfg, PIPELINES, group_key=task_name, default_args=default_args) 164165/opt/conda/lib/python3.7/site-packages/modelscope/utils/registry.pyinbuild_from_cfg(cfg, registry, group_key, default_args) 209exceptExceptionase: 210# Normal TypeError does not print class name.-->211raisetype(e)(f'{obj_cls.__name__}: {e}') AssertionError: SkinRetouchingPipeline: TorchnotcompiledwithCUDAenabled
这个时候就必须要切换到【方式二】,也就是需要我们首先关闭【方式一】,选中【方式二】点击启动
启动完成之后可以看到成功页面如图
点击【查看notebook】,到notebook开发页面,输入【人像美肤模型】初始化对象代码
frommodelscope.pipelinesimportpipelinep=pipeline('skin-retouching', model='damo/cv_unet_skin-retouching')
执行初始化之后,找到【模型介绍】的【代码范例】
复制并输入notebook开发环境,点击执行
importcv2frommodelscope.outputsimportOutputKeysfrommodelscope.pipelinesimportpipelinefrommodelscope.utils.constantimportTasksskin_retouching=pipeline(Tasks.skin_retouching,model='damo/cv_unet_skin-retouching') result=skin_retouching('https://modelscope.oss-cn-beijing.aliyuncs.com/test/images/image_cartoon.png') cv2.imwrite('result2.png', result[OutputKeys.OUTPUT_IMG]) print('finished!')
执行完成之后看到无报错信息,最后打印【finished!】,则表示代码执行成功
点击左侧找到生成的图片文件,对比上面的原图可以看到皮肤美白了,哈哈
体验记录
文档使用记录
在体验过程中,基本上操作都需要文档提供帮助,毕竟这对于我个人来说是一个新事务,而最快理解和接纳新事务的方式就是阅读使用文档和动手尝试体验,文档整体来说针对ModelScope的介绍、模型使用操作、notebook操作指南、模型库、数据集、开发者使用指南等基本已经很完善了,唯一缺失的应该算是使用中问题的答疑部分,因为有一些问题的产生不是体验者操作导致的,可能是共性的问题,但是文档并没有列举出此类问题的解决方案,这样就导致在使用过程中遇到问题不能及时处理而影响效率,影响使用感受。
预期效果
这么说吧,虽然在体验人像美肤模型的过程中遇到了一点小问题,但是预期效果都达到了,整体体验还是不错的;关于预期效果这一块希望可以提升一下低像素图片的处理,现在的结果是高像素图片处理效果比较好,低像素图片模型的适配度就不太好,图片处理的不是很满意。
适用场景
虽然我只是体验了人像卡通化和人像美肤两个模型,但是我对ModelScope的使用场景还是很看好的,就单说我体验的人像卡通化模型,现在还是有很多年轻代喜欢把自己的照片卡通化来做各种平台的头像,而现在外面的很多可以卡通化图片的app或者网站或者第三方工具,要么人像卡通化的效果不好,要么就要收费,要么就带水印,真的是谁用谁心里堵,那么说到ModelScope的人像卡通化,那真的就效果比外面的好太多了。
产品联动
上面说到ModelScope的人像卡通化效果好,那么是否可以提供接口给第三方app或者网站,而app或者网站就提供一个功能叫做人像卡通化,直接调用ModelScope的接口实现卡通化效果,单说人像卡通化的需求,个人就觉得不是一家公司有需求,但凡是用到用户头像的产品都有接入的可能,可以说前景很好的。
总结
ModelScope虽然之前没有用过,但是这次体验下来的整体感觉还是很不错的,虽然中间在体验人像美肤模型时多次尝试一直报错,询问了专业人士之后,切换到GPU模式下创建notebook开发环境成功达到实验效果,后面还有很多的体验模型,比如英文图像描述,达摩人像抠图等很多模型,ModelScope模型范围涉及图像、视觉等多模态,涉及语音、自然语言处理、计算机视觉等,可以说涉及到生活中的方方面面了,不管是个人体验、个人使用还是商业使用,同时通过开放的社区合作,构建深度学习相关的模型开源,并开源相关模型服务创新技术,推动模型应用生态的繁荣发展,真的是科技改变生活!