视觉AI五天训练营 Day05 搭建多场景人脸口罩检测系统(附效果动图)

本文涉及的产品
对象存储 OSS,20GB 3个月
对象存储 OSS,恶意文件检测 1000次 1年
视觉智能开放平台,图像资源包5000点
简介: 视觉AI五天训练营 Day05 搭建多场景人脸口罩检测系统(附效果动图)

搭建多场景人脸口罩检测系统-基于阿里云视觉智能平台

最后一次的课了,就不辣么水了。这次的试验目的是将用户上传的图片(例如在公共场合的监控照片)进行识别,返回当前图片中的人数、(人)活体的可信度、佩戴口罩的人数以及其占比、未佩戴口罩的人物坐标。可以设置适当的阀值,当达到一定阀值(占比)时进行警告或者通知等处理。

第一步,阿里云控制台获取accesskey

image.png

不管你调用任何的能力,基本都需要获取accesskey。

第二步,去阿里云视觉开放平台查看接口文档

  • 这次试验一共使用了阿里云视觉开放平台的两个能力,分别是:

人脸检测定位:返回图片中人脸数量,人脸坐标;
使用OpenCV切割人脸(无阿里云相关接口,所以通过本地实现):通过人脸坐标进行裁剪图片,以便下一步检测口罩;
人脸口罩识别:识别输入图片中的人脸是否有戴口罩。

  • 预计效果:

输出图片中的人脸数以及可信度,输出未戴口罩的人数以及可信度,未戴口罩的人数达到一定占比对用户进行通知。

第三步,编写代码(高级CV工程师又上线了)

1.导入需要使用的模块,以及阿里云视觉相关的模块

import os
import json
import time
from urllib import request
import numpy as np
import cv2

from viapi.fileutils import FileUtils
from aliyunsdkcore.client import AcsClient
from aliyunsdkcore.acs_exception.exceptions import ClientException
from aliyunsdkcore.acs_exception.exceptions import ServerException
from aliyunsdkfacebody.request.v20191230.DetectFaceRequest import DetectFaceRequest
from aliyunsdkfacebody.request.v20191230.DetectMaskRequest import DetectMaskRequest

2.出于安全以及模块化的考虑,将阿里云的AccessKey和AccessSecret写入配置文件,需要的时候通过函数调用,代码如下。

#获取accesskeyId和AccessSecret
def get_access():
    with open(r'accesskey.conf', 'r') as f:
        KeyId, Secret = f.read().split()  #split切割
        return KeyId, Secret

3.由于将图片交由阿里云视觉平台处理需要使用阿里云OSS,在阿里云OSS的文档中有关于各大编程语言的上传下载等操作的sdk,但是出于懒惰的考虑,我决定使用阿里云视觉平台提供的临时OSS,默认region就是上海的,而上传图片只需要几行代码就搞定了,简直完美;由于在调用的时候需要区分是上传的是本地文件还是图片URL,所以我多加了一个参数‘bool’,用于方便上传本地或者网络的图片,具体代码如下。

# 上传图片到临时OSS
def uploadImage_2_oss(accessKeyId, accessSecret, uploadUrl, bool):
    file_utils = FileUtils(accessKeyId, accessSecret)
    oss_url = file_utils.get_oss_url(uploadUrl,"jpg",bool)
    return (oss_url)
    # oss_url = file_utils.get_oss_url("/home/xxx.mp4","mp4",True)
    # print(oss_url)

4.准备就绪,编写代码调用阿里云视觉平台的人脸检测定位能力,对通过上传到临时OSS的图片进行处理,并格式化返回的结果,因为我们不需要一些无用的返回结果,只需要返回FaceProbabilityList以及Credibility和FaceCoordinate,对于人脸坐标,其实后面还有的用处,返回json数据以及Face_Number,具体代码如下。

#人脸检测并返回人脸数量、可信度、人脸坐标
def Face_Number_Check(accessKeyId, accessSecret, oss_url):       
    client = AcsClient(accessKeyId, accessSecret, 'cn-shanghai')
    request_Face_Number = DetectFaceRequest()
    request_Face_Number.set_accept_format('json')
    request_Face_Number.set_ImageURL(oss_url)
    response_Face_Number = client.do_action_with_exception(request_Face_Number)
    response_Face_Number = str(response_Face_Number, encoding='utf-8')
    res_Face_Data_List = json.loads(response_Face_Number)
    Face_Number = len(res_Face_Data_List['Data']['FaceProbabilityList'])
    Face_Credibility = res_Face_Data_List['Data']['FaceProbabilityList']
    #返回人脸矩形框,分别是[left, top, width, height]
    face_Coordinate = list_split(res_Face_Data_List['Data']['FaceRectangles'],4) 
    C_C_json = {'Coordinate':[], 'Credibility':[]}
    # class1_value.append ('检测到图像中的人脸数共有 %d 个' %Face_Number)
    for i in range(Face_Number):
        C_C_json['Coordinate'].append (face_Coordinate[i])
        C_C_json['Credibility'].append ('%.2f%%' %(Face_Credibility[i]*100))
        # print (face_Coordinate[i])
    return C_C_json, Face_Number

5.由于上方拿到了图片中所有的FaceCoordinate,我们在格式化之前对列表进行分割,以便后续定位切割方便使用,代码如下。

#定义一个数组分割函数,对应一张人脸四个坐标
def list_split(items, n):   
    return [items[i:i+n] for i in range(0, len(items), n)]

6.接下来就要通过本地的处理将图片中的人脸切割出来,我使用的是cv2进行处理的,所以上方格式化的Coordinate就有了用处,切割出来之后临时存入本地即刻上传临时OSS,并在完成后删除切割的图片,将上传好的人脸图片链接写入list,最后返回一个OSS_IMG_List,方便需要的时候使用。代码如下。

#图像人脸分割
def Face_Mask_Recognition(oss_url,ccjson):
    oss_url_list = []
    for i in range(len(ccjson['Coordinate'])):
        x0 = ccjson['Coordinate'][i][0]
        y0 = ccjson['Coordinate'][i][1]
        x1 = ccjson['Coordinate'][i][2] + x0
        y1 = ccjson['Coordinate'][i][3] + y0

        resp = request.urlopen(oss_url)
        image = np.asarray(bytearray(resp.read()), dtype="uint8")
        image = cv2.imdecode(image, cv2.IMREAD_COLOR)
        cropped = image[y0:y1, x0:x1]
        path = "./images/" + str(i) + ".jpg"
        print ('一共%d张人脸图片,正在分割第%d张图片...' %(len(ccjson['Coordinate']), i+1))
        cv2.imwrite(path, cropped)

        #上传至region为上海的临时OSS并返回链接
        uploadPath = path
        oss_url_list.append (uploadImage_2_oss(accessKeyId, accessSecret, uploadPath, True))
        #上传完毕删除文件
        os.remove(path)
    print ('分割完毕,准备进行口罩佩戴识别...')
    print ('-'*80+'\n')
    return oss_url_list

7.有了图片中的人脸图片的OSS链接之后,通过调用阿里云视觉平台的人脸口罩识别能力,对切割好的人脸进行处理识别,对处理的结果进行简单的处理之后,便可以格式化输出了。代码如下。

#人脸口罩识别
def Mask_Detection(accessKeyId, accessSecret, oss_url_list):
    client = AcsClient(accessKeyId, accessSecret, 'cn-shanghai')
    request_Mask = DetectMaskRequest()
    request_Mask.set_accept_format('json')

    res_Mask_List = []
    for i in range(len(oss_url_list)):
        print ('正在识别图像中第%d个人脸口罩佩戴情况...' %(i+1))
        request_Mask.set_ImageURL(oss_url_list[i])
        response_Mask = client.do_action_with_exception(request_Mask)
        response_Mask = str(response_Mask, encoding='utf-8')
        res_Mask = json.loads(response_Mask)['Data']['Mask']
        res_Mask_List.append (res_Mask)
        time.sleep(0.5)
    print ('识别完毕,准备格式化输出结果...')
    print ('-'*80+'\n')
    return res_Mask_List

8.由于对于口罩识别的API返回的数据并不是我们想要的,没有戴口罩返回1,戴了返回2,通过简单的转换之后,就可以显示成百分百了,不过只有100%和0%,不过我不尴尬,尴尬的是阿里云,谁叫它只返回1或者2,即戴了或者没戴,代码如下。

#转换口罩识别结果
def numlist2str(islist):
    for x in range(len(islist)):
        if islist[x] == 1:
            islist[x] = '0%'
        else:
            islist[x] = '100%'
    return islist

9.口说无凭,你说图片有几个人脸就几个人脸吗?你说戴了口罩就戴了口罩?为了更直观的表达,还是把原图读取出来,并对人脸进行圈圈,就是画个框框,(本来想要做成戴了口罩的用绿框框,没戴的用红框框,但是由于我比较懒,加上没有时间,以及代码写的太乱了,就不搞了,有兴趣的小伙伴可以搞一下,不难的)

#读取检测的图片,并通过cv2对人脸进行标记,最后显示出来
def showimg():
    #显示检测的图片
    resp = request.urlopen(oss_url)
    image = np.asarray(bytearray(resp.read()), dtype="uint8")
    image = cv2.imdecode(image, cv2.IMREAD_COLOR)

    # 输入参数分别为图像、左上角坐标、右下角坐标、颜色数组、粗细
    for x in range(len(ccjson['Coordinate'])):
        x0 = ccjson['Coordinate'][x][0]
        y0 = ccjson['Coordinate'][x][1]
        x1 = ccjson['Coordinate'][x][2] + x0
        y1 = ccjson['Coordinate'][x][3] + y0
        cv2.rectangle(image, (x0,y0), (x1,y1), (0,0,255), 2)

    cv2.namedWindow("image" , cv2.WINDOW_NORMAL)
    cv2.imshow('image', image)
    cv2.waitKey(0)

10.好了,到最后一步了,写个入口,调用下把子函数,输出下需要的数据就好了。代码如下。

if '__main__' == __name__:

    uploadUrl = input('输入需要检测人脸的图片链接(路径)后回车:\n')
    accessKeyId, accessSecret = get_access()
    oss_url = uploadImage_2_oss(accessKeyId, accessSecret, uploadUrl, False)

    #分割符
    print ('-'*80+'\n')

    #人脸数量及坐标的结果
    ccjson, Face_Number = Face_Number_Check(accessKeyId, accessSecret, oss_url)
    # print (len(ccjson['Coordinate']))
    
    #分割图片中的人脸并返回分割好的图片链接
    oss_url_list = Face_Mask_Recognition(oss_url,ccjson)


    #识别人脸是否佩戴口罩结果
    result_Mask = Mask_Detection(accessKeyId, accessSecret, oss_url_list)
    result_Mask = numlist2str(result_Mask)

    for x in range(len(ccjson['Coordinate'])):
        print ('检测到第%d张人脸坐标为%s\t人脸概率为%s\t佩戴口罩概率为%s' %(x+1, ccjson['Coordinate'][x], ccjson['Credibility'][x], result_Mask[x]))


    #标记图片中人脸
    showimg()

11.经过简单的图片处理和视觉平台能力的整合,我们来试验一下效果。

首先来一张本地图片

image.png

接着我们进行试验,动图如下。

image.png

再来一张网络图片

image.png

再来一次看看效果。

image.png

第四步,查看返回结果

大概长这样

image.png

结语

至此,就结束了,由于本人学艺不精,算是一个不入门级的选手,如果小伙伴们对此有更好的方法或者思路,欢迎一起讨论。最后的话,我,希望有机会能再参加阿里云的活动!

相关实践学习
借助OSS搭建在线教育视频课程分享网站
本教程介绍如何基于云服务器ECS和对象存储OSS,搭建一个在线教育视频课程分享网站。
相关文章
|
9天前
|
机器学习/深度学习 人工智能 数据可视化
首个全自动科学发现AI系统,Transformer作者创业公司Sakana AI推出AI Scientist
【9月更文挑战第11天】Sakana AI公司近日推出全球首个全自动科学发现AI系统——AI Scientist,实现了人工智能在科学研究领域的重大突破。AI Scientist不仅能独立完成从假设提出到实验设计、数据分析及论文撰写的全过程,还能通过模拟评审提升研究成果的质量。该系统已成功应用于机器学习的多个子领域,并产出达到顶级会议标准的论文。尽管其高效性备受赞誉,但也引发了关于研究可信度和潜在风险的讨论。Sakana AI强调,系统具备可追溯的决策过程与严格的评审机制,确保了研究的可靠性和透明度。论文详情参见:[链接]。
30 6
|
12天前
|
JSON 人工智能 数据格式
AI计算机视觉笔记二十六:YOLOV8自训练关键点检测
本文档详细记录了使用YOLOv8训练关键点检测模型的过程。首先通过清华源安装YOLOv8,并验证安装。接着通过示例权重文件与测试图片`bus.jpg`演示预测流程。为准备训练数据,文档介绍了如何使用`labelme`标注工具进行关键点标注,并提供了一个Python脚本`labelme2yolo.py`将标注结果从JSON格式转换为YOLO所需的TXT格式。随后,通过Jupyter Notebook可视化标注结果确保准确性。最后,文档展示了如何组织数据集目录结构,并提供了训练与测试代码示例,包括配置文件`smoke.yaml`及训练脚本`train.py`,帮助读者完成自定义模型的训练与评估。
|
12天前
|
人工智能 开发工具 计算机视觉
AI计算机视觉笔记三十:yolov8_obb旋转框训练
本文介绍了如何使用AUTODL环境搭建YOLOv8-obb的训练流程。首先创建虚拟环境并激活,然后通过指定清华源安装ultralytics库。接着下载YOLOv8源码,并使用指定命令开始训练,过程中可能会下载yolov8n.pt文件。训练完成后,可使用相应命令进行预测测试。
|
12天前
|
人工智能 PyTorch 算法框架/工具
AI计算机视觉笔记二十二:基于 LeNet5 的手写数字识别及训练
本文介绍了使用PyTorch复现LeNet5模型并检测手写数字的过程。通过搭建PyTorch环境、安装相关库和下载MNIST数据集,实现了模型训练与测试。训练过程涉及创建虚拟环境、安装PyTorch及依赖库、准备数据集,并编写训练代码。最终模型在测试集上的准确率达到0.986,满足预期要求。此项目为后续在RK3568平台上部署模型奠定了基础。
|
12天前
|
人工智能 测试技术 PyTorch
AI计算机视觉笔记二十四:YOLOP 训练+测试+模型评估
本文介绍了通过正点原子的ATK-3568了解并实现YOLOP(You Only Look Once for Panoptic Driving Perception)的过程,包括训练、测试、转换为ONNX格式及在ONNX Runtime上的部署。YOLOP由华中科技大学团队于2021年发布,可在Jetson TX2上达到23FPS,实现了目标检测、可行驶区域分割和车道线检测的多任务学习。文章详细记录了环境搭建、训练数据准备、模型转换和测试等步骤,并解决了ONNX转换过程中的问题。
|
12天前
|
机器学习/深度学习 人工智能 测试技术
AI计算机视觉笔记二十五:ResNet50训练部署教程
该项目旨在训练ResNet50模型并将其部署到RK3568开发板上。首先介绍了ResNet50网络,该网络由何恺明等人于2015年提出,解决了传统卷积神经网络中的退化问题。项目使用车辆分类数据集进行训练,并提供了数据集下载链接。环境搭建部分详细描述了虚拟环境的创建和所需库的安装。训练过程中,通过`train.py`脚本进行了15轮训练,并可视化了训练和测试结果。最后,项目提供了将模型转换为ONNX和PT格式的方法,以便在RK3568上部署。
|
12天前
|
机器学习/深度学习 人工智能 计算机视觉
AI计算机视觉笔记二十三:PP-Humanseg训练及onnxruntime部署
本文介绍了如何训练并使用PaddleSeg的人像分割模型PP-HumanSeg,将其导出为ONNX格式,并使用onnxruntime进行部署。首先在AutoDL服务器上搭建环境并安装所需库,接着下载数据与模型,完成模型训练、评估和预测。最后,通过paddle2onnx工具将模型转换为ONNX格式,并编写预测脚本验证转换后的模型效果。此过程适用于希望在不同平台上部署人像分割应用的开发者。
|
5天前
|
机器学习/深度学习 人工智能 搜索推荐
AI与未来医疗:革命性的技术,触手可及的健康
本文探讨了人工智能(AI)在医疗领域的应用及其潜力。从诊断辅助、个性化治疗到药物研发,AI正在改变我们理解健康和疾病的方式。同时,本文也讨论了AI面临的伦理挑战和数据隐私问题,呼吁建立相应的法律法规来保障患者权益。最后,本文对AI在未来医疗中的角色进行了展望,认为AI将继续推动医疗领域的创新和发展。
27 8
|
2天前
|
机器学习/深度学习 人工智能 自然语言处理
AI技术在自然语言处理中的应用
【9月更文挑战第17天】本文主要介绍了AI技术在自然语言处理(NLP)领域的应用,包括文本分类、情感分析、机器翻译和语音识别等方面。通过实例展示了AI技术如何帮助解决NLP中的挑战性问题,并讨论了未来发展趋势。
|
2天前
|
机器学习/深度学习 人工智能 自然语言处理
AI与未来医疗:技术的革新与挑战
随着科技的不断进步,人工智能(AI)在医疗领域的应用逐渐深入。本文探讨了AI在未来医疗中的潜力、面临的挑战以及其可能带来的伦理和社会影响。通过分析当前AI技术在医疗中的具体应用,如诊断、治疗和患者管理等方面,揭示其如何提高医疗服务的效率和准确性。同时,讨论了数据隐私、算法透明度等关键问题,强调了制定合理政策和规范的重要性。最后,提出了未来研究的方向和建议,以期为AI与医疗行业的深度融合提供参考。
17 1