两张脸融合在一起长啥样?Opencv-Python 来告诉你!

简介: 1,Image Morphing 介绍图像融合简单来说,通过把图像设置为不同的透明度,把两张图像融合为一张图像(一般要求图像需要等尺寸),公式如下:

1,Image Morphing 介绍

图像融合简单来说,通过把图像设置为不同的透明度,把两张图像融合为一张图像(一般要求图像需要等尺寸),公式如下:

微信图片_20220520114104.png

可以根据这个公式尝试实现一下融合技术,利用 OpenCV 的 cv2.addWeighted() 函数,代码如下:

import cv2
import  numpy as np
file_path1 = "E:/data_ceshi/1.jpg"
file_path2 = "E:/data_ceshi/2.jpg"
img1 = cv2.imread(file_path1)
img2 = cv2.imread(file_path2)
morph_img = cv2.addWeighted(img1,0.5,img2,0.5,0)
save_img = np.hstack((img1,morph_img,img2))
cv2.imwrite("E:/data_ceshi/save.jpg",save_img)
cv2.imshow("morph_img",save_img)
cv2.waitKey(0)

这里 alpha 设置为 0.5, 最终结果如下图:

微信图片_20220520114106.jpg

左右两边分别为融合之前的两张图片,中间为融合结果,看起来非常不好,图片中脸的部分的确融合了,但是给我们的感觉就是明显的失真效果,太假了

对于上面提到的融合想法,若想要达到不错的效果需要对人脸区域进行对齐操作,而这一步就需要用到之前介绍的技术:人脸68个特征点提取Delaunay 三角剖分


2,特征点提取

在做人脸对齐时,不仅需要考虑人脸部分需要对齐,这里也需要考虑图片的整体性(例如头发、脖子、肩膀等部位),这里除去 dlib 提取 68 个特征点之外,又加入了12个特征点(人工标记)分别为图像四角、四边中点、肩膀处,右耳边缘、脖子等

微信图片_20220520114108.jpg


3,Delaunay 三角剖分

三角剖分目的网格化图像脸部区域,方便寻找特征对应点,为后面使用仿射变换进行对齐操作:

微信图片_20220520114111.jpg

从三角剖分图上来看,人脸区域轮廓是非常相似的,人脸融合时需要把脸部每一个对应的小三角区域事先一一对齐,然后利用设置的透明度参数来做最终的效果融合。这样结果就显得不那么失真。


4,Face Morph(脸部融合)

下面将脸部融合技术拆解为几部分:

1,脸部特长点提取、三角剖分(前面已经详细介绍了,这里就不再一一展开了),详情参考这篇文章:

利用 OpenCV-Python 进行人脸 Delaunay  三角剖分(人脸检测核心技术之一)

实现人脸识别、人脸68个特征点提取,或许这个 Python 库能帮到你!

2,对 1 中的三角剖分每个顶点做对应点衔接并记录下来,对应点记录的是三角形三顶点的索引数,如下图所示:

微信图片_20220520114112.jpg

3,图片中对每一个三角剖分区域做放射变换,用到的函数:getAffineTransform() 得到仿射变换矩阵,warpAffine() 进行放射变换,最终得到两个变换图像,

4,对 3 中得到的两图像中像素值调整透明度参数,来进行图像融合

最终结果如下:

微信图片_20220520114114.jpgout_img1.jpg

网络异常,图片无法展示
|
out_img2.jpg
网络异常,图片无法展示
|
out_img3.jpg

结果来看,脸部区域能够取得不错的结果,但整体来看仍然有很大的瑕疵,但是我们可以通过手动选择更多特征对应点来改善这种效果,最后附上完整代码

import cv2
import numpy as np
import sys
#Read points from  text file
def readPoints(path):
    # Create an array of points
    points = []
    # Read points
    with open(path) as file:
        for line in file:
            x,y = line.split()
            points.append((int(x),int(y)))
    return points
# Apply affine tranform calculated using srcTri and sdtTri to src and output an image of size
def applyAffineTransform(src,srcTri,dstTri,size):
    #Given a pair of triangles,find the affine transform.
    warpMat = cv2.getAffineTransform(np.float32(srcTri),np.float32(dstTri))
    #Apply the Affine Transform just foundto the src image
    dst = cv2.warpAffine(src,warpMat,(size[0],size[1]),None,flags=cv2.INTER_LINEAR,borderMode=cv2.BORDER_REFLECT_101)
    return dst
# Warps and alpha blends triangular regions from img1 and img2 to img
def morphTriangle(img1,img2,img,t1,t2,t,alpha):
    #Find bounding rectangle for each triangle
    r1 = cv2.boundingRect(np.float32([t1]))
    r2 = cv2.boundingRect(np.float32([t2]))
    r = cv2.boundingRect(np.float32([t]))
    # Offset points by left top corner of the respective rectangles
    t1Rect = []
    t2Rect = []
    tRect = []
    for i in range(0,3):
        tRect.append(((t[i][0] - r[0]),(t[i][1]-r[1])))
        t1Rect.append(((t1[i][0]-r1[0]),(t1[i][1]-r1[1])))
        t2Rect.append(((t2[i][0] -r2[0]),(t2[i][1]-r2[1])))
    # Get mask by filling triangles
    mask = np.zeros((r[3],r[2],3),dtype = np.float32)
    cv2.fillConvexPoly(mask,np.int32(tRect),(1.0,1.0,1.0),16,0)
    # Apply warpImage to small rectangular patched
    img1Rect = img1[r1[1]:r1[1]+r1[3],r1[0]:r1[0]+r1[2]]
    img2Rect = img2[r2[1]:r2[1]+r2[3],r2[0]:r2[0]+r2[2]]
    size = (r[2],r[3])
    warpImage1 = applyAffineTransform(img1Rect,t1Rect,tRect,size)
    warpImage2 = applyAffineTransform(img2Rect,t2Rect,tRect,size)
    # Alpha blend rectangular patches
    imgRect = (1.0-alpha) *warpImage1 +alpha*warpImage2
    # Copy triangular region of rectangular patch to tje output image
    print(r[1],r[3],r[0],r[2])
    print(imgRect.shape)
    img[r[1]:r[1]+r[3],r[0]:r[0]+r[2]] = img[r[1]:r[1]+r[3],r[0]:r[0]+r[2]]*(1-mask) +imgRect*mask
if __name__ =='__main__':
    filename1 = "E:/data_ceshi/2.jpg"
    filename2 = "E:/data_ceshi/3.jpg"
    points_txt1 = "E:/data_ceshi/2.txt"
    points_txt2  ="E:/data_ceshi/3.txt"
    alpha = 0.5
    # Read images
    img1 = cv2.imread(filename1)
    img2 = cv2.imread(filename2)
    # Convertat to float data type
    img1 = np.float32(img1)
    img2 = np.float32(img2)
    # Read array of corresponding points
    points1 = readPoints(points_txt1)
    points2 = readPoints(points_txt2)
    points = []
    # Compute weighted average point coordinate
    for i in range(0,len(points1)):
        x = (1-alpha) *points1[i][0] +alpha *points2[i][0]
        y = (1-alpha)*points1[i][1] + alpha*points2[i][1]
        points.append((x,y))
    imgMorph = np.zeros(img1.shape,dtype = img1.dtype)
    # Read triangles for tri.txt
    with open("E:/data_ceshi/tri.txt") as file:
        for line in file:
            x,y,z = line.split()
            x = int(x)
            y = int(y)
            z = int(z)
            t1 = [points1[x],points1[y],points1[z]]
            t2 = [points2[x],points2[y],points2[z]]
            t = [points[x],points[y],points[z]]
            # Morph one triangle at a time
            morphTriangle(img1,img2,imgMorph,t1,t2,t,alpha)
    # Display Results
    out_img = np.hstack((img1,imgMorph,img2))
    cv2.imwrite("E:/data_ceshi/out_img.jpg",out_img)
    cv2.imshow("Morphed Face",np.uint8(imgMorph))
    cv2.waitKey(0)


5,小总结


虽然本次面向对象是人脸,但相同技术原理也可以运用到其他物体上面,比如把苹果和橘子部分融合、人脸区域更换等功能,如果有更好的 idea 的话,可能会得到意想不到的结果,也可以在下方留言!

相关文章
|
3月前
|
文字识别 计算机视觉 开发者
基于QT的OCR和opencv融合框架FastOCRLearn实战
本文介绍了在Qt环境下结合OpenCV库构建OCR识别系统的实战方法,通过FastOCRLearn项目,读者可以学习Tesseract OCR的编译配置和在Windows平台下的实践步骤,文章提供了技术资源链接,帮助开发者理解并实现OCR技术。
147 9
基于QT的OCR和opencv融合框架FastOCRLearn实战
|
4月前
|
数据可视化 物联网 区块链
探索Python中的数据可视化:使用Matplotlib和Seaborn绘制图表探索未来:区块链、物联网与虚拟现实的融合趋势与应用前景
【8月更文挑战第30天】本文旨在引导读者通过Python编程语言,利用Matplotlib和Seaborn库,轻松掌握数据可视化技术。文章以浅显易懂的语言,结合实用的代码示例,从基础的图表绘制到高级定制功能,逐步深入讲解如何在数据分析中运用这些工具。无论你是编程新手还是希望提升可视化技能的开发者,都能在这篇文章中找到有价值的信息,让你的数据“活”起来。
|
4月前
|
机器学习/深度学习 存储 算法
【2024泰迪杯】B 题:基于多模态特征融合的图像文本检索Python代码baseline
本文通过可视化分析,总结了2024年考研国家分数线的变化趋势,指出管理类MBA降低5分,哲学、历史学、理学、医学等10个专业分数线上涨,而经济学等专业出现下降,反映出不同专业分数线受考生数量、竞争情况和政策调整等因素的影响。
71 2
【2024泰迪杯】B 题:基于多模态特征融合的图像文本检索Python代码baseline
|
4月前
|
机器学习/深度学习 存储 算法
【2024泰迪杯】B 题:基于多模态特征融合的图像文本检索Python代码实现
本文提供了2024泰迪杯B题“基于多模态特征融合的图像文本检索”的Python代码实现,包括问题分析、多模态特征提取、特征融合模型和算法的构建,以及如何使用召回率作为评价标准进行模型性能评估的详细说明。
57 2
【2024泰迪杯】B 题:基于多模态特征融合的图像文本检索Python代码实现
|
4月前
|
Python
探索Python中的列表推导式:简洁与效率的融合
【8月更文挑战第31天】在编程的世界里,我们总是在寻找使代码更简洁、更高效的方法。Python语言提供了一种强大的工具——列表推导式,它允许我们在一行代码中生成列表,既提高了代码的可读性,也提升了执行效率。本文将带你了解列表推导式的基本概念,通过示例展示其使用场景,并探讨如何优雅地运用这一特性来简化你的Python代码。
|
4月前
|
数据采集 存储 算法
【2024泰迪杯】B 题:基于多模态特征融合的图像文本检索20页论文及Python代码
本文介绍了2024年泰迪杯B题的解决方案,该题目要求构建基于多模态特征融合的图像文本检索模型和算法,通过深入分析和预处理数据集,构建了OFA、BertCLIP和ChineseCLIP三种多模态特征融合模型,并通过投票融合机制优化检索效果,实验结果表明所提模型在图像与文本检索任务中显著提高了检索准确性和效率。
118 2
|
4月前
|
数据处理 开发者 Python
探索Python中的列表推导式:简洁与高效的融合
【8月更文挑战第30天】在编程的世界里,代码的优雅和效率往往如同天平的两端,难以兼得。然而,Python语言中的列表推导式(List Comprehension)却巧妙地实现了这两者的平衡。它以简明扼要的语法,将循环和条件判断融入一行代码之中,既提升了代码的可读性,又不失执行的效率。本文将深入探讨列表推导式的魅力所在,并通过对比分析,揭示其背后的逻辑结构,带你领略这一Python独到特性的风采。
|
4月前
|
测试技术 数据处理 开发者
探索Python中的列表推导式:简洁与效率的融合
【8月更文挑战第2天】在Python编程世界中,列表推导式以其简明扼要的语法和高效的性能而备受青睐。本文将通过实际代码示例深入探讨列表推导式的使用场景、优势及其背后的工作原理。我们将一起见证如何通过几行简单的代码,完成复杂的数据处理任务,并评估其在不同情况下的性能表现。
|
5月前
|
机器学习/深度学习 数据采集 算法
Python实现ISSA融合反向学习与Levy飞行策略的改进麻雀优化算法优化支持向量机回归模型(SVR算法)项目实战
Python实现ISSA融合反向学习与Levy飞行策略的改进麻雀优化算法优化支持向量机回归模型(SVR算法)项目实战
181 9
|
5月前
|
机器学习/深度学习 数据采集 算法
Python实现ISSA融合反向学习与Levy飞行策略的改进麻雀优化算法优化支持向量机分类模型(SVC算法)项目实战
Python实现ISSA融合反向学习与Levy飞行策略的改进麻雀优化算法优化支持向量机分类模型(SVC算法)项目实战