转自:机器学习AI算法工程
基于计算机视觉的表情识别系统,该系统能够从视频流中实时检测人脸,并识别出两种基本表情:大笑和微笑。实验通过分析人脸关键点来计算表情特征指标,从而判断表情类型。
原理
基于以下原理进行:
人脸检测:
使用dlib库的get_frontal_face_detector函数检测视频中的人脸。
特征点预测:
使用dlib库的shape_predictor函数预测人脸的68个关键点。
表情特征计算:
嘴巴张开程度(MAR):
通过计算嘴巴周围特定点之间的欧几里得距离来衡量嘴巴的张开程度。
1.计算上下嘴唇的距离
2.计算嘴唇的长度
3.
嘴巴宽度与脸部宽度的比例(MJR)
:通过比较嘴巴宽度和脸部宽度的比例来识别微笑表情。
4.表情判断
:根据计算出的特征指标,结合预设的阈值判断表情类型。
代码步骤:
1.导入必要的库:
import numpy as np
import cv2
from sklearn.metrics.pairwise import euclidean_distances
from PIL import Image, ImageDraw, ImageFont
import dlib
2.定义
MAR
函数:
函数计算嘴巴张开的程度(MAR),通过计算嘴巴周围特定点之间的距离。
def MAR(shape):
A = euclidean_distances(shape[50].reshape(1, 2), shape[58].reshape(1, 2))
B = euclidean_distances(shape[51].reshape(1, 2), shape[57].reshape(1, 2))
C = euclidean_distances(shape[52].reshape(1, 2), shape[56].reshape(1, 2))
D = euclidean_distances(shape[48].reshape(1, 2), shape[54].reshape(1, 2))
return ((A + B + C) / 3) / D
3.定义
MJR
函数:
函数计算嘴巴宽度与脸部宽度的比例(MJR),用于判断微笑的程度。
def MJR(shape):
m = euclidean_distances(shape[48].reshape(1, 2), shape[54].reshape(1, 2))
j = euclidean_distances(shape[3].reshape(1, 2), shape[13].reshape(1, 2))
return m / j
4.定义
cv2addchinese
函数:
检查图像类型并转换:
def cv2addchinese(img, text, position, textColor=255, textSize=30):
if isinstance(img, np.ndarray):
if len(img.shape) == 2:
img_pil = Image.fromarray(img)
else:
img_pil = Image.fromarray(cv2.cvtColor(img, cv2.COLOR_BGR2RGB))
else:
raise ValueError("img must be a numpy array")
创建了一个
ImageDraw
对象用于在PIL图像上绘制,加载了一个中文字体文件,在指定位置绘制文本。
draw = ImageDraw.Draw(img_pil)
fontstyle = ImageFont.truetype("simsun.ttc", textSize, encoding="utf-8")
draw.text(position, text, font=fontstyle, fill=textColor)
将PIL图像转换回OpenCV图像,如果原图像是灰度图,直接转换即可;如果是彩色图,则需要从RGB色彩空间转换回BGR色彩空间。
if len(img.shape) == 2:
img_cv2 = np.array(img_pil, dtype=np.uint8)
else:
img_cv2 = cv2.cvtColor(np.array(img_pil), cv2.COLOR_RGB2BGR)
return img_cv2
5.初始化人脸检测器和特征点预测器:
detector = dlib.get_frontal_face_detector()
predictor = dlib.shape_predictor("shape_predictor_68_face_landmarks.dat")
cap = cv2.VideoCapture('xiao.mp4')
6.读取视频帧并检测人脸:
while True:
ret, image = cap.read()
faces = detector(image, 0)
for face in faces:
shape = predictor(image, face)
shape = np.array([[p.x, p.y] for p in shape.parts()])
7.计算表情指标并绘制结果:
根据MAR和MJR的值来判断表情类型
mar = MAR(shape)
mjr = MJR(shape)
result = '正常'
print("mar", mar, "\tmjr", mjr)
if mar > 0.5:
result = "大笑"
elif mjr > 0.45:
result = "微笑"
mouth = cv2.convexHull(shape[48:61])
image = cv2addchinese(image, result, mouth[0,0])
cv2.drawContours(image, [mouth], -1, (0, 255, 0), 1)
cv2.imshow('frame', image)
key = cv2.waitKey(60)
if key == 27:
break
运行结果
完整代码
import numpy as np
import cv2
from sklearn.metrics.pairwise import euclidean_distances
from PIL import Image, ImageDraw, ImageFont
import dlib
def MAR(shape):
A = euclidean_distances(shape[50].reshape(1, 2), shape[58].reshape(1, 2))
B = euclidean_distances(shape[51].reshape(1, 2), shape[57].reshape(1, 2))
C = euclidean_distances(shape[52].reshape(1, 2), shape[56].reshape(1, 2))
D = euclidean_distances(shape[48].reshape(1, 2), shape[54].reshape(1, 2))
return ((A + B + C) / 3) / D
def MJR(shape):
m = euclidean_distances(shape[48].reshape(1, 2), shape[54].reshape(1, 2))
j = euclidean_distances(shape[3