Openface
是一个基于深度神经网络的开源人脸识别系统。该系统基于谷歌的文章FaceNet: A Unified Embedding for Face Recognition and Clustering。Openface
是卡内基梅隆大学的Brandon Amos主导的。
1.准备系统环境
如果是服务器版本的ubuntu
,可能默认Python
都没有安装
#如果没有安装python的话,执行最小安装命令即可,目前我们需要的是Python2
$ sudo apt-get install python-minimal
$ sudo apt-get install python-pip
$ sudo pip install --upgrade pip
#如果没有安装git的话,此处需要手工安装
$ sudo apt-get install git
#编译dlib时候需要
$ sudo apt-get install cmake
$ sudo apt-get install libboost-dev
$ sudo apt-get install libboost-python-dev
2.下载代码
$ git clone https://github.com/cmusatyalab/openface.git
3.安装opencv
$ sudo apt-get install libopencv-dev
$ sudo apt-get install python-opencv
4.安装依赖的python
库
$ cd openface
$ pip install -r requirements.txt
$ sudo pip install dlib
$ sudo pip install matplotlib
5.安装Torch7
参考链接 ubuntu 16.04 LTS上安装Torch7
编译完成后,路径变量被加入了.bashrc
,我们需要刷新一下Shell
的环境变量
# 使 torch7 设置的刚刚的环境变量生效
source ~/.bashrc
6.安装依赖的lua
库
$ luarocks install dpnn
#下面的为选装,有些函数或方法可能会用到
$ luarocks install image
$ luarocks install nn
$ luarocks install graphicsmagick
$ luarocks install torchx
$ luarocks install csvigo
7.编译代码
$ python setup.py build
$ sudo python setup.py install
8.下载预训练后的数据
$ sh models/get-models.sh
#参考 https://cmusatyalab.github.io/openface/models-and-accuracies/ 下载对应的模型
$ wget https://storage.cmusatyalab.org/openface-models/nn4.v1.t7 -O models/openface/nn4.v1.t7
9.执行测试Demo
执行的脚本face_detect.py
代码如下:
#!/usr/bin/env python2
import argparse
import cv2
import os
import dlib
import numpy as np
np.set_printoptions(precision=2)
import openface
from matplotlib import cm
fileDir = os.path.dirname(os.path.realpath(__file__))
modelDir = os.path.join(fileDir, '..', 'models')
dlibModelDir = os.path.join(modelDir, 'dlib')
if __name__ == '__main__':
parser = argparse.ArgumentParser()
parser.add_argument(
'--dlibFacePredictor',
type=str,
help="Path to dlib's face predictor.",
default=os.path.join(
dlibModelDir,
"shape_predictor_68_face_landmarks.dat"))
parser.add_argument(
'--networkModel',
type=str,
help="Path to Torch network model.",
default='models/openface/nn4.v1.t7')
# Download model from:
# https://storage.cmusatyalab.org/openface-models/nn4.v1.t7
parser.add_argument('--imgDim', type=int,
help="Default image dimension.", default=96)
# parser.add_argument('--width', type=int, default=640)
# parser.add_argument('--height', type=int, default=480)
parser.add_argument('--width', type=int, default=1280)
parser.add_argument('--height', type=int, default=800)
parser.add_argument('--scale', type=int, default=1.0)
parser.add_argument('--cuda', action='store_true')
parser.add_argument('--image', type=str,help='Path of image to recognition')
args = parser.parse_args()
if (None == args.image) or (not os.path.exists(args.image)):
print '--image not set or image file not exists'
exit()
align = openface.AlignDlib(args.dlibFacePredictor)
net = openface.TorchNeuralNet(
args.networkModel,
imgDim=args.imgDim,
cuda=args.cuda)
cv2.namedWindow('video', cv2.WINDOW_NORMAL)
frame = cv2.imread(args.image)
bbs = align.getAllFaceBoundingBoxes(frame)
for i, bb in enumerate(bbs):
# landmarkIndices set "https://cmusatyalab.github.io/openface/models-and-accuracies/"
alignedFace = align.align(96, frame, bb,
landmarkIndices=openface.AlignDlib.OUTER_EYES_AND_NOSE)
rep = net.forward(alignedFace)
center = bb.center()
centerI = 0.7 * center.x * center.y / \
(args.scale * args.scale * args.width * args.height)
color_np = cm.Set1(centerI)
color_cv = list(np.multiply(color_np[:3], 255))
bl = (int(bb.left() / args.scale), int(bb.bottom() / args.scale))
tr = (int(bb.right() / args.scale), int(bb.top() / args.scale))
cv2.rectangle(frame, bl, tr, color=color_cv, thickness=3)
cv2.imshow('video', frame)
cv2.waitKey (0)
cv2.destroyAllWindows()
在Shell
中如下执行代码:
$ python demos/face_detect.py --image=xx.jpeg
识别完成后会弹出识别到的面部图片。