备战双十一·谁的表情包在天上飞

avatar
@阿里巴巴集团
原文链接: mp.weixin.qq.com

前言

双十一刚过,这个全民吃土的时期,闲鱼非常贴心的推出了一个土味表情包的活动,可以通过定制表情包来吐槽并分享大家吃土的心声,这篇文章将为大家介绍如何用Python和weex快速搭建这样一个基于人脸识别的活动项目。

关键词:weex、Python、人脸识别

1. 前端搭建

前端页面主要包括:拍照和生成表情两部分。

1.1 拍照

拍照使用的是windvane的拍照模块,目前只能支持weex环境,h5环境暂时只能通过提示和拉端让引导用户到闲鱼or手淘去生成土味表情。在手淘的最新版本8.1.0中,直接用WVCamera.takePhoto进行拍照和上传图片可能出现问题,所以需要把拍照和上传图片分开调用,上传图片使用WVCamera.confirmUploadPhoto接口。

  1. var params = {

  2.    type: '0',

  3. };

  4. window.WindVane.call('WVCamera', 'takePhoto', params, function(e) {

  5.    var uploadParams = {

  6.        // 需要上传的照片的路径

  7.        path: e.localPath,

  8.        // 上传方式

  9.        v: '2.0',

  10.        // 业务代码

  11.        bizCode: 'mtopupload'

  12.    };

  13.    setTimeout(function() {

  14.        window.WindVane.call('WVCamera', 'confirmUploadPhoto', uploadParams, function(e) {

  15.            alert('upload success: ' + JSON.stringify(e));

  16.        }, function(e) {

  17.            alert('upload failure: ' + JSON.stringify(e));

  18.        });

  19.    }, 20);

  20. }, function(e) {

  21.    alert('takePhoto failure: ' + JSON.stringify(e));

  22. });

1.2 生成表情

通过调用后台接口,传人照片地址和表情模板编号,生产表情后,接口会返回表情的地址然后渲染。 效果如下

2. 服务端搭建

工程服务端使用纯Python搭建,可以满足快速搭建并部署上线活动的需求,使用的是SocketServer、BaseHTTPServer这两个库构建出的Http服务器:

socketserver是标准库中的一个高级模块,用于网络客户端与服务器的实现。模块中,已经实现了一些可供使用的类,socketserver模块包括许多可以简化TCP,UDP,UNIX域套接字服务器实现的类;

BaseHTTPServer模块构造了HTTP请求处理基类BaseHTTPRequestHandler,它继承自SocketServer模块中的StreamRequestHandler类;

用起来很方便,调用如下:

  1. import BaseHTTPServer as webservice

  2. from SocketServer import ThreadingMixIn

  3. from BaseHTTPServer import HTTPServer,BaseHTTPRequestHandler

  4. if __name__ == '__main__':

  5.    serverAddress = ('', PORT)

  6.    server = ThreadingHttpServer(serverAddress, RequestHandler)

  7.    server.serve_forever()

当有http请求,会触发RequestHandler的do_GET回调,执行里面的业务代码

  1. class RequestHandler(webservice.BaseHTTPRequestHandler):

  2.    def do_GET(self):

基础的调用实现之后,接下来的工作还有用ThreadingHttpServer来实现多线程的webserver,对参数做签名校验,使用Nginx来做分流等…就不一一细说了。

3. 算法选型

人脸融合到表情包的过程可以分四步:

  • 人脸检测

  • 人脸位置对齐

  • 提取脸部五官特征,合成到表情包

  • 调节脸的色调

3.1 在人脸识别部分,我们使用的是dlib库,可以很方便快捷的识别出脸部的68个点,点位置的分布如图:

使用起来很简单:

  1. # 初始化dlib

  2. detector = dlib.get_frontal_face_detector()

  3. predictor = dlib.shape_predictor(PREDICTOR_PATH)

  4. # 获取脸部特征点

  5. def get_landmarks(im):

  6.    rects = detector(im, 1)

  7.    if len(rects) > 1:

  8.        raise TooManyFaces

  9.    if len(rects) == 0:

  10.        raise NoFaces

  11.    return numpy.matrix([[p.x, p.y] for p in predictor(im, rects[0]).parts()])

3.2 人脸位置对齐,我们取到两张脸的标记矩阵之后,通过使用奇异值分解计算旋转,再利用仿射变换矩阵转化:

  1. def warp_im(im, M, dshape):

  2.    output_im = numpy.zeros(dshape, dtype=im.dtype)

  3.    cv2.warpAffine(im,

  4.                   M[:2],

  5.                   (dshape[1], dshape[0]),

  6.                   dst=output_im,

  7.                   borderMode=cv2.BORDER_TRANSPARENT,

  8.                   flags=cv2.WARP_INVERSE_MAP)

  9.    return output_im

3.3 提取人脸中间特征包括了眼睛、眉毛、鼻子、嘴巴,将这个T字型的关键区域,需要将特征连接成一个凸多边形,然后使用cv.fillConvexPoly填充生成mask遮罩,遮罩的边缘外部羽化扩展,隐藏不连续区域,而表情包的底图需要先将原有的表情擦除,防止原有特征影响照片的图案,再将遮罩与表情包底图的脸部特征矩阵对齐,得到混合图案。

3.4 调节脸的色调是最后一步,经过上一步合成的脸还是原来的色值,需要转换为黑白的图片,首先去色,然后使用gamma曲线调节对比度,让脸部黑色部分更黑,白色部分更白,特征更加明显,调节对比度方法如下:

  1. # 传入参数越大对比度越高

  2. def gamma_trans(img,gamma):

  3.    gamma_table = [numpy.power(x/255.0,gamma)*255.0 for x in range(256)]

  4.    gamma_table = numpy.round(numpy.array(gamma_table)).astype(numpy.uint8)

  5.    return cv2.LUT(img,gamma_table)

4. 算法优化

我们从两个方面对算法做了简单的优化:

一是使用多进程优化,这步使用的是loky库实现:

  1. import loky

  2. from loky import get_reusable_executor

执行部分:

  1.    # work_thread为机器能使用的最大进程数

  2.    executor = get_reusable_executor(max_workers=work_thread, timeout=60)

  3.    params = []

  4.    # 传入需要多进程执行的方法名和参数,多个参数需要合成一个传入

  5.    result = executor.map(do_func, params)

  6.    try:

  7.        while 1:

  8.            re = result.next()

需要注意的是dlib的初始化部分,需要放入多进程优化的函数中,如果作为单例,dlib库会报no safe错误,而当dlib初始化放到了多进程的函数中,每次初始化都会调用一遍,这也是一个耗时的点,使用时需要去权衡优化。

另外还有一点需要注意是,如果你的功能是用Python2实现,另一个更加主流方便的多进程库Process则不能使用,与dlib会有冲突。

二是压缩检测区域,可以对原图先复制一个副本然后将副本压缩至1/4,然后传入dlib中进行识别,再对识别出的landmarks特征数组乘以4,得到原来的特征位置,再来处理原图和复原后的特征点集。除了压缩还可以通过裁剪来减小dlib的计算量,截取ROI区域,识别时将表情包人脸的区域截取出来传入dlib,聚焦图片中部位置识别,或者可以配合OpenCV的背景去除来缩小识别区域。

总结

以上就是表情包活动的全部实现流程了,其中性能、效果还有很多可以优化的点,欢迎大家在闲鱼或者手淘体验”拯救吃土族“定制表情包并提出建议和反馈~

关注公众号,前瞻技术尽在掌握