基于上一讲在Clion上实现Opencv人脸追踪的基础上,我们对它进行Android上的移植。先梳理下流程:
- 手机Camera采集视频数据。
- 透过Surface将数据传递给Native层的ANativeWindows
- 在Native层中将传来的视频数据进行处理(跟踪定位画出矩形框)
- 透过Surface桥梁传出给到SurfaceView进行渲染。
Camera数据采集
//CameraHelper
public void startPreview() {
try {
mCamera = Camera.open(mCameraId);
Camera.Parameters parameters = mCamera.getParameters();
parameters.setPreviewFormat(ImageFormat.NV21);
parameters.setPreviewSize(WIDTH, HEIGHT);
mCamera.setParameters(parameters);
buffer = new byte[WIDTH * HEIGHT *3/2];
mCamera.addCallbackBuffer(buffer);
mCamera.setPreviewCallbackWithBuffer(this);
//设置预览画面
SurfaceTexture surfaceTexture = new SurfaceTexture(11);
mCamera.setPreviewTexture(surfaceTexture);
// mCamera.setPreviewDisplay(mSurfaceHolder);
mCamera.startPreview();
} catch (IOException e) {
Log.e(TAG, "start preview failed");
e.printStackTrace();
}
}
//把采集通过mPreviewCallback传出去
@Override
public void onPreviewFrame(byte[] data, Camera camera) {
if (null != mPreviewCallback){
mPreviewCallback.onPreviewFrame(data, camera);
}
camera.addCallbackBuffer(buffer);
}
//最后通过native方法 postData传给 Native层
@Override
public void onPreviewFrame(byte[] data, Camera camera) {
//传输数据
postData(data, CameraHelper.WIDTH, CameraHelper.HEIGHT, cameraId);
}
Native层中ANativeWindow接受Java层的SurfaceHolder给的Surface
extern "C"
JNIEXPORT void JNICALL
Java_com_tina_tinaopencv_MainActivity_setSurface(JNIEnv *env, jobject instance, jobject surface) {
if (window) {
ANativeWindow_release(window);
window = 0;
}
window = ANativeWindow_fromSurface(env, surface);
}
初始化创建opencv中的Tracker,这个跟上一讲的一样
extern "C"
JNIEXPORT void JNICALL
Java_com_tina_tinaopencv_MainActivity_init(JNIEnv *env, jobject instance, jstring model_) {
const char *model = env->GetStringUTFChars(model_, 0);
if (tracker) {
tracker->stop();
delete tracker;
tracker = 0;
}
//智能指针
Ptr<CascadeClassifier> classifier = makePtr<CascadeClassifier>(model);
//创建一个跟踪适配器
Ptr<CascadeDetectorAdapter> mainDetector = makePtr<CascadeDetectorAdapter>(classifier);
Ptr<CascadeClassifier> classifier1 = makePtr<CascadeClassifier>(model);
//创建一个跟踪适配器
Ptr<CascadeDetectorAdapter> trackingDetector = makePtr<CascadeDetectorAdapter>(classifier1);
//拿去用的跟踪器
DetectionBasedTracker::Parameters DetectorParams;
tracker = new DetectionBasedTracker(mainDetector, trackingDetector, DetectorParams);
//开启跟踪器
tracker->run();
env->ReleaseStringUTFChars(model_, model);
}
当Java层postData到Native层后,就进行上一讲的跟踪定位,然后把数据存入到NativeWindow的buffer中,其实就是Java层的Surface里。
extern "C"
JNIEXPORT void JNICALL
Java_com_tina_tinaopencv_MainActivity_postData(JNIEnv *env, jobject instance, jbyteArray data_,
jint w, jint h, jint cameraId) {
// nv21的数据
jbyte *data = env->GetByteArrayElements(data_, NULL);
//mat data-》Mat
//1、高 2、宽
Mat src(h + h / 2, w, CV_8UC1, data);
//颜色格式的转换 nv21->RGBA
//将 nv21的yuv数据转成了rgba
cvtColor(src, src, COLOR_YUV2RGBA_NV21);
// 正在写的过程 退出了,导致文件丢失数据
//imwrite("/sdcard/src.jpg",src);
if (cameraId == 1) {
//前置摄像头,需要逆时针旋转90度
rotate(src, src, ROTATE_90_COUNTERCLOCKWISE);
//水平翻转 镜像
flip(src, src, 1);
} else {
//顺时针旋转90度
rotate(src, src, ROTATE_90_CLOCKWISE);
}
Mat gray;
//灰色
cvtColor(src, gray, COLOR_RGBA2GRAY);
//增强对比度 (直方图均衡)
equalizeHist(gray, gray);
std::vector<Rect> faces;
//定位人脸 N个
tracker->process(gray);
tracker->getObjects(faces);
for (Rect face : faces) {
//画矩形
//分别指定 bgra
LOGE("。。。。。。。");
rectangle(src, face, Scalar(255, 0, 255));
}
//显示
if (window) {
//设置windows的属性
// 因为旋转了 所以宽、高需要交换
//这里使用 cols 和rows 代表 宽、高 就不用关心上面是否旋转了
ANativeWindow_setBuffersGeometry(window, src.cols, src.rows, WINDOW_FORMAT_RGBA_8888);
ANativeWindow_Buffer window_buffer;
do {
//lock失败 直接brek出去
if (ANativeWindow_lock(window, &window_buffer, 0)) {
ANativeWindow_release(window);
window = 0;
break;
}
//src.data : rgba的数据
//把src.data 拷贝到 buffer.bits 里去
// 一行一行的拷贝
//填充rgb数据给dst_data
uint8_t *dst_data = static_cast<uint8_t *>(window_buffer.bits);
//stride : 一行多少个数据 (RGBA) * 4
int dst_linesize = window_buffer.stride * 4;
//一行一行拷贝
for (int i = 0; i < window_buffer.height; ++i) {
memcpy(dst_data + i * dst_linesize, src.data + i * src.cols * 4, dst_linesize);
}
// LOGE("开始拷贝了。。。。。。。");
// memcpy(buffer.bits, src.data, buffer.stride * buffer.height * 4);
// LOGE("拷贝结束啦啦啦。。。。。。。");
//提交刷新
ANativeWindow_unlockAndPost(window);
} while (0);
}
//释放Mat
//内部采用的 引用计数
src.release();
gray.release();
env->ReleaseByteArrayElements(data_, data, 0);
}
然后最终Surface拿到数据就会展现出来了:
cameraHelper.setPreviewCallback(this);
cameraHelper.setPreviewDisplay(surfaceView.getHolder());
整个代码逻辑也比较简单,需要移植的源码的,可前往TinaOpencv获取,记得给star哦。