本文主要介绍2D人脸识别中的Camera图像采集部分,目前市面上Android阵营中大部分机型都使用的是2D人脸识别;图像采集主要是获取目标的RGB图像,2D人脸图像获取相对简单,只需要获取到RGB的图像信息,不需要深度信息。获取图像数据信息的方式只需要一个普通摄像头模组即可,简单方便。
图1 Camera架构
图1主要展示了Camera HAL及以上的组件架构,Android 5.0对拍照API进行了全新的设计,新增了全新设计的Camera v2 API,这些API不仅大幅提高了Android系统拍照的功能,还能支持RAW照片输出,甚至允许程序调整相机的对焦模式、曝光模式、快门等。
图2 Camera整体模型图
应用框架针对捕获的结果向相机子系统发出请求。一个请求对应一组结果。请求包含有关捕获和处理这些结果的所有配置信息。其中包括分辨率和像素格式;手动传感器、镜头和闪光灯控件;3A 操作模式;RAW 到YUV 处理控件;以及统计信息的生成等。这样一来,便可更好地控制结果的输出和处理。一次可发起多个请求,而且提交请求时不会出现阻塞。请求始终按照接收的顺序进行处理。
图3 Camera Pipeline
图3主要描述Camera Sensor出图后经过不同图像处理后输出不同处理的图像。
其中Image Processing模块里面的一些参数是可以由应用层进行配置,比如Feature参数;
举例说明:
问题:在实际项目调试人脸识别Feature过程中就遇到过因为图质量较差的原因导致识别失败的问题,那如何解决?
解决方法:既然是图差的原因导致的,那就只能正向去优化人脸图像质量了,在图像处理模块中有一个模块叫NoiseReduction(降噪),查询默认参数为NOISE_REDUCTION_MODE_OFF
即Camera模块是关闭降噪功能的,将此参数设定为:
NOISE_REDUCTION_MODE_HIGH_QUALITY后再dump出人脸图像效果改善明显;
应用层发起Capture请求且注册onImageCaptureCallback函数后,Camera模块拍照完会回调到应用端获取拍照图像buf;如何设定Camera**拍照参数:**
android.hardware.camera2.CaptureRequest.Builder
A builder for capture requests.
CaptureRequest
表示一个捕捉的请求。可以为不同的场景(预览、拍照)创建不同的捕捉请求,并可以配置不同的捕捉属性,如:预览分辨率,预览目标,对焦模式、曝光模式等等。
通过 CameraDevice 对象的 createCaptureRequest() 方法得到一个 CaptureRequest.Builder 对象,基本配置都是通过该构造者来配置;最后通过CaptureRequest.Builder 对象的 build() 方法便可得到 CaptureRequest 实例。
上述代码中就是通过CONTROL_AF_MODE_CONTINUOUS_PICTURE参数打开自动对焦功能;
captureBuilder.set(CaptureRequest.CONTROL_AF_MODE,CaptureRequest.CONTROL_AF_MODE_CONTINUOUS_PICTURE);
应用层下发Surface资源到Camera模块且设定重复拍照模式setRepeatingRequest即可实现拍照预览;
上图所示为Camera拍照的完整链路,其中最重要的函数调用就是connectDevice操作,这个步骤是实现Client连接CameraServer的关键一环,在项目开发过程中可能经常会遇到connect CameraServer失败的问题,比如Client进程对Camera权限没有配置,或者ImagerReader对象上一次操作没有释放导致没有调用disconnect还处于connect状态最终导致无法connect,又或者Camera资源本身被相机占用提示busy状态等等,针对各种场景需要对应措施进行处理,目的都是为了能否使Client和server连接成功。 同时在开发阶段,也需要对上述中异常情况进行提前预判并加入防呆措施,比如OpenCamera多次retry。
初始化时已经设置了图像格式为AIMAGE_FORMAT_YUV_420_888
下面解释下YUV三通道的数据格式排布:
planes[0] 总是Y ,planes[1] 总是U(Cb), planes[2]总是V(Cr)。
在ImageFormat中,YUV_420_888格式的数值是35,当前格式是YUV_420_888,根据image的分辨率是 640 x 480 ,像素点个数是307200。下面分别对plane[0]、plane[1]、plane[2]作分析。
plane[0]表示Y,rowStride是640 ,其pixelStride是1 ,Y存储时中间无间隔,每行640个像素全是Y值,buffer size 是 plane[0]的1/4 ,buffer size / rowStride= 480,Y有480行。
plane[1]表示U,rowStride是320,其pixelStride也是1,连续的U之间没有间隔,每行只存储了320个数据,buffer size 是 plane[0]的1/4 ,buffer size / rowStride = 240 可知U有240行,对于U来说横纵都是1/2采样。
pane[2]和plane[1]相同。
APP层会创建Surface资源
创建Surface之后会将此资源经过Face框架一直传递到FaceHAL如上图所示,FaceHAL会将Surface资源传递到Camera模块。具体Surface资源格式如下图所示:
Surface资源是个动态Buf,可变参数长度由numFds、numInts决定,在version numFds numInts后的参数个数为numFds+numInts。
在代码中结构体信息如下:
在代码中结构体信息如下:
native_handle_t只是定义了一个描述buffer的结构体原型,这个原型和平台无关,方便buffer在各个进程之间传递;
NDK_VENDOR CameraAPI2预览和拍照代码实现
https://android.googlesource.com/platform/frameworks/av/+/refs/heads/master/camera/ndk/ndk_vendor/tests/AImageReaderVendorTest.cpp
首先会调用initImageReader()函数,创建ImageReader对象,初始化图像宽度、高度、图像输出格式、用户属性、最大图像数量;
通过AImageReader_setImageListener设置回调函数onImageAvailable
在回调函数中调用AImageReader_acquireNextImage从ImageReader队列中请求图像数据
接着调用AImage_getHardwareBuffer从HardwareBuffer对象中获取像素的实际数据:
下面是判断获取的数据是否符合预期大小:
判断完图像长度、宽度后就是如何解析出真正需要的图像数据,使用AImage_getPlaneData函数可以解析出对应通道的像素矩阵;
在初始化完ImagerReader后,会新建cameraHelper对象,cameraHelper会调用initCamera()函数对Camera相关进行初始化;
那cameraHelper.initCamera里面具体细节干了什么呢?我们继续往下分析
initCamera函数中首先调用的是ACameraManager_openCamera操作,client发起对Camera的连接动作,我们可以继续追踪下ACameraManager_openCamera具体实现如下:
继续调用ACameraManager类中的openCamera函数:
进入到这个函数已经是比较底层,就不一个个函数讲了,其中最重要的函数调用就是connectDevice操作,这个步骤是实现Client连接CameraServer的关键一环,在项目开发过程中可能经常会遇到connect CameraServer失败的问题,比如Client进程对Camera权限没有配置,或者ImagerReader对象上一次操作没有释放导致没有调用disconnect还处于connect状态最终导致无法connect,又或者Camera资源本身被相机占用提示busy状态等等,针对各种场景需要对应措施进行处理,目的都是为了能否使Client和server连接成功。
顺便再提下open_camera中还有一个大家熟知的获取Camera服务操作:
创建ACaptureSessionOutput类型集合mOutputs
然后mOutputs集合添加ACaptureSessionOutput新建的对象mImgReaderOutput
takePicture()函数被封装为触发Camera执行拍照动作;
具体实现为:
上面说了这么多拍照的流程,大家一定想知道Camera Preview是怎么实现的?继续跟踪Android源码;
我们先找到人脸录入的相关代码:
链接:
https://android-opengrok.bangnimang.net/android-12.0.0_r3/xref/frameworks/base/services/core/java/com/android/server/biometrics/sensors/face/hidl/FaceEnrollClient.java?r=659b4ee9#54
其中有一个跟预览很关键的参数:Surface previewSurface
上面人脸录入是AndroidS以前经常用的HIDL接口方式,下面是AIDL接口链接:
https://android-opengrok.bangnimang.net/android-12.0.0_r3/xref/frameworks/base/services/co
那有人就会问了,这个previewSurface是从哪里传下来的呢?
咱们再接着一层层挖掘。
代码链接:
https://android-opengrok.bangnimang.net/android-12.0.0_r3/xref/packages/apps/Settings/src/c
对于使用VENDOR_NDK Camera API2接口传递Surface是使用FaceManager中的 enroll方法;
目前能从原生代码中找到的是Java层控制Camera如下:
代码链接:
https://android-opengrok.bangnimang.net/android-12.0.0_r3/xref/frameworks/base/core/java/android/hardware/face/FaceManager.java?r=436f041e
代码链接:
https://android-opengrok.bangnimang.net/android-12.0.0_r3/xref/frameworks/base/services/core/java/com/android/server/biometrics/sensors/face/FaceService.java?r=88a506aa
代码链接:
https://android-opengrok.bangnimang.net/android-12.0.0_r3/xref/frameworks/base/services/core/java/com/android/server/biometrics/sensors/face/aidl/FaceProvider.java?r=88a506aa#334
调用到FaceEnrollClient这层时会再调用到startHalOperation函数,然后通过AIDL接口传递到FaceHAL层。
Java层代码是怎么跟HAL层代码交互的呢?就是通过AIDL或者HIDL,这里就只讲下AIDL接口吧,在FaceProvider中会获取FaceHal的实例:
继续说下人脸的AIDL接口;
代码链接:
https://android-opengrok.bangnimang.net/android-12.0.0_r3/xref/hardware/interfaces/biometrics/face/aidl/android/hardware/biometrics/face/ISession.aidl?r=fa0fb439#156
Google还提供了带AIDL接口实现的FaceHAL示例代码;
代码链接:
https://android-opengrok.bangnimang.net/android-12.0.0_r3/xref/hardware/interfaces/biometrics/face/aidl/default/
上述小节中描述了Surface参数的完整链路;
下面说下这个资源参数到底包含了哪些内容?
真正传递到HAL层的会通过native_handle_t* makeFromAidl(const
aidl::android::hardware::common::NativeHandle& handle);
函数将previewSurface转换为native_handle_t*指向的资源;
https://android-opengrok.bangnimang.net/android-12.0.0_r3/xref/hardware/interfaces/common/support/include/aidlcommonsupport/NativeHandle.h?r=57fc6485#29/prebuilts/vndk/v30/arm/include/system/core/libcutils/include_vndk/cutils/native_handle.h
中定义了native_handle_t类型:
推荐Google Android源码查询Tool
GoogleOpenGrok
https://android-opengrok.bangnimang.net/android-12.0.0_r3/search?project=frameworks&full=ICameraService&defs=&refs=&path=&hist=&type=&xrd=1&nn=1
本文由哈喽比特于2年以前收录,如有侵权请联系我们。
文章来源:https://mp.weixin.qq.com/s/wvh4N4k5PexkXb7pdaJjhw
京东创始人刘强东和其妻子章泽天最近成为了互联网舆论关注的焦点。有关他们“移民美国”和在美国购买豪宅的传言在互联网上广泛传播。然而,京东官方通过微博发言人发布的消息澄清了这些传言,称这些言论纯属虚假信息和蓄意捏造。
日前,据博主“@超能数码君老周”爆料,国内三大运营商中国移动、中国电信和中国联通预计将集体采购百万台规模的华为Mate60系列手机。
据报道,荷兰半导体设备公司ASML正看到美国对华遏制政策的负面影响。阿斯麦(ASML)CEO彼得·温宁克在一档电视节目中分享了他对中国大陆问题以及该公司面临的出口管制和保护主义的看法。彼得曾在多个场合表达了他对出口管制以及中荷经济关系的担忧。
今年早些时候,抖音悄然上线了一款名为“青桃”的 App,Slogan 为“看见你的热爱”,根据应用介绍可知,“青桃”是一个属于年轻人的兴趣知识视频平台,由抖音官方出品的中长视频关联版本,整体风格有些类似B站。
日前,威马汽车首席数据官梅松林转发了一份“世界各国地区拥车率排行榜”,同时,他发文表示:中国汽车普及率低于非洲国家尼日利亚,每百户家庭仅17户有车。意大利世界排名第一,每十户中九户有车。
近日,一项新的研究发现,维生素 C 和 E 等抗氧化剂会激活一种机制,刺激癌症肿瘤中新血管的生长,帮助它们生长和扩散。
据媒体援引消息人士报道,苹果公司正在测试使用3D打印技术来生产其智能手表的钢质底盘。消息传出后,3D系统一度大涨超10%,不过截至周三收盘,该股涨幅回落至2%以内。
9月2日,坐拥千万粉丝的网红主播“秀才”账号被封禁,在社交媒体平台上引发热议。平台相关负责人表示,“秀才”账号违反平台相关规定,已封禁。据知情人士透露,秀才近期被举报存在违法行为,这可能是他被封禁的部分原因。据悉,“秀才”年龄39岁,是安徽省亳州市蒙城县人,抖音网红,粉丝数量超1200万。他曾被称为“中老年...
9月3日消息,亚马逊的一些股东,包括持有该公司股票的一家养老基金,日前对亚马逊、其创始人贝索斯和其董事会提起诉讼,指控他们在为 Project Kuiper 卫星星座项目购买发射服务时“违反了信义义务”。
据消息,为推广自家应用,苹果现推出了一个名为“Apps by Apple”的网站,展示了苹果为旗下产品(如 iPhone、iPad、Apple Watch、Mac 和 Apple TV)开发的各种应用程序。
特斯拉本周在美国大幅下调Model S和X售价,引发了该公司一些最坚定支持者的不满。知名特斯拉多头、未来基金(Future Fund)管理合伙人加里·布莱克发帖称,降价是一种“短期麻醉剂”,会让潜在客户等待进一步降价。
据外媒9月2日报道,荷兰半导体设备制造商阿斯麦称,尽管荷兰政府颁布的半导体设备出口管制新规9月正式生效,但该公司已获得在2023年底以前向中国运送受限制芯片制造机器的许可。
近日,根据美国证券交易委员会的文件显示,苹果卫星服务提供商 Globalstar 近期向马斯克旗下的 SpaceX 支付 6400 万美元(约 4.65 亿元人民币)。用于在 2023-2025 年期间,发射卫星,进一步扩展苹果 iPhone 系列的 SOS 卫星服务。
据报道,马斯克旗下社交平台𝕏(推特)日前调整了隐私政策,允许 𝕏 使用用户发布的信息来训练其人工智能(AI)模型。新的隐私政策将于 9 月 29 日生效。新政策规定,𝕏可能会使用所收集到的平台信息和公开可用的信息,来帮助训练 𝕏 的机器学习或人工智能模型。
9月2日,荣耀CEO赵明在采访中谈及华为手机回归时表示,替老同事们高兴,觉得手机行业,由于华为的回归,让竞争充满了更多的可能性和更多的魅力,对行业来说也是件好事。
《自然》30日发表的一篇论文报道了一个名为Swift的人工智能(AI)系统,该系统驾驶无人机的能力可在真实世界中一对一冠军赛里战胜人类对手。
近日,非营利组织纽约真菌学会(NYMS)发出警告,表示亚马逊为代表的电商平台上,充斥着各种AI生成的蘑菇觅食科普书籍,其中存在诸多错误。
社交媒体平台𝕏(原推特)新隐私政策提到:“在您同意的情况下,我们可能出于安全、安保和身份识别目的收集和使用您的生物识别信息。”
2023年德国柏林消费电子展上,各大企业都带来了最新的理念和产品,而高端化、本土化的中国产品正在不断吸引欧洲等国际市场的目光。
罗永浩日前在直播中吐槽苹果即将推出的 iPhone 新品,具体内容为:“以我对我‘子公司’的了解,我认为 iPhone 15 跟 iPhone 14 不会有什么区别的,除了序(列)号变了,这个‘不要脸’的东西,这个‘臭厨子’。