- 原文地址: Using multiple camera streams simultaneously
- 原文作者: Oscar Wahltinez
- 译文出自: 掘金翻译计划
- 本文永久链接: github.com/xitu/gold-m…
- 译者: zx-Zhu
- 校对者: nanjingboy , gs666
这篇文章是当前关于 Android 相机介绍中最新的一篇,我们之前介绍过 相机阵列 和 相机会话和请求 。
多个相机流的使用场景
一个相机应用可能希望同时使用多个帧流,在某些情况下不同的流甚至需要不同的帧分辨率或像素格式;以下是一些典型使用场景:
- 录像:一个流用于预览,另一个用于并编码保存成文件
- 扫描条形码:一个流用于预览,另一个用于条形码检测
- 计算摄影学:一个流用于预览,另一个用于人脸或场景的检测
正如我们在 之前的文章 中讨论的那样,当我们处理帧时,存在较大的性能成本,并且这些成本在并行流 / 流水线处理中还会成倍增长。
CPU、GPU 和 DSP 这样的资源可以利用框架的 重新处理 能力,但是像内存这样的资源需求将线性增长。
每次请求对应多个目标
通过执行某种官方程序,多相机流可以整合成一个 CaptureRequest ,此代码段表明了如何使用一个流开启相机会话进行相机预览并使用另一个流进行图像处理:
val session: CameraCaptureSession = ... // from CameraCaptureSession.StateCallback
// 我们将使用预览捕获模板来组合流,因为
// 它针对低延迟进行了优化; 用于高质量的图像时使用
// TEMPLATE_STILL_CAPTURE,用于高速和稳定的帧速率时使用
// TEMPLATE_RECORD
val requestTemplate = CameraDevice.TEMPLATE_PREVIEW
val combinedRequest = session.device.createCaptureRequest(requestTemplate)
// Link the Surface targets with the combined request
combinedRequest.addTarget(previewSurface)
combinedRequest.addTarget(imReaderSurface)
// 在我们的样例中,SurfaceView 会自动更新。
// ImageReader 有自己的回调,我们必须监听,以检索帧
// 所以不需要为捕获请求设置回调
session.setRepeatingRequest(combinedRequest.build(), null, null)
复制代码
如果你正确配置了目标 surfaces,则此代码将仅生成满足 StreamComfigurationMap.GetOutputMinFrameDuration(int, Size) 和 StreamComfigurationMap.GetOutputStallDuration(int, Size) 确定的最小 FPS 流。实际表现还会因机型而异,Android 给了我们一些保证,可以根据 输出类型 , 输出大小 和 硬件级别 三个变量来支持特定组合。使用不支持的参数组合可能会以低帧率工作,甚至不能工作,触发其中一个故障回调。 文档 非常详细地描述了保证工作的内容,强烈推荐完整阅读,我们在此将介绍基础知识。
输出类型
输出类型 指的是帧编码格式,文档描述中支持的类型有 PRIV、YUV、JEPG 和 RAW。文档很好的解释了它们:
PRIV 指的是使用了 StreamConfigurationMap.getOutputSizes(Class) 获取可用尺寸的任何目标,没有直接的应用程序可见格式
YUV 指的是目标 surface 使用了 ImageFormat.YUV_420_888 编码格式
JPEG 指的是 ImageFormat.JPEG 格式
RAW 指的是 ImageFormat.RAW_SENSOR 格式
当选择应用程序的输出类型时,如果目标是使兼容性最大化,推荐使用
ImageFormat.YUV_420_888
做帧分析并使用
ImageFormat.JPEG
保存图像。对于预览和录像传感器来说,你可能会用一个
SurfaceView
、
TextureView
、
MediaRecorder
、
MediaCodec
或者
RenderScript.Allocation
。在这些情况下,不指定图像格式,出于兼容性目的,它将被计为
ImageFormat.PRIVATE
(不管它的实际格式是什么)。去查看设备支持的格式可以使用如下代码:
val characteristics: CameraCharacteristics = ...
val supportedFormats = characteristics.get(
CameraCharacteristics.SCALER_STREAM_CONFIGURATION_MAP).outputFormats
复制代码
输出大小
我们调用 StreamConfigurationMap.getOutputSizes() 可列出所有可用的 输出大小 ,但随着兼容性的发展,我们只需要关心两种:PREVIEW 和 MAXIMUM。我们可以将这种大小视为上限;如果文档中说的 PREVIEW 的大小有效,那么任何比 PREVIEW 尺寸小的都可以,MAXIMUM 同理。这有一个 文档 的相关摘录:
对于尺寸最大的列,PREVIEW 意味着适配屏幕的最佳尺寸,或 1080p(1920x1080),以较小者为准。RECORD 指的是相机支持的最大分辨率由 CamcorderProfile 确定。MAXIMUM 还指 StreamConfigurationMap.getOutputSizes(int)中相机设备对该格式或目标的最大输出分辨率。
注意,可用的输出尺寸取决于选择的格式。给定 CameraCharacteristics ,我们可以像这样查询可用的输出尺寸:
val characteristics: CameraCharacteristics = ...
val outputFormat: Int = ... // 比如 ImageFormat.JPEG
val sizes = characteristics.get(
CameraCharacteristics.SCALER_STREAM_CONFIGURATION_MAP)
.getOutputSizes(outputFormat)
复制代码
在相机预览和录像的使用场景中,我们应该使用目标类来确定支持的大小,因为文件格式将由相机框架自身处理:
val characteristics: CameraCharacteristics = ...
val targetClass: Class<T> = ... // 比如 SurfaceView::class.java
val sizes = characteristics.get(
CameraCharacteristics.SCALER_STREAM_CONFIGURATION_MAP)
.getOutputSizes(targetClass)
复制代码
获取到 MAXIMUM 的尺寸很简单——只需要将输出尺寸排序然后返回最大的:
fun <T>getMaximumOutputSize(
characteristics: CameraCharacteristics, targetClass: Class<T>, format: Int? = null):
Size {
val config = characteristics.get(
CameraCharacteristics.SCALER_STREAM_CONFIGURATION_MAP)
// 如果提供图像格式,请使用它来确定支持的大小;否则使用目标类
val allSizes = if