ios – `[AVCaptureSession canAddOutput:output]`间歇地返回NO.我能找出原因吗

前端之家收集整理的这篇文章主要介绍了ios – `[AVCaptureSession canAddOutput:output]`间歇地返回NO.我能找出原因吗前端之家小编觉得挺不错的,现在分享给大家,也给大家做个参考。
我正在使用canAddOutput:确定是否可以将AVCaptureMovieFileOutput添加到AVCaptureSession,并且发现canAddOutput有时返回NO,并且大部分返回YES.有没有办法找出为什么没有退回?还是消除导致NO退回的情况的方法?或者我可以做的任何事情会阻止用户看到间歇性的故障?

一些进一步的注意事项:这在30次通话中大概发生一次.由于我的应用程序未启动,它只在一个设备上进行测试:运行7.1.2的iPhone 5

解决方法

这里是文档的引用(对canAddOutput的讨论:)
You cannot add an output that reads from a track of an asset other than the asset used to initialize the receiver.

解释这将有助于您(请检查您的代码是否与本指南匹配,如果您做的很好,不应该触发错误,因为基本上canAddOuput:检查兼容性).

AVCaptureSession
用于组织Device Input和Output之间的连接,类似于DShow的连接过滤器.如果可以连接输入和输出,启动后,数据将从输入读取.
几个要点:
a)AVCaptureDevice,设备的定义,两个摄像头设备.
b)AVCaptureInput
c)AVCaptureOutput
输入和输出不是一对一的,如视频输出,而视频音频输入.
切换相机之前和之后:

AVCaptureSession * session = <# A capture session #>; 
[session beginConfiguration]; 
[session removeInput: frontFacingCameraDeviceInput]; 
[session addInput: backFacingCameraDeviceInput]; 
[session commitConfiguration];

添加捕捉INPUT:
要将捕获设备添加到捕获会话中,可以使用AVCaptureDeviceInput的实例(具体实现)
抽象AVCaptureInput类的子类).捕获设备输入管理设备的端口.

NSError * error = nil; 
AVCaptureDeviceInput * input = 
[AVCaptureDeviceInput deviceInputWithDevice: device error: & error]; 
if (input) { 
   // Handle the error appropriately. 
}

添加输出,输出分类

要从捕获会话获取输出,您添加一个或多个输出.输出是具体的实例
AVCaptureOutput的子类
你用:
AVCaptureMovieFileOutput输出到电影文件
AVCaptureVideoDataOutput如果要从捕获的视频处理帧
AVCaptureAudioDataOutput如果要处理正在捕获的音频数据
AVCaptureStillImageOutput如果要捕获带有附带元数据的静态图像
您可以使用addOutput:将输出添加到捕获会话.
您检查捕获输出是否兼容
与现有会话使用canAddOutput :.
您可以根据需要添加删除输出
会话正在运行.

AVCaptureSession * captureSession = <# Get a capture session #>; 
AVCaptureMovieFileOutput * movieInput = <# Create and configure a movie output #>; 
if ([captureSession canAddOutput: movieInput]) { 
   [captureSession addOutput: movieInput]; 
} 
else {
   // Handle the failure. 
}

保存视频文件,添加视频文件输出

使用AVCaptureMovieFileOutput对象将影片数据保存到文件. (AVCaptureMovieFileOutput
是AVCaptureFileOutput的具体子类,它定义了大部分的基本行为.)您可以配置
电影文件输出的各个方面,如记录的最大持续时间,或最大文件
尺寸.如果剩余的磁盘空间少于一定数量,您也可以禁止录制.

AVCaptureMovieFileOutput * aMovieFileOutput = [[AVCaptureMovieFileOutput alloc] 
init]; 
CMTime maxDuration = <# Create a CMTime to represent the maximum duration #>; 
aMovieFileOutput.maxRecordedDuration = maxDuration; 
aMovieFileOutput.minFreeDiskSpaceLimit = <# An appropriate minimum given the quality 
of the movie format and the duration #>;

处理预览视频帧数据,每个帧查看器数据可用于后续的高级处理,如人脸检测等.
AVCaptureVideoDataOutput对象使用委托来销售视频帧.
你设置委托使用
setSampleBufferDelegate:queue :.
除了代表之外,您还可以指定一个串行队列
委托方法调用.您必须使用串行队列来确保将帧传递给委托
按正确的顺序.
你不应该传递由dispatch_get_current_queue返回的队列
不能保证当前队列正在运行的线程.您可以使用队列来修改
优先考虑交付和处理视频帧.
对于帧的数据处理,对于大小(图像大小)和处理时间限制必须有限制,如果处理时间太长,底层传感器将不会向布局者发送数据和回调.

您应该将会话输出设置为应用程序的最低实际分辨率.
设置输出
达到比所需废物处理循环更高的分辨率,并且不必要地消耗功率.
你必须确保你的执行
captureOutput:didOutputSampleBuffer:fromConnection:能够在其中处理一个示例缓冲区
分配给框架的时间量.如果需要太长时间,并且您按住视频帧AVFoundation
将停止传送框架,而不仅是您的代表,还有其他输出,如预览图层.

处理捕获过程:

AVCaptureStillImageOutput * stillImageOutput = [[AVCaptureStillImageOutput alloc] 
init]; 
NSDictionary * outputSettings = [[NSDictionary alloc] initWithObjectsAndKeys: AVVideoCodecJPEG,AVVideoCodecKey,nil]; 
[StillImageOutput setOutputSettings: outputSettings];

支持不同的格式也支持直接生成jpg流.
如果要捕获JPEG图像,则通常不应指定您自己的压缩格式.代替,
您应该让静态图像输出为您做压缩,因为它的压缩是硬件加速的.
如果需要图像的数据表示,可以使用jpegStillImageNSDataRepresentation:to
即使修改了图像的元数据,也可以获取一个NSData对象,而不需要重新压缩数据.

相机预览显示

您可以向用户提供使用AVCaptureVideoPreviewLayer进行录制的预览
目的. AVCaptureVideoPreviewLayer是CALayer的子类(请参阅Core Animation Programming Guide),您不需要任何输出显示预览.

AVCaptureSession * captureSession = <# Get a capture session #>; 
CALayer * viewLayer = <# Get a layer from the view in which you want to present the 
The preview #>; 
AVCaptureVideoPreviewLayer * captureVideoPreviewLayer = [[AVCaptureVideoPreviewLayer 
alloc] initWithSession: captureSession]; 
[viewLayer addSublayer: captureVideoPreviewLayer];

通常,预览图层的行为与渲染树中的任何其他CALayer对象(请参阅Core Animation)编程指南).您可以像您一样缩放图像并执行转换,旋转等会有任何层.一个区别是,您可能需要设置图层的方向属性来指定如何它应该旋转来自相机的图像.此外,在iPhone 4上,预览图层支持镜像(这是预览前置摄像头时的默认设置).

猜你在找的iOS相关文章