objective-c – 来自网络摄像头的可可捕获帧

前端之家收集整理的这篇文章主要介绍了objective-c – 来自网络摄像头的可可捕获帧前端之家小编觉得挺不错的,现在分享给大家,也给大家做个参考。
我正在实施一个软件来捕获来自网络摄像头的视频.我在Apple Dev中看过MyRecorder示例,它运行正常.

我尝试使用以下代码添加一个按钮来从视频拍摄快照:

- (IBAction)addFrame:(id)sender
{
    CVImageBufferRef imageBuffer;
    @synchronized (self) {
        imageBuffer = CVBufferRetain(mCurrentImageBuffer);
    }
    if (imageBuffer) { 
    [ bla bla bla ]     
    }
}

但是mCurrentImageBuffer总是空的.如何从我的网络摄像头获取当前帧并放入mCurrentImageBuffer?

我试过用

(void)captureOutput:(QTCaptureOutput *)captureOutput 
                    didOutputVideoFrame:(CVImageBufferRef)videoFrame 
                    withSampleBuffer:(QTSampleBuffer *)sampleBuffer 
                    fromConnection:(QTCaptureConnection *)connection
{
    CVImageBufferRef imageBufferToRelease;

    CVBufferRetain(videoFrame);

    @synchronized (self) {
        imageBufferToRelease = mCurrentImageBuffer;
        mCurrentImageBuffer = videoFrame;
    }
    CVBufferRelease(imageBufferToRelease);  
}

但它永远不会被召唤.我怎样才能决定何时调用captureOutput委托方法
任何的想法?

谢谢,
安德里亚

解决方法

您似乎正在尝试使用QTKit Capture API从网络摄像头捕获视频. MyRecorder示例应用程序几乎是您使用此API可以创建的最简单的功能视频捕获程序.从您的描述中不清楚,但您需要确保遵循他们的示例,并以与在MyRecorderController中的-awakeFromNib方法中相同的方式初始化视频会话.如果不这样做,您将无法捕获任何视频.

就您尝试使用的方法而言,-captureOutput:didOutputVideoFrame:withSampleBuffer:fromConnection:是QTCaptureDecompressedVideoOutput的委托方法. MyRecorder示例中不存在此类的实例,因为该示例仅将压缩视频记录到磁盘.要使用它,您需要创建一个QTCaptureDecompressedVideoOutput实例,使用-addOutput:error:将其附加到QTCaptureSession,并将QTCaptureDecompressedVideoOutput实例的委托设置为您的类.

有关QTKit如何处理此类事情的更多信息,请参阅QTKit Application Programming GuideQTKit Capture部分.

原文链接:https://www.f2er.com/c/119696.html

猜你在找的C&C++相关文章