我正在尝试开发一个处理/过滤和录制视频的 iPhone 应用程序。
我有两个示例应用程序,它们具有我需要的某些方面,并且正在尝试将它们结合起来。
(需要苹果开发者ID)
这涉及捕获/录制视频。
引用了 Brad Larson 的 ColorTracking 示例应用程序here https://stackoverflow.com/questions/5156872/how-to-apply-filters-to-avcapturevideopreviewlayer/5158856#5158856
这涉及使用 OpenGL ES 实时处理视频
当我试图将两者结合起来时,我陷入了困境。
我一直在尝试做的是使用AVCaptureVideoOutput
和AVCaptureVideoDataOutputSampleBufferProtocol
通过 OpenGL ES 处理/过滤视频帧(如-2-),同时以某种方式使用AVCaptureMovieFileOutput
录制处理后的视频(如-1-)。
这种方法可行吗?如果是这样,我需要如何在AVSession
?
或者我需要使用AVCaptureVideoDataOutputSampleBufferProtocol
处理/过滤视频,然后将各个帧重新组合回电影中 - 无需使用AVCaptureMovieFileOutput
保存电影文件?
非常感谢任何有关实现这一目标的最佳方法的建议!
None
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)