在 iPhone 上通过着色器处理视频时捕获视频

2023-12-31

我正在尝试开发一个处理/过滤和录制视频的 iPhone 应用程序。

我有两个示例应用程序,它们具有我需要的某些方面,并且正在尝试将它们结合起来。

  1. (需要苹果开发者ID)
    这涉及捕获/录制视频。

  2. 引用了 Brad Larson 的 ColorTracking 示例应用程序here https://stackoverflow.com/questions/5156872/how-to-apply-filters-to-avcapturevideopreviewlayer/5158856#5158856
    这涉及使用 OpenGL ES 实时处理视频

当我试图将两者结合起来时,我陷入了困境。

我一直在尝试做的是使用AVCaptureVideoOutputAVCaptureVideoDataOutputSampleBufferProtocol通过 OpenGL ES 处理/过滤视频帧(如-2-),同时以某种方式使用AVCaptureMovieFileOutput录制处理后的视频(如-1-)。

这种方法可行吗?如果是这样,我需要如何在AVSession?

或者我需要使用AVCaptureVideoDataOutputSampleBufferProtocol处理/过滤视频,然后将各个帧重新组合回电影中 - 无需使用AVCaptureMovieFileOutput保存电影文件?

非常感谢任何有关实现这一目标的最佳方法的建议!


None

本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

在 iPhone 上通过着色器处理视频时捕获视频 的相关文章

随机推荐