Python
Java
PHP
IOS
Android
Nodejs
JavaScript
Html5
Windows
Ubuntu
Linux
如何选择与 AVAssetReader 一起使用的像素格式类型(kCVPixelBufferPixelFormatTypeKey)?
我们正在使用AVAssetReader and AVAssetWriter有点像中提到的风格使用 AVAssetWriter 进行视频编码 崩溃 https stackoverflow com questions 8191840 video
ios
avassetwriter
corevideo
avassetreader
如何正确定向从 AVCaptureVideoDataOutputSampleBufferDelegate 生成的图像
我在用着AVCaptureVideoDataOutputSampleBufferDelegate我收到一个CMSampleBufferRef我将其转换为UIImage 但生成的图像方向不正确 Get a CMSampleBuffer s C
iphone
ios
AVFoundation
corevideo
了解 AVCaptureSession 会话预设的分辨率
我正在 iOS 中访问相机并使用会话预设 如下所示 captureSession sessionPreset AVCaptureSessionPresetMedium 相当标准的东西 但是 我想提前知道由于此预设而获得的视频的分辨率 特别是
ios
AVFoundation
corevideo
iOS下逐帧读取视频
我正在寻找一种使用 iOS API 检索视频各个帧的方法 我尝试使用 AVAssetImageGenerator 但它似乎只提供最接近秒的帧 这对我的使用来说有点太粗糙了 根据我对文档的理解 AVAssetReader AVAssetRea
ios
video
frame
AVFoundation
corevideo
录制视频时将动态文本渲染到 CVPixelBufferRef 上
我正在使用录制视频和音频AVCaptureVideoDataOutput and AVCaptureAudioDataOutput并在captureOutput didOutputSampleBuffer fromConnection 委托
ios
Objectivec
AVFoundation
coreimage
corevideo
裁剪 CMSampleBuffer 并对其进行处理,而不转换为 CGImage
我一直在关注苹果直播摄像机编辑器 https developer apple com documentation avfoundation cameras and media capture avcamfilter applying fil
ios
coregraphics
metal
coreimage
corevideo
在 iOS 中创建 RGB CVOpenGLESTexture
我正在尝试创建一个3通道 CVOpenGLESTexture in iOS 我可以成功创建一个单通道通过指定纹理kCVPixelFormatType OneComponent8 in CVPixelBufferCreate and GL L
ios
textures
opengles20
corevideo
CVPixelBuffer 到 CIImage 总是返回 nil
我试图将从 AVPlayerItemVideoOutput 中提取的 PixelBuffer 转换为 CIImage 但总是为零 The Code if videoOutput hasNewPixelBufferForItemTime pl
ios
AVFoundation
coreimage
corevideo
如何从 CMSampleBufferRef 获取字节并通过网络发送
Am 使用 AVFoundation 框架捕获视频 在 Apple 文档的帮助下http developer apple com library ios documentation AudioVideo Conceptual AVFound
ios
VideoCapture
AVFoundation
videoprocessing
corevideo
使用 CIFilter 在 CALayer 层次结构中渲染视频
在我的 iOS 应用程序的 UI 中 我显示了一个复杂的层次结构CALayers 其中一层是AVPlayerLayer显示视频CIFilter实时应用 使用AVVideoComposition asset applyingCIFilters
ios
AVFoundation
cifilter
avasset
corevideo
使用OpenGL ES纹理缓存而不是glReadPixels来获取纹理数据
在 iOS 5 中 引入了 OpenGL ES 纹理缓存 以提供从相机视频数据到 OpenGL 的直接方式 而无需复制缓冲区 里面有关于纹理缓存的简单介绍会议 414 WWDC 2011 的 iOS 5 OpenGL ES 进展 http
ios
opengles20
glReadPixels
corevideo
如何直接更新像素——使用CGImage和直接CGDataProvider
实际问题 有几个答案可以解决我的问题 我可以强制CGImage从直接数据提供者 使用创建的CGDataProviderCreateDirect like CGContextDrawImage做 或者有其他方法可以设置 self layer
Objectivec
ios
opengles
coregraphics
corevideo