Python
Java
PHP
IOS
Android
Nodejs
JavaScript
Html5
Windows
Ubuntu
Linux
在没有预览窗口的情况下使用 AVCaptureVideoDataOutputSampleBufferDelegate
我正在开发一个基于 Swift 的 macOS 应用程序 我需要捕获视频输入 但不将其显示在屏幕上 而不是显示视频 我想将缓冲的数据发送到其他地方进行处理 并最终显示它在 a 中的一个物体上SceneKit scene 我有一个Camera
swift
MacOS
AVFoundation
avcapturesession
cmsamplebuffer
从 CMSampleBuffer 播放音频
我在 iOS 中为群组创建了一个视频聊天应用程序 我一直在寻找一些方法来分别控制不同参与者的音频音量 我找到了使用静音和取消静音的方法isPlaybackEnabled in RemoteAudioTrack 但不控制音量 我还想我们是否可
ios
swift
twilio
avaudioplayer
cmsamplebuffer
CIContext 渲染:toCVPixelBuffer:边界:colorSpace:函数不适用于具有 Alpha 通道的图像
我正在尝试在使用 AVFoundation 的 AVCaptureVideoDataOutput 录制的视频上添加水印 徽标 我遇到的问题是 一旦写入视频 UIImage 的透明部分就会变成黑色 我做错了什么 CVPixelBufferRe
ios
Objectivec
coreimage
cmsamplebuffer
设置 AVSampleBufferDisplayLayer 渲染示例缓冲区的速率
我正在使用 AVSampleBufferDisplayLayer 来显示通过网络连接以 h 264 格式传输的 CMSampleBuffer 视频播放流畅且工作正常 但我似乎无法控制帧速率 具体来说 如果我在 AVSampleBufferD
ios
videostreaming
cmsamplebufferref
videotoolbox
cmsamplebuffer
拆分包含音频的 CMSampleBufferRef
我在录制时将录音分成不同的文件 问题是 captureOutput 视频和音频样本缓冲区不对应 1 1 这是合乎逻辑的 void captureOutput AVCaptureOutput captureOutput didOutputSa