Python
Java
PHP
IOS
Android
Nodejs
JavaScript
Html5
Windows
Ubuntu
Linux
错误域=AVFoundationErrorDomain代码=-11814“无法记录”
它不断给我错误 错误域 AVFoundationErrorDomain代码 11814 无法记录 我不确定问题是什么 我试图在拍照后计数器达到 1 时录制声音 static int counter counter will always b
ios
Objectivec
AVFoundation
record
检测 AVAudioPlayer 中的播放结束
我有几个短的 mp3 声音 我将它们存储在数组中 并希望连续播放它们 有什么方法可以检测 AVAudioPlayer 何时停止播放 以便我可以调用完成处理程序并播放下一个声音 我知道有一个委托 但我正在使用 Playground 和 SKS
swift
AVFoundation
avaudioplayer
swiftplayground
在 IOS 上使用 AVComposition 混合两个音频文件
我正在尝试混合两个音频文件 将一个音频文件放在另一个音频文件之上 不是缝合在一起 但我在 IOS 上学习 AVFoundation 时遇到了困难 我在这里遵循了这个答案 如何使用 AVMutableCompositionTrack 合并音频
ios
Audio
AVFoundation
AVCaptureSession 具有多个方向问题
我正在尝试实现条形码扫描仪 我有一个 AVCaptureSession 它从 AVCaptureDevice 接收视频 我想支持所有方向 使用以下代码 当我运行应用程序时 纵向一切正常 然而 在横向方向上 视图会旋转 但视频输入不会旋转 所
ios
iphone
iPad
AVFoundation
使用 AVFoundation 裁剪 AVAsset 视频
我在用AVCaptureMovieFileOutput录制一些视频 我使用显示预览层AVLayerVideoGravityResizeAspectFill稍微放大 我遇到的问题是最终的视频较大 包含预览期间不适合屏幕的额外图像 这是预览和生
ios
video
AVFoundation
avassetexportsession
AVCaptureDevice 找不到任何设备
这行代码是我今天遇到的问题 macOS 应用程序 NSArray devices AVCaptureDevice devicesWithMediaType AVMediaTypeVideo 我更新Xcode后 系统总是让我空着devices
Objectivec
MacOS
AVFoundation
将捕获的图像精确裁剪为 AVCaptureVideoPreviewLayer 中的外观
我有一个使用 AV Foundation 的照片应用程序 我使用 AVCaptureVideoPreviewLayer 设置了一个预览层 它占据了屏幕的上半部分 因此 当用户尝试拍照时 他们只能看到屏幕上半部分看到的内容 这很好用 但是当用
ios
Objectivec
AVFoundation
CALayer
avcapturesession
CMSampleBufferSetDataBufferFromAudioBufferList 返回错误 12731
我正在尝试捕获应用程序声音并将其传递给 AVAssetWriter 作为输入 我正在设置音频单元的回调以获取 AudioBufferList 问题始于将 AudioBufferList 转换为 CMSampleBufferRef 它总是返回
ios
iphone
AVFoundation
coreaudio
audiounit
在 iOS 上使用 HEVC 编码器输出视频尺寸巨大
我有一个项目 目前使用 H 264 编码器在 iOS 上录制视频 我想尝试在 iOS 11 中使用新的 HEVC 编码器来减小文件大小 但发现使用 HEVC 编码器会导致文件大小急剧膨胀 GitHub 上的一个项目显示了该问题 它使用 H
ios
swift
AVFoundation
avassetwriter
hevc
iPhone AVFoundation 相机方向
我一直在绞尽脑汁地试图让 AVFoundation 相机以正确的方向 即设备方向 捕获图片 但我无法让它工作 我看过教程 看过 WWDC 演示 还下载了 WWDC 示例程序 但即使这样也没有成功 我的应用程序的代码是 AVCaptureCo
iphone
Camera
orientation
AVFoundation
如何将 CIFilter 输出到相机视图?
我刚刚开始使用 Objective C 我正在尝试创建一个简单的应用程序 它显示带有模糊效果的相机视图 我得到了与 AVFoundation 框架一起使用的相机输出 现在 我正在尝试连接 Core 图像框架 但不知道如何连接 Apple 文
ios
Objectivec
AVFoundation
cifilter
ciimage
iOS AVCaptureVideoDataOutput 消耗太多内存
我在用AVFoundation使用iPhone相机捕获视频的框架 我的代码 self session AVCaptureSession alloc init self output AVCaptureVideoDataOutput allo
ios
memory
AVFoundation
avcapturesession
Swift - 停止 avaudioplayer
我正在尝试将音板构建到应用程序中 并找到了一种使用标签来控制播放声音的有效方法 不过 我现在正在尝试集成一个可以与 stop 方法上的AVAudioPlayer但是我当前的代码出现错误 EXC BAD ACCESS 这就是我现在正在使用的
ios
swift
AVFoundation
avaudioplayer
将 NSData 视频文件合并为一个视频文件
我有一堆视频文件想要合并成一个视频文件 我正在使用 NSMutableData 来完成该任务 NSMutableData concatenatedData NSMutableData alloc init for int i 0 i lt
ios
AVFoundation
NSData
如何将任意颜色的色度键滤镜应用到实时摄像头源ios?
基本上我想将色度键滤镜应用到 ios 实时摄像头源 但我希望用户选择将被另一种颜色替换的颜色 我找到了一些使用绿屏的示例 但我不知道如何动态替换颜色而不仅仅是绿色 知道如何以最佳性能实现这一目标吗 您之前曾询问过我的情况GPUImage h
ios
imageprocessing
opengles
AVFoundation
cifilter
使用 AVFoundation 和 Swift 访问多个音频硬件输出/通道
如何使用 AVFoundation 访问除 1 2 之外的其他音频硬件输出 我正在为 Mac OS X 应用程序编写快速代码 该应用程序通过各种输出设备 USB 接口 dante soundflower 播放 mp3 文件 如下所示 myP
swift
MacOS
Audio
AVFoundation
avplayer
AVPlayer 失败并显示 AVPlayerItemStatusFailed(OSStatus 错误 -12983)
有时 AVPlayer 会失败AVPlayerItemStatusFailed发生故障后 AVPlayer 继续失败AVPlayerItemStatusFailed 我尝试清除 AVPlayer 实例并创建新实例 但无法实现AVPlayer
ios
AVFoundation
avplayer
avplayerlayer
avplayeritem
为什么在快速合并两个视频或更改背景音乐后视频变成黑屏?
在我的 ios 应用程序中 我想合并两个视频并更改背景音乐 我尝试过 对于普通视频来说效果很好 但是 当我选择任何延时视频 然后尝试合并或更改背景音乐时 视频变成全黑屏 对于我的应用程序 我使用 swift 4 2 和 xcode 10 我
ios
swift
AVFoundation
连续调用startRecordingToOutputFileURL:
苹果文档 https web archive org web 20140814091047 http developer apple com library ios DOCUMENTATION AVFoundation Reference
iphone
ios
AVFoundation
avcam
Swift TTS,无音频输出
我尝试在我的应用程序 TTS 中集成 但如果单击按钮 则没有音频输出 这是按钮代码 struct VocabDetailView View var body some View HStack Button Play readOut text
swift
SwiftUI
AVFoundation
texttospeech
1
2
3
4
5
6
...17
»