Python
Java
PHP
IOS
Android
Nodejs
JavaScript
Html5
Windows
Ubuntu
Linux
从 RemoteIO 保存音频的示例?
我进行了搜索 但没有找到任何从 RemoteIO 音频单元保存音频的好示例或教程 我的设置 使用 MusicPlayer API 我有几个 AUSamplers gt MixerUnit gt RemoteIO 音频播放效果很好 我想添加将
ios
coreaudio
播放声音无延迟 iOS
我找不到如何以低延迟播放真实声音的方法 我尝试使用 AVFoundation 音频播放器 巨大的延迟大约 500 毫秒 所以我尝试创建系统声音 如果运气不好 延迟大约为 200 毫秒 虽然不多 但对我来说没有用 我最多需要 50 毫秒 确保
ios
Objectivec
Audio
coreaudio
iOS通过AVAssetWriter反转音频
我正在尝试使用 AVAsset 和 AVAssetWriter 在 iOS 中反转音频 以下代码可以正常工作 但输出文件比输入文件短 例如 输入文件的持续时间为 1 59 但输出文件的持续时间为 1 50 且音频内容相同 void reve
ios
Objectivec
coreaudio
avassetwriter
avasset
使用 iOS 修剪音频
我想实现一项功能 让用户修剪他之前录制的音频文件 caf 录音部分已经可以工作了 但是我如何添加类似于 Voicememos 应用程序中的修剪功能 苹果使用的音频修剪器有API吗 任何帮助都会很棒 使用 AVFoundation 怎么样 将
cocoatouch
Audio
coreaudio
trim
AUGraph 在 iOS 上是否已被弃用?如果是的话,什么时候?
我听到过这样的传言AUGraph在 iOS 上已被弃用 例如这篇推特帖子 https twitter com marcoarment status 878323409339338753 marcoarment 您对 atpfm 关于需要重写
ios
coreaudio
deprecated
audiotoolbox
augraph
Core Audio 渲染线程和线程信号
iOS 是否有任何类型的非常低级别的条件锁 不包括锁定 我正在寻找一种方法来从核心音频渲染线程内向等待线程发出信号 而不使用锁 我想知道是否可能存在像 Mach 系统调用这样的低级内容 现在我有一个核心音频线程 它使用非阻塞线程安全消息队列
ios
Multithreading
coreaudio
使用 Core Audio 忽略 __cxa_throw 是否安全?
一个相似的question https stackoverflow com questions 12861748 how do i know when safe to ignore cxa throw on an all exception
c
Objectivec
xcode
Exception
coreaudio
在 iPhone 上下载、保存和播放 mp3
我想从某个网站下载 mp3 文件 将其保存到我的 CoreData 模型 AudioMp3 中 然后播放 下面的函数可以工作 但首先 效率低下 因为它必须首先将 mp3 保存到文件 其次 它在接下来的调用次数中重复播放相同的 mp3 我认为
iphone
CoreData
coreaudio
ARC 不允许将 Objective-C 指针隐式转换为“void *”
这意味着什么 我有什么选择 ARC 不允许将 Objective C 指针隐式转换为 void 我正在将 Xcode3 项目移植到 iOS5 它使用 AudioSessionInitialize 如下 AudioSessionInitial
Objectivec
coreaudio
automaticrefcounting
CMSampleBufferSetDataBufferFromAudioBufferList 返回错误 12731
我正在尝试捕获应用程序声音并将其传递给 AVAssetWriter 作为输入 我正在设置音频单元的回调以获取 AudioBufferList 问题始于将 AudioBufferList 转换为 CMSampleBufferRef 它总是返回
ios
iphone
AVFoundation
coreaudio
audiounit
强制向扬声器发出音频警报
我有一个小应用程序 在此应用程序中 扬声器每隔我设置的特定时间就会发出噪音 现在 我希望即使设备中插入了耳机插孔 它也能通过内置扬声器发出噪音 我怎样才能做到这一点 您可以尝试以下代码在扬声器上播放代码 另请检查this http uiha
ios
iphone
coreaudio
OSX AudioUnit SMP
我想知道是否有人有编写利用多核处理器和 或对称多处理的 HAL AudioUnit 渲染回调的经验 我的场景如下 子类型的单个音频组件kAudioUnitSubType HALOutput 连同它的渲染回调 负责附加合成n具有独立的单独变化
MacOS
multiprocessing
coreaudio
audiounit
为什么我无法更改 AU 多通道混音器输入范围中的元件/总线数量?
UPDATE 我正在更改我的代码以更简化的方式说明问题 我还有一个小错误 虽然没有阻止问题的发生 但确实增加了一些混乱 我正在 iOS 中实例化多通道混音器 AU kAudioUnitSubType MultiChannelMixer 并执
ios
coreaudio
audiounit
帮助修复内存泄漏版本
import VTM AViPodReaderViewController h import
iphone
Objectivec
xcode
coreaudio
语音识别和语调检测
我想做一个 iOS 应用来计算疑问句 我会寻找 WH 问题以及 我会吗 格式化问题 我对语音或音频技术领域不太了解 但我Google了一下 发现语音识别SDK很少 但仍然不知道如何检测和绘制语调 是否有支持语调或情感语音识别的 SDK 据我
ios
coreaudio
SpeechRecognition
核心音频指导/入门
我一直在阅读 ios 4 的核心音频 目的是构建一个小测试应用程序 目前我对所有 api 的研究感到非常困惑 理想情况下 我想知道如何从两个 mp3 中提取多个样本到数组中 然后在回调循环中 我想将这些样本混合在一起并将它们发送到扬声器 苹
ios4
coreaudio
Swift 与 Objective C 指针操作问题
我在 Objective C 中有这段代码 运行良好 list controller gt audioBufferList list gt mBuffers 0 mDataByteSize inNumberFrames kSampleWor
ios
Objectivec
swift
swift4
coreaudio
实时获取 macOS 输出设备音频缓冲区
我试图tapmacOS 上当前选择的输出音频设备 因此我基本上有一个直通侦听器 可以监视当前正在输出的音频流而不影响它 我想将这些数据实时复制到环形缓冲区 以便我可以单独对其进行操作 Apple 文档和 过时 SO 答案的结合令人困惑 我是
Objectivec
swift
MacOS
Audio
coreaudio
AVAudioSinkNode 具有非默认但仍然是设备本机采样率
我已经配置了AVAudioSinkNode附于AVAudioEngine s inputNode像这样 let sinkNode AVAudioSinkNode timestamp frames audioBufferList gt OSS
swift
coreaudio
avaudioengine
如何将 iPod 库资源连接到音频队列服务并使用音频单元进行处理?
我需要处理来自 iPod 库的音频 读取 iPod 库资源的唯一方法是 AVAssetReader 要使用音频单元处理音频 它需要采用立体声格式 因此我有左声道和右声道的值 但是 当我使用 AVAssetReader 从 iPod 库读取资
ios
coreaudio
audiounit
1
2
3
4
5
6
7
»