假设我有 100 个“squeaker”类的实例。每个“吱吱声”物体都能够单独发出吱吱声。每个squeaker实体使用相同的.mp3资源。当所有吱吱声一起出现在屏幕上时(例如作为小角色),我希望它们都大约(但不完全)同时发出吱吱声,以便将它们组合在一起的吱吱声作为一群吱吱声一起听到。
针对 iOS,您推荐什么方法(和音频/声音框架)?以前有人这样做过吗?代码示例?
首先,不要使用MP3。 iPhone/iPod/iPad 使用硬件加速声音解码来实现有损压缩声音/音频层的第一个实例。从 iOS(我认为)3.0 开始,可以播放一种额外的有损压缩声音,但这会给 CPU 带来大量负载,因为它不是硬件加速的。 AFAIK 这已经是 MP3 和 AAC 的限制了。
作为个人最爱,我建议将 OpenAL 与 RAW(未压缩)16 位音频文件结合使用。 OpenAL 确实非常简单、灵活且文档齐全(除了 Apple 的参考文献)。然而,你也会在那里达到极限。据我所知,iOS 设备上的 OpenAL 限制同时播放 32 个语音。
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)