swift – 将CoreMIDI输入与AVAudioUnit一起使用

前端之家收集整理的这篇文章主要介绍了swift – 将CoreMIDI输入与AVAudioUnit一起使用前端之家小编觉得挺不错的,现在分享给大家,也给大家做个参考。
我正在尝试实现一些看起来应该很简单的东西:在Mac应用程序中侦听MIDI消息,并使用它们来播放现有AVAudioUnit乐器中的音符.

假设:我需要在与我的CoreMIDI客户端关联的MIDIReadBlock(通过MIDIInputPortCreateWithBlock与MIDIClientRef)和我可以从我的AVAudioUnit的AUAudioUnit(通过scheduleMIDIEventBlock)获得的AUScheduleMIDIEventBlock之间建立桥梁.这似乎比它应该更复杂,因为我将使用原始MIDI数据 – 我觉得音频单元必须支持某种类型的MIDI抽象,易于使用CoreMIDI,但我找不到任何相关的例子这个的.也许有一种方法可以将MIdioutputPortCreate与AV / AUAudioUnit一起使用?

我正在寻找的是一个将MIDI输入直接传输到音频单元(理想情况下使用Swift 3)的工作示例,但如果您知道任何相对较新的相关资源,请分享这些链接.这些API的文档稀疏性非常令人沮丧.谢谢!

在你的MIDIReadBlock循环中通过收到的数据包.根据每个数据包的MIDI状态,将相应的设备事件(例如,注释)发送到audioUnit.

例如

osstatus = MusicDeviceMIDIEvent(audioUnit,midiCmd...

猜你在找的Swift相关文章