斯威夫特OSX音频直通,同时记录
问题描述:
我在Xcode 9编程 - SWIFT 4 - MacOS的不IOS斯威夫特OSX音频直通,同时记录
下面我有一个基本的录音音频设置用于记录与耳机和麦克风的歌手。我希望它能像逻辑X一样反应。
在逻辑X中,您将要录制的音轨放入录音准备就绪,而发生此情况时,麦克风会路由至耳机,因此主唱可以听到自己的声音。在播放时,准备好的录音静音,主唱可以在这里录制。并且如果在回放期间按下了录音按钮,则主唱听到正在录制的人声。
我遇到的问题是将音频直接路由到音频输出。我不确定什么音频系统我应该使用AVAudioSession显然是iOS的 。我必须去Core Audio吗?我想坚持与SWIFT 4
任何意见,将不胜感激
这里是我迄今为止
import Cocoa
import AVFoundation
enum RecordingPreset: Int {
case Low = 0
case Medium
case High
func settings() -> Dictionary<String, Int> {
switch self {
case .Low:
return [AVLinearPCMBitDepthKey: 16, AVNumberOfChannelsKey : 1, AVSampleRateKey : 12_000, AVLinearPCMIsBigEndianKey : 0, AVLinearPCMIsFloatKey : 0]
case .Medium:
return [AVLinearPCMBitDepthKey: 16, AVNumberOfChannelsKey : 1, AVSampleRateKey : 24_000, AVLinearPCMIsBigEndianKey : 0, AVLinearPCMIsFloatKey : 0]
case .High:
return [AVLinearPCMBitDepthKey: 16, AVNumberOfChannelsKey : 1, AVSampleRateKey : 48_000, AVLinearPCMIsBigEndianKey : 0, AVLinearPCMIsFloatKey : 0]
}
}
func exportSettings() -> Dictionary <String, Int> {
var recordingSetting = self.settings()
recordingSetting[AVFormatIDKey] = Int(kAudioFormatLinearPCM)
recordingSetting[AVLinearPCMIsNonInterleaved] = 0
return recordingSetting
}
}//eo RecordingPreset
extension Array {
func firstObject() -> Element? {
var firstObject: Element?
if self.count > 0 {
firstObject = self[0]
}
return firstObject
}
func lastObject() -> Element? {
var lastObject: Element?
if self.count > 0 {
lastObject = self[self.endIndex - 1]
}
return lastObject
}
}
class MainWindowController: NSWindowController {
var audioEngine:AVAudioEngine!
var player:AVAudioPlayer!
var recorder: AVAudioRecorder?
override func windowDidLoad() {
super.windowDidLoad()
}//EO Overide
func createRecorder() ->() {
var initialisedRecorder: AVAudioRecorder?
let currentDate = NSDate()
let dateFormatter = DateFormatter()
dateFormatter.dateFormat = "dd-MM-yy HHmmss"
let fileName = "/RECORDING/Audio/Recording on " + dateFormatter.string(from: currentDate as Date) + ".wav"
let filePaths = NSSearchPathForDirectoriesInDomains(.documentDirectory, .userDomainMask, true)
if let firstPath = filePaths.firstObject() {
let recordingPath = firstPath + fileName
let url = NSURL(fileURLWithPath: recordingPath)
let selectedPreset = RecordingPreset.High
do {
initialisedRecorder = try AVAudioRecorder(url: url as URL, settings: selectedPreset.settings()
)
}catch {
print("nope")
}
initialisedRecorder!.isMeteringEnabled = true
initialisedRecorder!.prepareToRecord()
}
recorder = initialisedRecorder
}//eo createRecorder
@IBAction func myRecord(_ sender: Any) {
print("RECORD")
createRecorder()
recorder?.record()
}
@IBAction func myStop(_ sender: Any) {
print("STOP")
recorder?.stop()
recorder = nil
}
}//EnD oF thE wORld
答
您可以直接使用AVFoundation框架,而不是核心音频。对于pass-thru音频,您可以创建一个自定义的V3 AUAudioUnit子类,并将实例化的音频对象的输入renderblock中的数据传递到其输出缓冲区(可能使用循环FIFO),并具有相当低的延迟时间。
请注意,Apple(在Core Audio的2017年WWDC会议中)建议不要在实时音频上下文中使用Swift或Objective C方法,因此您可能需要在C中编写一小部分(缓冲区副本)。