的WebRTC混合本地和远程音频蒸和记录

问题描述:

到目前为止,我已经找到一种方法只记录本地或远程使用MediaRecorder API,但它可以混合和同时记录蒸,并得到一个blob?的WebRTC混合本地和远程音频蒸和记录

请注意其音频蒸汽只,我不想在服务器端混合/记录。

我的RTCPeerConnectionpc

var local_stream = pc.getLocalStreams()[0]; 
var remote_stream = pc.getRemoteStreams()[0]; 
var audioChunks = []; 
var rec = new MediaRecorder(local_stream); 
rec.ondataavailable = e => { 
    audioChunks.push(e.data); 
    if (rec.state == "inactive") 
     // Play audio using new blob 
} 
rec.start(); 

即使我尝试在MediaStream API中添加多个音轨,但它仍然只给出第一首音轨音频。任何帮助或见解,我会感激!

+0

@AdrianBer,我的问题是不同的。混合两个音频流并将其记录为单个蒸汽对象。因此,您可以在单个音频元素中听到双方的对话。实际上,您不能混合两个视频流并获取一个流来查看它。 –

+0

我收回了我的投票。你实际上可以混合两个视频流,看看我的答案在这里:http://*.com/questions/40966322/is-it-possible-to-merge-2-webm-video-streams-into-one-stream-in -图片 –

WebAudio API可以为你做混音。如果你想记录下阵列audioTracks中的所有音轨考虑以下代码:

const ac = new AudioContext(); 

// WebAudio MediaStream sources only use the first track. 
const sources = audioTracks.map(t => ac.createMediaStreamSource(new MediaStream([t]))); 

// The destination will output one track of mixed audio. 
const dest = ac.createMediaStreamDestination(); 

// Mixing 
sources.forEach(s => s.connect(dest)); 

// Record 10s of mixed audio as an example 
const recorder = new MediaRecorder(dest.stream); 
recorder.start(); 
recorder.ondataavailable = e => console.log("Got data", e.data); 
recorder.onstop =() => console.log("stopped"); 
setTimeout(() => recorder.stop(), 10000);