的WebRTC混合本地和远程音频蒸和记录
问题描述:
到目前为止,我已经找到一种方法只记录本地或远程使用MediaRecorder
API,但它可以混合和同时记录蒸,并得到一个blob?的WebRTC混合本地和远程音频蒸和记录
请注意其音频蒸汽只,我不想在服务器端混合/记录。
我的RTCPeerConnection
为pc
。
var local_stream = pc.getLocalStreams()[0];
var remote_stream = pc.getRemoteStreams()[0];
var audioChunks = [];
var rec = new MediaRecorder(local_stream);
rec.ondataavailable = e => {
audioChunks.push(e.data);
if (rec.state == "inactive")
// Play audio using new blob
}
rec.start();
即使我尝试在MediaStream
API中添加多个音轨,但它仍然只给出第一首音轨音频。任何帮助或见解,我会感激!
答
WebAudio API可以为你做混音。如果你想记录下阵列audioTracks
中的所有音轨考虑以下代码:
const ac = new AudioContext();
// WebAudio MediaStream sources only use the first track.
const sources = audioTracks.map(t => ac.createMediaStreamSource(new MediaStream([t])));
// The destination will output one track of mixed audio.
const dest = ac.createMediaStreamDestination();
// Mixing
sources.forEach(s => s.connect(dest));
// Record 10s of mixed audio as an example
const recorder = new MediaRecorder(dest.stream);
recorder.start();
recorder.ondataavailable = e => console.log("Got data", e.data);
recorder.onstop =() => console.log("stopped");
setTimeout(() => recorder.stop(), 10000);
@AdrianBer,我的问题是不同的。混合两个音频流并将其记录为单个蒸汽对象。因此,您可以在单个音频元素中听到双方的对话。实际上,您不能混合两个视频流并获取一个流来查看它。 –
我收回了我的投票。你实际上可以混合两个视频流,看看我的答案在这里:http://*.com/questions/40966322/is-it-possible-to-merge-2-webm-video-streams-into-one-stream-in -图片 –