Android 录音机小米商业项目开源代码 pcm转AAC硬编码 录音暂停 播放 (音频三)
Android MediaRecorder录音录像 暂停 继续录音 播放 ARM格式(音频一)
https://blog.****.net/WHB20081815/article/details/88778605
Android 录音机小米商业项目开源代码 AudioRecord录音暂停 播放 Wav格式(音频二)
https://blog.****.net/WHB20081815/article/details/88778623
Android 录音机小米商业项目开源代码 pcm转AAC硬编码 录音暂停 播放 (音频三)
https://blog.****.net/WHB20081815/article/details/88778634
Android 录音机商业项目开源代码 pcm转AAC软编码 录音暂停 播放 (音频四)
https://blog.****.net/WHB20081815/article/details/88778641
Android 高仿唱吧 咔拉ok 商业项目开源代码 K歌合成 伴奏录音合成MP3(音频五)
https://blog.****.net/WHB20081815/article/details/88778652
主要是实现边录边播(AudioRecord+AudioTrack)以及对音频的实时处理(如会说话的汤姆猫、语音)
优点:语音的实时处理,可以用代码实现各种音频的封装
在Android4.1以后google就提供了MediaCodec这个类来为用户提供音视频的编码解码功能
大致的意思是:MediaCodec处理输入数据然后产生输出数据,它异步处理数据,使用了一组输入和输入缓存。你请求到了一个空的输入缓存,将数据填满后,发送给编解码器进行处理。编解码器处理完后,将处理的结果输出到一个空的输出缓存中,我们能请求到这个输出缓存,并将缓存的数据使用。
AAC的音频文件格式有ADIF和ADTS:
ADIF:音频数据交换格式。这种格式的特点是,它只有一个统一的文件头,其余的都是音频数据。
ADTS:音频数据传输流。它是一个有同步字的比特流。每一帧都有头信息。
简单来说:ADIF不能随意解码,之后确定得到所有的数据以后才能解码,因为它只有一个头文件。
ADTS可以任意解码,因为每一帧都有一个头文件。
---------------------
编码流程:
定义输入的缓冲流inputBuffers mediaCodec.getInputBuffers();
把输入流通过循环在编码器中mediaCodec取出mediaCodec.dequeueOutputBuffer(bufferInfo,0);
在处理aac的头,添加ADTS
开始音频编码:
从AudioRecord出来的数据通过MediaCodec处理,输出硬编码需要的格式
try {
ByteBuffer[] inputBuffers = mediaCodec.getInputBuffers();
ByteBuffer[] outputBuffers = mediaCodec.getOutputBuffers();
int inputBufferIndex = mediaCodec.dequeueInputBuffer(-1);
if (inputBufferIndex >= 0) {
ByteBuffer inputBuffer = inputBuffers[inputBufferIndex];
inputBuffer.clear();
inputBuffer.put(input);
mediaCodec.queueInputBuffer(inputBufferIndex, 0, input.length,0, 0);
}
MediaCodec.BufferInfo bufferInfo = new MediaCodec.BufferInfo();
int outputBufferIndex = mediaCodec.dequeueOutputBuffer(bufferInfo,0);
while (outputBufferIndex >= 0) {
outputBuffer = outputBuffers[outputBufferIndex];
outputBuffer.position(bufferInfo.offset);
outData = new byte[bufferInfo.size];
outputBuffer.get(outData);
System.arraycopy(outData, 0, output, pos, outData.length);
pos += outData.length;
mediaCodec.releaseOutputBuffer(outputBufferIndex, false);
outputBufferIndex = mediaCodec.dequeueOutputBuffer(bufferInfo, 0);
}
其中需要注意的有dequeueInputBuffer(-1),参数表示需要得到的毫秒数,-1表示一直等,0表示不需要等,传0的话程序不会等待,但是有可能会丢帧。
dequeueOutputBuffer方法表示dequeue output buffer ,返回成功decode的output buffer的index,返回值有时候有时候大于等于0有时候小于0,
小于0表示MediaCodec没有成功decode,大于等于0表示成功decode。
编码器正常的流程是喂一次数据吐一次数据,但少数时候,编码器并不会严格按照这个流程执行,有可能你往编码器喂了几次数据,编码器都没有准备好输出数据,
那么编码器将不会吐出数据,有的时候编码器把之前没有处理好的数据,在这一次吐出数据的时候,又会吐出多次数据,所以这里用了while,在结束的时候去查询是否编码器的还有数据没有吐出来。
这里基本可以成功,加上aac头就可以播放流或者保存为aac文件了。
---------------------
/**
* 给编码出的aac裸流添加adts头字段
*
* @param packet 要空出前7个字节,否则会搞乱数据
* @param packetLen
*/
private void addADTStoPacket(byte[] packet, int packetLen) {
int profile = 2; //AAC LC
int freqIdx = 4; //44.1KHz
int chanCfg = 2; //CPE
packet[0] = (byte) 0xFF;
packet[1] = (byte) 0xF9;
packet[2] = (byte) (((profile - 1) << 6) + (freqIdx << 2) + (chanCfg >> 2));
packet[3] = (byte) (((chanCfg & 3) << 6) + (packetLen >> 11));
packet[4] = (byte) ((packetLen & 0x7FF) >> 3);
packet[5] = (byte) (((packetLen & 7) << 5) + 0x1F);
packet[6] = (byte) 0xFC;
}
{
if (aEncoder == null) {
throw new RuntimeException(" =lgd= =请初始化音频编码器=====");
}
if (audioEncoderLoop) {
throw new RuntimeException(" =lgd= 音频编码线程必须先停止===");
}
audioEncoderThread = new Thread() {
@Override
public void run() {
Log.d(TAG, "===liuguodong=====Audio 编码线程 启动...");
presentationTimeUs = System.currentTimeMillis() * 1000;
aEncoderEnd = false;
aEncoder.configure(audioFormat, null, null,
MediaCodec.CONFIGURE_FLAG_ENCODE);
aEncoder.start();
while (audioEncoderLoop && !Thread.interrupted()) {
try {
byte[] data = audioQueue.take();
encodeAudioData(data);
} catch (InterruptedException e) {
e.printStackTrace();
break;
}
}
if (aEncoder != null) {
//停止音频编码器
aEncoder.stop();
//释放音频编码器
aEncoder.release();
aEncoder = null;
}
audioQueue.clear();
Log.d(TAG, "= =lgd= ==Audio 编码线程 退出...");
}
};
audioEncoderLoop = true;
audioEncoderThread.start();
}
demo地址:
https://github.com/printlybyte/AndroidPCMtoAACpushing