前文利用 [FFmpeg 对 Android Camera2 采集的预览帧先进行渲染,然后利用 OpenGL 添加滤镜,最后将渲染结果进行编码生成 mp4 文件] 。
本文将利用 Android AudioRecorder 采集 PCM 音频,然后利用 FFmpeg 对其编码生成 aac 文件。
提前预告下,在该系列的下一篇文章将介绍 FFmpeg 同时对 Android Camera 采集的预览帧和 AudioRecorder 采集的音频数据进行编码,生成一个 mp4 文件。
FFmpeg + Android AudioRecorder 音频录制编码
这里利用 Android AudioRecorder API 采集音频 PCM 裸数据,然后通过 jni 传递到 Native 层供 FFmpeg 编码使用。
下面代码将 AudioRecoder 封装到线程里,通过接口回调的方式将 PCM 数据传出来,默认采样率为 44.1kHz,双通道立体声,采样格式为 PCM 16 bit 。
public class AudioRecorder extends Thread {
private static final String TAG = "AudioRecorder";
private AudioRecord mAudioRecord = null;
private static final int DEFAULT_SAMPLE_RATE = 44100;
private static final int DEFAULT_CHANNEL_LAYOUT = AudioFormat.CHANNEL_IN_STEREO;
private static final int DEFAULT_SAMPLE_FORMAT = AudioFormat.ENCODING_PCM_16BIT;
private final AudioRecorderCallback mRecorderCallback;
public AudioRecorder(AudioRecorderCallback callback) {
this.mRecorderCallback = callback;
}
@Override
public void run() {
final int mMinBufferSize = AudioRecord.getMinBufferSize(DEFAULT_SAMPLE_RATE, DEFAULT_CHANNEL_LAYOUT, DEFAULT_SAMPLE_FORMAT);
Log.d(TAG, "run() called mMinBufferSize=" + mMinBufferSize);
mAudioRecord = new AudioRecord(android.media.MediaRecorder.AudioSource.MIC, DEFAULT_SAMPLE_RATE, DEFAULT_CHANNEL_LAYOUT, DEFAULT_SAMPLE_FORMAT, mMinBufferSize);
try {
mAudioRecord.startRecording();
} catch (IllegalStateException e) {
mRecorderCallback.onError(e.getMessage() + " [startRecording failed]");
return;
}
byte[] sampleBuffer = new byte[4096];
try {
while (!Thread.currentThread().isInterrupted()) {
int result = mAudioRecord.read(sampleBuffer, 0, 4096);
if (result > 0) {
mRecorderCallback.onAudioData(sampleBuffer, result);
}
}
} catch (Exception e) {
mRecorderCallback.onError(e.getMessage());
}
mAudioRecord.release();
mAudioRecord = null;
}
public interface AudioRecorderCallback {
void onAudioData(byte[] data, int dataSize);
void onError(String msg);
}
}
音频的编码流程与视频编码流程基本上一致,为了更加清楚地展示流程,也画了一张流程图如下图所示。
音频的编码流程
AudioRecoder 采集的 PCM 音频放入音频队列中,子线程音频编码循环不断从队列中取数据进行编码,最后将编码数据写入媒体文件。
由于新的 FFmpeg 版本不再支持对 AV_SAMPLE_FMT_S16 采样格式的音频数据进行编码,需要利用 swr_convert 将格式转换为 AV_SAMPLE_FMT_FLTP ,而 AV_SAMPLE_FMT_S16 就是 AudioRecorder 的 AudioFormat.ENCODING_PCM_16BIT 。
两种采样格式的特点:
可以看出单声道两者只是取值范围上的差别,双声道的话两者还有存储结构上的差异。
双声道 AV_SAMPLE_FMT_S16 和 AV_SAMPLE_FMT_FLTP 格式结构
两种音频采样格式的结构
从图中可以看出,双声道 AV_SAMPLE_FMT_S16 类型左右声道数据交叉存储,而双声道 AV_SAMPLE_FMT_FLTP 类型左右声道各存储在一个 planer ,熟悉 YUV 格式的同学可以看出这种排布方式有点像 YUV420SP 和 YUV420P 。
swresample 库的 swr_convert 函数,网上看到经常有人用错,这里简单介绍下:
/** Convert audio.
* @param s allocated Swr context, with parameters set
* @param out output buffers, only the first one need be set in case of packed audio
* @param out_count amount of space available for output in samples per channel
* @param in input buffers, only the first one need to be set in case of packed audio
* @param in_count number of input samples available in one channel
*
* @return number of samples output per channel, negative value on error
*/
int swr_convert(struct SwrContext *s, uint8_t **out, int out_count,
const uint8_t **in , int in_count);
其中 in_count 和 out_count 表示的是输入和输出每个声道的样本数量,而不是 2 个声道总的样本数,比如采集一坨 4096 字节的双声道 AV_SAMPLE_FMT_S16 数据,那么它每个通道的样本数量是 4096 / 2(双声道) / 2(16 bits) = 1024 。
另外 AVFrame 中的 nb_samples 表示的也是每个声道的样本数量。
swr_convert 的使用:
// audioFrame->data 表示双声道 AV_SAMPLE_FMT_S16 数据
int result = swr_convert(recorder->m_swrCtx, pFrame->data, pFrame->nb_samples, (const uint8_t **) &(audioFrame->data), audioFrame->dataSize / 4);
// result 数量一般等于 in_count , 小于 0 时表示转换失败。
FFmpeg 编码音频数据跟编码视频数据实现一样,Android AudioRecorder 通过 jni 将 PCM 数据传递到 Native 层队列中,供 FFmpeg 编码使用。
extern "C"
JNIEXPORT void JNICALL
Java_com_byteflow_learnffmpeg_media_MediaRecorderContext_native_1OnAudioData(JNIEnv *env,
jobject thiz,
jbyteArray data,
jint size) {
int len = env->GetArrayLength (data);
unsigned char* buf = new unsigned char[len];
env->GetByteArrayRegion(data, 0, len, reinterpret_cast<jbyte*>(buf));
MediaRecorderContext *pContext = MediaRecorderContext::GetContext(env, thiz);
if(pContext) pContext->OnAudioData(buf, len);
delete[] buf;
}
为了方便读者 demo ,现在把 FFmpeg 编码音频的实现也放到一个单独的类中来实现。
class SingleAudioRecorder {
public:
SingleAudioRecorder(const char *outUrl, int sampleRate, int channelLayout, int sampleFormat);
~SingleAudioRecorder();
//开始录制
int StartRecord();
//接收音频数据
int OnFrame2Encode(AudioFrame *inputFrame);
//停止录制
int StopRecord();
private:
//编码循环
static void StartAACEncoderThread(SingleAudioRecorder *context);
//编码一帧的函数
int EncodeFrame(AVFrame *pFrame);
private:
ThreadSafeQueue<AudioFrame *> m_frameQueue;
char m_outUrl[1024] = {0};
int m_frameIndex = 0;
int m_sampleRate;
int m_channelLayout;
int m_sampleFormat;
AVPacket m_avPacket;
AVFrame *m_pFrame = nullptr;
uint8_t *m_pFrameBuffer = nullptr;
int m_frameBufferSize;
AVCodec *m_pCodec = nullptr;
AVStream *m_pStream = nullptr;
AVCodecContext *m_pCodecCtx = nullptr;
AVFormatContext *m_pFormatCtx = nullptr;
SwrContext *m_swrCtx = nullptr;
thread *m_encodeThread = nullptr;
volatile int m_exit = 0;
};
SingleAudioRecorder 在一个线程里开启编码循环,不断地从音频队列中取数据进行编码。
//编码循环
void SingleAudioRecorder::StartAACEncoderThread(SingleAudioRecorder *recorder) {
LOGCATE("SingleAudioRecorder::StartAACEncoderThread start");
while (!recorder->m_exit || !recorder->m_frameQueue.Empty())
{
if(recorder->m_frameQueue.Empty()) {
//队列为空,休眠等待
usleep(10 * 1000);
continue;
}
AudioFrame *audioFrame = recorder->m_frameQueue.Pop();
AVFrame *pFrame = recorder->m_pFrame;
//音频采样格式转换
int result = swr_convert(recorder->m_swrCtx, pFrame->data, pFrame->nb_samples, (const uint8_t **) &(audioFrame->data), audioFrame->dataSize / 4);
LOGCATE("SingleAudioRecorder::StartAACEncoderThread result=%d", result);
if(result >= 0) {
pFrame->pts = recorder->m_frameIndex++;
recorder->EncodeFrame(pFrame);
}
delete audioFrame;
}
LOGCATE("SingleAudioRecorder::StartAACEncoderThread end");
}
//编码一帧的函数
int SingleAudioRecorder::EncodeFrame(AVFrame *pFrame) {
LOGCATE("SingleAudioRecorder::EncodeFrame pFrame->nb_samples=%d", pFrame != nullptr ? pFrame->nb_samples : 0);
int result = 0;
result = avcodec_send_frame(m_pCodecCtx, pFrame);
if(result < 0)
{
LOGCATE("SingleAudioRecorder::EncodeFrame avcodec_send_frame fail. ret=%d", result);
return result;
}
while(!result) {
result = avcodec_receive_packet(m_pCodecCtx, &m_avPacket);
if (result == AVERROR(EAGAIN) || result == AVERROR_EOF) {
return 0;
} else if (result < 0) {
LOGCATE("SingleAudioRecorder::EncodeFrame avcodec_receive_packet fail. ret=%d", result);
return result;
}
LOGCATE("SingleAudioRecorder::EncodeFrame frame pts=%ld, size=%d", m_avPacket.pts, m_avPacket.size);
m_avPacket.stream_index = m_pStream->index;
av_interleaved_write_frame(m_pFormatCtx, &m_avPacket);
av_packet_unref(&m_avPacket);
}
return 0;
}
完整的实现代码可以参考项目:
https://github.com/githubhaohao/LearnFFmpeg
Copyright© 2013-2020
All Rights Reserved 京ICP备2023019179号-8