欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页

Android流媒体开发之路三:基于NDK开发Android平台RTSP播放器

程序员文章站 2022-07-07 14:09:23
...

基于NDK开发Android平台RTSP播放器

最近做了不少android端的开发,有推流、播放、直播、对讲等各种应用,做了RTMP、RTSP、HTTP-FLV、自定义等各种协议,还是有不少收获和心得的。我这边做,核心模块和核心代码部分,都是基于NDK,用C++开发的,然后将so动态库,在Android java环境中使用,这个既能保证核心部分的代码性能,也能最大程度复用之前写的流媒体相关的大量代码,实践证明,这样的程序架构,还是很有效的。这篇文章里,我打算描述一下我对于开发Android端RTSP播放器的程序框架,和设计思路,有相关需求的,希望能借此扩展下思路。

逻辑思路

  1. 首先,既然是RTSP播放器,那必然要做RTSP的解析,这部分对我来说已经是非常熟悉了。我常用的RTSP解析代码,一般是基于Live555和FFMpeg的库,通过调用相关的接口,来实现RTSP客户端协议的数据接收,然后再做数据分析。这两种方式,各有适合的应用场景,兼容性也各有优劣,要根据具体项目具体选择。除非是整套都是自己做的RTSP服务器和RTSP客户端,否则我一般都是用他们两个,为的是最大程度的兼容第三方RTSP服务器,比如各种网络摄像头、各种设备、以及其他公司自己写的RTSP server等等,具体就不说了,做过类似的估计都清楚。当然,数据接收是需要做缓冲的,否则会卡顿,这个需要自己来做。

  2. 其次是解码,对于这点,为了保证内存使用效率,以及避免JNI调用开销,最好是在c++层来做。这个可以基于FFMpeg解码器或者MediaCodec解码器来写,不过要注意后者对Android的版本有要求。解码后需要对数据进行缓冲,按照时间戳进行排队。这个不管是直播还是点播,都需要做队列,否则同样会出现卡顿、音视频不同步,以及其他的情况,这个是非常重要的一点。

  3. 最后是渲染,这个可以选择在c++层绘制,或者回调上层,交给EGL来进行绘制,后者需要编写EGL代码,创建EGL surface,在渲染线程中进行绘制。

总结一下:

  • 连接RTSP服务器,接收数据并进行分析,提取视频和音频数据
  • 对编码数据,比如h.264、aac等,进行解码,还原原始数据
  • 把原始数据,进行绘制或回调上层,opengl绘制

程序框架

结构示意图:

Android流媒体开发之路三:基于NDK开发Android平台RTSP播放器

c++部分是主要代码,java层只需要做封装和调用操作即可

框架图:

Android流媒体开发之路三:基于NDK开发Android平台RTSP播放器

Android c++工程编译

本人的交叉编译平台是ubuntu 64bit,编译成动态库,然后让APP通过JNI来调用,跟其他程序的编译方式差不多。当然,首先需要系统内布置好NDK编译环境。Google提供了完整的编译工具链,也包括SDK,下载地址在这里:“NDK Downloads”。我在之前的一篇文章里也写了这部分,可以参考一下:“NDK开发Android端RTMP直播推流程序”。

1. 编译依赖库

对第三方库,我通常都是首先尝试NDK工具链的方式来编译,这样的好处,一个是工作量小,能直接使用项目的makefile,当前前提是先配置好编译环境,指定好交叉编译工具;另一个是不同的库的编译方式是相同的,很容易处理。这里以FFMpeg为例

export CC=$NDK_BIN_DIR/arm-linux-androideabi-gcc
export CXX=$NDK_BIN_DIR/arm-linux-androideabi-g++
export AR=$NDK_BIN_DIR/arm-linux-androideabi-ar rc
export AS=$NDK_BIN_DIR/arm-linux-androideabi-as
export LD=$NDK_BIN_DIR/arm-linux-androideabi-ld

ffmpeg_build()
{
	./configure --disable-static --enable-shared --enable-nonfree --enable-mediacodec --enable-jni --enable-cross-compile --target-os=android --arch=arm-linux --cross-prefix=$NDK_COMPILE_PREFIX --sysroot=$NDK_SYSROOT_DIR --prefix=bin
	make
	make install
}

ffmpeg_clean()
{
	make clean
}

第三方库准备好,这样就行了。

2. 编写程序主体的Android.mk文件

程序主体,直接写Android.mk,代码和预编译条件,链接参数等自己都清楚,也很方面控制编译输出。之前有篇文章里也有简单介绍,可以参考"NDK开发Android端RTMP直播推流程序",具体的语法可以参考官方网站Android Developer。
Android流媒体开发之路三:基于NDK开发Android平台RTSP播放器
写好后,调用ndk-build脚本编译,OK。

需要注意的地方和部分代码

  1. 在写JNI封装接口的时候,一定要注意jni类型和c++类型的对应关系,尤其是注意返回值。本人就曾经因为jni接口返回值,和代码实现时候的不对应,从而导致android app调用接口的时候异常退出
    /**
     * 创建播放器模块
     * @param surface:要渲染的surface对象
     */
    public RtspPlayerSdk(Surface surface)
    {
        EnviromentInit();
        rtsp_handle_ = Create(surface);
    }

    /**
     * 清除播放器模块,c++层回收内存
     */
    public void Delete() {
        if (rtsp_handle_ != 0) {
            Delete(rtsp_handle_);
            rtsp_handle_  = 0;
        }
    }

    /**
     * 开始播放url
     * @param rtspUrl: rtsp地址
     */
    public void Start(String rtspUrl) {
        if (rtsp_handle_ != 0) {
            is_playing_ = true;
            Start(rtsp_handle_, rtspUrl, false);
        }
    }

    /**
     * 停止播放,注意需要调用Delete才会清理内存
     */
    public void Stop() {
        if (rtsp_handle_ != 0) {
            is_playing_ = false;
            Stop(rtsp_handle_);
        }
    }

    /**
     * 开始录制,注意需要相关目录存在
     * @param filePath: 录制文件的绝对路径,包含文件名
     */
    public void StartRecord(String filePath) {
        if (rtsp_handle_ != 0) {
            StartRecord(rtsp_handle_, filePath);
        }
    }

    /**
     * 停止录制
     */
    public void StopRecord() {
        if (rtsp_handle_ != 0) {
            StopRecord(rtsp_handle_);
        }
    }

    /**
     * 截图并保存为jpg格式,注意需要相关目录存在
     * @param filePath: 截图文件的绝对路径,包含文件名,
     */
    public void SavePicture(String filePath) {
        if (rtsp_handle_ != 0) {
            SavePicture(rtsp_handle_, filePath);
        }
    }
    // ---------------------------------------------------------------------------------------------
    // librtsp_enc_sdk.so接口
    private native void EnviromentInit();
    private native long Create(Surface surface);
    private native void Delete(long handle);
    private native void Stop(long handle);
	private native void StartRecord(long handle, String filePath);
	private native void StopRecord(long handle);

其中一个接口对应的JNI c语言代码是这样的:

JNIEXPORT void JNICALL Java_com_hbstream_RtspPlayerSdk_StartRecord(
    JNIEnv *env, jobject /* this */, jlong sdkHandle,
    jstring filePath)
{
    void* rtmp_sdk = (void*)sdkHandle;
    if (rtmp_sdk) {
        const char *file_path = env->GetStringUTFChars(filePath, NULL);
        RtspPlayer_StartRecord(rtmp_sdk, file_path);
    }
}
  1. 在按照时间戳做播放队列的时候,为了音频和视频的同步,必须注意音频和视频各自的时间戳,需要按照真实的时间进行还原。而当发现视频和音频不同步的时候,或者因为缓冲问题,导致视频需要丢包的情况下,需要及时调整音频播放队列的基准时间戳,避免音视频不同步的情况出现。同时,这样做也能避免长期累积造成的计算误差。
void RtspBufferingSource::OnRtspCodecInfo(int srcId, int sampleRate,
	int channel, int width, int height)
{
	if (is_stopping_) return;

	SIMPLE_LOG("samrate: %d, channel: %d, w: %d, h: %d\n", sampleRate, channel, width, height);

    // 创建音频队列
	if (sampleRate > 0 && channel > 0 && audio_queue_ == NULL)
	{
		audio_queue_ = new AudioBufferingQueue(this, 0, sampleRate);
		audio_queue_->Start();
	}

    // 创建视频队列
	if (width > 0 && height > 0 && video_queue_ == NULL)
	{
		video_queue_ = new VideoBufferingQueue(this);
		video_queue_->Start();
	}

	observer_->OnRtspBufferingInfo(srcId, sampleRate, channel, width, height);
}

void RtspBufferingSource::OnRtspAudioBuf(int srcId, const char* dataBuf,
	int dataLen, long long timestamp)
{
	if (is_stopping_) return;

	if (data_real_timer_.LastTimestamp() < 0)
		data_real_timer_.Reset();

	if (data_real_timer_.Get() < IGNORE_BEGIN_DATA_TIME)
		return;

    // 根据视频队列反馈的时间差,来调整音频队列的基准时间
    if (video_queue_)
    {
        long long plus_time = video_queue_->PlusTime();
            audio_queue_->SetPlusTime(plus_time);
    }

	audio_queue_->Post(dataBuf, dataLen, timestamp);
}

void RtspBufferingSource::OnRtspVideoBuf(int srcId, const char* dataBuf,
	int dataLen, long long timestamp)
{
	if (is_stopping_) return;

	if (data_real_timer_.LastTimestamp() < 0)
		data_real_timer_.Reset();

	if (data_real_timer_.Get() < IGNORE_BEGIN_DATA_TIME)
		return;

    if (video_queue_)
        video_queue_->Post(dataBuf, dataLen, timestamp, false);
}
  1. 由于是手机端或者嵌入式设备端进行播放,因为需要考虑到设备性能不足的情况。这个时候,如果码流较大而设备来不及解码或者渲染,必须及时抛弃视频数据,否则会造成内存溢出,程序崩溃。同时在抛弃数据的时候,要考虑到关键帧的问题,也就是如果发生了抛帧,那么整个GOP的数据都应当放弃,除非是有冗余编码等编码技术,以此来避免花屏的情况,以及第2点列出的音视频同步问题。解决这几点,基本上就可以了。

  2. 当需要回调给java层,让EGL来渲染画面时,需要用到c++回调Java的技术手段。首先写好java层封装的回调接口,然后在c++代码中,通过JNI环境,获取到java层封装的类jclass对象和方法。注意在调用GetMethodID时,需要写正确函数的签名,例如我在java层的函数是

    void OnVideoDataBuf(int width, int height, byte[] frameBuf)

    那么对应的签名是“(II[B)V”
    以下是调用例子:

	//获取当前native线程是否有没有被附加到jvm环境中
	JNIEnv* jni_env = nullptr;
	bool is_need_detach = false;
	if (g_VM->GetEnv(reinterpret_cast<void **>(&jni_env), JNI_VERSION_1_6) != JNI_OK)
	{
		SIMPLE_LOG("attach thread: %d\n", 1);
		jni_env = AttatchJNIEnv(g_VM);
		is_need_detach = true;
	}

	if (jni_env == nullptr)
	{
		SIMPLE_LOG("got jni env failed\n");
		return false;
	}

	jclass sdk_class = jni_env->GetObjectClass(gJavaClassObject);
	if (sdk_class)
	{
		jmethodID java_on_video_buf = jni_env->GetMethodID(sdk_class,
			"OnVideoDataBuf", "(II[B)V");

		jbyteArray jbuf = jni_env->NewByteArray(rgbSize);
		jni_env->SetByteArrayRegion(jbuf, 0, rgbSize, (jbyte*)rgbBuf);
		
		// 发起回调
		jni_env->CallVoidMethod(gJavaClassObject, java_on_video_buf,
			width_, height_, jbuf);

		jni_env->DeleteLocalRef(jbuf);
		jni_env->DeleteLocalRef(sdk_class);
	}

注意最后需要DetachCurrentThread()。

运行效果

在手机端运行画面:
Android流媒体开发之路三:基于NDK开发Android平台RTSP播放器


Android流媒体开发之路三:基于NDK开发Android平台RTSP播放器hbstream.com,合作请加QQ或微信。(转载请注明作者和出处)

Android流媒体开发之路三:基于NDK开发Android平台RTSP播放器