原始视频数据

最近更新时间:2022-09-20 05:17:40

功能描述

音视频 SDK 提供了获取 原始视频数据 功能来实现对视频的 编码前处理 和 解码后处理,即在音视频处理过程中,对采集和接收到的视频、频帧进行修改,并发布到房间中供远端用户订阅,实现特殊的播放效果。

原始视频数据主要分为:本地摄像头采集的原始数据、本地预览数据(即经过裁剪或加水印处理后未编码的数据)、远端用户的原始视频数据。

  • 编码前处理:在编码前对SDK提供的原始视频数据(例如,本地摄像头采集的视频数据、本地预览数据)自行逐帧处理。
  • 解码后处理:在解码后对SDK提供的原始视频数据(例如,接收到的远端用户视频数据)自行逐帧处理。

Native SDK 通过提供 IVideoFrameObserver 类,实现采集、修改原始视频数据功能。

实现方法

操作步骤

在使用原始数据功能前,请确保你已在项目中完成基本的实时音视频功能。

参考如下步骤,在你的项目中实现原始视频数据功能:

  1. 加入频道前调用 registerVideoFrameObserver 方法注册视频观测器,并在该方法中实现一个 IVideoFrameObserver 类。
  2. 成功注册后,SDK 会在捕捉到每个视频帧时通过 onCaptureVideoFrameonPreEncodeVideoFrameonRenderVideoFrame 回调发送获取到的原始视频数据。
  3. 用户拿到视频数据后,根据场景需要自行进行处理。然后将处理过的视频数据再通过上述回调发送给 SDK。

示例代码

你可以对照 API 时序图,参考下面的示例代码片段,在项目中实现原始视频数据功能:

#include <jni.h>
#include <android/log.h>
#include <cstring>

#include "IArRtcEngine.h"
#include "IArMediaEngine.h"

#include "video_preprocessing_plugin_jni.h"

class ARVideoFrameObserver : public ar::media::IVideoFrameObserver
{
public:
    // 获取本地摄像头采集到的视频帧
    virtual bool onCaptureVideoFrame(VideoFrame& videoFrame) override
    {
        int width = videoFrame.width;
        int height = videoFrame.height;

        memset(videoFrame.uBuffer, 128, videoFrame.uStride * height / 2);
        memset(videoFrame.vBuffer, 128, videoFrame.vStride * height / 2);

        return true;
    }

    // 获取远端用户发送的视频帧
    virtual bool onRenderVideoFrame(unsigned int uid, VideoFrame& videoFrame) override
    {
        return true;
    }
    // 获取本地视频编码前的视频帧
    virtual bool onPreEncodeVideoFrame(VideoFrame& videoFrame) override
    {
        return true;
    }
};

class IVideoFrameObserver
{
     public:
         enum VIDEO_FRAME_TYPE {
         FRAME_TYPE_YUV420 = 0,  // 视频帧格式为 YUV 420
         };
     struct VideoFrame {
         VIDEO_FRAME_TYPE type;
         int width;  // 视频帧的宽
         int height;  // 视频帧的高
         int yStride;  // YUV 数据中的 Y 缓冲区的行跨度
         int uStride;  // YUV 数据中的 U 缓冲区的行跨度
         int vStride;  // YUV 数据中的 V 缓冲区的行跨度
         void* yBuffer;  // YUV 数据中的 Y 缓冲区的指针
         void* uBuffer;  // YUV 数据中 U 缓冲区的指针
         void* vBuffer;  // YUV 数据中 V 缓冲区的指针
         int rotation; // 该帧的旋转信息,可设为 0, 90, 180, 270
         int64_t renderTimeMs; // 该帧的时间戳
         };
     public:
         virtual bool onCaptureVideoFrame(VideoFrame& videoFrame) = 0;
         virtual bool onRenderVideoFrame(unsigned int uid, VideoFrame& videoFrame) = 0;
         virtual bool onPreEncodeVideoFrame(VideoFrame& videoFrame) { return true; }
};

同时,我们在 GitHub 提供一个开源的 Advanced-Video 示例项目。你可以前往下载,或参考 IARMediaEngine.h 文件中的代码。

开发注意事项

本文中使用的原始数据接口为 C++ 接口。如果你在 Android 平台开发,请参考如下步骤,使用 SDK 库的 JNI 和插件管理器注册视频数据观测器。

static ARVideoFrameObserver s_videoFrameObserver;
static ar::rtc::IRtcEngine* rtcEngine = NULL;


#ifdef __cplusplus
extern "C" {
#endif

int __attribute__((visibility("default"))) loadARRtcEnginePlugin(ar::rtc::IRtcEngine* engine)
{
    rtcEngine = engine;
    return 0;
}

void __attribute__((visibility("default"))) unloadARRtcEnginePlugin(AR::rtc::IRtcEngine* engine)
{
    rtcEngine = NULL;
}

JNIEXPORT void JNICALL Java_org_ar_propeller_preprocessing_VideoPreProcessing_enablePreProcessing
  (JNIEnv *env, jobject obj, jboolean enable)
{
    if (!rtcEngine)
        return;
    ar::util::AutoPtr<ar::media::IMediaEngine> mediaEngine;
    mediaEngine.queryInterface(rtcEngine, ar::AR_IID_MEDIA_ENGINE);
    if (mediaEngine) {
        if (enable) {
            mediaEngine->registerVideoFrameObserver(&s_videoFrameObserver);
        } else {
            mediaEngine->registerVideoFrameObserver(NULL);
        }
    }
}

#ifdef __cplusplus
}
#endif

相关文档

如果你还想在项目中实现原始音频数据功能,请参考原始音频数据