Android平台外部编码数据(H264/H265/AAC/PCMA/PCMU)实时预览播放技术实现

简介: 好多开发者可能疑惑,外部数据实时预览播放,到底有什么用?是的,一般场景是用不到的,我们在开发这块前几年已经开发了非常稳定的RTMP、RTSP直播播放模块,不过也遇到这样的场景,部分设备输出编码后(视频:H.264/H.265,音频:AAC/PCMA/PCMU)的数据,比如无人机或部分智能硬件设备,回调出来的H.264/H.265数据,除了想转推到RTMP、轻量级RTSP服务或GB28181外,还需要本地预览甚至对数据做二次处理(视频分析、实时水印字符叠加等,然后二次编码),基于这样的场景诉求,我们开发了Android平台外部编码数据实时预览播放模块。

开发背景

好多开发者可能疑惑,外部数据实时预览播放,到底有什么用?


是的,一般场景是用不到的,我们在开发这块前几年已经开发了非常稳定的RTMP、RTSP直播播放模块,不过也遇到这样的场景,部分设备输出编码后(视频:H.264/H.265,音频:AAC/PCMA/PCMU)的数据,比如无人机或部分智能硬件设备,回调出来的H.264/H.265数据,除了想转推到RTMP、轻量级RTSP服务或GB28181外,还需要本地预览甚至对数据做二次处理(视频分析、实时水印字符叠加等,然后二次编码),基于这样的场景诉求,我们开发了Android平台外部编码数据实时预览播放模块。

cfd2a373be904ed7a50ca38ab03a331f.png

接口设计

外部(H.264/H.265)投递接口设计如下:

  // SmartPlayerJniV2.java
    // Author: daniusdk.com
    /**
   * 投递视频包给外部Live Source
   *
   * @param codec_id: 编码id, 当前仅支持H264和H265, 1:H264, 2:H265
   *
   * @param packet: 视频数据, ByteBuffer必须是DirectBuffer, 包格式请参考H264/H265 Annex B Byte stream format, 例如:
   *                0x00000001 nal_unit 0x00000001 ...
   *                H264 IDR: 0x00000001 sps 0x00000001 pps 0x00000001 IDR_nal_unit .... 或 0x00000001 IDR_nal_unit ....
   *                H265 IDR: 0x00000001 vps 0x00000001 sps 0x00000001 pps 0x00000001 IDR_nal_unit .... 或 0x00000001 IDR_nal_unit ....
   *
   * @param offset: 偏移量
   * @param size: packet size
   * @param timestamp_ms: 时间戳, 单位毫秒
   * @param is_timestamp_discontinuity: 是否时间戳间断,0:未间断,1:间断
   * @param is_key: 是否是关键帧, 0:非关键帧, 1:关键帧
   * @param extra_data: 可选参数,可传null, 对于H264关键帧包, 如果packet不含sps和pps, 可传0x00000001 sps 0x00000001 pps
   *                    ,对于H265关键帧包, 如果packet不含vps,sps和pps, 可传0x00000001 vps 0x00000001 sps 0x00000001 pps
   * @param extra_data_size: extra_data size
   * @param width: 图像宽, 可传0
   * @param height: 图像高, 可传0
   *
   * @return {0} if successful
   */
  public native int PostVideoPacketByteBuffer(long handle, int codec_id,
                    java.nio.ByteBuffer packet, int offset, int size, long timestamp_ms, int is_timestamp_discontinuity, int is_key,
                    byte[] extra_data, int extra_data_size, int width, int height);
  /*
  * 请参考 PostVideoPacketByteBuffer说明
   */
  public native int PostVideoPacketByteArray(long handle, int codec_id,
                        byte[] packet, int offset, int size, long timestamp_ms, int is_timestamp_discontinuity, int is_key,
                        byte[] extra_data, int extra_data_size, int width, int height);

PostVideoPacketByteBuffer()和PostVideoPacketByteArray()接口设计基本类似,唯一的区别在于,一个数据类型是ByteBuffer,一个是byte数组。


其中codec_id,系编码id,目前仅支持H.264和H.265类型。


packet视频数据,需要注意的是,ByteBuffer必须是DirectBuffer, 包格式请参考H264/H265 Annex B Byte stream format, 例如:

0x00000001 nal_unit 0x00000001 ...
H264 IDR: 0x00000001 sps 0x00000001 pps 0x00000001 IDR_nal_unit .... 或 0x00000001 IDR_nal_unit ....
H265 IDR: 0x00000001 vps 0x00000001 sps 0x00000001 pps 0x00000001 IDR_nal_unit .... 或 0x00000001 IDR_nal_unit ....

extra_data: 可选参数,可传null, 对于H264关键帧包,如果packet不含sps和pps,可传0x00000001 sps 0x00000001 pps,对于H265关键帧包,如果packet不含vps,sps和pps, 可传0x00000001 vps 0x00000001 sps 0x00000001 pps


音频(AAC/PCMA/PCMU)投递接口设计如下:

  // SmartPlayerJniV2.java
    // Author: daniusdk.com
    /**
   * 投递音频包给外部Live source, 注意ByteBuffer对象必须是DirectBuffer
   *
   * @param handle: return value from SmartPlayerOpen()
   *
   * @param codec_id: 编码id, 当前支持PCMA、PCMU和AAC, 65536:PCMA, 65537:PCMU, 65538:AAC
   * @param packet: 音频数据
   * @param offset:packet偏移量
   * @param size: packet size
   * @param pts_ms: 时间戳, 单位毫秒
   * @param is_pts_discontinuity: 是否时间戳间断,false:未间断,true:间断
   * @param extra_data: 如果是AAC的话,需要传 Audio Specific Configuration
   * @param extra_data_offset: extra_data 偏移量
   * @param extra_data_size: extra_data size
   * @param sample_rate: 采样率
   * @param channels: 通道数
   *
   * @return {0} if successful
   */
  public native int PostAudioPacket(long handle, int codec_id,
                    java.nio.ByteBuffer packet, int offset, int size, long pts_ms, boolean is_pts_discontinuity,
                    java.nio.ByteBuffer extra_data, int extra_data_offset, int extra_data_size, int sample_rate, int channels);
  /*
  * 投递音频包给外部Live source, byte数组版本, 具体请参考PostAudioPacket
  *
  * @param is_pts_discontinuity: 是否时间戳间断,0:未间断,1:间断
  * @return {0} if successful
  */
  public native int PostAudioPacketByteArray(long handle, int codec_id,
                         byte[] packet, int offset, int size, long pts_ms, int is_pts_discontinuity,
                         byte[] extra_data, int extra_data_size, int sample_rate, int channels);

调用逻辑

下面我们看看逻辑调用,本文基于大牛直播SDK的RTSP|RTMP转RTMP推送demo做展示,先拉取到RTSP或RTMP的流数据,然后把拉取到的H.264/H.265视频数据和AAC音频数据,然后回调上来,调用我们外部音视频live source对接接口,投递到底层,实现实时音视频数据的播放,如果外部数据,可以忽略拉流这块,直接在数据回调的地方,调live source数据投递接口即可。

59bf2981184b401c963dc267ec44d91d.jpg

video数据投递:

    public void onVideoDataCallback(int ret, int video_codec_id, int sample_size, int is_key_frame, long timestamp, int width, int height, long presentation_timestamp)
    {
      if ( video_buffer_ == null)
        return;
      video_buffer_.rewind();
      if (0 == ret) {
        if (ex_live_src_player_handle_ != 0) {
          if (ex_live_src_player_read_lock_.tryLock()) {
            try {
              if (ex_live_src_player_handle_ != 0) {
                libPlayer.PostVideoPacketByteBuffer(ex_live_src_player_handle_, video_codec_id, video_buffer_, 0, sample_size, timestamp, 0, is_key_frame, null,0, 0, 0);
              }
            }finally {
              ex_live_src_player_read_lock_.unlock();
            }
          }
        }
      }
    }


audio数据投递:

    public void onAudioDataCallback(int ret, int audio_codec_id, int sample_size, int is_key_frame, long timestamp, int sample_rate, int channel, int parameter_info_size, long reserve)
    {
      if ( audio_buffer_ == null)
        return;
      audio_buffer_.rewind();
      if (0 == ret && !ex_live_src_player_mute_) {
        if (ex_live_src_player_handle_ != 0) {
          if (ex_live_src_player_read_lock_.tryLock()) {
            try {
              if (ex_live_src_player_handle_ != 0) {
                libPlayer.PostAudioPacket(ex_live_src_player_handle_, audio_codec_id, audio_buffer_, 0, sample_size,
                    timestamp, false,parameter_info_,0, parameter_info_size, sample_rate, channel);
              }
            }finally {
              ex_live_src_player_read_lock_.unlock();
            }
          }
        }
      }
    }


启动外部数据播放:


可以看到,外部数据可以用软解码或硬解码播放,如果分辨率很大可以考虑特定机型硬解码,外部数据播放,依然可以设置铺满或按比例显示。如果需要针对数据做二次处理,也可以把设置RGB或YUV数据回调,对回调后的数据做二次处理,甚至二次编码(如做视频分析、实时水印等)。

  private long start_ex_live_src_player(SmartPlayerJniV2 lib_player, Context context, SurfaceView surface_view, boolean is_mute, boolean is_hardware_decoder) {
    if (null ==lib_player || null == context || null == surface_view)
      return 0;
    long handle = lib_player.SmartPlayerOpen(context);
    if (0 == handle) {
      Log.e(TAG, "start_ex_live_src_player open player failed");
      return 0;
    }
    // 设置0, 尽可能降低预览延时
    lib_player.SmartPlayerSetBuffer(handle, 0);
    lib_player.SmartPlayerSetUrl(handle, "ntexternal://livesource/implemention0");
    lib_player.SmartPlayerSetSurface(handle, surface_view);
    // 图像等比例缩放或铺满view
    lib_player.SmartPlayerSetRenderScaleMode(handle, 1);
    lib_player.SmartPlayerSetFastStartup(handle, 1);
    lib_player.SmartPlayerSetAudioOutputType(handle, 1);
    // 不要播放音频,静音就好
    lib_player.SmartPlayerSetMute(handle, is_mute?1:0);
    // 大分辨率可能需要硬解,小分辨率推荐软解,硬解延时可能大些
    if (is_hardware_decoder) {
      lib_player.SetSmartPlayerVideoHevcHWDecoder(handle, 1);
      lib_player.SetSmartPlayerVideoHWDecoder(handle, 1);
    }
    // 有些场景可能需要解码出来的图像用来做分析或重新编码
    // 这里可以设置yuv或rgb callback, 把图像给Caller
    // lib_player.SmartPlayerSetExternalRender(handle, new RGBAExternalRender());
    // lib_player.SmartPlayerSetExternalRender(handle, new I420ExternalRender());
    if (0 == lib_player.SmartPlayerStartPlay(handle))
      return handle;
    lib_player.SmartPlayerClose(handle);
    return 0;
  }

停止外部数据播放:

  private void stop_ex_live_src_play(SmartPlayerJniV2 lib_player, long handle) {
    if (null == lib_player)
      return;
    if (0 == handle)
      return;
    lib_player.SmartPlayerStopPlay(handle);
    lib_player.SmartPlayerClose(handle);
  }


总结

Android平台外部编码后H.264/H.265/AAC/PCMA/PCMU数据实时预览播放,在一些传统行业里面,可以说是意义非常大,除了可以预览回调过来的数据外,还可以针对外部数据做二次视频分析、二次编辑投递(实时水印、字符叠加等),感兴趣的开发者可以试试看。

相关文章
|
4月前
|
开发工具 Android开发 开发者
Android平台如何不推RTMP|不发布RTSP流|不实时录像|不回传GB28181数据时实时快照?
本文介绍了一种在Android平台上实现实时截图快照的方法,尤其适用于无需依赖系统接口的情况,如在RTMP推送、RTSP服务或GB28181设备接入等场景下进行截图。通过底层模块(libSmartPublisher.so)实现了截图功能,封装了`SnapShotImpl.java`类来管理截图流程。此外,提供了关键代码片段展示初始化SDK实例、执行截图、以及在Activity销毁时释放资源的过程。此方案还考虑到了快照数据的灵活处理需求,符合GB/T28181-2022的技术规范。对于寻求更灵活快照机制的开发者来说,这是一个值得参考的设计思路。
|
2月前
|
存储 大数据 数据库
Android经典面试题之Intent传递数据大小为什么限制是1M?
在 Android 中,使用 Intent 传递数据时存在约 1MB 的大小限制,这是由于 Binder 机制的事务缓冲区限制、Intent 的设计初衷以及内存消耗和性能问题所致。推荐使用文件存储、SharedPreferences、数据库存储或 ContentProvider 等方式传递大数据。
78 0
|
3月前
|
XML IDE 开发工具
🔧Android Studio高级技巧大公开!效率翻倍,编码不再枯燥无味!🛠️
【9月更文挑战第11天】在软件开发领域,Android Studio凭借其强大的功能成为Android开发者的首选IDE。本文将揭示一些提升开发效率的高级技巧,包括自定义代码模板、重构工具、高级调试技巧及多模块架构。通过对比传统方法,这些技巧不仅能简化编码流程,还能显著提高生产力。例如,自定义模板可一键插入常用代码块;重构工具能智能分析并安全执行代码更改;高级调试技巧如条件断点有助于快速定位问题;多模块架构则提升了大型项目的可维护性和团队协作效率。掌握这些技巧,将使你的开发之旅更加高效与愉悦。
68 5
|
4月前
|
Java Android开发 芯片
使用Android Studio导入Android源码:基于全志H713 AOSP,方便解决编译、编码问题
本文介绍了如何将基于全志H713芯片的AOSP Android源码导入Android Studio以解决编译和编码问题,通过操作步骤的详细说明,展示了在Android Studio中利用代码提示和补全功能快速定位并修复编译错误的方法。
148 0
使用Android Studio导入Android源码:基于全志H713 AOSP,方便解决编译、编码问题
|
4月前
|
Android开发
Android 利用MediaPlayer实现音乐播放
本文提供了一个简单的Android MediaPlayer音乐播放示例,包括创建PlayerActivity、配置AndroidManifest.xml和activity_player.xml布局,以及实现播放和暂停功能的代码。
28 0
Android 利用MediaPlayer实现音乐播放
|
4月前
|
JSON Java Android开发
Android 开发者必备秘籍:轻松攻克 JSON 格式数据解析难题,让你的应用更出色!
【8月更文挑战第18天】在Android开发中,解析JSON数据至关重要。JSON以其简洁和易读成为首选的数据交换格式。开发者可通过多种途径解析JSON,如使用内置的`JSONObject`和`JSONArray`类直接操作数据,或借助Google提供的Gson库将JSON自动映射为Java对象。无论哪种方法,正确解析JSON都是实现高效应用的关键,能帮助开发者处理网络请求返回的数据,并将其展示给用户,从而提升应用的功能性和用户体验。
103 1
|
4月前
|
编解码 网络协议 vr&ar
Android平台下VR头显如何低延迟播放4K以上超高分辨率RTSP|RTMP流
这段内容讲述了VR头显中实现高分辨率视频播放的技术背景与实现方法,并强调了其重要性。高分辨率对于提升VR体验至关重要,它能提供更清晰的画面、增强沉浸感、补偿透镜放大效应,并维持宽广视场角下的图像质量。文中提到的大牛直播SDK具备极低的延迟(200-400ms),支持多种协议与格式,并具有丰富的功能特性,如多实例播放、事件回调、视频及音频格式支持等。此外,提供了基于Unity的播放器示例代码,展示了如何配置播放参数并开始播放。最后,作者指出此类技术在远程控制、虚拟仿真等应用场景中的重要意义。
|
4月前
|
存储 缓存 Java
Android项目架构设计问题之优化业务接口数据的加载效率如何解决
Android项目架构设计问题之优化业务接口数据的加载效率如何解决
47 0