libav sws_scale() не удается преобразовать цветовое пространство на реальном устройстве, работает на эмуляторе

#android #ffmpeg #libav #swscale

#Android #ffmpeg #libav #swscale

Вопрос:

Я создаю видеопроигрыватель с libav. У меня работает декодирование видеопакетов, у меня работает воспроизведение в обратном порядке, у меня работает поиск. Все это работает без эмулятора Android x86, но не работает на реальном телефоне Android (arm64-v8a)

Ошибка в sws_scale() — возвращается 0. Видеокадры продолжают декодироваться правильно, без ошибок.

От libav нет ошибок, предупреждений, алертов. Я подключил avlog_callback

 void log_callback(void *ptr, int level, const char *fmt, va_list vargs) {
    if (level<= AV_LOG_WARNING)
        __android_log_print( level, LOG_TAG, fmt, vargs);
}
uint64_t openMovie( char* path, int rotate, float javaDuration )
{
    av_log_set_level(AV_LOG_WARNING);
    av_log_set_callback(log_callback);
  

Код для выполнения sws_scale() таков:

 int JVM_getBitmapBuffer( JNIEnv* env, jobject thiz, jlong av, jobject bufferAsInt, jbyte transparent ) { 
    avblock *block = (avblock *) av;
    if (!block) {
        __android_log_print(ANDROID_LOG_ERROR, LOG_TAG, "  avblock is null");
        return AVERROR(EINVAL);
    }
    if (!block->pCodecCtx) {
        __android_log_print(ANDROID_LOG_ERROR, LOG_TAG, "  codecctx is null");
        return AVERROR(EINVAL);
    }

    int width = block->pCodecCtx->width;
    int height = block->pCodecCtx->height;

    if (NULL == block->sws) {
        __android_log_print( ANDROID_LOG_ERROR, LOG_TAG, "getBitmapBuffer:n  *** invalid sws context ***" );
    }

    int scaleRet = sws_scale( block->sws,
            block->pFrame->data,
            block->pFrame->linesize,
            0,
            height,
            block->pFrameRGB->data,
            block->pFrameRGB->linesize
    );
    if (scaleRet == 0 ) {
        __android_log_print(ANDROID_LOG_ERROR, LOG_TAG, "  scale failed");
        __android_log_print(ANDROID_LOG_ERROR, LOG_TAG, "  pframe linesize    %d", block->pFrame->linesize[0]); 
        __android_log_print(ANDROID_LOG_ERROR, LOG_TAG, "  pframergb linesize %d", block->pFrameRGB->linesize[0]); 
        __android_log_print(ANDROID_LOG_ERROR, LOG_TAG, "  height  %d",
        height);
        return AVERROR(EINVAL);
    }
  

Настройка codex и avframes:

 //i have tried every combination of 1, 8, 16, and 32 for these values
int alignRGB = 32;
int align    = 16; 
int width    = block->pCodecCtx->width;
int height   = block->pCodecCtx->height;
block->pFrame    = av_frame_alloc();
block->pFrameRGB = av_frame_alloc();

block->pFrameRGBBuffer = av_malloc(
    (size_t)av_image_get_buffer_size(AV_PIX_FMT_RGB32, width, height, alignRGB) 
);

av_image_fill_arrays(
    block->pFrameRGB->data,
    block->pFrameRGB->linesize,
    block->pFrameRGBBuffer,
    AV_PIX_FMT_RGB32,
    width,
    height,
    alignRGB
);

block->pFrameBuffer = av_malloc(
        (size_t) av_image_get_buffer_size(block->pCodecCtx->pix_fmt,
                                          width, height, align
        )
);
av_image_fill_arrays(
    block->pFrame->data,
    block->pFrame->linesize,
    block->pFrameBuffer,
    block->pCodecCtx->pix_fmt,
    width, height,
    align
);
block->sws = sws_getContext(
    width, height,
    AV_PIX_FMT_YUV420P,
    width, height,
    AV_PIX_FMT_RGB32,
    SWS_BILINEAR, NULL, NULL, 0
);
  

Подстановочные знаки — это то, что:

  • Я использую React-Native
  • Мой эмулятор — x86 android api 28
  • Моим реальным устройством является arm64-v8a AOSP (около api 28, точно не помню (

Другие примечания:

  • файлы libav .so скомпилированы из проекта mobile-ffmpeg.
  • Я также могу sws_scale также работает на x86_64 Linux, используя SDL для проецирования YV12
  • Тестовое видео здесь:https://github.com/markkimsal/video-thumbnailer/tree/master/fixtures
  • block это простая структура C с указателями на соответствующие структуры AV-памяти.
  • Использование FFMPEG 4.3.2

Я почти уверен, что это как-то связано с выравниванием пикселей. Но документации по этой теме практически не существует. Это также может быть разница между форматами пикселей RGBA и RGB32, или, возможно, с малым порядком и с большим порядком.

Ответ №1:

Это известная ошибка в FFMPEG на архитектуре ARM.

Mythtv опубликовал обходной путь, который включает в себя вычитание 1 из целевой ширины, чтобы обойти неработающий код оптимизации.

https://code.mythtv.org/trac/ticket/12888

https://code.mythtv.org/trac/changeset/7de03a90c1b144fc0067261af1c9cfdd8d358972/mythtv

Сообщается в FFMPEG 3.2.1 http://trac.ffmpeg.org/ticket/6192

Все еще существует в FFMPEG 4.3.2

     int new_width = width;
#if ARCH_ARM
    // The ARM build of FFMPEG has a bug that if sws_scale is
    // called with source and dest sizes the same, and
    // formats as shown below, it causes a bus error and the
    // application core dumps. To avoid this I make a -1
    // difference in the new width, causing it to bypass
    // the code optimization which is failing.
    if (pix_fmt == AV_PIX_FMT_YUV420P
      amp;amp; dst_pix_fmt == AV_PIX_FMT_BGRA)
        new_width = width - 1;
#endif
    d->swsctx = sws_getCachedContext(d->swsctx, width, height, pix_fmt,
                                     new_width, height, dst_pix_fmt,
                                     SWS_FAST_BILINEAR, NULL, NULL, NULL);
  

Обновить:

Сборка mobile-ffmpeg 4.3.2 с --debug опцией создает рабочий двоичный файл.

ОБНОВЛЕНИЕ 2:

Флаг —debug, похоже, больше не работает. Должно быть, были какие-то нечистые сборки. Похоже, это связано с альфа-каналом.

Единственный не альфа-формат RGB, поддерживаемый обоими Android.Bitmap.Config и ffmpeg имеют значение RGB_565. Использование 565 работает с четными значениями ширины назначения.

в libswscale/yuv2rgb.c :

 SwsFunc ff_yuv2rgb_get_ptr(SwsContext *c) {
   ...
   switch(c->dstFormat) {
   case AV_PIX_FMT_RGBA:
       return (CONFIG_SWSCALE_ALPHA amp; isALPHA(c->srcFormat)) ? yuva2rgb_c: yuv2rgb_c_32;
   ....
   case AV_PIX_FMT_RGB565:
       return yuv2rgb_c_16_ordered_dither;
   ...
  

Мой исходный код — YUV420P и не поддерживает альфа-каналы (например, yuv A 420p). Когда моим целевым форматом является RGB565, у этого метода, похоже, нет никаких проблем.

Жаль, что я не могу создать какой-либо альфа-канал для Android. Я думаю, реальный ответ заключается в том, чтобы просто использовать OpenGL и использовать surface, который напрямую поддерживает blitting YUV.

ОБНОВЛЕНИЕ 3

Я нашел пути к коду в libswscale/swscale_unscaled.c и libswscale/yuv2rgb.c

Если вы масштабируете выходные данные, вы можете преобразовать их в формат RGBA dest.

Если вы добавите флаг SWS_ACCURATE_RND в свой SwsContext, вы также избежите неправильного пути к коду.