Можно ли заменить БЕРТА мобильным бертом под капотом LayoutLM?

#nlp #bert-language-model #huggingface-transformers

Вопрос:

LayoutLM строится поверх BERT в качестве базовой линии, но я хочу заменить BERT на MobileBERT, потому что BERT слишком большой. К сожалению, библиотека трансформаторов Huggingface не дает вам возможности изменить базовую модель для LayoutLM. Как мне следует поменять БЕРТА на МобилбЕРТА? Я знаю, что у них очень разные конфигурации.

Я знаю, что это очень широкий вопрос и широкая тема, но я ничего не могу найти об этом в Интернете. Как бы я это сделал и с чего мне начать?

Ответ №1:

LayoutLM можно использовать с моделями минифильмов, но с небольшой потерей точности.

Комментарии:

1. У вас есть какие-нибудь рекомендации для этого?