Как тренировать BertForMaskedLM с помощью тренажера Huggingface?

#nlp #huggingface-transformers #bert-language-model

Вопрос:

Я хочу продолжить предварительную подготовку модели БЕРТА на своем собственном наборе данных. Насколько я понял, это называется адаптацией к домену. Таким образом, это будет неконтролируемый подход. Я буду использовать BertForMaskedLM или BertForPreTraining . Как я могу добиться этого с помощью transformers.Trainer ? Что должен Dataset возвращать мой класс в __getitem__ методе? Я не смог найти ни одного конкретного ресурса по этому поводу. Спасибо.