#nlp #pytorch #bert-language-model #question-answering
Вопрос:
Для моего проекта вопросов и ответов я использую предварительно обученную модель bert, и для получения результатов требуется много ресурсов процессора. Как настроить предварительно обученную модель bert с помощью пользовательского набора данных, в котором отсутствует целевая переменная. В наборе данных есть только большой абзац с len(текстом) около 50000. Я использую предварительно обученную модель «берт-большой-необработанный-маскировка-всего-слова-отлаженный-отряд«.
Ниже приведено изображение для вашей справки.
Существует ли какой-либо код или понятие, которые можно использовать для решения этой проблемы?