Как настроить модель вопросов и ответов с помощью пользовательского набора данных, в котором нет целевых переменных

#nlp #pytorch #bert-language-model #question-answering

Вопрос:

Для моего проекта вопросов и ответов я использую предварительно обученную модель bert, и для получения результатов требуется много ресурсов процессора. Как настроить предварительно обученную модель bert с помощью пользовательского набора данных, в котором отсутствует целевая переменная. В наборе данных есть только большой абзац с len(текстом) около 50000. Я использую предварительно обученную модель «берт-большой-необработанный-маскировка-всего-слова-отлаженный-отряд«.

Ниже приведено изображение для вашей справки.

введите описание изображения здесь

Существует ли какой-либо код или понятие, которые можно использовать для решения этой проблемы?