#huggingface-transformers #gpt-2
#huggingface-трансформеры #gpt-2
Вопрос:
Я бегу run_clm.py для точной настройки gpt-2 сформируйте библиотеку huggingface, следуя примеру language_modeling:
!python run_clm.py
--model_name_or_path gpt2
--train_file train.txt
--validation_file test.txt
--do_train
--do_eval
--output_dir /tmp/test-clm
Это результат, процесс, казалось, был запущен, но появился символ ^ C, чтобы остановить процесс:
The following columns in the training set don't have a corresponding argument in `GPT2LMHeadModel.forward` and have been ignored: .
The following columns in the evaluation set don't have a corresponding argument in `GPT2LMHeadModel.forward` and have been ignored: .
***** Running training *****
Num examples = 2318
Num Epochs = 3
Instantaneous batch size per device = 8
Total train batch size (w. parallel, distributed amp; accumulation) = 8
Gradient Accumulation steps = 1
Total optimization steps = 870
0% 0/870 [00:00<?, ?it/s]^C
Вот моя информация об окружающей среде:
- версия transformers: 3.4.0
- Платформа: Linux-4.19.112 -x86_64-с-Ubuntu-18.04-bionic
- Версия Python: 3.6.9
- Версия Tensorflow: 1.14
- Использование графического процессора в скрипте?: да
Каковы возможные причины ранней остановки?