huggingface transformers run_clm.py останавливается рано

#huggingface-transformers #gpt-2

#huggingface-трансформеры #gpt-2

Вопрос:

Я бегу run_clm.py для точной настройки gpt-2 сформируйте библиотеку huggingface, следуя примеру language_modeling:

 !python run_clm.py 
    --model_name_or_path gpt2 
    --train_file train.txt 
    --validation_file test.txt 
    --do_train 
    --do_eval 
    --output_dir /tmp/test-clm
  

Это результат, процесс, казалось, был запущен, но появился символ ^ C, чтобы остановить процесс:

 The following columns in the training set don't have a corresponding argument in `GPT2LMHeadModel.forward` and have been ignored: .
The following columns in the evaluation set don't have a corresponding argument in `GPT2LMHeadModel.forward` and have been ignored: .
***** Running training *****
  Num examples = 2318
  Num Epochs = 3
  Instantaneous batch size per device = 8
  Total train batch size (w. parallel, distributed amp; accumulation) = 8
  Gradient Accumulation steps = 1
  Total optimization steps = 870
  0% 0/870 [00:00<?, ?it/s]^C
  

Вот моя информация об окружающей среде:

  • версия transformers: 3.4.0
  • Платформа: Linux-4.19.112 -x86_64-с-Ubuntu-18.04-bionic
  • Версия Python: 3.6.9
  • Версия Tensorflow: 1.14
  • Использование графического процессора в скрипте?: да

Каковы возможные причины ранней остановки?