Потери при проверке выше, чем потери при обучении в первую эпоху

#deep-learning #fast-ai

#глубокое обучение #быстрый ии

Вопрос:

Из того, что я узнал, когда потеря проверки> потеря обучения происходит переобучение. Однако я получаю это из первой эпохи.

См. Ниже:

введите описание изображения здесь

Я использую табличный обучаемый (из FastAI v2), который имеет около 72 входных данных.

У меня 360 тысяч неравномерно распределенных случаев, большинство из которых — cat1, затем cat2 и т. Д… Мы получили около 20 Тыс. cat6. Я увеличиваю выборку всех обучающих данных, чтобы все категории были представлены одинаково. Набор проверки составляет 2% от набора обучения. Я попытался уменьшить количество слоев. Это приближает потери при обучении к потере при проверке, но потери при проверке всегда выше, чем потери при обучении, начиная с первой эпохи.

Чем это может быть объяснено?

Используемый код:

 coord_labels, semantic_labels = [], []
for i in range(18):
    coord_labels  = [f'x{i 1}', f'y{i 1}', f'conf{i 1}']
    semantic_labels  = [f'sem{i 1}']
    
dls = TabularDataLoaders.from_csv(
    '/content/total_training.csv', 
    y_names='corrected_person_position_type_id',
    cont_names = coord_labels,
    cat_names = semantic_labels,
    procs = [Categorify, Normalize],
    valid_idx = valid_idx,
    bs=2048
)
learn = tabular_learner(dls, metrics=accuracy)
learn.fit_one_cycle(10)
  

Комментарии:

1. Можете ли вы добавить точность проверки в таблицу и некоторый код в качестве ссылки?

2. @ZabirAlNazi добавил код. У меня сложилось впечатление, что точность, отображаемая в fastai tabular-learner, является точностью проверки. Если это не так, есть идеи о том, как это добавить?