#deep-learning #fast-ai
#глубокое обучение #быстрый ии
Вопрос:
Из того, что я узнал, когда потеря проверки> потеря обучения происходит переобучение. Однако я получаю это из первой эпохи.
См. Ниже:
Я использую табличный обучаемый (из FastAI v2), который имеет около 72 входных данных.
У меня 360 тысяч неравномерно распределенных случаев, большинство из которых — cat1, затем cat2 и т. Д… Мы получили около 20 Тыс. cat6. Я увеличиваю выборку всех обучающих данных, чтобы все категории были представлены одинаково. Набор проверки составляет 2% от набора обучения. Я попытался уменьшить количество слоев. Это приближает потери при обучении к потере при проверке, но потери при проверке всегда выше, чем потери при обучении, начиная с первой эпохи.
Чем это может быть объяснено?
Используемый код:
coord_labels, semantic_labels = [], []
for i in range(18):
coord_labels = [f'x{i 1}', f'y{i 1}', f'conf{i 1}']
semantic_labels = [f'sem{i 1}']
dls = TabularDataLoaders.from_csv(
'/content/total_training.csv',
y_names='corrected_person_position_type_id',
cont_names = coord_labels,
cat_names = semantic_labels,
procs = [Categorify, Normalize],
valid_idx = valid_idx,
bs=2048
)
learn = tabular_learner(dls, metrics=accuracy)
learn.fit_one_cycle(10)
Комментарии:
1. Можете ли вы добавить точность проверки в таблицу и некоторый код в качестве ссылки?
2. @ZabirAlNazi добавил код. У меня сложилось впечатление, что точность, отображаемая в fastai tabular-learner, является точностью проверки. Если это не так, есть идеи о том, как это добавить?