Есть ли способ создания глубоких нейронных сетей с использованием ограничений решетки тензорного потока?

#python #tensorflow #deep-learning

#python #тензорный поток #глубокое обучение

Вопрос:

Я хотел создать многослойный персептрон, используя ограничения монотонности решетки tf на входных данных. Основываясь на бумажных монотонных калиброванных интерполированных справочных таблицах, кажется, что слои решетки должны работать только с одним слоем, чтобы применять ограничения. Тем не менее, я также просматривал сети с глубокими решетками, где использовались ансамблевые решетки. Существует ли общедоступная реализация этого в tf? Все учебные пособия в tf lattice github, похоже, представляют собой одноуровневую оптимизацию ограничений для функций.

Ответ №1:

Не уверен насчет «глубокой» сети решетки, но вы можете использовать ансамбли. Смотрите здесь

Ответ №2:

Он реализован в виде слоев случайных крошечных решеток (rtl_layer). Вы можете складывать их друг на друга, чтобы создать больше слоев. Обратите внимание, что вам нужно пометить каждый слой, кроме нижнего, монотонным по отношению ко всем их входным данным, чтобы убедиться, что монотонность передается вашему окончательному прогнозу.