#python #nlp
#питон #нлп
Вопрос:
Мне нужен совет по некоторым основам НЛП. Я создал модель на Python, в которой я предсказываю политическую идеологию автора на основе твита (3000 отдельных твитов на автора, общий набор данных составляет около 300 тыс.) — модель представляет собой логистическую регрессию с использованием Scikit-learn. Как длина документа влияет на точность обученной модели? Т. Е. она была обучена с использованием стандартной длины твита — что произойдет, если я введу что-то намного меньшее или намного большее? Выдерживает ли модель независимо от размера документа — или она преуспевает только при использовании аналогичной длины? Просто пытаюсь осмыслить концепцию в целом, на самом деле не связанную с одной моделью. Спасибо!