#python #machine-learning #xgboost
Вопрос:
Я провел анализ, предсказывающий первое место назначения пользователей Airbnb с помощью xgboost. https://www.kaggle.com/cathy64/beginner-plotly
Я просто использовал xgb.предсказать просто. Независимо от того, как я корректирую гиперпараметр, итоговая оценка не сильно меняется. Однако, когда я смотрю на работы других кагглеров с гораздо лучшей оценкой, они используют xgb.predict_proba(). Ниже показана их работа:
y_pred = xgb.predict_proba(X_test)
#Прохождение 5 классов с наибольшей вероятностью
ids = [] #list of ids
cts = [] #list of countries
for i in range(len(id_test)):
idx = id_test[i]
ids = [idx] * 5
cts = le.inverse_transform(np.argsort(y_pred[i])[::-1])[:5].tolist()
Поскольку отправка позволяет выполнять только одно назначение, мне просто интересно, почему xgb.predict_proba() работает лучше?
И каков принцип и применение xgb.predict_proba()?
Вот так много!!!😭