#python #scikit-learn #random-forest
#python #scikit-learn #случайный лес
Вопрос:
Я обучил простой алгоритм случайного леса и классификатор пакетов (n_estimators = 100). Возможно ли построить историю точности в bagging Classifier? Как вычислить дисперсию в 100 выборках?
Я только что напечатал значение точности для обоих алгоритмов:
# DecisionTree
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.90)
clf2 = tree.DecisionTreeClassifier()
clf2.fit(X_tr, y_tr)
pred2 = clf2.predict(X_test)
acc2 = clf2.score(X_test, y_test)
acc2 # 0.6983930778739185
# Bagging
clf3 = BaggingClassifier(tree.DecisionTreeClassifier(), max_samples=0.5, max_features=0.5, n_estimators=100,
verbose=2)
clf3.fit(X_tr, y_tr)
pred3 = clf3.predict(X_test)
acc3=clf3.score(X_test,y_test)
acc3 # 0.911619283065513
Комментарии:
1. Можете ли вы уточнить, что вы подразумеваете под «историей точности»?
2. Теоретически, загружая множество моделей, каждая модель имеет точность, которая изменяется в зависимости от n_estimators. Я хочу получить такой график. ссылка с использованием load_digits.
Ответ №1:
Я не думаю, что вы можете получить эту информацию из fitted BaggingClassifier
. Но вы можете создать такой график, установив для разных n_estimators
:
import matplotlib.pyplot as plt
from sklearn.tree import DecisionTreeClassifier
from sklearn.ensemble import BaggingClassifier
from sklearn import datasets
from sklearn.model_selection import train_test_split
iris = datasets.load_iris()
X, X_test, y, y_test = train_test_split(iris.data,
iris.target,
test_size=0.20)
estimators = list(range(1, 20))
accuracy = []
for n_estimators in estimators:
clf = BaggingClassifier(DecisionTreeClassifier(max_depth=1),
max_samples=0.2,
n_estimators=n_estimators)
clf.fit(X, y)
acc = clf.score(X_test, y_test)
accuracy.append(acc)
plt.plot(estimators, accuracy)
plt.xlabel("Number of estimators")
plt.ylabel("Accuracy")
plt.show()
(Конечно, набор данных iris легко помещается только с одним DecisionTreeClassifier
, поэтому я установил max_depth=1
в этом примере.)
Для получения статистически значимого результата вы должны подогнать BaggingClassifier
несколько раз для каждого n_estimators
и взять среднее значение полученной точности.
Комментарии:
1. Спасибо, это мне хорошо помогло.