#python #scikit-learn #gridsearchcv
Вопрос:
Я написал свой собственный пользовательский классификатор, который бинаризует зависимую переменную. Это и есть код
class OwnClassifier(BaseEstimator, ClassifierMixin):
def __init__(self, estimator=None):
self.yt = None
if estimator is None:
estimator = LogisticRegression(solver='liblinear')
self.estimator = estimator
self.discr = KBinsDiscretizer(n_bins=4, encode='ordinal')
def fit(self, X, y):
self.yt = y.copy()
self.yt = self.discr.fit_transform(self.yt.reshape(-1, 1)).astype(int)
self.estimator.fit(X,self.yt.ravel())
return self
def predict(self, X):
return self.estimator.predict(X)
def predict_proba(self, X):
return self.estimator.predict_proba(X)
def score(self, X, y=None):
return accuracy_score(self.yt, self.predict(X))
При использовании GridSearchCV на нем возникает ошибка:
grid = [{'estimator__C': [1, 10, 100, 1000]}]
myLogi = OwnClassifier()
gridCv = GridSearchCV(myLogi, grid)
gridCv.fit(X, y)
Как классификатор может быть совместим с GridSearchCV?
Я использую данные о жилье в Бостоне
boston_data = load_boston()
X = boston_data['data']
y = boston_data['target']
Ошибка:
ValueError: Found input variables with inconsistent numbers of samples: [404, 102]
Комментарии:
1. В чем же ошибка?
2. Ошибка: Ошибка значения: Найдены входные переменные с несогласованным количеством выборок: [404, 102]
Ответ №1:
Проблема заключается в методе оценки, так как вы заставляете его всегда использовать обучающие данные self.yt
для расчета точности, поэтому в обратной связи говорится, что фигуры несовместимы. Это было исправлено в приведенном ниже коде:
from sklearn.linear_model import LogisticRegression
from sklearn.base import BaseEstimator, ClassifierMixin
from sklearn.metrics import accuracy_score
from sklearn.datasets import load_boston
from sklearn.preprocessing import KBinsDiscretizer
from sklearn.model_selection import GridSearchCV
class OwnClassifier(BaseEstimator, ClassifierMixin):
def __init__(self, estimator=None):
if estimator is None:
estimator = LogisticRegression(solver='liblinear')
self.estimator = estimator
self.discr = KBinsDiscretizer(n_bins=4, encode='ordinal')
def fit(self, X, y):
# fit the discretizer
self.discr.fit(y.reshape(-1, 1))
# transform the target
yt = self.discr.transform(y.reshape(-1, 1)).astype(int).ravel()
# fit the model
self.estimator.fit(X, yt)
def predict(self, X):
return self.estimator.predict(X)
def predict_proba(self, X):
return self.estimator.predict_proba(X)
def score(self, X, y):
# transform the target using the fitted discretizer
yt = self.discr.transform(y.reshape(-1, 1)).astype(int).ravel()
# calculate the accuracy using the fitted model
return accuracy_score(yt, self.predict(X))
boston_data = load_boston()
X = boston_data['data']
y = boston_data['target']
grid = [{'estimator__C': [1, 10, 100, 1000]}]
myLogi = OwnClassifier()
gridCv = GridSearchCV(myLogi, grid)
gridCv.fit(X, y)