Проблема с GridSearchCV при использовании пользовательского классификатора

#python #scikit-learn #gridsearchcv

Вопрос:

Я написал свой собственный пользовательский классификатор, который бинаризует зависимую переменную. Это и есть код

 class OwnClassifier(BaseEstimator, ClassifierMixin):
    def __init__(self, estimator=None):
        self.yt = None
        
        if estimator is None:
            estimator = LogisticRegression(solver='liblinear')
        self.estimator = estimator
                    
        self.discr = KBinsDiscretizer(n_bins=4, encode='ordinal')
        
    def fit(self, X, y):
        self.yt = y.copy()
        self.yt = self.discr.fit_transform(self.yt.reshape(-1, 1)).astype(int)
        
        self.estimator.fit(X,self.yt.ravel())
        
        return self
    
    def predict(self, X):
        return self.estimator.predict(X)
    
    def predict_proba(self, X):
        return self.estimator.predict_proba(X)
    
    def score(self, X, y=None):
        return accuracy_score(self.yt, self.predict(X))

 

При использовании GridSearchCV на нем возникает ошибка:

 grid = [{'estimator__C': [1, 10, 100, 1000]}]
myLogi = OwnClassifier()
gridCv = GridSearchCV(myLogi, grid)
gridCv.fit(X, y)
 

Как классификатор может быть совместим с GridSearchCV?

Я использую данные о жилье в Бостоне

 boston_data = load_boston()
X = boston_data['data']
y = boston_data['target']
 

Ошибка:

 ValueError: Found input variables with inconsistent numbers of samples: [404, 102]
 

Комментарии:

1. В чем же ошибка?

2. Ошибка: Ошибка значения: Найдены входные переменные с несогласованным количеством выборок: [404, 102]

Ответ №1:

Проблема заключается в методе оценки, так как вы заставляете его всегда использовать обучающие данные self.yt для расчета точности, поэтому в обратной связи говорится, что фигуры несовместимы. Это было исправлено в приведенном ниже коде:

 from sklearn.linear_model import LogisticRegression
from sklearn.base import BaseEstimator, ClassifierMixin
from sklearn.metrics import accuracy_score
from sklearn.datasets import load_boston
from sklearn.preprocessing import KBinsDiscretizer
from sklearn.model_selection import GridSearchCV

class OwnClassifier(BaseEstimator, ClassifierMixin):

    def __init__(self, estimator=None):

        if estimator is None:
            estimator = LogisticRegression(solver='liblinear')

        self.estimator = estimator
        self.discr = KBinsDiscretizer(n_bins=4, encode='ordinal')

    def fit(self, X, y):

        # fit the discretizer
        self.discr.fit(y.reshape(-1, 1))

        # transform the target
        yt = self.discr.transform(y.reshape(-1, 1)).astype(int).ravel()

        # fit the model
        self.estimator.fit(X, yt)

    def predict(self, X):
        return self.estimator.predict(X)

    def predict_proba(self, X):
        return self.estimator.predict_proba(X)

    def score(self, X, y):

        # transform the target using the fitted discretizer
        yt = self.discr.transform(y.reshape(-1, 1)).astype(int).ravel()

        # calculate the accuracy using the fitted model
        return accuracy_score(yt, self.predict(X))

boston_data = load_boston()
X = boston_data['data']
y = boston_data['target']

grid = [{'estimator__C': [1, 10, 100, 1000]}]
myLogi = OwnClassifier()
gridCv = GridSearchCV(myLogi, grid)
gridCv.fit(X, y)