#machine-learning #optimization #scikit-learn #gaussian-process #gpyopt
#машинное обучение #оптимизация #scikit-learn #gaussian-process #gpy
Вопрос:
Оба GPRegression
( GPy
) и GaussianProcessRegressor
( scikit-learn
) используют одинаковые начальные значения и один и тот же оптимизатор ( lbfgs
). Почему результаты значительно различаются?
#!pip -qq install pods
#!pip -qq install GPy
from sklearn.gaussian_process import GaussianProcessRegressor
from sklearn.gaussian_process.kernels import RBF, ConstantKernel as C
from sklearn.preprocessing import StandardScaler
import pods
data = pods.datasets.olympic_marathon_men()
X = StandardScaler().fit_transform(data['X'])
y = data['Y']
# scikit-learn
model = GaussianProcessRegressor(C()*RBF(), n_restarts_optimizer=20, random_state=0)
model.fit(X, y)
print(model.kernel_)
# GPy
from GPy.models import GPRegression
from GPy.kern import RBF as GPyRBF
model = GPRegression(X, y, GPyRBF(1))
model.optimize_restarts(20, verbose=0)
print(model.kern)
Результаты
2.89**2 * RBF(length_scale=0.173)
rbf. | value | constraints | priors
variance | 25.399509298957504 | ve |
lengthscale | 4.279767394389103 | ve |
Ответ №1:
Использование RBF()
ядра GPy эквивалентно использованию scikit-learn ConstantKernel()*RBF() WhiteKernel()
. Потому что библиотека GPy добавляет внутренний шум правдоподобия. Используя это, я смог получить сопоставимые результаты в обоих.
Ответ №2:
Вы можете попробовать бесшумную версию GP с Gpy
, явно установив значение noise равным 0, вы получите те же результаты настройки гиперпараметров с skelarn
помощью и Gpy
:
# scikit-learn
model = GaussianProcessRegressor(C()*RBF(), n_restarts_optimizer=20, random_state=0) # don't add noise
model.fit(X, y)
print(model.kernel_)
# 2.89**2 * RBF(length_scale=0.173)
# Gpy
model = GPRegression(X, y, GPyRBF(1))
model['.*Gaussian_noise'] = 0 # make noise zero
model['.*noise'].fix()
model.optimize_restarts(20, verbose=0)
print(model.kern)
# rbf. | value | constraints | priors
# variance | 8.343280650322102 | ve |
# lengthscale | 0.1731764533721659 | ve |
Оптимальные значения для дисперсии RBF = 2.89**2 = 8.3521
и гиперпараметров lengthscale имеют примерно одинаковые значения, как видно из выше.
ИЛИ используйте явное ядро с белым шумом с scikit-learn
:
# scikit-learn
from sklearn.gaussian_process.kernels import WhiteKernel as W
model = GaussianProcessRegressor(C()*RBF() W(), n_restarts_optimizer=20, random_state=0)
model.fit(X, y)
print(model.kernel_)
# 5.04**2 * RBF(length_scale=4.28) WhiteKernel(noise_level=0.0485)
# GPy
model = GPRegression(X, y, GPyRBF(1))
model.optimize_restarts(20, verbose=0)
print(model.kern)
# rbf. | value | constraints | priors
# variance | 25.3995066661936 | ve |
# lengthscale | 4.2797670212128756 | ve |
Оптимальные значения для дисперсии RBF = 5.04**2 = 25.4016
и гиперпараметров lengthscale имеют примерно одинаковые значения, как видно из выше.