Как воспроизвести результаты GPy GPRegression с помощью scikit-learn GaussianProcessRegressor?

#machine-learning #optimization #scikit-learn #gaussian-process #gpyopt

#машинное обучение #оптимизация #scikit-learn #gaussian-process #gpy

Вопрос:

Оба GPRegression ( GPy ) и GaussianProcessRegressor ( scikit-learn ) используют одинаковые начальные значения и один и тот же оптимизатор ( lbfgs ). Почему результаты значительно различаются?

 #!pip -qq install pods
#!pip -qq install GPy
from sklearn.gaussian_process import GaussianProcessRegressor
from sklearn.gaussian_process.kernels import RBF, ConstantKernel as C
from sklearn.preprocessing import StandardScaler
import pods
data = pods.datasets.olympic_marathon_men()
X = StandardScaler().fit_transform(data['X'])
y = data['Y']
# scikit-learn
model = GaussianProcessRegressor(C()*RBF(), n_restarts_optimizer=20, random_state=0)
model.fit(X, y)
print(model.kernel_)

# GPy
from GPy.models import GPRegression
from GPy.kern import RBF as GPyRBF
model = GPRegression(X, y, GPyRBF(1))
model.optimize_restarts(20, verbose=0)
print(model.kern)
  

Результаты

 2.89**2 * RBF(length_scale=0.173)
  rbf.         |               value  |  constraints  |  priors
  variance     |  25.399509298957504  |       ve      |        
  lengthscale  |   4.279767394389103  |       ve      |        
  

Ответ №1:

Использование RBF() ядра GPy эквивалентно использованию scikit-learn ConstantKernel()*RBF() WhiteKernel() . Потому что библиотека GPy добавляет внутренний шум правдоподобия. Используя это, я смог получить сопоставимые результаты в обоих.

Ответ №2:

Вы можете попробовать бесшумную версию GP с Gpy , явно установив значение noise равным 0, вы получите те же результаты настройки гиперпараметров с skelarn помощью и Gpy :

 # scikit-learn
model = GaussianProcessRegressor(C()*RBF(), n_restarts_optimizer=20, random_state=0) # don't add noise
model.fit(X, y)
print(model.kernel_)
# 2.89**2 * RBF(length_scale=0.173)

# Gpy
model = GPRegression(X, y, GPyRBF(1))
model['.*Gaussian_noise'] = 0 # make noise zero
model['.*noise'].fix()
model.optimize_restarts(20, verbose=0)
print(model.kern)
#  rbf.         |               value  |  constraints  |  priors
#  variance     |   8.343280650322102  |       ve      |        
#  lengthscale  |  0.1731764533721659  |       ve      |        
  

Оптимальные значения для дисперсии RBF = 2.89**2 = 8.3521 и гиперпараметров lengthscale имеют примерно одинаковые значения, как видно из выше.

ИЛИ используйте явное ядро с белым шумом с scikit-learn :

 # scikit-learn
from sklearn.gaussian_process.kernels import WhiteKernel as W
model = GaussianProcessRegressor(C()*RBF() W(), n_restarts_optimizer=20, random_state=0) 
model.fit(X, y)
print(model.kernel_)
# 5.04**2 * RBF(length_scale=4.28)   WhiteKernel(noise_level=0.0485)

# GPy
model = GPRegression(X, y, GPyRBF(1))
model.optimize_restarts(20, verbose=0)
print(model.kern)
#  rbf.         |               value  |  constraints  |  priors
#  variance     |    25.3995066661936  |       ve      |        
#  lengthscale  |  4.2797670212128756  |       ve      |  
  

Оптимальные значения для дисперсии RBF = 5.04**2 = 25.4016 и гиперпараметров lengthscale имеют примерно одинаковые значения, как видно из выше.