#apache-spark #apache-spark-sql
Вопрос:
Я несколько раз просматривал документацию Apache Spark, но не мог найти, как указать, какой метод регуляризации использовать (т. Е. L1, L2, L1 L2, нет). Документация Spark гласит,
The learning objective is to minimize the specified loss function, with regularization. This supports two kinds of loss:
squaredError (a.k.a squared loss)
huber (a hybrid of squared error for relatively small errors and absolute error for relatively large ones, and we estimate the scale parameter from training data)
This supports multiple types of regularization:
none (a.k.a. ordinary least squares)
L2 (ridge regression)
L1 (Lasso)
L2 L1 (elastic net)
New in version 1.4.0.
Однако в документации нет параметра, позволяющего это указать. Итак, как мы это организуем?.
Спасибо, Даршан