Как я могу измерить точность и вспомнить логистическую регрессию с помощью PySpark?

#pyspark #databricks #confusion-matrix #azure-databricks

#pyspark #databricks #путаница-матрица #azure-databricks

Вопрос:

Я использую модель логистической регрессии в PySpark через databricks, но я не могу получить свою точность и отзыв. Все работает нормально, и я могу получить свой ROC, но нет атрибута или библиотеки для точности и отзыва

 lrModel = LogisticRegression()

predictions = bestModel.transform(testData)

# Instantiate metrics object
results = predictions.select(['probability', 'label'])
results_collect = results.collect()
results_list = [(float(i[0][0]), 1.0-float(i[1])) for i in results_collect]
scoreAndLabels = sc.parallelize(results_list)

metrics = MulticlassMetrics(scoreAndLabels)

# Overall statistics
precision = metrics.precision()
recall = metrics.recall()
f1Score = metrics.fMeasure()
print("Summary Stats")
print("Precision = %s" % precision)
print("Recall = %s" % recall)
print("F1 Score = %s" % f1Score)

>>>Summary Stats
>>>Precision = 0.0
>>>Recall = 0.0
>>>F1 Score = 0.0
 

Ответ №1:

Я смог создать свою собственную функцию для этого. Он возвращает все и даже больше. Я использую «MulticlassMetrics ()» из пакета mllib. Поскольку это мультикласс, он вычисляет метрики для каждой метки, поэтому вам нужно указать, какую метку вы хотите получить.

 ### Model Evaluator User Defined Functions
def udfModelEvaluator(dfPredictions, labelColumn='label'):

    colSelect = dfPredictions.select(
      [F.col('prediction').cast(DoubleType())
       ,F.col(labelColumn).cast(DoubleType()).alias('label')])

    metrics = MulticlassMetrics(colSelect.rdd)

    mAccuracy = metrics.accuracy
    mPrecision = metrics.precision(1)
    mRecall = metrics.recall(1)
    mF1 = metrics.fMeasure(1.0, 1.0)

    mMatrix = metrics.confusionMatrix().toArray().astype(int)    

    mTP = metrics.confusionMatrix().toArray()[1][1]
    mTN = metrics.confusionMatrix().toArray()[0][0]
    mFP = metrics.confusionMatrix().toArray()[0][1]
    mFN = metrics.confusionMatrix().toArray()[1][0]

    mResults = [mAccuracy, mPrecision, mRecall, mF1, mMatrix, mTP, mTN, mFP, mFN, "Return [[0]=Accuracy, [1]=Precision, [2]=Recall, [3]=F1, [4]=ConfusionMatrix, [5]=TP, [6]=TN, [7]=FP, [8]=FN]"]

    return mResults
 

Для вызова функции:

 metricsList = udfModelEvaluator(predictionsData, "label")
metricsList