Как я могу рассчитать непосредственно тестовую оценочную ошибку в матрице путаницы?

#r

Вопрос:

 set.seed(123)
library(boot)
glm.fit=glm(Species~.,data=iris)
cv.error= cv.glm(iris, glm.fit,K=10)$delta[1]
cv.error #MSE for each model
 

Но я хочу получить таблицу с использованием матрицы путаницы.

 set.seed(7)
x = iris[,-5]
y = iris$Species
model = train(x,y,"nb",trControl=trainControl(method="cv",number=10))
confusionMatrix(model)
 

Вопрос:

  1. Является ли расчетная частота ошибок с использованием 1 — вывода средней точности?
  2. Какой-нибудь способ извлечения?
  3. Я хочу получить целочисленную цифру, т. Е.
           Reference
Prediction  0  1
         0 122 11
         1 98 320
 

Ответ №1:

Если вы хотите извлечь матрицу путаницы, например, как объект, вы можете попробовать

 library(caret)
data(iris)
model <- train(Species~., data=iris,
               method="nb",
               trControl=trainControl(method="cv",number=5))

qq<-confusionMatrix(model)
 

Если вы предпочитаете иметь «полные числа», а не проценты, вам придется посмотреть, сколько точек данных у вас изначально было — здесь у вас 150.
Все, что вам нужно сделать сейчас, это взять таблицу, разделить ее на 100 и умножить все на 150 — готово

 final_result<-qq$table/100*150