Обрезка дерева регрессии cp выбор или другим способом

#cart #decision-tree #rpart

Вопрос:

У меня есть набор данных, состоящий из n=76 наблюдений. Я пытаюсь провести объяснительный анализ того, как 9 переменных окружающей среды формируют мою переменную ответа! Вот мое подходящее дерево регрессии. Я немного поиграл с аргументами rpart.control

Когда я выполняю обрезку на основе правила «cp-наименьшая ошибка», я получаю только один раскол.

Мой вопрос в том, есть ли способ не закончить только одним расколом

 tree.model_1 = rpart(Shannon ~  Distance_from_city_centre  
                                Light_complete_100m   
                                Temperature_Celsius   
                                Human_presence    
                                NDVI   
                                Sound_dbC   
                                Closest_Road_m   
                                Closest_Path_m   
                                Tree_cover,
                    method="anova" ,data = data_stats_model, 
                    control = rpart.control(minsplit= 20,xval=76,cp=.01))
 

вывод printcp

 Variables actually used in tree construction:
[1] Distance_from_city_centre Light_complete_100m       Tree_cover               

Root node error: 131.92/76 = 1.7358

n= 76 

        CP nsplit rel error  xerror    xstd
1 0.159243      0   1.00000 1.02684 0.12498
2 0.055564      1   0.84076 0.88899 0.11909
3 0.043261      2   0.78519 1.16805 0.15102
4 0.026181      4   0.69867 1.20089 0.15711
5 0.010000      5   0.67249 1.21151 0.15874