मैं थोड़ा उलझन में हूं: कैरेट के माध्यम से प्रशिक्षित मॉडल के परिणाम मूल पैकेज में मॉडल से कैसे भिन्न हो सकते हैं? मैंने पढ़ा कि क्या कैरेट पैकेज के साथ रैंडमफॉरस्ट के फाइनलमॉडल का उपयोग करने से पहले प्रीप्रोसेसिंग की आवश्यकता है? लेकिन मैं यहां किसी भी प्रीप्रोसेसिंग का उपयोग नहीं करता हूं।
मैंने अलग-अलग रैंडम फ़ॉरेस्ट को प्रशिक्षित किया, कैरेट पैकेज का उपयोग करके और अलग-अलग mtry मूल्यों के लिए ट्यूनिंग।
> cvCtrl = trainControl(method = "repeatedcv",number = 10, repeats = 3, classProbs = TRUE, summaryFunction = twoClassSummary)
> newGrid = expand.grid(mtry = c(2,4,8,15))
> classifierRandomForest = train(case_success ~ ., data = train_data, trControl = cvCtrl, method = "rf", metric="ROC", tuneGrid = newGrid)
> curClassifier = classifierRandomForest
मुझे प्रशिक्षण_दाता पर सबसे अच्छा पैरामीटर होने के लिए mtry = 15 मिला:
> curClassifier
...
Resampling results across tuning parameters:
mtry ROC Sens Spec ROC SD Sens SD Spec SD
4 0.950 0.768 0.957 0.00413 0.0170 0.00285
5 0.951 0.778 0.957 0.00364 0.0148 0.00306
8 0.953 0.792 0.956 0.00395 0.0152 0.00389
10 0.954 0.797 0.955 0.00384 0.0146 0.00369
15 0.956 0.803 0.951 0.00369 0.0155 0.00472
ROC was used to select the optimal model using the largest value.
The final value used for the model was mtry = 15.
मैंने मॉडल का मूल्यांकन एक ROC वक्र और एक भ्रम मैट्रिक्स के साथ किया:
##ROC-Curve
predRoc = predict(curClassifier, test_data, type = "prob")
myroc = pROC::roc(test_data$case_success, as.vector(predRoc[,2]))
plot(myroc, print.thres = "best")
##adjust optimal cut-off threshold for class probabilities
threshold = coords(myroc,x="best",best.method = "closest.topleft")[[1]] #get optimal cutoff threshold
predCut = factor( ifelse(predRoc[, "Yes"] > threshold, "Yes", "No") )
##Confusion Matrix (Accuracy, Spec, Sens etc.)
curConfusionMatrix = confusionMatrix(predCut, test_data$case_success, positive = "Yes")
परिणामी भ्रम मैट्रिक्स और सटीकता:
Confusion Matrix and Statistics
Reference
Prediction No Yes
No 2757 693
Yes 375 6684
Accuracy : 0.8984
....
अब मैंने एक ही पैरामीटर और उसी ट्रेनिंग_डाटा के साथ बेसिक रैंडम पैकेज का उपयोग करके एक रैंडम रोरेस्ट का प्रशिक्षण दिया:
randomForestManual <- randomForest(case_success ~ ., data=train_data, mtry = 15, ntree=500,keep.forest=TRUE)
curClassifier = randomForestManual
फिर से मैंने ऊपर के समान ही test_data के लिए भविष्यवाणियाँ बनाईं और ऊपर के समान कोड वाले भ्रम मैट्रिक्स का आकलन किया। लेकिन अब मुझे अलग उपाय मिले:
Confusion Matrix and Statistics
Reference
Prediction No Yes
No 2702 897
Yes 430 6480
Accuracy : 0.8737
....
क्या कारण है? मुझे किसकी याद आ रही है?
seeds
trainControl