मुझे डर है कि संबंधित सवालों का जवाब मेरा नहीं था। हम> 2 क्लासिफायर (मशीन लर्निंग) के प्रदर्शन का मूल्यांकन करते हैं। हमारी अशक्त परिकल्पना यह है कि प्रदर्शन अलग नहीं होते हैं। हम इस परिकल्पना का मूल्यांकन करने के लिए पैरामीट्रिक (एनोवा) और गैर पैरामीट्रिक (फ्रीडमैन) परीक्षण करते हैं। यदि वे महत्वपूर्ण हैं, तो हम यह पता लगाना चाहते हैं कि कौन से क्लासिफायरियर एक पोस्ट-हॉक खोज में भिन्न हैं।
मेरा सवाल दुगना है:
1) कई तुलनाओं के परीक्षण के बाद पी-वैल्यू का सुधार आवश्यक है? "अल्फाफेलर कुमुलियुंग" पर जर्मन विकिपीडिया साइट का कहना है कि समस्या केवल तब होती है जब एक ही डेटा पर कई परिकल्पनाओं का परीक्षण किया जाता है। क्लासिफायर (1,2), (1,3), (2,3) की तुलना करते समय, डेटा केवल आंशिक रूप से ओवरलैप होता है। क्या अभी भी पी-वैल्यू को सही करना आवश्यक है?
2) पी-वैल्यू करेक्शन का इस्तेमाल अक्सर टी-टेस्ट के साथ पेयरवाइज टेस्टिंग के बाद किया जाता है। क्या यह भी आवश्यक है जब Nemenyi's (नॉन-पैरामीट्रिक) या Tukey's HSC टेस्ट जैसे विशेष पोस्ट-हॉक टेस्ट कर रहे हों? यह उत्तर कहता है कि टकी के एचएसडी के लिए "नहीं": क्या तुकी एचएसडी परीक्षण कई तुलनाओं के लिए सही है? । क्या कोई नियम है या क्या मुझे हर संभावित पोस्ट-हॉक टेस्ट के लिए इसे देखना होगा?
धन्यवाद!