गोलाकार धारणा के पीछे अंतर्ज्ञान
आम, गैर दोहराया उपायों की मान्यताओं में से एक, एनोवा सभी समूहों में समान रूप से भिन्न है।
(हम इसे समझ सकते हैं क्योंकि समान भिन्नता, जिसे होमोसिस्टैस्टिकिटी के रूप में भी जाना जाता है , को रेखीय प्रतिगमन में ओएलएस अनुमानक के लिए BLUE होने की आवश्यकता होती है और संबंधित टी-परीक्षणों को मान्य होने के लिए, गॉस-मार्कोव प्रमेय देखें और एनोवा को रैखिक के रूप में लागू किया जा सकता है। प्रतिगमन।)
तो चलिए गैर-आरएम मामले को RM-ANOVA मामले को कम करने का प्रयास करते हैं। सादगी के लिए, मैं (किसी भी बीच-विषय प्रभाव के बिना) एक कारक RM-एनोवा के साथ काम किया जाएगा है कि में दर्ज विषयों आर एम की स्थिति।केnk
प्रत्येक विषय का अपना विषय-विशिष्ट ऑफसेट या अवरोधन हो सकता है। यदि हम अन्य सभी समूहों के मूल्यों में से एक समूह में मूल्यों को घटाते हैं, तो हम इन अवरोधों को रद्द कर देंगे और उस स्थिति में पहुंच जाएंगे जब हम परीक्षण करने के लिए गैर-आरएम-एनोवा का उपयोग कर सकते हैं यदि ये समूह अंतर सभी शून्य हैं। इस परीक्षण को मान्य होने के लिए, हमें इन मतभेदों के समान रूपांतरों की धारणा की आवश्यकता है ।k - 1k−1k−1
अब हम अन्य सभी समूहों से समूह # 2 को घटा सकते हैं, फिर से अंतर पर पहुंच सकते हैं जिसमें समान संस्करण भी होने चाहिए। से प्रत्येक समूह के लिए, संबंधित अंतर के समान होने चाहिए। यह जल्दी से इस प्रकार है कि सभी संभावित अंतर समान होना चाहिए।k k - 1 k ( k - 1 ) / 2k−1kk−1k(k−1)/2
जो वास्तव में गोलाकार धारणा है।
समूह भिन्नताओं को स्वयं के बराबर क्यों नहीं होना चाहिए?
जब हम RM-ANOVA के बारे में सोचते हैं, तो हम आमतौर पर फॉर्म के के एक साधारण एडिटिव मिक्स्ड-मॉडल-स्टाइल मॉडल के बारे में हैं जहां विषय प्रभाव होते हैं, स्थिति प्रभाव हैं, और ।α मैं β जे ε ~ एन ( 0 , σ 2 )
yij=μ+αi+βj+ϵij,
αiβjϵ∼N(0,σ2)
इस मॉडल के लिए, समूह मतभेद का पालन करेंगे , यानी सभी एक ही विचरण करना होगा , इसलिए गोलाई रखती है। लेकिन प्रत्येक समूह और variances साधनों के साथ गाऊसी के मिश्रण का पालन करेगा , जो कि कुछ भिन्न वितरण विचरण जो कि समूहों में निरंतर है।N(βj1−βj2,2σ2)2σ2nαiσ2V(α⃗ ,σ2)
तो इस मॉडल में, वास्तव में, समूह संस्करण भी समान हैं। समूह सहसंयोजक भी समान हैं, जिसका अर्थ है कि यह मॉडल यौगिक समरूपता का अर्थ है । यह गोलाकार की तुलना में अधिक कठोर स्थिति है। शो के ऊपर मेरे सहज तर्क के रूप में, RM-ANOVA अधिक सामान्य स्थिति में ठीक काम कर सकता है, जब ऊपर लिखा गया एडिटिव मॉडल पकड़ में नहीं आता है ।
सटीक गणितीय कथन
मैं यहाँ Huynh & Feldt, 1970F से कुछ जोड़ने जा रहा हूँ , बार-बार मापी जाने वाली माप डिज़ाइन में किस मीन स्क्वायर अनुपात के तहत स्थितियाँ सटीक -Distributions हैं ।
गोलाकार टूटने पर क्या होता है?
जब गोलाकारता पकड़ में नहीं आती है, तो हम शायद RM-ANOVA से (i) के लिए फुलाए गए आकार (अधिक प्रकार की त्रुटियां) की उम्मीद कर सकते हैं, (ii) ने शक्ति में कमी (अधिक प्रकार II त्रुटियाँ) की हैं। सिमुलेशन द्वारा यह पता लगाया जा सकता है, लेकिन मैं इसे यहां नहीं करने जा रहा हूं।