क्या PCA एक रोटेशन (जैसे varimax) के बाद भी PCA है?


63

मैं अपने अनुभव में आर में SPSS से कुछ शोध (पीसीए का प्रयोग करके) पुन: पेश करने की कोशिश की है, principal() समारोह पैकेज से psychकेवल समारोह है कि करीब आया था (या यदि मेरी स्मृति मुझे सही में कार्य करता है, पर मृत) उत्पादन मैच के लिए। SPSS के समान परिणामों का मिलान करने के लिए, मुझे पैरामीटर का उपयोग करना था principal(..., rotate = "varimax")। मैंने कागजों पर बात करते देखा है कि उन्होंने पीसीए कैसे किया, लेकिन एसपीएसएस के उत्पादन और रोटेशन के उपयोग के आधार पर, यह कारक विश्लेषण की तरह लगता है।

प्रश्न: क्या पीसीए, रोटेशन (उपयोग करने varimax) के बाद भी, पीसीए है? मैं इस धारणा के अधीन था कि यह वास्तव में कारक विश्लेषण हो सकता है ... यदि ऐसा नहीं है, तो मुझे कौन सा विवरण याद आ रहा है?


4
तकनीकी रूप से, रोटेशन के बाद आपके पास जो कुछ भी है वह अब प्रमुख घटक नहीं हैं।
गाला

2
रोटेशन ही इसे नहीं बदलता है। घुमाया या नहीं, विश्लेषण है कि यह क्या है। पीसीए है नहीं "कारक विश्लेषण" की संकीर्ण परिभाषा में एफए, और पीसीए है "कारक विश्लेषण" की एक व्यापक परिभाषा में एफए। आंकड़े.stackexchange.com/a/94104/3277
ttnphns

1
नमस्कार @ रमन! मैं इस पुराने सूत्र की समीक्षा कर रहा हूं, और मुझे आश्चर्य है कि आपने ब्रेट के उत्तर को स्वीकार कर लिया। आप पूछ रहे थे कि क्या पीसीए + रोटेशन अभी भी पीसीए है, या क्या यह एफए है; ब्रेट के जवाब में रोटेशन के बारे में एक भी शब्द नहीं कहा गया है! न ही यह उस principalफ़ंक्शन का उल्लेख करता है जिसके बारे में आपने पूछा था। यदि उसका उत्तर वास्तव में आपके प्रश्न का उत्तर देता है, तो शायद आपका प्रश्न पर्याप्त रूप से तैयार नहीं है; क्या आप संपादन पर विचार करेंगे? अन्यथा, मुझे लगता है कि डॉक्टरेट का उत्तर वास्तव में आपके प्रश्न का उत्तर देने के बहुत करीब है। ध्यान दें कि आप किसी भी समय स्वीकृत उत्तर को बदल सकते हैं।
अमीबा का कहना है कि मोनिका

1
मुझे यह जोड़ना चाहिए कि मैं एक नए, अधिक विस्तृत, आपके प्रश्न के उत्तर पर काम कर रहा हूं, इसलिए मैं यह जानने के लिए उत्सुक हूं कि क्या आप वास्तव में इस विषय में रुचि रखते हैं। आखिरकार, चार और साल बीत चुके हैं ...
अमीबा का कहना है कि मोनिका

3
@amoeba दुर्भाग्य से भविष्य मुझे जवाब नहीं दे सकता है क्योंकि मैंने उस उत्तर को स्वीकार कर लिया है। 4.5 साल बाद पुराने जानवर की समीक्षा करते हुए, मुझे एहसास हुआ कि कोई भी जवाब करीब नहीं आता है। mbq होनहार शुरू होता है, लेकिन एक स्पष्टीकरण से कम हो जाता है। लेकिन कोई बात नहीं, विषय बहुत भ्रामक है, शायद सामाजिक विज्ञान के लिए लोकप्रिय सांख्यिकीय सॉफ्टवेयर में गलत शब्दावली के लिए धन्यवाद, जिसे मैं चार अक्षर के नाम के साथ नहीं लिखूंगा। कृपया एक उत्तर दें और मुझे पिंग करें, अगर मैं इसे अपने प्रश्न के उत्तर के करीब पाता हूं तो मैं इसे स्वीकार करूंगा।
रोमन लुसट्रिक

जवाबों:


53

यह सवाल काफी हद तक पीसीए / एफए की परिभाषाओं के बारे में है, इसलिए राय भिन्न हो सकती है। मेरी राय है कि PCA + varimax को या तो PCA या FA नहीं कहा जाना चाहिए, bur को स्पष्ट रूप से उदा को "varimax- घुमाया हुआ PCA" कहा जाता है।

मुझे यह जोड़ना चाहिए कि यह काफी भ्रामक विषय है। इस उत्तर में मैं यह बताना चाहता हूं कि वास्तव में एक रोटेशन क्या है ; इसके लिए कुछ गणित की आवश्यकता होगी। एक आकस्मिक पाठक सीधे चित्रण को छोड़ सकता है। तभी हम चर्चा कर सकते हैं कि पीसीए + रोटेशन को "पीसीए" कहा जाना चाहिए या नहीं।

एक संदर्भ जोलिफ़ की पुस्तक "प्रिंसिपल कंपोनेंट एनालिसिस", सेक्शन 11.1 "प्रिंसिपल कंपोनेंट्स का रोटेशन" है, लेकिन मुझे लगता है कि यह स्पष्ट हो सकता है।


बता दें कि एक n × p डेटा मैट्रिक्स है जिसे हम मान लेते हैं। पीसीए मात्राएं ( मेरा उत्तर यहां देखें ) एक विलक्षण-मूल्य अपघटन के लिए: एक्स = यू एस वी । इस अपघटन पर दो समकक्ष लेकिन मानार्थ विचार हैं: एक अधिक पीसीए-शैली "प्रक्षेपण" दृश्य और एक अधिक एफए-शैली "अव्यक्त चर" दृश्य।Xn×pX=USV

पीसीए-शैली के दृष्टिकोण के अनुसार, हमें ऑर्थोगोनल दिशाओं का एक समूह मिला (ये सहसंयोजक मैट्रिक्स के eigenvectors हैं, जिन्हें "प्रमुख निर्देश" या "कुल्हाड़ियों" भी कहा जाता है), और "प्रमुख घटक" यू एस (जिसे प्रमुख घटक भी कहा जाता है) स्कोर ") इन दिशाओं पर डेटा का अनुमान है। : मुख्य घटकों uncorrelated हैं, पहले एक अधिकतम संभव विचरण, आदि हम लिख सकते है एक्स = यू एसवी = स्कोर प्रधान दिशाओं VUS

X=USV=ScoresPrincipal directions.

एफए-शैली के दृष्टिकोण के अनुसार, हमने कुछ असंबंधित इकाई-विचरण "अव्यक्त कारक" पाए जो "लोडिंग" के माध्यम से देखे गए चर को जन्म देते हैं। दरअसल, मानकीकृत प्रमुख घटकों (असहसंबद्ध और इकाई विचरण के साथ) कर रहे हैं, और हम के रूप में लोडिंग को परिभाषित करता है, तोएल=वीएस/U~=n1U , तो एक्स=L=VS/n1(ध्यान दें कि एस=एस।) दोनों विचारों के बराबर हैं। ध्यान दें कि लोडिंग संबंधित eigenvalues (द्वारा बढ़ाया eigenvectors हैंएस/

X=n1U(VS/n1)=U~L=Standardized scoresLoadings.
S=S सहसंयोजक मैट्रिक्स के प्रतिजन हैं)।S/n1

k<p

XUkSkVk=U~kLk.
k×kTTT=I
XUkSkVk=UkTTSkVk=U~rotLrot,
Lrot=LkTU~rot=U~kTTLrot इसकी व्याख्या को सुविधाजनक बनाने के लिए जितना संभव हो उतना विरल होने के करीब हो गया।)

ध्यान दें कि क्या घुमाया जाता है: (1) मानकीकृत स्कोर, (2) लोडिंग। लेकिन कच्चे अंक नहीं और प्रमुख दिशा-निर्देश नहीं! तो रोटेशन अव्यक्त स्थान में होता है, मूल स्थान में नहीं। यह बिल्कुल महत्वपूर्ण है।

LrotkRpkX

ΣLkLk=LrotLrot.

लेकिन पीसीए-शैली की दृष्टि व्यावहारिक रूप से ढह गई है। घुमाए गए लोडिंग orthogonal दिशा-निर्देशों / axes in अनुरूप नहीं हैं, अर्थात कॉलम ऑर्थोगोनल नहीं हैं! इससे भी बदतर, अगर आप [orthogonally] डेटा को घुमाए गए लोडिंग द्वारा दिए गए निर्देशों पर प्रोजेक्ट करते हैं, तो आप सहसंबद्ध (!) अनुमानों को प्राप्त करेंगे और स्कोर को पुनर्प्राप्त नहीं कर पाएंगे। [इसके बजाय, रोटेशन के बाद मानकीकृत स्कोर की गणना करने के लिए, एक साथ डेटा मैट्रिक्स गुणा करने के लिए की जरूरत है छद्म प्रतिलोम लोडिंग की । वैकल्पिक रूप से, कोई बस मूल मानकीकृत स्कोर को रोटेशन मैट्रिक्स के साथ घुमा सकता है:एल आर टी ~ यू आर टी = एक्स ( एल + आर टी ) ~ यू आर टी = ~ यू टी कश्मीरकश्मीरRpLrotU~rot=X(Lrot+)U~rot=U~T ] इसके अलावा, घुमाए गए घटक क्रमिक रूप से विचरण की अधिकतम राशि पर कब्जा नहीं करते हैं : विचरण घटकों के बीच पुनर्वितरित हो जाता है (यहां तक ​​कि)। हालांकि सभी सब जैसे घटकों पर कब्जा बिल्कुल के रूप में ज्यादा विचरण घुमाया मूल प्रिंसिपल घटकों)।kk

यहाँ एक चित्रण है। डेटा मुख्य विकर्ण के साथ फैला हुआ 2 डी दीर्घवृत्त है। पहला मुख्य दिशा मुख्य विकर्ण है, दूसरा इसके लिए रूढ़िवादी है। PCA लोड करने वाले वैक्टर (eigenvalues ​​द्वारा स्केल किए गए eigenvectors) लाल रंग में दिखाए जाते हैं - दोनों दिशाओं में इंगित करते हैं और दृश्यता के लिए एक स्थिर कारक द्वारा भी खींचा जाता है। फिर मैंने लोडिंग के लिए से एक ऑर्थोगोनल रोटेशन लागू किया । परिणामी लोडिंग वैक्टर को मैजेंटा में दिखाया गया है। ध्यान दें कि वे ऑर्थोगोनल (!) नहीं हैं।30

पीसीए रोटेशन

यहां एक एफए-शैली अंतर्ज्ञान निम्नानुसार है: एक "अव्यक्त स्थान" की कल्पना करें जहां अंक एक छोटा वृत्त भरते हैं (यूनिट वेरिएंस के साथ एक 2 डी गौसियन से आते हैं)। अंकों का ये वितरण तब पीसीए लोडिंग (लाल) के साथ बढ़ा दिया जाता है ताकि हम इस आंकड़े को देखें। हालांकि, अंकों का समान वितरण घुमाया जा सकता है और फिर समान डेटा दीर्घवृत्त बनने के लिए घुमाए गए पीसीए लोडिंग (मैजेंटा) के साथ बढ़ाया जा सकता है

[वास्तव में यह देखने के लिए कि लोडिंग का एक ऑर्थोगोनल रोटेशन एक रोटेशन है , एक को पीसीए बाइपोलॉट देखने की जरूरत है; वहाँ मूल चर बस बारी बारी से होगा करने के लिए इसी वैक्टर / किरणों।]


हमें संक्षेप में बताएं। एक ऑर्थोगोनल रोटेशन (जैसे कि वेरीमैक्स) के बाद, "घुमाया-प्रिंसिपल" एक्सिस ऑर्थोगोनल नहीं है, और उन पर ऑर्थोगोनल अनुमानों का कोई मतलब नहीं है। इसलिए किसी को इस पूरे कुल्हाड़ियों / अनुमानों को ध्यान में रखना चाहिए। यह अभी भी इसे पीसीए (जो कि अधिकतम विचरण आदि के अनुमानों के बारे में है) कहना अजीब होगा।

एफए-शैली के दृष्टिकोण से, हमने बस अपने (मानकीकृत और असंबद्ध) अव्यक्त कारकों को घुमाया, जो कि एक वैध ऑपरेशन है। एफए में कोई "अनुमान" नहीं हैं; इसके बजाय, अव्यक्त कारक लोडिंग के माध्यम से मनाया चर उत्पन्न करते हैं। यह तर्क अभी भी संरक्षित है। हालांकि, हमने प्रमुख घटकों के साथ शुरुआत की, जो वास्तव में कारक नहीं हैं (क्योंकि पीसीए एफए के समान नहीं है)। इसलिए इसे FA भी कहा जाना अजीब होगा।

बहस करने के बजाय कि क्या "एक" को इसे पीसीए या एफए कहना चाहिए, मैं सटीक उपयोग की प्रक्रिया को निर्दिष्ट करने में सावधानी बरतने का सुझाव दूंगा: "पीसीए इसके बाद एक वैरिमैक्स रोटेशन"।


स्क्रिप्टम के बाद। यह है एक विकल्प के रोटेशन प्रक्रिया है, जहां पर विचार करना संभव के बीच डाला जाता है और । यह कच्चे स्कोर और आइजनवेक्टर (मानकीकृत स्कोर और लोडिंग के बजाय) को घुमाएगा। इस दृष्टिकोण के साथ सबसे बड़ी समस्या यह है कि इस तरह के "रोटेशन" के बाद, स्कोर अब असंबद्ध नहीं होंगे, जो पीसीए के लिए बहुत घातक है। एक यह कर सकता है, लेकिन यह नहीं है कि कैसे रोटेशन आमतौर पर समझा और लागू किया जा रहा है।यू एस वीTTUSV


मुझे चित्र के आसपास के पाठ को पूरी तरह से समझ में नहीं आया। आप कई बार "लोडिंग" का उपयोग करते हैं: PCA loading vectors... are shown in red, stretched along the rotated PCA loadings (magenta)। मुझे आश्चर्य है कि डेटा स्केप्लॉट पर "लोडिंग" या उनके "वेक्टर" को कुल्हाड़ियों के रूप में कैसे दिखाया जा सकता है। क्या आप कृपया इसे और अधिक स्पष्ट कर सकते हैं? और "स्ट्रेचिंग" का विचार है? धन्यवाद।
ttnphns

1
यह उस लंबी चर्चा से संबंधित हो सकता है जिसे हमने हाल ही में परिवर्तनशील स्थान में "एक उप-स्थान को फैलाए" लोडिंग के बारे में था या नहीं। इस उत्तर में मैंने लोडिंग मैट्रिक्स के एक कॉलम को संदर्भित करने के लिए "लोडिंग वेक्टर" (या बस "लोडिंग") का उपयोग किया। मेरे उदाहरण में डेटा 2 डी हैं यानी दो चर हैं, और इसलिए लोडिंग 2 डी वैक्टर हैं। इसलिए मैं उन्हें डेटा स्कैल्पलॉट पर प्लॉट कर सकता हूं (मैंने दृश्यता के लिए कुछ स्थिर कारक द्वारा उन्हें स्केल किया है)। पीसीए में, पाठ्यक्रम का लोडिंग ऑर्थोगोनल है (वे आइगेनवेक्टर्स के आनुपातिक हैं)। वेरीमैक्स के बाद, वे अब नहीं हैं।
अमीबा का कहना है कि मोनिका

"स्ट्रेचिंग" के बारे में पैराग्राफ (चित्र के ठीक बाद) मुझे शायद बेहतर चित्रण करना चाहिए; मैं देख सकता हूं कि यह बहुत स्पष्ट नहीं है।
अमीबा का कहना है कि मोनिका

मैंने सोचा था कि यदि आप कुछ वैक्टरों (जैसे लोडिंग) की ऑर्थोगोनलिटी या नॉनथोगोनेलिटी को प्लॉट करना चाहते हैं, तो आपको उन्हें तीर के रूप में आकर्षित करना चाहिए। या हो सकता है कि मैं आपको नहीं समझता?
ttnphns

1
मैं मानता हूं कि तीर का उपयोग करना बेहतर होगा, मैंने केवल "तीर चलाने वाले" को सुविधा की साजिश के लिए छोड़ दिया। मैं उन्हें जोड़ने के लिए इस आंकड़े को फिर से कर सकता हूं। इसके अलावा, मैंने दोनों दिशाओं में इंगित करते हुए प्रत्येक वेक्टर को आकर्षित किया क्योंकि उनके संकेत मायने नहीं रखते।
अमीबा का कहना है कि मोनिक

29

प्रमुख घटक विश्लेषण (पीसीए) और सामान्य कारक विश्लेषण (सीएफए) अलग-अलग तरीके हैं। अक्सर, वे समान परिणाम का उत्पादन करते हैं और पीसीए का उपयोग एसपीएसएस फैक्टर विश्लेषण दिनचर्या में डिफ़ॉल्ट निष्कर्षण विधि के रूप में किया जाता है। यह निस्संदेह दोनों के बीच अंतर के बारे में बहुत भ्रम पैदा करता है।

लब्बोलुआब यह है, ये दो अलग-अलग मॉडल हैं, वैचारिक रूप से। पीसीए में, घटक वास्तविक ऑर्थोगोनल रैखिक संयोजन हैं जो कुल विचरण को अधिकतम करते हैं। एफए में, कारक रैखिक संयोजन हैं जो विचरण के साझा हिस्से को अधिकतम करते हैं - अंतर्निहित "अव्यक्त निर्माण"। इसलिए एफए को अक्सर "सामान्य कारक विश्लेषण" कहा जाता है। एफए, विभिन्न प्रकार के अनुकूलन दिनचर्या का उपयोग करता है और परिणाम, पीसीए के विपरीत, उन दिनचर्या के लिए उपयोग किए गए अनुकूलन दिनचर्या और शुरुआती बिंदुओं पर निर्भर करता है। बस एक भी अनूठा समाधान नहीं है।

आर में, फैक्टनल () फ़ंक्शन सीएफए को अधिकतम संभावना निष्कर्षण प्रदान करता है। इसलिए, आपको यह उम्मीद नहीं करनी चाहिए कि यह एक SPSS परिणाम है जो एक PCA निष्कर्षण पर आधारित है। यह केवल एक ही मॉडल या तर्क नहीं है। मुझे यकीन नहीं है कि यदि आपको एसपीएसएस की अधिकतम संभावना का उपयोग करने के समान परिणाम मिलेगा, तो वे उसी एल्गोरिथ्म का उपयोग नहीं कर सकते हैं।

आर में बेहतर या बदतर के लिए, आप, हालांकि, मिश्रित "कारक विश्लेषण" को पुन: उत्पन्न कर सकते हैं जो SPSS अपने डिफ़ॉल्ट के रूप में प्रदान करता है। यहाँ R में प्रक्रिया है। इस कोड के साथ, मैं इस डेटासेट का उपयोग करके SPSS प्रिंसिपल कंपोनेंट "फैक्टर एनालिसिस" परिणाम को पुन: प्रस्तुत करने में सक्षम हूँ। (संकेत के अपवाद के साथ, जो अनिश्चित है)। यह परिणाम तब भी उपलब्ध रोटेशन तरीकों में से किसी का उपयोग करके घुमाया जा सकता है।

# Load the base dataset attitude to work with.
data(attitude)
# Compute eigenvalues and eigen vectors of the correlation matrix.
pfa.eigen<-eigen(cor(attitude))
# Print and note that eigen values are those produced by SPSS.
# Also note that SPSS will extract 2 components as eigen values > 1 = 2
pfa.eigen$values
# set a value for the number of factors (for clarity)
factors<-2
# Extract and transform two components.
pfa.eigen$vectors [ , 1:factors ]  %*% 
+ diag ( sqrt (pfa.eigen$values [ 1:factors ] ),factors,factors )

+1 वास्तव में यहाँ SPSS बनाम R के आस-पास के भ्रम को कम करने में मदद करता है। दो प्रश्न शेष हैं: एसपीएसएस के मिश्रित दृष्टिकोण की तुलना में आर prcompया क्या करता है princomp? एसपीएसएस वास्तव में निष्कर्षण द्वारा क्या कर रहा है?
हंस ० एल ०

आह, और मैं कैसे अपने समाधान के लिए उदाहरण के लिए PC1 के लिए स्कोर की गणना करने के लिए जोड़ सकते हैं: मानकीकृत zz <- scale(attitude,T,T)और pc1 <- zz %*% solve(cor(attitude),lamba[,1])। जहाँ लैम्बडा @Brett Magills उदाहरण की अंतिम पंक्ति का परिणाम है।
hans0l0

3
-1। हालाँकि इस उत्तर में बहुत सी उपयोगी जानकारी है, फिर भी मुझे लगता है कि यह मूल प्रश्न का उत्तर नहीं देता है। मूल प्रश्न यह था कि क्या पीसीए + रोटेशन को अभी भी पीसीए (या बल्कि एफए) माना जा सकता है। आपके उत्तर में घुमावों का भी उल्लेख नहीं है! तो इसका उत्तर कैसे हो सकता है?
अमीबा का कहना है कि मोनिका

1
यह नोट करना मददगार हो सकता है कि कॉमन फैक्टर एनालिसिस कन्फर्मेटरी फैक्टर एनालिसिस (सीएफए) के समान नहीं है , जो पूरी तरह से प्रभावी प्रक्रिया है।
रिचर्ड बॉर्डर

11

यह उत्तर प्रस्तुत करना है, एक पथ चार्ट फॉर्म में, जिन चीजों के बारे में @amoeba ने अपने गहरे (लेकिन थोड़ा जटिल) जवाब इस धागे पर दिया है (मैं 95% से एक तरह से सहमत हूं) और वे मुझे कैसे दिखाई देते हैं ।

P

चार्ट पर, मैं दो चर का एक सरल उदाहरण लेता हूं p=2और दोनों निकाले गए प्रमुख घटकों का उपयोग करता हूं । यद्यपि हम आम तौर पर केवल कुछ पहले m<pघटक रखते हैं, सैद्धांतिक सवाल के लिए हम विचार कर रहे हैं ("पीसीए के साथ पीसीए या क्या है?") यह उन mसभी या रखने के लिए कोई फर्क नहीं पड़ता pहै; कम से कम मेरे विशेष उत्तर में।

LVPzAX=PV=PzA। लेकिन लोडिंग खुली संभावनाओं: (i) घटकों की व्याख्या करने के लिए; (ii) घुमाया जाना; (iii) चर के सहसंबंधों / सहसंबंधों को पुनर्स्थापित करने के लिए। यह सब इस तथ्य के कारण है कि डेटा की परिवर्तनशीलता लोडिंग में उनके लोड के रूप में लिखी गई है।

PzPzQलोडिंग की व्याख्या को सुविधाजनक बनाने के लिए डेटा बिंदुओं को उनकी पवित्रता और पहचान (या "सफेदी") में निष्क्रिय रूप से प्रतीक्षा की जाती है।

QPzArCzX=PzA=CzArArC

C

AVAr

PQ"C"क्यू पी क्यू वी क्यू वी आर " सी " = एक्स वी आरQQPQ VQVr) और फिर कच्चे घटक स्कोर को । ये "पथ" उनके पोस्टस्क्रिप्टम में @amoeba द्वारा नोट किए गए हैं।"C"=XVr

ये अंतिम रूप से उल्लिखित क्रियाएं (अधिकांश भाग के लिए व्यर्थ) हमें याद दिलाती हैं कि सामान्य रूप से, केवल लोडिंग ही नहीं, eigenvectors को भी घुमाया जा सकता है। उदाहरण के लिए, उनकी संरचना को सरल बनाने के लिए उनके लिए वैरमैक्स प्रक्रिया लागू की जा सकती है । लेकिन चूंकि eigenvectors घटकों के अर्थ की व्याख्या करने में उतने सहायक नहीं हैं जितने कि लोडिंग हैं, eigenvectors का रोटेशन शायद ही कभी किया जाता है।

यहाँ छवि विवरण दर्ज करें

तो, बाद के varimax (या अन्य) रोटेशन के साथ पीसीए है

  • अभी भी पी.सी.ए.
  • जो रास्ते में सिर्फ घटकों के लिए प्रमुख घटकों को छोड़ दिया
  • संभावित रूप से अधिक (पीसी की तुलना में) "अव्यक्त लक्षण" के रूप में व्याख्या करने योग्य हैं
  • लेकिन उन पर व्यंग्यात्मक रूप से मॉडलिंग नहीं की गई (PCA उचित कारक विश्लेषण नहीं है)

मैंने इस उत्तर में कारक विश्लेषण का उल्लेख नहीं किया। यह मुझे लगता है कि @ अमीबा शब्द "अव्यक्त स्थान" का उपयोग पूछे गए प्रश्न के संदर्भ में थोड़ा जोखिम भरा है। हालाँकि, मुझे पता है कि पीसीए + विश्लेषणात्मक रोटेशन को " पीसीए पर एफए- शैली का दृश्य " कहा जा सकता है ।


घुमाए गए घटकों के प्रतिजन की गणना कैसे करें?

1
@ हागा, घुमाए गए घटक अब प्रमुख घटक नहीं हैं और इसलिए उनमें आइगेनवेल्यूज़ नहीं हो सकते हैं। उनके संस्करण, फिर भी, वर्ग लोडिंग के कॉलम रकम के बराबर हैं (कृपया मेरे चार्ट के निचले हिस्से को देखें - तीर को अनियमित स्कोर तक)।
tnnphns

8

में psych::principal()आप का उपयोग कर अपने निकाले प्रधानाचार्य घटक (s) या '' पीसी '' करने के लिए रोटेशन / परिवर्तनों के विभिन्न प्रकार के कर सकते हैं rotate=तर्क, जैसे: "none", "varimax"(डिफ़ॉल्ट), "quatimax", "promax", "oblimin", "simplimax", और "cluster"। आपको अनुभवजन्य रूप से यह तय करना होगा कि किसी को आपके मामले में समझदारी चाहिए, अगर जरूरत है, तो आपके अपने मूल्यांकन और जांच के अधीन विषय की जानकारी के आधार पर। एक महत्वपूर्ण सवाल जो आपको संकेत दे सकता है: कौन सा अधिक व्याख्यात्मक है (फिर यदि आवश्यक हो)?

मदद में आप निम्नलिखित भी उपयोगी हो सकता है:

यह पहचानना महत्वपूर्ण है कि घुमाए गए प्रमुख घटक मुख्य घटक नहीं हैं (ईजन मूल्य अपघटन से जुड़े अक्ष) लेकिन केवल घटक हैं। इसे इंगित करने के लिए, अनारक्षित मुख्य घटकों को पीसीआई के रूप में लेबल किया जाता है, जबकि घुमाए गए पीसी को अब आरसीआई (घुमाए गए घटकों के लिए) और तिरछे रूप में परिवर्तित किए गए घटकों को टीसीआई (रूपांतरित घटकों के लिए) के रूप में लेबल किया जाता है। (इस सुझाव के लिए अलरिके ग्रॉम्पिंग को धन्यवाद।)


7

मेरी समझ यह है कि मुख्य रूप से पीसीए और फैक्टर विश्लेषण के बीच अंतर यह है कि क्या कोई त्रुटि अवधि है। इस प्रकार PCA, और वसीयत कर सकता है, विश्वासपूर्वक डेटा का प्रतिनिधित्व करता है, जबकि कारक विश्लेषण उस डेटा के प्रति कम विश्वासयोग्य होता है जिस पर वह प्रशिक्षित होता है, लेकिन डेटा में अंतर्निहित प्रवृत्तियों या सांप्रदायिकता का प्रतिनिधित्व करने का प्रयास करता है। एक मानक दृष्टिकोण के तहत पीसीए को घुमाया नहीं जाता है, लेकिन ऐसा करना गणितीय रूप से संभव है, इसलिए लोग इसे समय-समय पर करते हैं। मैं टिप्पणीकारों से सहमत हूं कि इन विधियों का "अर्थ" कुछ हद तक पकड़ के लिए है और यह संभव है कि यह सुनिश्चित करने के लिए बुद्धिमान है कि आप जिस फ़ंक्शन का उपयोग कर रहे हैं वह क्या करता है - उदाहरण के लिए, जैसा कि आपने ध्यान दिया है कि आर के कुछ कार्य हैं SPSS के उपयोगकर्ताओं की तुलना में PCA का एक अलग प्रकार परिचित है।


2

दोनों की परिभाषाओं में अराजकता के लिए धन्यवाद वे प्रभावी रूप से एक पर्यायवाची हैं। शब्दों पर विश्वास न करें और समीकरणों को खोजने के लिए डॉक में गहराई से देखें।


3
मैं अभी भी समीकरणों (जीवविज्ञानी अहोई) को समझने के लिए संघर्ष कर रहा हूं, यही कारण है कि मैंने यहां समुदाय की ओर रुख किया, उम्मीद है कि इससे मुझे आम आदमी की शर्तों में अंतर समझाने में मदद मिलेगी।
रोमन लुसट्रिक

मुझे लगता है कि विचारधारा यह है कि एफए मानता है कि प्रक्रिया कुछ 'छिपे हुए कारकों' द्वारा संचालित होती है, जबकि हमारे पास जो डेटा होते हैं उनमें से कुछ संयोजन होते हैं। उसके कारण, एफए की समस्या छिपे हुए कारकों को किसी तरह से फिर से संगठित करना है। और पीसीए चला जाता है - एक ऐसी विधि जो पुराने रूप से नए चर (पीसी) का निर्माण करती है जैसे कि पुराने लोगों को लालच देकर डेटा के विचरण को अवशोषित करती है। एक कह सकता है कि पीसी एफए के कारकों के बराबर हैं, और यहां वे अप्रभेद्य होंगे। लेकिन कोई पीसीए में कुछ बदलाव करके इसे कुछ अन्य 'एफए सॉर्ट' का आधार बना सकता है, और इसलिए समस्या शुरू होती है।

तो मूल रूप से, आपको यह सोचना चाहिए कि आप क्या करना चाहते हैं (न कि कौन सा बज़वर्ड आप उपयोग करना चाहते हैं)। मुझे पता है कि यह कठिन है, खासकर जब जीवविज्ञानी आसपास होते हैं (कुछ विस्तार का उपयोग करते हैं-जीव विज्ञान में अच्छी तरह से काम करता है, इसलिए वे बस यह मान लेते हैं कि यह अन्य विषयों के लिए आम है); अभी भी यही वह तरीका है जो विज्ञान को करना चाहिए। इसके लिए अच्छे एल्गोरिदम का आकलन करने के लिए Google (या इस साइट) का उपयोग करें। अंत में, फ़ंक्शन / बटन खोजने के लिए डॉक का उपयोग करें जो इसे करता है और इसे टाइप / क्लिक करें।

1

हालांकि इस सवाल का पहले से ही एक स्वीकृत उत्तर है, मैं इस प्रश्न के बिंदु पर कुछ जोड़ना चाहूंगा।

"पीसीए" - यदि मैं सही ढंग से याद करता हूं - इसका मतलब है "प्रमुख घटक विश्लेषण"; जब तक आप प्रमुख घटकों का विश्लेषण कर रहे हैं, तब तक यह रोटेशन के बिना या रोटेशन के साथ हो सकता है, हम अभी भी "प्रमुख घटकों" के विश्लेषण में हैं (जो उपयुक्त प्रारंभिक मैट्रिक्स-अपघटन द्वारा पाए गए थे)।

मैं पहले दो प्रमुख घटकों पर "वैरीमैक्स" -प्रोटेशन के बाद यह बताता हूं कि हमारे पास दो पहले पीसी के "(कुछ और) का" वैरिमैक्स-समाधान है, लेकिन अभी भी प्रमुख घटकों के विश्लेषण के ढांचे में हैं, या कम, "pca" के ढांचे में हैं।

अपनी बात को और भी स्पष्ट करने के लिए: मुझे नहीं लगता कि रोटेशन का सरल प्रश्न ईएफए और सीएफए के बीच अंतर करने की समस्या का परिचय देता है (ब्रेट के उत्तर में उदाहरण के लिए समस्या में उत्तरार्द्ध उल्लेख / प्रस्तुत)


आपने आखिरी वाक्य में अचानक सीएफए का उल्लेख क्यों किया?
अमीबा का कहना है कि

@amoeba: मुझे उस शब्द की ओर इशारा किया गया था, जो _Brett के 23-बिंदु-सम्मानित उत्तर द्वारा महसूस किया गया था कि यह इसके बारे में कुछ टिप्पणी करने के लिए लायक था। लेकिन शायद इसके बजाय "एफए" कहना बेहतर होगा। मैं इसके बारे में सोचूंगा ... (इस पर सोचकर मुझे "सीएफए" को "सामान्य ..." के बजाय "पुष्टि कारक विश्लेषण" के रूप में देखा जाना याद है, शायद उस तरीके के मेरे पहले के अध्ययनों में, संभवतः 80 के दशक में या 90'ज़)
हेल्स

यह सिर्फ इतना है कि आपके उत्तर के पहले तीन पैराग्राफ पीसीए बनाम एफए के बारे में हैं, और फिर अंतिम पैराग्राफ जो ऐसा लगता है कि पिछले लोगों को संक्षेप में बता रहा है, अचानक ईएफए बनाम सीएफए के बारे में है।
अमीबा का कहना है कि मोनिका

@amoeba: क्या मेरा अंतिम संपादन मेरे इरादे / वाक्य को स्पष्ट करता है?
गॉटफ्रीड हेल्स

1

मुझे यह सबसे ज्यादा मददगार लगा: अब्दी एंड विलियम्स, 2010, प्रिंसिपल कंपोनेंट एनालिसिस

ROTATION

घटकों की संख्या निर्धारित किए जाने के बाद, और व्याख्या की सुविधा के लिए, विश्लेषण में अक्सर उन घटकों का एक घुमाव शामिल होता है जिन्हें अधिक विवरण के लिए [देखें, उदाहरण के लिए, Ref 40 और 67,] बनाए रखा गया था। दो मुख्य प्रकार के रोटेशन का उपयोग किया जाता है: ऑर्थोगोनल जब नई कुल्हाड़ियों को एक-दूसरे को ऑर्थोगोनल भी किया जाता है, और जब नई कुल्हाड़ियों को ऑर्थोगोनल होने की आवश्यकता नहीं होती है तो तिरछी हो जाती है। क्योंकि घुमाव हमेशा एक उप-स्थान में किए जाते हैं, नए अक्ष हमेशा मूल घटकों की तुलना में कम जड़ता की व्याख्या करेंगे (जो कि इष्टतम होने के लिए गणना की जाती हैं)। हालांकि, रोटेशन के बाद कुल उप-भाग द्वारा समझाया गया जड़ता का हिस्सा वही है जो रोटेशन से पहले था (केवल जड़ता का विभाजन बदल गया है)। यह भी ध्यान रखना महत्वपूर्ण है कि क्योंकि रोटेशन हमेशा एक उप-स्थान पर होता है (अर्थात, बनाए रखा घटकों के स्थान), इस उप-क्षेत्र की पसंद रोटेशन के परिणाम को दृढ़ता से प्रभावित करती है। इसलिए, यह रोटेशन की व्याख्या की मजबूती का आकलन करने के लिए बनाए रखा घटकों के सबसे बड़े भाग के लिए कई आकारों की कोशिश करने के लिए दृढ़ता से अनुशंसित है। रोटेशन करते समय, लोडिंग शब्द लगभग हमेशा मैट्रिक्स क्यू के तत्वों को संदर्भित करता है।

(प्रश्न की परिभाषा के लिए कागज देखें)।

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.