जैसा कि एडमो उपरोक्त टिप्पणी में सुझाव देते हैं, आप वास्तव में सांख्यिकीय शिक्षण के तत्वों के अध्याय 4 को पढ़ने से बेहतर नहीं कर सकते हैं (जिसे मैं एचटीएफ कहूंगा ) जो एलडीए की तुलना अन्य रैखिक वर्गीकरण विधियों के साथ करता है, कई उदाहरण देता है, और उपयोग की चर्चा भी करता है। पीसीए की नस में एलडीए एक आयाम-घटाने की तकनीक के रूप में, जैसा कि ttnphns बताते हैं, बल्कि लोकप्रिय है।
वर्गीकरण के दृष्टिकोण से, मुझे लगता है कि महत्वपूर्ण अंतर यह है। कल्पना करें कि आपके पास दो कक्षाएं हैं और आप उन्हें अलग करना चाहते हैं। प्रत्येक वर्ग में एक संभाव्यता घनत्व कार्य होता है। सबसे अच्छा संभव स्थिति होगी यदि आप इन घनत्व कार्यों को जानते थे, क्योंकि तब आप यह अनुमान लगा सकते हैं कि उस बिंदु पर वर्ग-विशिष्ट घनत्वों का मूल्यांकन करके कौन सा वर्ग होगा।
कुछ प्रकार के क्लासिफायर कक्षाओं के घनत्व कार्यों के लिए एक अनुमान लगाकर संचालित होते हैं। एलडीए इनमें से एक है; यह धारणा बनाता है कि घनत्व एक ही सहसंयोजक मैट्रिक्स के साथ बहुभिन्नरूपी सामान्य हैं। यह एक मजबूत धारणा है, लेकिन अगर यह लगभग सही है, तो आपको एक अच्छा वर्गीकरण मिल जाता है। कई अन्य क्लासिफायर भी इस तरह का दृष्टिकोण अपनाते हैं, लेकिन सामान्यता संभालने की तुलना में अधिक लचीले होने की कोशिश करते हैं। उदाहरण के लिए, HTF का पृष्ठ 108 देखें।
दूसरी ओर, पृष्ठ 210 पर, HTF ने चेतावनी दी है:
यदि वर्गीकरण अंतिम लक्ष्य है, तो अलग-अलग वर्ग की घनत्वों को अच्छी तरह से सीखना अनावश्यक हो सकता है, और वास्तव में भ्रामक हो सकता है।
एक और दृष्टिकोण बस दो वर्गों के बीच एक सीमा की तलाश है, जो कि अवधारणात्मक करता है। इसका अधिक परिष्कृत संस्करण सपोर्ट वेक्टर मशीन है। इन विधियों को कर्नेलाइजेशन नामक तकनीक का उपयोग करके डेटा में सुविधाओं को जोड़ने के साथ भी जोड़ा जा सकता है। यह एलडीए के साथ काम नहीं करता है क्योंकि यह सामान्यता को संरक्षित नहीं करता है, लेकिन यह एक वर्गीकरण के लिए कोई समस्या नहीं है जो सिर्फ एक अलग हाइपरप्लेन की तलाश कर रहा है।
एलडीए और एक क्लासिफायरियर के बीच का अंतर जो एक अलग हाइपरप्लेन की तलाश करता है, वह एक टी-टेस्ट और सामान्य आंकड़ों में कुछ गैरपरंपरागत विकल्प के बीच का अंतर है। उत्तरार्द्ध अधिक मजबूत है (उदाहरण के लिए, आउटलेर्स के लिए), लेकिन पूर्व इष्टतम है यदि इसकी धारणाएं संतुष्ट हैं।
एक और टिप्पणी: यह ध्यान देने योग्य हो सकता है कि कुछ लोगों के पास LDA या लॉजिस्टिक रिग्रेशन जैसे तरीकों का उपयोग करने के लिए सांस्कृतिक कारण हो सकते हैं, जो एनोवा तालिकाओं, परिकल्पना परीक्षणों और इस तरह की चीजों को आश्वस्त करने के लिए बाध्य कर सकते हैं। LDA का आविष्कार फिशर द्वारा किया गया था; परसेप्ट्रॉन मूल रूप से एक मानव या पशु न्यूरॉन के लिए एक मॉडल था और उसका आँकड़ों से कोई संबंध नहीं था। यह दूसरे तरीके से भी काम करता है; कुछ लोग सहायक वेक्टर मशीनों की तरह तरीकों को पसंद कर सकते हैं क्योंकि उनके पास अत्याधुनिक हिपस्टर-क्रेड हैं जो बीसवीं शताब्दी के तरीकों से मेल नहीं खा सकते हैं। इसका मतलब यह नहीं है कि वे बेहतर हैं। (इसका एक अच्छा उदाहरण मशीन लर्निंग में हैकर्स के लिए चर्चा की जाती है , अगर मुझे सही याद है।)