डिक्रान मार्सुपियल की टिप्पणी (क्रॉस-वैधीकरण) के लिए बस कुछ विस्तार। मुख्य विचार यह है कि अपने डेटा को किसी तरह से प्रशिक्षण और सत्यापन सेट में विभाजित करें, विभिन्न घटकों की कोशिश करें और संबंधित प्रशिक्षण और सत्यापन संभावना मूल्यों के आधार पर सर्वश्रेष्ठ का चयन करें।
GMM के लिए संभावना सिर्फ है परिभाषा के अनुसार, जहां घटकों की संख्या (क्लस्टर) और , , मॉडल पैरामीटर हैं। के मूल्य को बदलकर आप निम्न की तरह प्रशिक्षण और सत्यापन सेट के लिए GMM संभावना की साजिश कर सकते हैं।p(x|π,μ,Σ)=∑KπkN(x|μk,Σk)KπμΣK

इस उदाहरण में यह स्पष्ट होना चाहिए कि घटकों की इष्टतम संख्या लगभग 20 है। कौरसेरा पर इस बारे में अच्छा वीडियो है , और यह वह जगह है जहां से मुझे उपरोक्त चित्र मिला है।
एक और आमतौर पर इस्तेमाल की जाने वाली विधि बायेसियन सूचना मानदंड (बीआईसी) है :
जहां संभावना है, के मापदंडों की संख्या और डेटा बिंदुओं की संख्या । यह लॉग संभावना के लिए मापदंडों की संख्या के लिए एक दंड को जोड़ने के रूप में समझा जा सकता है।
BIC=−2log(L)+Klog(n)
Ln