संपादित करें: यह उत्तर एक गलत धारणा पर आधारित है, जो कि दिए गए सीमान्त गणनाओं की संभावना है जो केवल सीमांत संभावनाओं और । मैं अभी भी इसके बारे में सोच रहा हूं।px,ypx=∑ypx,ypy=∑xpx,y
गलत सामान इस प्रकार है:
जैसा कि एक टिप्पणी में उल्लेख किया गया है, लिए "अधिकतम संभावना अनुमानक" खोजने के साथ समस्या यह है कि यह अद्वितीय है। उदाहरण के लिए, बाइनरी और साथ मामले पर विचार करें । दो अनुमानकpx,yX,YS1=S2=T1=T2=10
p=(120012),p=(14141414)
सभी मामलों में समान सीमांत और , और इसलिए समान संभावनाएं हैं (दोनों जिनमें से अधिकतम संभावना है, जैसा कि आप सत्यापित कर सकते हैं)।pxpy
वास्तव में, कोई फर्क नहीं पड़ता कि मार्जिन क्या हैं (जब तक कि उनमें से दो प्रत्येक आयाम में नॉनज़रो हैं), अधिकतम संभावना समाधान अद्वितीय नहीं है। मैं इसे बाइनरी केस के लिए साबित करूँगा। बता दें कि एक अधिकतम संभावना समाधान है। सामान्यता के नुकसान के बिना मान लें । फिर का समान मार्जिन होता है और इस तरह यह एक अधिकतम-संभावना समाधान भी है।p=(acbd)0<a≤dp=(0c+ab+ad−a)
यदि आप इसके अलावा एक अधिकतम-एन्ट्रापी बाधा को लागू करना चाहते हैं , तो आप एक अनूठा समाधान प्राप्त करते हैं, जैसा कि एफ। टसेल ने कहा है कि वह समाधान है जिसमें स्वतंत्र हैं। आप इसे इस प्रकार देख सकते हैं:X,Y
वितरण की एन्ट्रापी ; अधिकतम करने के लिए विषय और (समकक्ष, जहां और ) का उपयोग करके Lagrange गुणक समीकरण देता है:H(p)=−∑x,ypx,ylogpx,y∑xpx,y=py∑ypx,y=pxg⃗ (p)=0gx(p)=∑ypx,y−pxgy(p)=∑xpx,y−py
∇H(p)=∑k∈X∪Yλk∇gk(p)
प्रत्येक सभी ग्रेडिएंट्स 1 हैं, इसलिए समन्वय-वार यह काम करता हैgk
1−logpx,y=λx+λy⟹px,y=e1−λx−λy
साथ ही मूल बाधाओं और । आप सत्यापित कर सकते हैं कि यह तब संतुष्ट है जब और ,Σ y पी एक्स , वाई = पी एक्स ई 1 / 2 - λ एक्स = पी एक्स∑xpx,y=py∑ypx,y=pxe1/2−λx=pxe1/2−λy=py
px,y=pxpy.
maximum-entropy