MaxEnt और Bayesian inference तरीके आपके मॉडलिंग प्रक्रिया में जानकारी को शामिल करने के विभिन्न तरीकों के अनुरूप हैं। दोनों को स्वयंसिद्ध जमीन (जॉन स्किलिंग के "एक्सीओम्स ऑफ मैक्सिमम एंट्रॉपी" और कॉक्स के "एलेब्रा ऑफ प्रोबेबल इन्फ्रेंस" ) पर रखा जा सकता है ।
यदि आपका पूर्व ज्ञान आपके परिकल्पना स्थान पर एक औसत दर्जे के वास्तविक-मूल्यवान फ़ंक्शन के रूप में आता है, तो बायेसियन दृष्टिकोण सीधा है, इसलिए "पूर्व" कहा जाता है। जब सूचना आपकी परिकल्पना के स्थान पर कठोर बाधाओं के एक सेट के रूप में आती है, तो MaxEnt सीधा है। वास्तविक जीवन में, ज्ञान न तो "पूर्व" रूप में और न ही "बाधा" रूप में आता है, इसलिए आपकी विधि की सफलता आपके ज्ञान को इसी रूप में प्रस्तुत करने की आपकी क्षमता पर निर्भर करती है।
एक खिलौना समस्या पर, बायेसियन मॉडल औसत आपको सबसे कम औसत लॉग-लॉस देगा (कई मॉडल ड्रॉ पर औसतन) जब पूर्व परिकल्पना का सही वितरण मेल खाता है। जब अधिकतम बाधाएँ संतुष्ट हो जाती हैं, तो मैक्सइंट अप्रोच आपको सबसे खराब स्थिति वाला लॉग-लॉस देगा (सबसे खराब संभव सभी पुजारियों पर
ETJaynes, जिसे "MaxEnt" विधियों का जनक माना जाता है, वह भी बायेसियन विधियों पर निर्भर थे। अपनी पुस्तक के पृष्ठ 1412 पर , वह एक उदाहरण देता है जहां बेयसियन दृष्टिकोण एक अच्छा समाधान हुआ, इसके बाद एक उदाहरण जहां मैक्सेंट दृष्टिकोण अधिक प्राकृतिक है।
अधिकतम संभावना अनिवार्य रूप से मॉडल को कुछ पूर्व-निर्धारित मॉडल स्थान के अंदर झूठ बोलने के लिए ले जाती है और इसे "जितना संभव हो उतना मुश्किल" फिट करने की कोशिश कर रही है, यह इस तरह के मॉडल के लिए प्रतिबंधित सभी मॉडल-चुनने के तरीकों से डेटा के लिए उच्चतम संवेदनशीलता होगी। अंतरिक्ष। जबकि MaxEnt और Bayesian चौखटे हैं, ML एक ठोस मॉडल फिटिंग विधि है, और कुछ विशेष डिज़ाइन विकल्पों के लिए, ML Bayesian या MaxEnt दृष्टिकोण से आने वाली विधि को समाप्त कर सकता है। उदाहरण के लिए, समानता बाधाओं के साथ MaxEnt एक निश्चित घातीय परिवार की अधिकतम संभावना फिटिंग के बराबर है। इसी तरह, बेइज़ियन इन्वेंशन का एक अनुमान नियमित रूप से अधिकतम संभावना समाधान को जन्म दे सकता है। यदि आप अपने निष्कर्षों को अधिकतम डेटा के प्रति संवेदनशील बनाने के लिए चुनते हैं, तो Bayesian inference का परिणाम अधिकतम लाइकिटेटरी फिटिंग के अनुरूप होगा। उदाहरण के लिए,p over Bernoulli trials, such prior would be the limiting distribution Beta(0,0)
Real-life Machine Learning successes are often a mix of various philosophies. For instance, "Random Fields" were derived from MaxEnt principles. Most popular implementation of the idea, regularized CRF, involves adding a "prior" on the parameters. As a result, the method is not really MaxEnt nor Bayesian, but influenced by both schools of thought.
I've collected some links on philosophical foundations of Bayesian and MaxEnt approaches here and here.
Note on terminology: sometimes people call their method Bayesian simply if it uses Bayes rule at some point. Likewise, "MaxEnt" is sometimes used for some method that favors high entropy solutions. This is not the same as "MaxEnt inference" or "Bayesian inference" as described above