एक्सपेक्टेशन मैक्सिमाइजेशन तकनीक की सहज व्याख्या क्या है? [बन्द है]


109

एक्सपेक्टेशन मैक्सिमाइजेशन (ईएम) डेटा को वर्गीकृत करने के लिए एक तरह की संभावनावादी विधि है। कृपया मुझे सही करें अगर मैं गलत हूं तो यह एक क्लासिफायरियर नहीं है।

इस ईएम तकनीक का एक सहज स्पष्टीकरण क्या है? expectationयहाँ क्या है और क्या किया जा रहा है maximized?


12
उम्मीद अधिकतमकरण एल्गोरिथ्म क्या है? , नेचर बायोटेक्नोलॉजी 26 , 897–899 (2008) में एक अच्छी तस्वीर है जो दर्शाती है कि एल्गोरिदम कैसे काम करता है।
chl

@chl अच्छी तस्वीर के भाग b में , उन्हें Z (यानी, 0.45xA, 0.55xB, आदि) पर प्रायिकता वितरण के मान कैसे मिले?
नोब साईबोट

3
आप इस प्रश्न को देख सकते हैं math.stackexchange.com/questions/25111/…
v4r

3
उस चित्र का अपडेट किया गया लिंक , जिसका @chl ने उल्लेख किया है।
n1k31t4

जवाबों:


120

नोट: इस उत्तर के पीछे का कोड यहां पाया जा सकता है


मान लें कि हमारे पास कुछ डेटा दो अलग-अलग समूहों से लाल और नीले रंग के हैं:

यहां छवि विवरण दर्ज करें

यहां, हम देख सकते हैं कि कौन सा डेटा बिंदु लाल या नीले समूह का है। यह उन मापदंडों को खोजना आसान बनाता है जो प्रत्येक समूह को चिह्नित करते हैं। उदाहरण के लिए, लाल समूह का मतलब 3 के आसपास है, नीले समूह का मतलब लगभग 7 है (और अगर हम चाहते थे तो हम इसका सटीक मतलब पा सकते हैं)।

यह आम तौर पर बोल रहा है, अधिकतम संभावना अनुमान के रूप में जाना जाता है । कुछ आंकड़ों को देखते हुए, हम एक पैरामीटर (या पैरामीटर) के मूल्य की गणना करते हैं जो उस डेटा को सबसे अच्छा समझाता है।

अब कल्पना करें कि हम यह नहीं देख सकते हैं कि किस समूह से किस मूल्य का नमूना लिया गया है। सब कुछ हमें बैंगनी दिखता है:

यहां छवि विवरण दर्ज करें

यहां हमारे पास यह ज्ञान है कि मूल्यों के दो समूह हैं, लेकिन हम यह नहीं जानते कि कोई विशेष मूल्य किस समूह का है।

क्या हम अभी भी लाल समूह और नीले समूह के साधनों का अनुमान लगा सकते हैं जो इस डेटा को सबसे उपयुक्त मानते हैं?

हाँ, अक्सर हम कर सकते हैं! उम्मीद अधिकतमकरण हमें इसे करने का एक तरीका देता है। एल्गोरिथ्म के पीछे बहुत सामान्य विचार यह है:

  1. प्रत्येक पैरामीटर क्या हो सकता है, इसके प्रारंभिक अनुमान से शुरू करें।
  2. संभावना की गणना करें कि प्रत्येक पैरामीटर डेटा बिंदु का उत्पादन करता है।
  3. प्रत्येक डेटा बिंदु के लिए वजन की गणना करें, यह दर्शाता है कि यह एक पैरामीटर द्वारा उत्पादित होने की संभावना के आधार पर अधिक लाल या अधिक नीला है। डेटा ( अपेक्षा ) के साथ वजन को मिलाएं ।
  4. भार-समायोजित डेटा ( अधिकतमकरण ) का उपयोग करते हुए मापदंडों के लिए एक बेहतर अनुमान की गणना करें ।
  5. चरण 2 से 4 को तब तक दोहराएं जब तक कि पैरामीटर अनुमान न बदल जाए (प्रक्रिया अलग अनुमान लगाना बंद कर देती है)।

इन चरणों को कुछ और स्पष्टीकरण की आवश्यकता है, इसलिए मैं ऊपर वर्णित समस्या से गुजरूंगा।

उदाहरण: माध्य और मानक विचलन का अनुमान लगाना

मैं इस उदाहरण में पायथन का उपयोग करूँगा, लेकिन यदि आपको इस भाषा से परिचित नहीं है तो कोड को समझना काफी आसान होना चाहिए।

मान लें कि हमारे पास दो समूह हैं, लाल और नीला, जैसा कि ऊपर की छवि में वितरित मूल्यों के साथ है। विशेष रूप से, प्रत्येक समूह में निम्न मापदंडों के साथ एक सामान्य वितरण से लिया गया मूल्य होता है :

import numpy as np
from scipy import stats

np.random.seed(110) # for reproducible results

# set parameters
red_mean = 3
red_std = 0.8

blue_mean = 7
blue_std = 2

# draw 20 samples from normal distributions with red/blue parameters
red = np.random.normal(red_mean, red_std, size=20)
blue = np.random.normal(blue_mean, blue_std, size=20)

both_colours = np.sort(np.concatenate((red, blue))) # for later use...

यहाँ इन लाल और नीले समूहों की एक छवि फिर से है (स्क्रॉल करने के लिए आपको बचाने के लिए):

यहां छवि विवरण दर्ज करें

जब हम प्रत्येक बिंदु का रंग देख सकते हैं (अर्थात यह किस समूह से संबंधित है), प्रत्येक समूह के लिए माध्य और मानक विचलन का अनुमान लगाना बहुत आसान है। हम सिर्फ NumPy में निर्मित कार्यों के लिए लाल और नीले मूल्यों को पास करते हैं। उदाहरण के लिए:

>>> np.mean(red)
2.802
>>> np.std(red)
0.871
>>> np.mean(blue)
6.932
>>> np.std(blue)
2.195

लेकिन क्या होगा अगर हम बिंदुओं के रंग नहीं देख सकते हैं? यही है, लाल या नीले रंग के बजाय, हर बिंदु को बैंगनी रंग दिया गया है।

लाल और नीले समूहों के लिए माध्य और मानक विचलन मापदंडों को आजमाने और पुनर्प्राप्त करने के लिए, हम एक्सपेक्टेशन मैक्सिमाइजेशन का उपयोग कर सकते हैं।

हमारा पहला चरण ( चरण 1 ऊपर) प्रत्येक समूह के माध्य और मानक विचलन के लिए पैरामीटर मानों का अनुमान लगाना है। हमें समझदारी से अनुमान लगाने की ज़रूरत नहीं है; हम अपनी पसंद का कोई भी नंबर ले सकते हैं:

# estimates for the mean
red_mean_guess = 1.1
blue_mean_guess = 9

# estimates for the standard deviation
red_std_guess = 2
blue_std_guess = 1.7

ये पैरामीटर अनुमान घंटी घटता का उत्पादन करते हैं जो इस तरह दिखते हैं:

यहां छवि विवरण दर्ज करें

ये बुरे अनुमान हैं। दोनों का मतलब है (ऊर्ध्वाधर बिंदीदार रेखाएं) उदाहरण के लिए, समझदार समूहों के लिए किसी भी तरह के "मध्य" से दूर दिखती हैं। हम इन अनुमानों में सुधार करना चाहते हैं।

अगला चरण ( चरण 2 ) वर्तमान पैरामीटर अनुमान के तहत प्रदर्शित होने वाले प्रत्येक डेटा बिंदु की संभावना की गणना करना है:

likelihood_of_red = stats.norm(red_mean_guess, red_std_guess).pdf(both_colours)
likelihood_of_blue = stats.norm(blue_mean_guess, blue_std_guess).pdf(both_colours)

यहां, हमने प्रत्येक डेटा बिंदु को लाल और नीले रंग के लिए विचलन और मानक विचलन पर हमारे वर्तमान अनुमानों का उपयोग करके सामान्य वितरण के लिए प्रायिकता घनत्व फ़ंक्शन में डाल दिया है । यह हमें बताता है, उदाहरण के लिए, कि हमारे वर्तमान अनुमान के साथ 1.761 पर डेटा बिंदु है बहुत अधिक लाल होने के लिए (0.189) नीले से (0.00003) की संभावना है।

प्रत्येक डेटा बिंदु के लिए, हम इन दो संभावना मानों को वज़न ( चरण 3 ) में बदल सकते हैं ताकि वे इस प्रकार 1 से योग करें:

likelihood_total = likelihood_of_red + likelihood_of_blue

red_weight = likelihood_of_red / likelihood_total
blue_weight = likelihood_of_blue / likelihood_total

हमारे वर्तमान अनुमानों और हमारे नव-गणना भार के साथ, अब हम लाल और नीले समूहों के माध्य और मानक विचलन के लिए नए अनुमानों की गणना कर सकते हैं ( चरण 4 )।

हम सभी डेटा बिंदुओं का उपयोग करते हुए दो बार माध्य और मानक विचलन की गणना करते हैं , लेकिन अलग-अलग भार के साथ: एक बार लाल वजन के लिए और एक बार नीले वजन के लिए।

अंतर्ज्ञान की कुंजी बिट है कि डेटा बिंदु पर एक रंग का वजन जितना अधिक होता है, उतना ही अधिक डेटा बिंदु उस रंग के मापदंडों के लिए अगले अनुमानों को प्रभावित करता है। यह मापदंडों को सही दिशा में "खींचने" का प्रभाव है।

def estimate_mean(data, weight):
    """
    For each data point, multiply the point by the probability it
    was drawn from the colour's distribution (its "weight").

    Divide by the total weight: essentially, we're finding where 
    the weight is centred among our data points.
    """
    return np.sum(data * weight) / np.sum(weight)

def estimate_std(data, weight, mean):
    """
    For each data point, multiply the point's squared difference
    from a mean value by the probability it was drawn from
    that distribution (its "weight").

    Divide by the total weight: essentially, we're finding where 
    the weight is centred among the values for the difference of
    each data point from the mean.

    This is the estimate of the variance, take the positive square
    root to find the standard deviation.
    """
    variance = np.sum(weight * (data - mean)**2) / np.sum(weight)
    return np.sqrt(variance)

# new estimates for standard deviation
blue_std_guess = estimate_std(both_colours, blue_weight, blue_mean_guess)
red_std_guess = estimate_std(both_colours, red_weight, red_mean_guess)

# new estimates for mean
red_mean_guess = estimate_mean(both_colours, red_weight)
blue_mean_guess = estimate_mean(both_colours, blue_weight)

हमारे पास मापदंडों के लिए नए अनुमान हैं। उन्हें फिर से सुधारने के लिए, हम चरण 2 पर वापस जा सकते हैं और प्रक्रिया को दोहरा सकते हैं। हम अनुमानों के अभिसरण होने तक या कुछ पुनरावृत्तियों का प्रदर्शन करने के बाद ऐसा करते हैं ( चरण 5 )।

हमारे डेटा के लिए, इस प्रक्रिया के पहले पांच पुनरावृत्तियों इस तरह दिखते हैं (हाल ही में पुनरावृत्तियों की उपस्थिति मजबूत है):

यहां छवि विवरण दर्ज करें

हम देखते हैं कि साधन पहले से ही कुछ मूल्यों पर परिवर्तित हो रहे हैं, और घटता (मानक विचलन द्वारा शासित) का आकार भी अधिक स्थिर होता जा रहा है।

यदि हम 20 पुनरावृत्तियों के लिए जारी रखते हैं, तो हम निम्नलिखित को समाप्त करते हैं:

यहां छवि विवरण दर्ज करें

EM प्रक्रिया निम्न मानों में परिवर्तित हो गई है, जो वास्तविक मूल्यों के बहुत करीब पहुंच जाती हैं (जहां हम रंगों को देख सकते हैं - कोई छिपा हुआ चर नहीं):

          | EM guess | Actual |  Delta
----------+----------+--------+-------
Red mean  |    2.910 |  2.802 |  0.108
Red std   |    0.854 |  0.871 | -0.017
Blue mean |    6.838 |  6.932 | -0.094
Blue std  |    2.227 |  2.195 |  0.032

ऊपर दिए गए कोड में आपने देखा होगा कि मानक विचलन के लिए नए अनुमान की गणना इस अर्थ के लिए पिछले पुनरावृत्ति अनुमान का उपयोग करके की गई थी। अंतत: इससे कोई फर्क नहीं पड़ता कि हम इस मतलब के लिए एक नए मूल्य की गणना करते हैं क्योंकि हम केवल कुछ केंद्रीय बिंदु के आसपास मूल्यों का विचरण (भारित) संस्करण खोज रहे हैं। हम अभी भी मापदंडों के अभिसरण के अनुमान देखेंगे।


क्या होगा अगर हम सामान्य वितरण की संख्या भी नहीं जानते हैं जिससे यह आ रहा है? यहाँ आपने k = 2 वितरण का उदाहरण लिया है, क्या हम k और k के पैरामीटर का अनुमान लगा सकते हैं?
स्टैकिट

1
@stackit: मुझे यकीन नहीं है कि इस मामले में EM प्रक्रिया के भाग के रूप में k के सबसे संभावित मूल्य की गणना करने के लिए एक सामान्य सामान्य तरीका है। मुख्य मुद्दा यह है कि हम जिन मापदंडों को खोजना चाहते हैं, उनमें से प्रत्येक के लिए अनुमान के साथ ईएम को शुरू करने की आवश्यकता है, और इससे पहले कि हम शुरू होने से पहले हमें कश्मीर को जानना / अनुमान करना होगा। हालांकि, ईएम के माध्यम से एक समूह से संबंधित बिंदुओं के अनुपात का अनुमान लगाना संभव है। हो सकता है कि अगर हम कश्मीर को पछाड़ दें, तो सभी समूहों में से दो का अनुपात शून्य के करीब चला जाएगा। मैंने इसके साथ प्रयोग नहीं किया है, इसलिए मुझे नहीं पता कि यह व्यवहार में कितना अच्छा होगा।
एलेक्स रिले

1
@AlexRiley क्या आप नए माध्य और मानक विचलन अनुमानों की गणना के लिए सूत्रों के बारे में थोड़ा और कह सकते हैं?
लेमन

2
@AlexRiley स्पष्टीकरण के लिए धन्यवाद। माध्य के पुराने अनुमान का उपयोग करके नए मानक विचलन अनुमानों की गणना क्यों की जाती है? यदि माध्य का नया अनुमान पहले मिल जाए तो क्या होगा?
GoodDeeds

1
@ लेमन गुडड्स कौशल - आपके सवालों के देर से जवाब के लिए माफी। मैंने आपके द्वारा उठाए गए बिंदुओं को संबोधित करने के लिए उत्तर को संपादित करने की कोशिश की है। मैंने इस उत्तर में उपयोग किए गए सभी कोड को यहां एक नोटबुक में भी सुलभ करवाया है (जिसमें कुछ बिंदुओं के विवरण भी शामिल हैं जिन्हें मैंने छुआ था)।
एलेक्स रिले

36

EM एक संभावना फ़ंक्शन को अधिकतम करने के लिए एक एल्गोरिथ्म है जब आपके मॉडल में कुछ चर अनब्सॉर्बड होते हैं (यानी जब आपके पास अव्यक्त चर होते हैं)।

यदि आप अभी-अभी किसी फ़ंक्शन को अधिकतम करने का प्रयास कर रहे हैं, तो आप पूछ सकते हैं कि हम किसी फ़ंक्शन को अधिकतम करने के लिए मौजूदा मशीनरी का उपयोग क्यों नहीं करते हैं। ठीक है, यदि आप इसे व्युत्पन्न करके अधिकतम करने की कोशिश करते हैं और उन्हें शून्य पर सेट करते हैं, तो आप पाते हैं कि कई मामलों में पहले-क्रम की स्थितियों में समाधान नहीं है। इसमें एक चिकन-और-अंडे की समस्या है जिसमें आपके मॉडल मापदंडों को हल करने के लिए आपको अपने बिना पढ़े हुए डेटा के वितरण की आवश्यकता है; लेकिन आपके बिना डेटा के वितरण आपके मॉडल मापदंडों का एक कार्य है।

ईएम इसके बारे में अनुमान लगाने की कोशिश करता है कि यह बिना बताए गए डेटा के लिए वितरण का अनुमान लगाता है, फिर मॉडल मापदंडों का आकलन किसी ऐसी चीज को अधिकतम करके करता है जो वास्तविक संभावना फ़ंक्शन पर कम बाध्य होती है, और अभिसरण तक दोहराई जाती है:

EM एल्गोरिथ्म

अपने मॉडल मापदंडों के मूल्यों के लिए अनुमान से शुरू करें

ई-चरण: प्रत्येक डेटापॉइंट के लिए, जिसमें लापता मान हैं, अपने मॉडल समीकरण का उपयोग करके लापता डेटा के वितरण के लिए मॉडल मापदंडों के अपने वर्तमान अनुमान को देखते हुए और अवलोकन किए गए डेटा (ध्यान दें कि आप प्रत्येक लापता के लिए एक वितरण के लिए हल कर रहे हैं) का उपयोग करें मूल्य, अपेक्षित मूल्य के लिए नहीं)। अब जब हमारे पास प्रत्येक गुम मूल्य के लिए एक वितरण है, तो हम अप्रमाणित चर के संबंध में संभावना फ़ंक्शन की अपेक्षा की गणना कर सकते हैं । यदि मॉडल पैरामीटर के लिए हमारा अनुमान सही था, तो यह अपेक्षित संभावना हमारे देखे गए डेटा की वास्तविक संभावना होगी; यदि पैरामीटर सही नहीं थे, तो यह केवल एक कम बाध्य होगा।

एम-स्टेप: अब जबकि हमें इसमें कोई अप्रमाणित चर के साथ एक अपेक्षित संभावना फ़ंक्शन मिल गया है, तो फ़ंक्शन को अधिकतम करें जैसा कि आप अपने मॉडल मापदंडों का एक नया अनुमान प्राप्त करने के लिए, पूरी तरह से देखे गए मामले में करेंगे।

अभिसरण तक दोहराएँ।


5
मुझे आपका ई-स्टेप समझ नहीं आ रहा है। समस्या का एक हिस्सा यह है कि जैसा कि मैं इस सामान को सीख रहा हूं, मैं ऐसे लोगों को नहीं खोज सकता जो समान शब्दावली का उपयोग करते हैं। तो आपको मॉडल समीकरण से क्या मतलब है? मैं नहीं जानता कि संभावना वितरण के लिए हल करने से आपका क्या मतलब है?
user678392

27

यहां एक्सपेक्टेशन मैक्सिमाइजेशन एल्गोरिदम को समझने के लिए एक स्ट्रेट-फॉरवर्ड रेसिपी है:

1- इस EM ट्यूटोरियल पेपर को Do और Batzoglou द्वारा पढ़ें ।

2- आपके सिर में प्रश्न चिह्न हो सकते हैं, इस गणित स्टैक एक्सचेंज पृष्ठ पर स्पष्टीकरण पर एक नज़र डालें ।

3- इस कोड को देखें जो मैंने पायथन में लिखा था जो आइटम 1 के ईएम ट्यूटोरियल पेपर में उदाहरण बताता है।

चेतावनी: कोड गन्दा / उप-प्रकार हो सकता है, क्योंकि मैं अजगर डेवलपर नहीं हूं। लेकिन यह काम करता है।

import numpy as np
import math

#### E-M Coin Toss Example as given in the EM tutorial paper by Do and Batzoglou* #### 

def get_mn_log_likelihood(obs,probs):
    """ Return the (log)likelihood of obs, given the probs"""
    # Multinomial Distribution Log PMF
    # ln (pdf)      =             multinomial coeff            *   product of probabilities
    # ln[f(x|n, p)] = [ln(n!) - (ln(x1!)+ln(x2!)+...+ln(xk!))] + [x1*ln(p1)+x2*ln(p2)+...+xk*ln(pk)]     

    multinomial_coeff_denom= 0
    prod_probs = 0
    for x in range(0,len(obs)): # loop through state counts in each observation
        multinomial_coeff_denom = multinomial_coeff_denom + math.log(math.factorial(obs[x]))
        prod_probs = prod_probs + obs[x]*math.log(probs[x])

    multinomial_coeff = math.log(math.factorial(sum(obs))) -  multinomial_coeff_denom
    likelihood = multinomial_coeff + prod_probs
    return likelihood

# 1st:  Coin B, {HTTTHHTHTH}, 5H,5T
# 2nd:  Coin A, {HHHHTHHHHH}, 9H,1T
# 3rd:  Coin A, {HTHHHHHTHH}, 8H,2T
# 4th:  Coin B, {HTHTTTHHTT}, 4H,6T
# 5th:  Coin A, {THHHTHHHTH}, 7H,3T
# so, from MLE: pA(heads) = 0.80 and pB(heads)=0.45

# represent the experiments
head_counts = np.array([5,9,8,4,7])
tail_counts = 10-head_counts
experiments = zip(head_counts,tail_counts)

# initialise the pA(heads) and pB(heads)
pA_heads = np.zeros(100); pA_heads[0] = 0.60
pB_heads = np.zeros(100); pB_heads[0] = 0.50

# E-M begins!
delta = 0.001  
j = 0 # iteration counter
improvement = float('inf')
while (improvement>delta):
    expectation_A = np.zeros((5,2), dtype=float) 
    expectation_B = np.zeros((5,2), dtype=float)
    for i in range(0,len(experiments)):
        e = experiments[i] # i'th experiment
        ll_A = get_mn_log_likelihood(e,np.array([pA_heads[j],1-pA_heads[j]])) # loglikelihood of e given coin A
        ll_B = get_mn_log_likelihood(e,np.array([pB_heads[j],1-pB_heads[j]])) # loglikelihood of e given coin B

        weightA = math.exp(ll_A) / ( math.exp(ll_A) + math.exp(ll_B) ) # corresponding weight of A proportional to likelihood of A 
        weightB = math.exp(ll_B) / ( math.exp(ll_A) + math.exp(ll_B) ) # corresponding weight of B proportional to likelihood of B                            

        expectation_A[i] = np.dot(weightA, e) 
        expectation_B[i] = np.dot(weightB, e)

    pA_heads[j+1] = sum(expectation_A)[0] / sum(sum(expectation_A)); 
    pB_heads[j+1] = sum(expectation_B)[0] / sum(sum(expectation_B)); 

    improvement = max( abs(np.array([pA_heads[j+1],pB_heads[j+1]]) - np.array([pA_heads[j],pB_heads[j]]) ))
    j = j+1

मुझे लगता है कि आपके कार्यक्रम का परिणाम ए और बी दोनों में 0.66 होगा, मैं इसे स्कैला का उपयोग करके भी लागू करता हूं, यह भी पता लगाएं कि परिणाम 0.66 है, क्या आप इसे जांचने में मदद कर सकते हैं?
zjffdu

एक स्प्रेडशीट का उपयोग करते हुए, मैं केवल आपके 0.66 परिणाम पाता हूं यदि मेरे प्रारंभिक अनुमान समान हैं। अन्यथा, मैं ट्यूटोरियल के आउटपुट को पुन: उत्पन्न कर सकता हूं।
18

@zjffdu, 0.66 आपको लौटाने से पहले कितने पुनरावृत्तियों को चलाता है? यदि आप समान मूल्यों के साथ आरंभ करते हैं, तो यह एक स्थानीय अधिकतम पर अटक सकता है और आप देखेंगे कि पुनरावृत्तियों की संख्या बेहद कम है (क्योंकि कोई सुधार नहीं है)।
ज़ुर्बर्ब


16

तकनीकी रूप से "ईएम" शब्द थोड़ा अशिक्षित है, लेकिन मुझे लगता है कि आप गाऊसी मिक्चर मॉडलिंग क्लस्टर विश्लेषण तकनीक का संदर्भ देते हैं, जो सामान्य ईएम सिद्धांत का एक उदाहरण है।

दरअसल, EM क्लस्टर विश्लेषण एक क्लासिफायरियर नहीं है । मुझे पता है कि कुछ लोग क्लस्टरिंग को "असुरक्षित वर्गीकरण" मानते हैं, लेकिन वास्तव में क्लस्टर विश्लेषण कुछ अलग है।

मुख्य अंतर और बड़ी गलतफहमी वर्गीकरण लोगों के पास हमेशा क्लस्टर विश्लेषण के साथ होता है: क्लस्टर एनाल्जेसिस में, "सही निदान" नहीं है । यह एक ज्ञान की खोज विधि है, यह वास्तव में कुछ नया खोजने के लिए है ! इससे मूल्यांकन बहुत मुश्किल हो जाता है। यह अक्सर संदर्भ के रूप में एक ज्ञात वर्गीकरण का उपयोग करके मूल्यांकन किया जाता है, लेकिन यह हमेशा उपयुक्त नहीं होता है: आपके पास जो वर्गीकरण है वह डेटा में क्या है या नहीं प्रतिबिंबित कर सकता है।

मैं आपको एक उदाहरण देता हूं: आपके पास लिंग डेटा सहित ग्राहकों का एक बड़ा डेटा सेट है। एक विधि जो इस डेटा को "पुरुष" और "महिला" में विभाजित करती है, जब आप मौजूदा कक्षाओं के साथ तुलना करते हैं तो यह इष्टतम है। "भविष्यवाणी" में सोचने का तरीका अच्छा है, क्योंकि नए उपयोगकर्ताओं के लिए अब आप उनके लिंग का अनुमान लगा सकते हैं। सोचने के "ज्ञान की खोज" में यह वास्तव में बुरा है, क्योंकि आप डेटा में कुछ नई संरचना की खोज करना चाहते थे । एक तरीका जो कि बुजुर्गों और बच्चों में डेटा को विभाजित करेगा, हालांकि यह उतना ही बुरा होगा जितना कि पुरुष / महिला वर्ग के संबंध में हो सकता है । हालांकि, यह एक उत्कृष्ट क्लस्टरिंग परिणाम होगा (यदि आयु नहीं दी गई थी)।

अब वापस ई.एम. अनिवार्य रूप से यह मानता है कि आपका डेटा कई मल्टीवेरेट सामान्य वितरणों से बना है (ध्यान दें कि यह एक बहुत मजबूत धारणा है, विशेष रूप से जब आप समूहों की संख्या को ठीक करते हैं!)। फिर यह मॉडल के लिए वैकल्पिक रूप से मॉडल और ऑब्जेक्ट असाइनमेंट में सुधार करके इसके लिए एक स्थानीय इष्टतम मॉडल खोजने की कोशिश करता है ।

वर्गीकरण के संदर्भ में सर्वोत्तम परिणामों के लिए, वर्गों की संख्या से बड़े समूहों की संख्या चुनें , या केवल एकल कक्षाओं के लिए क्लस्टरिंग लागू करें (यह पता लगाने के लिए कि क्या कक्षा के भीतर कुछ संरचना है!)।

कहते हैं कि आप "कार", "बाइक" और "ट्रक" के अलावा बताने के लिए एक क्लासिफायर ट्रेन करना चाहते हैं। वास्तव में 3 सामान्य वितरण से मिलकर डेटा को संभालने में बहुत कम उपयोग होता है। हालाँकि, आप मान सकते हैं कि एक से अधिक प्रकार की कारें (और ट्रक और बाइक) हैं। इसलिए इन तीन वर्गों के लिए एक क्लासिफायरियर प्रशिक्षण के बजाय, आप कारों, ट्रकों और बाइक को 10 समूहों में विभाजित करते हैं (या शायद 10 कारें, 3 ट्रक और 3 बाइक, जो भी हो), फिर इन 30 वर्गों के अलावा बताने के लिए एक क्लासिफायर ट्रेन करें, और फिर कक्षा के परिणाम को मूल कक्षाओं में वापस मर्ज करें। आपको यह भी पता चल सकता है कि एक क्लस्टर है जिसे विशेष रूप से वर्गीकृत करना मुश्किल है, उदाहरण के लिए ट्राइक्स। वे कुछ हद तक कार, और कुछ बाइक हैं। या डिलीवरी ट्रक, जो ट्रकों की तुलना में ओवरसाइड कारों की तरह हैं।


EM अनडिसिफाइड कैसे है?
सैम बोसालिस

इसका एक से अधिक संस्करण है। तकनीकी रूप से, आप लॉयड शैली के-साधन को "ईएम" भी कह सकते हैं। आपको यह निर्दिष्ट करने की आवश्यकता है कि आप किस मॉडल का उपयोग करते हैं।
है क्विट - Anony-Mousse

2

अन्य जवाब अच्छे हैं, मैं एक और परिप्रेक्ष्य प्रदान करने और प्रश्न के सहज भाग से निपटने की कोशिश करूंगा।

EM (एक्सपेक्टेशन-मैक्सिमाइजेशन) एल्गोरिथ्म द्वैत का उपयोग करते हुए चलने वाले एल्गोरिदम के एक वर्ग का एक प्रकार है

अंश (जोर मेरा):

गणित में, एक द्वैत, आम तौर पर, अवधारणाओं, प्रमेयों या गणितीय संरचनाओं को अन्य अवधारणाओं, प्रमेयों या संरचनाओं में अनुवाद करता है, एक-से-एक फैशन में, अक्सर (लेकिन हमेशा नहीं) एक चालान ऑपरेशन के माध्यम से: यदि दोहरी A, B है, तो B का दोहराव A है। ऐसे प्रस्तावों में कभी-कभी निश्चित बिंदु होते हैं , ताकि A का दोहराव स्वयं A हो

आमतौर पर एक वस्तु ए का एक दोहरी बी किसी तरह से संबंधित होता है जो कुछ समरूपता या संगतता को संरक्षित करता है । उदाहरण के लिए AB = const

पुनरावृत्त एल्गोरिदम के उदाहरण, द्वैत को नियोजित करते हैं (पिछले अर्थ में):

  1. यूक्लिडियन एल्गोरिथ्म ग्रेटेस्ट कॉमन डिविज़र, और इसके वेरिएंट के लिए
  2. ग्राम-श्मिट वेक्टर बेसिस एल्गोरिथ्म और वेरिएंट
  3. अंकगणितीय माध्य - ज्यामितीय माध्य असमानता, और इसके प्रकार
  4. अपेक्षा-अधिकतमकरण एल्गोरिथ्म और इसके प्रकार ( सूचना-ज्यामितीय दृश्य के लिए यहां भी देखें )
  5. (.. अन्य समान एल्गोरिदम ..)

इसी तरह से, ईएम एल्गोरिथ्म को दो दोहरे अधिकतमकरण चरणों के रूप में भी देखा जा सकता है :

.. [EM] को मापदंडों के संयुक्त कार्य को और अप्रमाणित चर पर वितरण के अधिकतम के रूप में देखा जाता है .. E- चरण इस कार्य को अधिकतम चर पर वितरण के संबंध में अधिकतम करता है; मानकों के संबंध में एम कदम

द्वंद्व का उपयोग करते हुए एक पुनरावृत्ति एल्गोरिथ्म में अभिसरण के संतुलन (या निश्चित) बिंदु की स्पष्ट (या निहित) धारणा है (ईएम के लिए यह जेनसन की असमानता का उपयोग करके साबित किया गया है)

तो ऐसे एल्गोरिदम की रूपरेखा है:

  1. ई-लाइक चरण: दिए गए y के संबंध में सर्वश्रेष्ठ समाधान x को स्थिर रखें।
  2. M- जैसा कदम (दोहरा): x के संबंध में सबसे अच्छा समाधान y ज्ञात करें (जैसा कि पिछले चरण में गणना की गई थी) स्थिर रखा गया।
  3. समापन / कन्वर्जेंस कदम का मानदंड: चरणों को दोहराएँ 1, के अद्यतन मूल्यों के साथ 2 एक्स , वाई अभिसरण तक (या पुनरावृत्तियों की निर्धारित संख्या तक पहुँच जाता है)

ध्यान दें कि जब इस तरह के एल्गोरिथ्म एक (वैश्विक) इष्टतम में परिवर्तित हो जाता है, तो यह एक कॉन्फ़िगरेशन पाया गया है जो दोनों इंद्रियों में सबसे अच्छा है (यानी एक्स डोमेन / पैरामीटर और वाई डोमेन / पैरामीटर दोनों)। हालाँकि एल्गोरिथ्म सिर्फ एक स्थानीय इष्टतम पा सकता है और वैश्विक इष्टतम नहीं।

मैं कहूंगा कि यह एल्गोरिथ्म की रूपरेखा का सहज वर्णन है

सांख्यिकीय तर्कों और अनुप्रयोगों के लिए, अन्य उत्तरों ने अच्छी व्याख्या दी है (इस उत्तर में संदर्भ भी देखें)


2

स्वीकृत उत्तर चुओंग ईएम पेपर का संदर्भ देता है , जो ईएम को समझाते हुए एक अच्छा काम करता है। एक यूट्यूब वीडियो भी है जो पेपर को अधिक विस्तार से बताता है।

पुनरावृत्ति करने के लिए, यहाँ परिदृश्य है:

1st:  {H,T,T,T,H,H,T,H,T,H} 5 Heads, 5 Tails; Did coin A or B generate me?
2nd:  {H,H,H,H,T,H,H,H,H,H} 9 Heads, 1 Tails
3rd:  {H,T,H,H,H,H,H,T,H,H} 8 Heads, 2 Tails
4th:  {H,T,H,T,T,T,H,H,T,T} 4 Heads, 6 Tails
5th:  {T,H,H,H,T,H,H,H,T,H} 7 Heads, 3 Tails

Two possible coins, A & B are used to generate these distributions.
A & B have an unknown parameter: their bias towards heads.

We don't know the biases, but we can simply start with a guess: A=60% heads, B=50% heads.

पहले परीक्षण के सवाल के मामले में, सहजता से हम सोचेंगे कि बी ने इसे उत्पन्न किया क्योंकि सिर का अनुपात बी के पूर्वाग्रह से बहुत अच्छी तरह से मेल खाता है ... लेकिन यह मूल्य सिर्फ एक अनुमान था, इसलिए हम निश्चित नहीं हो सकते।

इसे ध्यान में रखते हुए, मैं इस तरह ईएम समाधान के बारे में सोचना पसंद करता हूं:

  • फ़्लिप के प्रत्येक परीक्षण को 'वोट' मिलता है, जिस पर यह सबसे अधिक पसंद करता है
    • यह इस बात पर आधारित है कि प्रत्येक सिक्का अपने वितरण के लिए कितना उपयुक्त है
    • या, सिक्के के दृष्टिकोण से, इस परीक्षण को अन्य सिक्के ( लॉग संभावना के आधार पर ) के सापेक्ष देखने की उच्च उम्मीद है ।
  • यह निर्भर करता है कि प्रत्येक ट्रायल प्रत्येक सिक्के को कितना पसंद करता है, यह उस सिक्के के पैरामीटर (पूर्वाग्रह) के अनुमान को अपडेट कर सकता है।
    • जितना अधिक एक परीक्षण एक सिक्का पसंद करता है, उतना ही यह सिक्का के पूर्वाग्रह को अद्यतन करने के लिए अपने स्वयं के प्रतिबिंबित करने के लिए मिलता है!
    • अनिवार्य रूप से सिक्का के गैसों को सभी परीक्षणों में इन भारित अद्यतनों को जोड़कर अद्यतन किया जाता है, एक प्रक्रिया जिसे ( अधिकतमकरण ) कहा जाता है , जो प्रत्येक सिक्के के पूर्वाग्रह के लिए सबसे अच्छा अनुमान प्राप्त करने की कोशिश को संदर्भित करता है जिसे परीक्षणों का एक सेट दिया गया है।

यह एक oversimplification (या कुछ स्तरों पर मौलिक रूप से गलत भी) हो सकता है, लेकिन मुझे आशा है कि यह सहज स्तर पर मदद करता है!


1

EM का उपयोग अव्यक्त चर Z वाले मॉडल Q की संभावना को अधिकतम करने के लिए किया जाता है।

यह एक पुनरावृत्ति अनुकूलन है।

theta <- initial guess for hidden parameters
while not converged:
    #e-step
    Q(theta'|theta) = E[log L(theta|Z)]
    #m-step
    theta <- argmax_theta' Q(theta'|theta)

ई-चरण: जेड के वर्तमान अनुमान को देखते हुए अपेक्षित लॉगलिकेलहुड फ़ंक्शन की गणना करें

m-step: वह थीटा खोजे जो इस Q को अधिकतम करता है

GMM उदाहरण:

ई-चरण: वर्तमान डेटा-पैरामीटर अनुमान के अनुसार प्रत्येक डेटापॉइंट के लिए लेबल असाइनमेंट का अनुमान लगाएं

एम-स्टेप: नया लेबल असिगमेंट दिए गए नए थीटा को अधिकतम करें

K- साधन भी एक EM एल्गोरिथ्म है और K- साधनों पर एनिमेशन की बहुत व्याख्या है।


1

डू और बैटज़ोग्लू द्वारा एक ही लेख का उपयोग करके ज़ुर्बर् के उत्तर में उद्धृत किया गया, मैंने जावा में उस समस्या के लिए ईएम को लागू किया । उनके उत्तर के लिए टिप्पणियों से पता चलता है कि एल्गोरिथ्म एक स्थानीय इष्टतम पर अटक जाता है, जो कि मेरे कार्यान्वयन के साथ भी होता है यदि पैरामीटर थीटा और थीटा एक ही हैं।

नीचे मेरे कोड का मानक आउटपुट है, जो मापदंडों के अभिसरण को दर्शाता है।

thetaA = 0.71301, thetaB = 0.58134
thetaA = 0.74529, thetaB = 0.56926
thetaA = 0.76810, thetaB = 0.54954
thetaA = 0.78316, thetaB = 0.53462
thetaA = 0.79106, thetaB = 0.52628
thetaA = 0.79453, thetaB = 0.52239
thetaA = 0.79593, thetaB = 0.52073
thetaA = 0.79647, thetaB = 0.52005
thetaA = 0.79667, thetaB = 0.51977
thetaA = 0.79674, thetaB = 0.51966
thetaA = 0.79677, thetaB = 0.51961
thetaA = 0.79678, thetaB = 0.51960
thetaA = 0.79679, thetaB = 0.51959
Final result:
thetaA = 0.79678, thetaB = 0.51960

नीचे (समस्या और बाटज़ोग्लू, 2008) को हल करने के लिए ईएम का मेरा जावा कार्यान्वयन है। कार्यान्वयन का मुख्य हिस्सा ईएम को चलाने के लिए लूप है जब तक कि मापदंडों को परिवर्तित नहीं किया जाता है।

private Parameters _parameters;

public Parameters run()
{
    while (true)
    {
        expectation();

        Parameters estimatedParameters = maximization();

        if (_parameters.converged(estimatedParameters)) {
            break;
        }

        _parameters = estimatedParameters;
    }

    return _parameters;
}

नीचे पूरा कोड है।

import java.util.*;

/*****************************************************************************
This class encapsulates the parameters of the problem. For this problem posed
in the article by (Do and Batzoglou, 2008), the parameters are thetaA and
thetaB, the probability of a coin coming up heads for the two coins A and B,
respectively.
*****************************************************************************/
class Parameters
{
    double _thetaA = 0.0; // Probability of heads for coin A.
    double _thetaB = 0.0; // Probability of heads for coin B.

    double _delta = 0.00001;

    public Parameters(double thetaA, double thetaB)
    {
        _thetaA = thetaA;
        _thetaB = thetaB;
    }

    /*************************************************************************
    Returns true if this parameter is close enough to another parameter
    (typically the estimated parameter coming from the maximization step).
    *************************************************************************/
    public boolean converged(Parameters other)
    {
        if (Math.abs(_thetaA - other._thetaA) < _delta &&
            Math.abs(_thetaB - other._thetaB) < _delta)
        {
            return true;
        }

        return false;
    }

    public double getThetaA()
    {
        return _thetaA;
    }

    public double getThetaB()
    {
        return _thetaB;
    }

    public String toString()
    {
        return String.format("thetaA = %.5f, thetaB = %.5f", _thetaA, _thetaB);
    }

}


/*****************************************************************************
This class encapsulates an observation, that is the number of heads
and tails in a trial. The observation can be either (1) one of the
experimental observations, or (2) an estimated observation resulting from
the expectation step.
*****************************************************************************/
class Observation
{
    double _numHeads = 0;
    double _numTails = 0;

    public Observation(String s)
    {
        for (int i = 0; i < s.length(); i++)
        {
            char c = s.charAt(i);

            if (c == 'H')
            {
                _numHeads++;
            }
            else if (c == 'T')
            {
                _numTails++;
            }
            else
            {
                throw new RuntimeException("Unknown character: " + c);
            }
        }
    }

    public Observation(double numHeads, double numTails)
    {
        _numHeads = numHeads;
        _numTails = numTails;
    }

    public double getNumHeads()
    {
        return _numHeads;
    }

    public double getNumTails()
    {
        return _numTails;
    }

    public String toString()
    {
        return String.format("heads: %.1f, tails: %.1f", _numHeads, _numTails);
    }

}

/*****************************************************************************
This class runs expectation-maximization for the problem posed by the article
from (Do and Batzoglou, 2008).
*****************************************************************************/
public class EM
{
    // Current estimated parameters.
    private Parameters _parameters;

    // Observations from the trials. These observations are set once.
    private final List<Observation> _observations;

    // Estimated observations per coin. These observations are the output
    // of the expectation step.
    private List<Observation> _expectedObservationsForCoinA;
    private List<Observation> _expectedObservationsForCoinB;

    private static java.io.PrintStream o = System.out;

    /*************************************************************************
    Principal constructor.
    @param observations The observations from the trial.
    @param parameters The initial guessed parameters.
    *************************************************************************/
    public EM(List<Observation> observations, Parameters parameters)
    {
        _observations = observations;
        _parameters = parameters;
    }

    /*************************************************************************
    Run EM until parameters converge.
    *************************************************************************/
    public Parameters run()
    {

        while (true)
        {
            expectation();

            Parameters estimatedParameters = maximization();

            o.printf("%s\n", estimatedParameters);

            if (_parameters.converged(estimatedParameters)) {
                break;
            }

            _parameters = estimatedParameters;
        }

        return _parameters;

    }

    /*************************************************************************
    Given the observations and current estimated parameters, compute new
    estimated completions (distribution over the classes) and observations.
    *************************************************************************/
    private void expectation()
    {

        _expectedObservationsForCoinA = new ArrayList<Observation>();
        _expectedObservationsForCoinB = new ArrayList<Observation>();

        for (Observation observation : _observations)
        {
            int numHeads = (int)observation.getNumHeads();
            int numTails = (int)observation.getNumTails();

            double probabilityOfObservationForCoinA=
                binomialProbability(10, numHeads, _parameters.getThetaA());

            double probabilityOfObservationForCoinB=
                binomialProbability(10, numHeads, _parameters.getThetaB());

            double normalizer = probabilityOfObservationForCoinA +
                                probabilityOfObservationForCoinB;

            // Compute the completions for coin A and B (i.e. the probability
            // distribution of the two classes, summed to 1.0).

            double completionCoinA = probabilityOfObservationForCoinA /
                                     normalizer;
            double completionCoinB = probabilityOfObservationForCoinB /
                                     normalizer;

            // Compute new expected observations for the two coins.

            Observation expectedObservationForCoinA =
                new Observation(numHeads * completionCoinA,
                                numTails * completionCoinA);

            Observation expectedObservationForCoinB =
                new Observation(numHeads * completionCoinB,
                                numTails * completionCoinB);

            _expectedObservationsForCoinA.add(expectedObservationForCoinA);
            _expectedObservationsForCoinB.add(expectedObservationForCoinB);
        }
    }

    /*************************************************************************
    Given new estimated observations, compute new estimated parameters.
    *************************************************************************/
    private Parameters maximization()
    {

        double sumCoinAHeads = 0.0;
        double sumCoinATails = 0.0;
        double sumCoinBHeads = 0.0;
        double sumCoinBTails = 0.0;

        for (Observation observation : _expectedObservationsForCoinA)
        {
            sumCoinAHeads += observation.getNumHeads();
            sumCoinATails += observation.getNumTails();
        }

        for (Observation observation : _expectedObservationsForCoinB)
        {
            sumCoinBHeads += observation.getNumHeads();
            sumCoinBTails += observation.getNumTails();
        }

        return new Parameters(sumCoinAHeads / (sumCoinAHeads + sumCoinATails),
                              sumCoinBHeads / (sumCoinBHeads + sumCoinBTails));

        //o.printf("parameters: %s\n", _parameters);

    }

    /*************************************************************************
    Since the coin-toss experiment posed in this article is a Bernoulli trial,
    use a binomial probability Pr(X=k; n,p) = (n choose k) * p^k * (1-p)^(n-k).
    *************************************************************************/
    private static double binomialProbability(int n, int k, double p)
    {
        double q = 1.0 - p;
        return nChooseK(n, k) * Math.pow(p, k) * Math.pow(q, n-k);
    }

    private static long nChooseK(int n, int k)
    {
        long numerator = 1;

        for (int i = 0; i < k; i++)
        {
            numerator = numerator * n;
            n--;
        }

        long denominator = factorial(k);

        return (long)(numerator / denominator);
    }

    private static long factorial(int n)
    {
        long result = 1;
        for (; n >0; n--)
        {
            result = result * n;
        }

        return result;
    }

    /*************************************************************************
    Entry point into the program.
    *************************************************************************/
    public static void main(String argv[])
    {
        // Create the observations and initial parameter guess
        // from the (Do and Batzoglou, 2008) article.

        List<Observation> observations = new ArrayList<Observation>();
        observations.add(new Observation("HTTTHHTHTH"));
        observations.add(new Observation("HHHHTHHHHH"));
        observations.add(new Observation("HTHHHHHTHH"));
        observations.add(new Observation("HTHTTTHHTT"));
        observations.add(new Observation("THHHTHHHTH"));

        Parameters initialParameters = new Parameters(0.6, 0.5);

        EM em = new EM(observations, initialParameters);

        Parameters finalParameters = em.run();

        o.printf("Final result:\n%s\n", finalParameters);
    }
}
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.