के अनुसार दान Jurafsky और जेम्स एच मार्टिन किताब:
"यह पता चला है, हालांकि, यह सरल आवृत्ति शब्दों के बीच सहयोग का सबसे अच्छा उपाय नहीं है। एक समस्या यह है कि कच्ची आवृत्ति बहुत तिरछी है और बहुत भेदभावपूर्ण नहीं है। यदि हम जानना चाहते हैं कि किस प्रकार के संदर्भ खुबानी और अनानास द्वारा साझा किए गए हैं। लेकिन डिजिटल और जानकारी से नहीं, हम शब्दों से अच्छा भेदभाव नहीं प्राप्त करने जा रहे हैं, यह, या वे, जो सभी प्रकार के शब्दों के साथ अक्सर होते हैं और किसी विशेष शब्द के बारे में जानकारीपूर्ण नहीं होते हैं। "
कभी-कभी हम इस कच्चे फ्रिक्वेंसी को पॉजिटिव पॉइंट वाइज आपसी जानकारी से बदल देते हैं:
PPMI(w,c)=max(log2P(w,c)P(w)P(c),0)
पीएमआई अपने आप दिखाता है कि किसी शब्द w का संदर्भ शब्द के साथ अवलोकन करना कितना संभव है, C उनकी स्वतंत्र रूप से अवलोकन करने की तुलना करें। PPMI में हम केवल PMI के सकारात्मक मान रखते हैं। आइए इस बारे में सोचें कि पीएमआई कब + या - है और हम केवल नकारात्मक क्यों रखते हैं:
सकारात्मक PMI का क्या अर्थ है?
P(w,c)(P(w)P(c))>1
P(w,c)>(P(w)P(c))
यह तब होता है जब और पारस्परिक रूप से किक और बॉल की तरह अधिक होते हैं। हम इन्हें रखना चाहेंगे!wc
नकारात्मक PMI का क्या अर्थ है?
P(w,c)(P(w)P(c))<1
P(w,c)<(P(w)P(c))
इसका मतलब है कि और दोनों में से कोई एक व्यक्तिगत रूप से घटित होता है! यह सीमित आंकड़ों के कारण अविश्वसनीय आंकड़ों का संकेत दे सकता है अन्यथा यह असंक्रामक सह-घटनाओं को दर्शाता है जैसे, 'द' और 'बॉल'। ('द' अधिकांश शब्दों के साथ भी होता है।)wc
पीएमआई या विशेष रूप से पीपीएमआई हमें सूचनात्मक सह-घटना के साथ ऐसी स्थितियों को पकड़ने में मदद करता है।