कई लर्निंग एल्गोरिदम या तो प्रति फीचर एक वज़न सीखते हैं, या वे नमूनों के बीच की दूरी का उपयोग करते हैं। पूर्व लोजिस्टिक प्रतिगमन जैसे रैखिक मॉडल के लिए मामला है, जिन्हें स्पष्ट करना आसान है।
मान लें कि आपके पास "यूके", "फ्रेंच" और "यूएस" जैसे मूल्यों के साथ एक एकल श्रेणीबद्ध सुविधा "राष्ट्रीयता" है। मान लें कि सामान्यता की हानि के बिना, कि ये 0, 1 और 2 के रूप में एन्कोड किए गए हैं। आपके पास इस सुविधा के लिए एक रेखीय क्लासिफायरिफायर में भार डब्ल्यू है, जो बाधा w × x + b> 0 के आधार पर किसी प्रकार का निर्णय करेगा। , या समकक्ष w × x <b।
अब समस्या यह है कि वेट डब्ल्यू तीन-तरफा विकल्प को एनकोड नहीं कर सकता है। W × x के तीन संभावित मान 0, w और 2 × w हैं। या तो ये तीनों एक ही निर्णय की ओर ले जाते हैं (वे सभी <b या orb) या "यूके" और "फ्रेंच" एक ही निर्णय के लिए नेतृत्व करते हैं, या "फ्रेंच" और "यूएस" एक ही निर्णय देते हैं। मॉडल के लिए यह जानने की कोई संभावना नहीं है कि "यूके" और "यूएस" को एक ही लेबल दिया जाना चाहिए, जिसमें "फ्रेंच" विषम हो।
एक-हॉट एन्कोडिंग के द्वारा, आप प्रभावी रूप से फीचर स्पेस को तीन फीचर्स में उड़ा देते हैं, जो प्रत्येक को अपना वेट मिलेगा, इसलिए निर्णय फ़ंक्शन अब w [यूके] x [यूके] + w [FR] x [FR] + w [यूएस] x [यूएस] <b, जहां सभी एक्स बुलियन हैं। इस अंतरिक्ष में, इस तरह के एक रेखीय कार्य संभावनाओं के किसी भी योग / अस्वीकृति को व्यक्त कर सकते हैं (जैसे "यूके या यूएस", जो अंग्रेजी बोलने वाले किसी व्यक्ति के लिए एक भविष्यवक्ता हो सकता है)।
इसी तरह, नमूनों के बीच मानक दूरी मैट्रिक्स (जैसे के-निकटतम पड़ोसियों) के आधार पर कोई भी शिक्षार्थी एक-गर्म एन्कोडिंग के बिना भ्रमित हो जाएगा। भोली एन्कोडिंग और यूक्लिडियन दूरी के साथ, फ्रेंच और यूएस के बीच की दूरी 1 है। यूएस और यूके के बीच की दूरी 2 है। लेकिन एक-गर्म एन्कोडिंग के साथ, [1, 0, 0], [0, 1 के बीच जोड़ीदार दूरी। , 0] और [0, 0, 1] सभी .2 के बराबर हैं।
यह सभी शिक्षण एल्गोरिदम के लिए सच नहीं है; निर्णय पेड़ और व्युत्पन्न मॉडल जैसे कि यादृच्छिक वन, यदि पर्याप्त गहरा हो, तो एक-गर्म एन्कोडिंग के बिना श्रेणीगत चर को संभाल सकते हैं।