रैखिक कर्नेल: यहाँ प्रभाव रैखिक प्रतिगमन में बहुसंस्कृति के समान है। आपका सीखा मॉडल प्रशिक्षण सेट में छोटे बदलावों के खिलाफ विशेष रूप से स्थिर नहीं हो सकता है, क्योंकि विभिन्न वजन वाले वैक्टर में समान आउटपुट होंगे। प्रशिक्षण सेट भविष्यवाणियां, हालांकि, काफी स्थिर होगी, और यदि वे समान वितरण से आते हैं, तो भविष्यवाणियों का परीक्षण करेंगे।
RBF कर्नेल: RBF कर्नेल केवल डेटा बिंदुओं के बीच की दूरी को देखता है। इस प्रकार, कल्पना करें कि आपके पास वास्तव में 11 विशेषताएँ हैं, लेकिन उनमें से एक को 10 बार दोहराया जाता है (एक बहुत चरम मामला)। फिर उस दोहराया विशेषता किसी भी अन्य विशेषता के रूप में दूरी के रूप में 10 गुना योगदान देगा, और सीखा मॉडल संभवतः उस सुविधा से बहुत अधिक प्रभावित होगा।
RBF कर्नेल के साथ सहसंबंधों को छूट देने का एक सरल तरीका महालनोबिस दूरी का उपयोग करना है: , जहां एक है नमूना सहसंयोजक मैट्रिक्स का अनुमान। समान रूप से, अपने सभी वैक्टर को मैप करें और फिर नियमित RBF कर्नेल का उपयोग करें, जहां ऐसा है कि , उदाहरण के लिए के चोल्स्की अपघटन ।घ( एक्स , वाई) = ( एक्स - वाई)टीएस- 1( x - y)---------------√एसएक्ससीएक्ससीएस- 1= सीटीसीएस- 1