जहां तक मैं बता सकता हूं, 2005 के आसपास कोहेनन-शैली के एसओएम का शिखर वापस आ गया था और हाल ही में उतना एहसान नहीं देखा। मुझे ऐसा कोई पेपर नहीं मिला है जो यह कहता हो कि SOMs को किसी अन्य विधि से सब्सक्राइब किया गया है, या किसी और चीज़ के बराबर (उच्च आयामों पर, किसी भी तरह) सिद्ध किया गया है। लेकिन ऐसा लगता है कि जैसे tSNE और अन्य तरीकों से आजकल स्याही अधिक मिलती है, उदाहरण के लिए विकिपीडिया में, या SciKit Learn में, और SOM को एक ऐतिहासिक विधि के रूप में अधिक उल्लेखित किया जाता है।
(वास्तव में, एक विकिपीडिया लेख से संकेत मिलता है कि SOM को प्रतिस्पर्धियों पर कुछ फायदे मिलते हैं, लेकिन यह सूची में सबसे छोटा है। EDIT: प्रति गंग के अनुरोध, उन लेखों में से एक, जिनके बारे में मैं सोच रहा हूं: नॉनलाइनर डायमेंशनल रिडक्शन। ध्यान दें कि एसओएम ने अन्य तरीकों की तुलना में इसके बारे में कम लिखा है। मैं उस लेख को नहीं पा सकता हूं जिसमें एक लाभ का उल्लेख किया गया है जो एसओएम अधिकांश अन्य तरीकों को बनाए रखने के लिए लगता है।)
कोई अंतर्दृष्टि? किसी और ने पूछा कि एसओएम का उपयोग क्यों नहीं किया जा रहा है, और कुछ समय पहले से संदर्भ मिला है, और मुझे एसओएम सम्मेलनों से कार्यवाही मिली है, लेकिन सोच रहा था कि क्या पॉप मशीन लर्निंग में एसवीएम या टीएसएनई, एट अल का उदय हो सकता है।
EDIT 2: शुद्ध संयोग से, मैं आज शाम को नॉनलाइनर डायमेंशन में कमी पर 2008 का एक सर्वे पढ़ रहा था, और उदाहरण के लिए इसमें केवल उल्लेख किया गया है: आइसोमैप (2000), स्थानीय रूप से रैखिक एम्बेडिंग (LLE) (2000), हेस्से एलएलई (2003), लाप्लासियन eigenmaps (2003), और semidefinite एम्बेडिंग (SDE) (2004)।