कई-लक्ष्य तकनीकों के बारे में सीखने के लिए संसाधन?


11

मैं उन तकनीकों के बारे में संसाधनों (पुस्तकों, व्याख्यान नोट्स, आदि) की तलाश कर रहा हूं जो डेटा को संभाल सकते हैं जिनके कई-लक्ष्य हैं (उदाहरण: तीन आश्रित चर: 2 असतत और 1 निरंतर)।

क्या किसी के पास इस पर कोई संसाधन / ज्ञान है? मुझे पता है कि इसके लिए तंत्रिका नेटवर्क का उपयोग करना संभव है।

जवाबों:


6

रैंडम फ़ॉरेस्ट इसे अच्छी तरह से संभालते हैं, देखें कि क्या कई आउटपुट के साथ एक रैंडम फ़ॉरेस्ट संभव / व्यावहारिक होगा? या स्किकिट के प्रलेखन को जानें । मुझे लगता है कि जीबीएम या किसी भी पेड़ आधारित विधि को इसी तरह से अनुकूलित किया जा सकता है।

आम तौर पर, आप, आप आमतौर पर कम से कम पर काम स्कोर कम से कम किसी भी सीखने एल्गोरिथ्म चलाने जब जो एक आयामी है। लेकिन आप किसी भी लक्ष्य फ़ंक्शन को निर्दिष्ट कर सकते हैं। यदि आप पर (दो आयामी) की स्थिति की भविष्यवाणी, काम कर रहे थे Σ मैं ( y मैं - y मैं ) 2 + ( एक्स मैं - एक्स मैं ) 2 एक अच्छा होगा मीट्रिक।Σमैं(पीमैं-yमैं)2Σमैं(y^मैं-yमैं)2+(एक्स^मैं-एक्समैं)2

यदि आपके पास मिश्रित प्रकार का आउटपुट (वर्गीकरण और प्रतिगमन) है, तो लक्ष्य फ़ंक्शन को निर्दिष्ट करने से संभवतः आपको एक लक्ष्य फ़ंक्शन को निर्दिष्ट करने की आवश्यकता होगी जो अन्य की तुलना में कुछ लक्ष्यों को अधिक वजन देता है: आप लगातार प्रतिक्रियाओं पर कौन सा स्केलिंग लागू करते हैं? आप मिस-क्लासिफिकेशन पर कौन सा नुकसान लागू करते हैं?

आगे पढ़ने के लिए,

एसवीएम स्ट्रक्चर्ड लर्निंग की विकिपीडिया

इसके साथ ही मल्टीपल-आउटपुट रिग्रेशन के लिए लीवरेजिंग आउटपुट और टास्क स्ट्रक्चर्स

कई आउटपुट पूर्वानुमान के लिए ऐतिहासिक चयन विधि (उच्च आयामी निर्भर चर के साथ सौदे)


1
मल्टी-टारगेट रिग्रेशन को देखते हुए Ys के बीच के रिश्तों को मॉडल बनाना चाहता है, क्या आप ऐसा फंक्शन नहीं चाहेंगे जो उस रिश्ते के अनुकूल हो?
मैक्स गनीस

3

यह पेपर वर्तमान तरीकों, टूलकिट के साथ-साथ परीक्षण करने के लिए डेटासेट का वर्णन करने का एक अच्छा काम करता है।

मुझे बहु-लक्ष्य प्रतिगमन की आवश्यकता वाली व्यावसायिक समस्या पर काम करना है, और मैंने पाया कि क्लस टूलकिट में उच्च प्रदर्शन और मजबूती का अच्छा मिश्रण है

  • प्रलेखन उत्कृष्ट है
  • टूलकिट में बहु-लक्ष्य वर्गीकरण और प्रतिगमन दोनों के लिए कई तरीके हैं
  • यह नियम-आधारित इंडक्शन और क्लस्टरिंग का भी समर्थन करता है।
  • पहनावा मॉडल (बैगिंग, रैंडमफोरेस्ट) जो मैंने उपयोग किया है, उन्हें आसानी से पढ़ा और व्याख्या किया जा सकता है।

कुछ नए तरीकों (2012 के बाद) को मूल टूलकिट के विस्तार के रूप में लागू किया गया है, यहां जीथब लिंक है । हालाँकि ये विधियाँ जैसे रैंडम लीनियर टारगेट कॉम्बिनेशन, एन्सेम्बल मॉडल की तुलना में बेहतर प्रदर्शन की रिपोर्ट करती हैं, मैंने पाया कि टूलकिट क्लस टूलकिट की तरह परिपक्व नहीं है और इसलिए उनका उपयोग नहीं किया।


0

बायेसियन इस तरह की समस्या को लेते हैं: बेयसियन गैर models पैरामीट्रिक मॉडल मिश्रित प्रकार के अनुक्रमित डेटा के लिए । कई सामान्य रूप से वितरित यादृच्छिक वैक्टर और लिंक फ़ंक्शंस द्वारा नियंत्रित किए जाने वाले कई प्रतिक्रिया तत्व। ताकि पूर्ण प्रतिक्रिया मानदंड के वेक्टर, काउंट के वेक्टर और बर्नौली के वेक्टर का एक ढेर हो।

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.