Iteratively रिवाइस्टेड लिस्ट स्क्वायर की परिभाषा और अभिसरण


16

मैं निम्नलिखित फॉर्म के कार्यों को कम से कम करने के लिए पुनरावृत्त कम से कम वर्ग (IRLS) का उपयोग कर रहा हूं,

J(m)=i=1Nρ(|xim|)

जहां N के उदाहरण की संख्या है xiR , mR मजबूत अनुमान है कि मैं चाहता हूँ है, और ρ एक उपयुक्त मजबूत दंड कार्य है। मान लें कि यह उत्तल है (हालांकि जरूरी नहीं कि सख्ती से) और अभी के लिए अलग हो। इस तरह के एक ρ का एक अच्छा उदाहरण ह्यूबर लॉस फ़ंक्शन है

मैं जो कुछ कर रहा हूं , उसे प्राप्त करने के लिए m (और जोड़ तोड़) के संबंध में को विभेदित कर रहा हूं ,J(m)m

dJdm=i=1Nρ(|xim|)|xim|(xim)

और iteratively यह सेट करके ऐसा सुलझाने 0 के बराबर और यात्रा पर भार फिक्सिंग k के लिए wi(k)=ρ(|xim(k)|)|xim(k)|(ध्यान दें कि कम से कथित व्यक्तित्वxi=m(k)वास्तव में सभी में एक हटाने योग्य व्यक्तित्व हैρ's मैं के बारे में परवाह सकता है)। फिर मैं प्राप्त करता हूं,

i=1Nwi(k)(xim(k+1))=0

और मैं प्राप्त करने के लिए हल, m(k+1)=i=1Nwi(k)xii=1Nwi(k)

मैं इस निश्चित बिंदु एल्गोरिथ्म को "अभिसरण" तक दोहराता हूं। मैं ध्यान दूंगा कि यदि आप एक निश्चित बिंदु पर आते हैं, तो आप इष्टतम हैं, क्योंकि आपका व्युत्पन्न 0 है और यह एक उत्तल कार्य है।

इस प्रक्रिया के बारे में मेरे दो सवाल हैं:

  1. क्या यह मानक IRLS एल्गोरिथ्म है? विषय पर कई पत्र पढ़ने के बाद (और वे बहुत बिखरे हुए थे और IRLS क्या है के बारे में अस्पष्ट) यह एल्गोरिथ्म की सबसे सुसंगत परिभाषा है जो मुझे मिल सकती है। मैं कागजात पोस्ट कर सकते हैं अगर लोग चाहते हैं, लेकिन मैं वास्तव में यहाँ किसी को पूर्वाग्रह नहीं करना चाहता था। बेशक, आप वेक्टर शामिल समस्याओं के कई अन्य प्रकार के लिए इस बुनियादी तकनीक सामान्यीकरण कर सकते हैं की और अन्य की तुलना में तर्क | x i - m ( k ) |xi|xim(k)|, तर्क प्रदान करना आपके मापदंडों के एक समृद्ध कार्य का एक मानक है। कोई मदद या अंतर्दृष्टि इस पर बहुत अच्छा होगा।
  2. अभिसरण अभ्यास में काम करने लगता है, लेकिन मुझे इसके बारे में कुछ चिंताएं हैं। मुझे इसका प्रमाण देखना बाकी है। कुछ सरल मतलाब सिमुलेशन के बाद मैं देखता हूं कि इसमें से एक पुनरावृत्ति एक संकुचन मानचित्रण नहीं है (मैंने और कंप्यूटिंग के दो यादृच्छिक उदाहरण उत्पन्न किए हैं m 1 ( k + 1 ) - m 2 ( k + 1 ) |mऔर देखा कि यह कभी-कभार 1 से अधिक है)। इसके अलावा लगातार कई पुनरावृत्तियों द्वारा परिभाषित मानचित्रण कड़ाई से संकुचन मानचित्रण नहीं है, लेकिन लिप्साचिट्ज़ निरंतर 1 से ऊपर होने की संभावना बहुत कम हो जाती है। तो क्यासंभावना में संकुचन मानचित्रणकी धारणा है? मैं यह साबित करने के लिए किस मशीनरी का उपयोग करूंगा? क्या यह भी एकाग्र होता है?|m1(k+1)m2(k+1)||m1(k)m2(k)|

सभी में कोई भी मार्गदर्शन सहायक है।

संपादित करें: मुझे Daubechies et al द्वारा विरल रिकवरी / कंप्रेसिव सेंसिंग के लिए IRLS पर पेपर पसंद है। 2008 में "Iteratively री-वेटेड लीस्ट स्क्वेयर मिनरलाइज़ेशन फॉर स्पार्स रिकवरी" अर्क्सिव। लेकिन यह ज्यादातर गैर-समस्याओं के लिए वजन पर ध्यान केंद्रित करने के लिए लगता है। मेरा मामला काफी सरल है।


पर विकि पृष्ठ को देखते हुए IRWLS प्रक्रिया आपके द्वारा बताई गई और IRWLS के बीच अंतर करने के लिए मैं संघर्ष (वे सिर्फ का उपयोग उनके विशेष ρ फ़ंक्शन के रूप में)। क्या आप बता सकते हैं कि आपको क्या लगता है कि आपके द्वारा प्रस्तावित एल्गोरिथ्मIRWLS सेअलगहै? |yixxiββ|2ρ
user603

मैंने कभी नहीं कहा कि यह अलग था, और अगर मैंने इसे निहित किया, तो मेरा मतलब यह नहीं था।
क्रिस ए।

जवाबों:


10

आपके पहले प्रश्न के लिए, किसी को "मानक" को परिभाषित करना चाहिए, या स्वीकार करना चाहिए कि "विहित मॉडल" को धीरे-धीरे स्थापित किया गया है। इंगित की गई टिप्पणी के रूप में, यह कम से कम दिखाई देता है कि आप जिस तरह से IRWLS का उपयोग करते हैं वह मानक है।

आपके दूसरे प्रश्न के लिए, "पुनरावृत्ति मानचित्रण संभावना में" (हालांकि अनौपचारिक रूप से) "पुनरावर्ती स्टोचस्टिक एल्गोरिदम" के अभिसरण से जोड़ा जा सकता है। मैंने जो पढ़ा है, उसमें मुख्यतः इंजीनियरिंग में इस विषय पर बहुत बड़ा साहित्य है। अर्थशास्त्र में, हम इसका एक छोटा सा उपयोग करते हैं, विशेष रूप से लेन्नेर्ट लजुंग के सेमिनल कार्य-पहला पेपर लजुंग (1977) था - जिसमें दिखाया गया था कि एक पुनरावर्ती स्टोचस्टिक एल्गोरिथ्म का अभिसरण (या नहीं) स्थिरता द्वारा निर्धारित किया जा सकता है (या संबंधित सामान्य अंतर समीकरण का नहीं)।

(टिप्पणियों में ओपी के साथ एक सार्थक चर्चा के बाद क्या फिर से काम किया गया है)

कन्वर्जेंस

मैं रेफरेंस सेबर एलायडी "एन इंट्रोडक्शन टू डिफरेंश इक्वेशन", 2005, 3 डी एड के रूप में उपयोग करूंगा। इसलिए विश्लेषण, कुछ दिए गए डेटा नमूना पर सशर्त है इलाज कर रहे हैं तय है। xs

उद्देश्य समारोह के न्यूनीकरण के लिए पहले क्रम हालत, में एक पुनरावर्ती समारोह के रूप में देखा , मीटर ( कश्मीर + 1 ) = एन Σ मैं = 1 वी मैं [ मीटर ( कश्मीर ) ] एक्स मैं ,m

m(k+1)=i=1Nvi[m(k)]xi,vi[m(k)]wi[m(k)]i=1Nwi[m(k)][1]

एक निश्चित बिंदु है (उद्देश्य फ़ंक्शन का तर्क)। एलेडी के थियोरम 1.13 पीपी 27-28 के द्वारा, यदि आरएचएस के के संबंध में पहला व्युत्पन्न [ 1 ] , निर्धारित बिंदु m पर मूल्यांकन किया गया है , तो इसे A ( m ) निरूपित करें , निरपेक्ष मान में एकता से छोटा है , तो m * है asymptotically स्थिर (के रूप में)। थ्योरम 4.3 p.179 से अधिक हमारे पास यह है कि इसका अर्थ यह भी है कि निश्चित बिंदु समान रूप से (यूएएस) है। "एसिम्पोटॉटिक रूप से स्थिर" का अर्थ है कि निश्चित बिंदु के आसपास मूल्यों की कुछ सीमा के लिए, एक पड़ोस ( एम ically)m[1]mA(m)m
, जरूरी आकार में छोटे नहीं, तय हैआकर्षकहै, और यदि ऐसा है तो एल्गोरिथ्म इस पड़ोस में मान देता है, यह अभिसरण होगा। संपत्ति "वर्दी" होने का मतलब है कि इस पड़ोस की सीमा, और इसलिए इसका आकार, एल्गोरिथ्म के प्रारंभिक मूल्य से स्वतंत्र है। निश्चित बिंदु हो जाता हैविश्व स्तर परयूएएस, यदि γ = । तो हमारे मामले में, अगर हम यह साबित करते हैं(m±γ)γ=

|A(m)||i=1Nvi(m)mxi|<1[2]

हमने यूएएस संपत्ति साबित की है, लेकिन वैश्विक अभिसरण के बिना। फिर हम या तो यह स्थापित करने की कोशिश कर सकते हैं कि आकर्षण का पड़ोस वास्तव में पूरे विस्तारित वास्तविक संख्याएं हैं, या, कि विशिष्ट प्रारंभिक मूल्य ओपी का उपयोग करता है जैसा कि टिप्पणियों में उल्लेख किया गया है (और यह IRLS पद्धति में मानक है), अर्थात नमूना मतलब की की, ˉ एक्स , हमेशा तय बिंदु के आकर्षण का पड़ोस के अंतर्गत आता है।xx¯

हम गणना व्युत्पन्न

vi(m)m=wi(m)mi=1Nwi(m)wi(m)i=1Nwi(m)m(i=1Nwi(m))2

=1i=1Nwi(m)[wi(m)mvi(m)i=1Nwi(m)m]

A(m)=1i=1Nwi(m)[i=1Nwi(m)mxi(i=1Nwi(m)m)i=1Nvi(m)xi]

=1i=1Nwi(m)[i=1Nwi(m)mxi(i=1Nwi(m)m)m]

and

|A(m)|<1|i=1Nwi(m)m(xim)|<|i=1Nwi(m)|[3]

we have

wi(m)m=ρ(|xim|)xim|xim||xim|+xim|xim|ρ(|xim|)|xim|2=xim|xim|3ρ(|xim|)ρ(|xim|)xim|xim|2=xim|xim|2[ρ(|xim|)|xim|ρ(|xim|)]=xim|xim|2[wi(m)ρ(|xim|)]

Inserting this into [3] we have

|i=1Nxim|xim|2[wi(m)ρ(|xim|)](xim)|<|i=1Nwi(m)|

|i=1Nwi(m)i=1Nρ(|xim|)|<|i=1Nwi(m)|[4]

This is the condition that must be satisfied for the fixed point to be UAS. Since in our case the penalty function is convex, the sums involved are positive. So condition [4] is equivalent to

i=1Nρ(|xim|)<2i=1Nwi(m)[5]

If ρ(|xim|) is Hubert's loss function, then we have a quadratic (q) and a linear (l) branch,

ρ(|xim|)={(1/2)|xim|2|xim|δδ(|xim|δ/2)|xim|>δ

and

ρ(|xim|)={|xim||xim|δδ|xim|>δ

ρ(|xim|)={1|xim|δ0|xim|>δ

{wi,q(m)=1|xim|δwi,l(m)=δ|xim|<1|xim|>δ

Since we do not know how many of the |xim|'s place us in the quadratic branch and how many in the linear, we decompose condition [5] as (Nq+Nl=N)

i=1Nqρq+i=1Nlρl<2[i=1Nqwi,q+i=1Nlwi,l]

Nq+0<2[Nq+i=1Nlwi,l]0<Nq+2i=1Nlwi,l

which holds. So for the Huber loss function the fixed point of the algorithm is uniformly asymptotically stable, irrespective of the x's. We note that the first derivative is smaller than unity in absolute value for any m, not just the fixed point.

What we should do now is either prove that the UAS property is also global, or that, if m(0)=x¯ then m(0) belongs to the neighborhood of attraction of m.


Thanks for the response. Give me some time to analyze this answer.
Chris A.

Certainly. After all, the question waited 20 months.
Alecos Papadopoulos

Yeah, I was reminded of the problem and decided to put up a bounty. :)
Chris A.

Lucky me. I wasn't there 20 months ago - I would have taken up this question, bounty or not.
Alecos Papadopoulos

Thanks so much for this response. It's looking like, so far, that you've earned the bounty. BTW, your indexing on the derivative of vi w.r.t m is notationally weird. Couldn't the summations on the second line of this use another variable, such as j?
Chris A.
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.