मोंटे कार्लो एल्गोरिदम पर याओ का मिनीमाक्स सिद्धांत


22

PXAPDRA

minAAEcost(A,D)maxxXEcost(R,x)for all D and R.
यह सबूत सीधे शून्य-राशि खेलों के लिए वॉन न्यूमैन के अल्पमहिष्ठ प्रमेय से इस प्रकार है।

ज्यादातर याओ का सिद्धांत केवल लास वेगास एल्गोरिदम से संबंधित है , लेकिन इसे मोंटे कार्लो एल्गोरिदम के लिए सामान्यीकृत किया जा सकता है। जहां मोंटे कार्लो एल्गोरिदम की लागत को दर्शाता है जो प्रायिकता पर संभावना को । सी एस टी ε ( , ) ε

12minAAEcost2ϵ(A,D)maxxXEcostϵ(R,x)for all DR and ϵ[0,1/2]
costϵ(,)ϵ

में याओ के मूल कागज , मोंटे कार्लो एल्गोरिदम के लिए संबंध प्रमाण के बिना प्रमेय 3 पर दिया जाता है। इसे साबित करने के लिए कोई संकेत?

जवाबों:


6

यह मार्कोस के जवाब पर सिर्फ एक विस्तारित टिप्पणी है, उनके अंकन का उपयोग करते हुए। मैं उनके तर्क के विवरण का पालन करने में सक्षम नहीं हूं, और नीचे वाला बहुत छोटा और आसान है।

औसतन, द्वारा

Aq(A)xd(x)ϵ(A,x)=xd(x)Aq(A)ϵ(A,x)λ.

तथ्य यह है ऊपर और मार्कोव की असमानता मतलब Aβ(2λ)q(A)1/2

तो हमें मिलता है:

maxxAq(A)r(A,x)xd(x)Aq(A)r(A,x)=Aq(A)xd(x)r(A,x)Aβ(2λ)q(A)xd(x)r(A,x)(Aβ(2λ)q(A))minAβ(2λ)xd(x)r(A,x)12minAβ(2λ)xd(x)r(A,x)

8

मैं इस पर कोशिश करूँगा। मैं याओ के मूल अंकन का उपयोग करने जा रहा हूं। इस तरह उसके कागज और उसकी परिभाषाओं के विपरीत करना आसान हो जाएगा।

चलो आदानों की एक परिमित सेट हो, और एक 0 नियतात्मक एल्गोरिदम कि कुछ इनपुट के लिए एक सही जवाब देने के लिए विफल हो सकता है की एक परिमित सेट हो। भी करते हैं ε ( , एक्स ) = 0 अगर एक के लिए सही जवाब देता है x , और ε ( , एक्स ) = 1 अन्यथा। इसके अलावा आर ( , एक्स ) द्वारा पर इनपुट एक्स , या समकक्ष, की गहराई से किए गए प्रश्नों की संख्या को निरूपित करेंIA0ϵ(A,x)=0Axϵ(A,x)=1r(A,x)AxAनिर्णय का पेड़।

औसत मूल्य: को देखते हुए एक प्रायिकता वितरण पर मैं , औसत लागत एक एल्गोरिथ्म के एक 0 है सी ( एक , ) = Σ एक्स मैं( एक्स ) आर ( एक , एक्स )dIAA0C(A,d)=xId(x)r(A,x)

वितरणात्मक जटिलता: Let । किसी भी वितरण के लिए इनपुट पर, जाने β ( λ ) हो के सबसेट एक 0 द्वारा दिए गए β ( λ ) = { एक : एक 0 , Σ एक्स मैं( एक्स ) ε ( , एक्स ) λ }λ[0,1]dβ(λ)A0β(λ)={A:AA0,xId(x)ϵ(A,x)λ}. The distributional complexity with error λ for a computational problem P is defined as F1,λ(P)=maxdminAβ(λ)C(A,d).

λ-tolerance: A distribution q on the family A0 is λ-tolerant if maxxIAA0q(A)ϵ(A,x)λ.

Expected Cost: For a randomized algorithm R, let q be a probability distribution that is λ-tolerant on A0. The expected cost of R for a given input x is E(R,x)=AA0q(A)r(A,x).

Randomized Complexity: Let λ[0,1]. The randomized complexity with error λ is F2,λ=minRmaxxIE(R,x).

Now we are ready to go into business. What we want to prove is given a distribution d on the inputs and a randomized algorithm R (i.e., a distribution q on A0)

Yao's Minimax Principle for Montecarlo Algorithms

maxxIE(R,x)12minAβ(2λ)C(A,d)
for λ[0,1/2].

I will follow an approach given by Fich, Meyer auf der Heide, Ragde and Wigderson (see Lemma 4). Their approach does not yield a characterization for Las Vegas algorithms (only the lower bound), but it is sufficient for our purposes. From their proof, it easy to see that for any A0 and I

Claim 1. maxxIE(R,x)minAA0C(A,d).

To get the correct numbers there, we'll do something similar. Given that the probability distribution q given by the randomized algorithm R is λ-tolerant on A0 we have that

λmaxxI{AA0q(A)ϵ(A,x)}xId(x)AA0q(a)ϵ(A,x)=AA0q(a)xId(x)ϵ(A,x)minAA0{xId(x)ϵ(A,x)}.
If we replace the family A0 with β(2λ) we see that

λmaxxI{AA0q(A)ϵ(A,x)}maxxI{Aβ(2λ)q(A)ϵ(A,x)}xId(x)Aβ(2λ)q(a)ϵ(A,x)=Aβ(2λ)q(a)xId(x)ϵ(A,x)minAβ(2λ){12xId(x)ϵ(A,x)},

where the second inequality follows because β(2λ)A0, and the last inequality is given by the definition of β(2λ) where the summation divided by 2 cannot be greater than λ. Hence,

maxxI{AA0q(A)ϵ(A,x)}12minAβ(2λ){xId(x)ϵ(A,x)}.

By noting that ϵ maps to {0,1} and r maps to N and Claim 1 above, now we can safely replace the function ϵ in the inequality above by r(A,x) to obtain the desired inequality.


Is there a short explanation for where the factor of 2 comes from?
Robin Kothari

in short, it comes from the definition of β(2λ). The summation in the definition divided by 2 is at most λ.
Marcos Villagra

something seems strange to me. by definition, maxAβ(2λ)){12xId(x),ϵ(A,x)}λ so why the min?
Sasho Nikolov

and i don't understand the last sentence. how did you make an entire argument about ϵ and then replaced it with r?
Sasho Nikolov

regarding your first question, I added more details.
Marcos Villagra
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.