प्रोत्साहन अनुकूलता बाधा (नैतिक खतरा) क्यों बांधती है?


1

दो संभावित प्रयास स्तरों के साथ नैतिक खतरे के एक बहुत बुनियादी मॉडल पर विचार करें $ E_L & LT; e_H $ और आउटपुट के दो संभावित स्तर $ Y_L & LT; y_H $ । यदि एजेंट भाग नहीं लेता है, तो उन्हें इसकी उपयोगिता मिलती है $ \ बार {यू} $ । यदि वे भाग लेते हैं, तो वे प्राप्त करते हैं $ ई [यू (डब्ल्यू) | ई] -c (ई) $ कहा पे $ u '(w) & gt; 0 $ , $ u '' (w) & lt; 0 $ तथा $ ग (e_L) के & lt; ग (e_L) $ । दूसरे शब्दों में, एजेंट जोखिम से घृणा करता है और प्रयास को नापसंद करता है। अधिक प्रयास में डालने से यह संभावना बढ़ जाती है कि आउटपुट अधिक है, अर्थात। $ पी (y = y_H) = पी $ अगर $ ई = e_H $ तथा $ पी (y = y_H) = q $ अगर $ ई = e_L $ कहा पे $ 1 & gt; p & gt; क्ष & gt; 0 $ । प्रिंसिपल एक कॉन्ट्रैक्ट चुनता है $ {w_H, w_L} $ जो निम्नलिखित एक मजदूरी निर्दिष्ट करता है $ Y = y_H $ तथा $ Y = y_L $ क्रमशः। चूंकि वे जोखिम तटस्थ हैं, इसलिए वे चुनते हैं $ W_H $ तथा $ W_L $ अधिकतम करने के लिए $ E [y - w] $

हमें लगता है कि प्रिंसिपल प्रेरित करना चाहता है $ ई = e_H $

इष्टतम अनुबंध को 'प्रोत्साहन अनुकूलता' की कमी को पूरा करना चाहिए:

$$ pu (w_H) + (1-p) u (w_L) -e_H \ geq qu (w_H) + (1-q) u (w_L) -e_L $$

इष्टतम अनुबंध में, यह समानता ('बाइंड') के साथ होना चाहिए। अगर मुझे सही तरीके से याद है, तो इसका इष्टतम जोखिम साझाकरण के साथ कुछ करना है (अधिक सटीक रूप से, कि प्रिंसिपल एजेंट को 'अनावश्यक' जोखिम से उजागर नहीं करना चाहता)। हालांकि, मैं बहुत आभारी रहूंगा अगर कोई भी अधिक सटीक (लेकिन आदर्श रूप से अभी भी सहज) स्पष्टीकरण प्रदान कर सकता है कि ऐसा क्यों होना चाहिए।


1
मुझे नहीं लगता कि आईसी बाइंड्स का इष्टतम जोखिम साझाकरण से कोई लेना-देना है। इष्टतम जोखिम साझाकरण पहले सर्वश्रेष्ठ में होता है, जिसमें जोखिम-तटस्थ प्रिंसिपल सभी जोखिम और शर्तों को जोखिम में डालते हैं, जो केवल जोखिम वाले एजेंट (जो कि पहले सर्वश्रेष्ठ परिदृश्य में देखने योग्य है) पर मजदूरी करते हैं। IC केवल दूसरे सर्वश्रेष्ठ परिदृश्य में प्रासंगिक स्थिति है, न कि पहले सर्वश्रेष्ठ।
Herr K.

आप इस बारे में सही हो सकते हैं ... किसी भी दर पर, क्या आप किसी भी सहज स्पष्टीकरण के बारे में जानते हैं कि आईसी को क्यों बांधना चाहिए? (इसमें जोखिम साझा करने की धारणा शामिल है या नहीं।)
afreelunch

1
यह मदद करेगा यदि आप मन में मॉडल को लिख सकते हैं, क्योंकि अंततः तर्क गणितीय विवरण पर टिका है।
Herr K.

निश्चित रूप से, मॉडल का कौन सा विवरण गायब है? मैं कुछ संकेतन पेश कर सकता था, लेकिन मुझे यकीन नहीं है कि यह पहले पैराग्राफ में वर्णन के लिए कुछ भी जोड़ देगा।
afreelunch

1
@HerrK। कुछ प्रतीकों को पेश किया है, आशा है कि यह चीजें स्पष्ट करती हैं
afreelunch

जवाबों:


0

प्रमुख दो बाधाओं का सामना करते हैं: व्यक्तिगत तर्कसंगतता (आईआर, या भागीदारी) बाधा: \ Begin {} समीकरण pu (w_H) + (1-p) u (w_L) -e_H \ ge \ overline u, \ tag {IR}} \ अंत {} समीकरण और प्रोत्साहन संगतता (आईसी) बाधा: \ Begin {} समीकरण pu (w_H) + (1-p) u (w_L) -e_H \ geq qu (w_H) + (1-q) u (w_L) -e_L। \ टैग {} आईसी \ अंत {} समीकरण मान लीजिए कि IR धारण करता है $ & Gt; $ , यानी यह बाँध नहीं है। तो इसका मतलब है कि प्रिंसिपल खराब परिणाम के लिए बहुत अधिक भुगतान कर रहा है; मूलधन कम करके लाभ बढ़ा सकता है $ W_L $ आईआर (उल्लंघन के द्वारा या तो बाध्यकारी नहीं है) या आईसी (के बाद से) का उल्लंघन किए बिना $ P & gt; क्ष $ )। यह इस प्रकार है कि आईआर को साथ रखना चाहिए $ = $

अब जब आईआर बांधता है, अगर आईसी नहीं करता है, तो इसका मतलब है कि प्रिंसिपल उच्च प्रयास को प्रेरित करने के लिए एजेंट को "अधिक भुगतान" कर रहा है। विशेष रूप से, यह होना चाहिए कि प्रमुख अच्छे परिणाम के लिए अति-भुगतान कर रहा है। लाभ बढ़ाने के लिए, प्रिंसिपल कम कर सकता है $ W_H $ । उसी समय, यह सुनिश्चित करने के लिए कि आईआर का उल्लंघन नहीं किया गया है, $ W_L $ एक उचित राशि से बढ़ाना है ताकि आईआर अभी भी बांधता है।

कम $ W_H $ और बढ़ा $ W_L $ प्रभावी रूप से एजेंट के मुआवजे में जोखिम को कम करता है, क्योंकि दो परिणाम अब करीब हैं। परिणामस्वरूप, अपूर्ण जानकारी के कारण एजेंट को जोखिम देने की वजह से होने वाली दक्षता लागत कम हो जाती है। इस प्रकार बचत मूलधन को लाभ के रूप में अर्जित करेगी। इसलिए, आईसी को इष्टतम पर बांधना चाहिए।


इस उत्तर के लिए धन्यवाद, निश्चित नहीं कि इसे क्यों नकारा गया था! बस स्पष्ट करने के लिए, क्या हम प्रिंसिपल को $ w_H $ कम करने और $ w_L $ को अनुपात $ p $: $ (1-p) $ बढ़ाने की कल्पना करते हैं? (और इस प्रकार एजेंट को कड़ाई से बेहतर बनाना?) इसके अलावा, मुझे लगता है कि आप अपने आखिरी वाक्य में 'पकड़' का मतलब नहीं रखते हैं।
afreelunch

@afreelunch: मजदूरी में समायोजन की सटीक परिमाण $ p $ के साथ-साथ उपयोगिता फ़ंक्शन की वक्रता पर निर्भर करेगा। संक्षेप में, मजदूरी समायोजन इस तरह से किया जाता है कि वितरण $ (पी, 1-पी) $ के तहत उपयोगिता फ़ंक्शन द्वारा निहित निश्चित समतुल्य बनाए रखता है। इस प्रकार, यह $ p: (1-p) $ के अनुपात के सटीक होने की संभावना नहीं है। अंत में शब्दांकन पर ध्यान देने के लिए धन्यवाद; यह सही है।
Herr K.

-1

प्रोत्साहन अनुकूलता बाधा के पीछे का विचार यह है कि उच्च प्रयास स्तर करते समय अपेक्षित उपयोगिता कम से कम उतनी ही बड़ी होनी चाहिए जितनी कि एक एजेंट कम प्रयास स्तर करने से प्राप्त करेगा। कई अनुबंध हैं जो आईसी को संतुष्ट करते हैं। यह देखते हुए कि एजेंट जोखिम से ग्रस्त है, यानी, सख्ती से अनिश्चितता घटता है, आगे असममित जानकारी अनुबंध सममित जानकारी अनुबंध से विचलित हो जाता है, जितना अधिक होगा एजेंट को अपेक्षित भुगतान मिल जाएगा। बेशक, एजेंट के लिए अपेक्षित भुगतान जितना अधिक होगा, प्रिंसिपल के लिए अपेक्षित भुगतान कम होगा। इसलिए, प्रिंसिपल उस अनुबंध का चयन करेगा जो क) एजेंट को उसकी आरक्षण उपयोगिता प्रदान करता है और बी) आईसी एक समानता के रूप में संतुष्ट है।

शायद आपके मन में जो बात है, वह यह है कि चूंकि एजेंट के लिए अपेक्षित उपयोगिता, प्रयास स्तर के समान ही होती है, इसलिए वह वैसे भी कम प्रयास स्तर पर काम कर सकती है। लेकिन याद रखें कि एजेंट है उदासीन दो प्रयासों के स्तर के बीच, और इसलिए, हम यह मान सकते हैं कि वह उच्च प्रयास स्तर का चुनाव करती है।


यह उत्तर की तुलना में स्पष्टीकरण के लिए अनुरोध की तरह लगता है।
denesp

1
@ अचानक, मुझे लगता है कि मेरा पहला पैराग्राफ एक पूर्ण उत्तर प्रदान करता है। दूसरे में, मैं सिर्फ भ्रम के संभावित स्रोत का सुझाव देना चाहता था
Patricio

1
@Patricio आप लिखते हैं: 'प्रोत्साहन अनुकूलता के लिए बाध्यकारी होने की जरूरत है, अन्यथा, एजेंट कम प्रयास स्तर का चयन करेगा।' पर ये सच नहीं है! यदि आईसी सख्त असमानता के साथ है, तो एजेंट अभी भी उच्च प्रयास स्तर चुनना चाहेगा।
afreelunch

@afreelunch, मैंने अपना उत्तर स्पष्ट करने के लिए संपादित किया है
Patricio
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.