इस उत्तर में एक परिचयात्मक खंड होता है, जिसे मैंने हाल ही में "यूनिवर्सल क्रिगिंग" (यूके) के एक (मामूली) अनुपात-लौकिक विस्तार का वर्णन करने वाले एक पेपर के लिए लिखा है, जो खुद "साधारण क्रिगिंग" का एक मामूली सामान्यीकरण है। इसके तीन उप-खंड हैं: सिद्धांत एक सांख्यिकीय मॉडल और धारणा देता है; अनुमान संक्षेप में कम से कम वर्गों के आकलन की समीक्षा करता है; और भविष्यवाणी से पता चलता है कि सामान्यीकृत जानवर वर्ग (GLS) के ढांचे में किस तरह से सिंचाई होती है। मैंने सांख्यिकीविदों, विशेष रूप से इस साइट पर आने वाले आगंतुकों, और उन अवधारणाओं का उपयोग करने के लिए जो यहाँ अच्छी तरह से समझाई गई हैं, को स्वीकार करने का प्रयास किया है।
सारांशित करने के लिए, सिंचाई करना यादृच्छिक क्षेत्र का सर्वश्रेष्ठ रैखिक निष्पक्ष पूर्वानुमान (BLUP) है। इसका मतलब यह है कि किसी भी अपरिचित स्थान पर अनुमानित मूल्य को नमूना स्थानों पर देखे गए मूल्यों और कोवरिएट्स के रैखिक संयोजन के रूप में प्राप्त किया जाता है। (अज्ञात, यादृच्छिक) मान का नमूना मानों के साथ एक अनुमानित सहसंबंध है (और नमूना मान आपस में संबद्ध हैं)। यह सहसंबंध जानकारी आसानी से भविष्यवाणी के विचरण में अनुवादित है। एक लीनियर कॉम्बिनेशन ("क्राइंगिंग वेट") में गुणांक का चयन करता है जो भविष्यवाणी में शून्य पूर्वाग्रह की स्थिति के अधीन इस विचरण को यथासंभव छोटा बनाता है। विवरण का पालन करें।
सिद्धांत
यूके में दो प्रक्रियाएं शामिल हैं - एक अनुमान और दूसरी भविष्यवाणी की - एक अध्ययन क्षेत्र के लिए GLS मॉडल के संदर्भ में की गई। GLS मॉडल मानता है कि नमूना डेटा एक प्रवृत्ति के आसपास यादृच्छिक विचलन का परिणाम है और उन विचलन सहसंबद्ध हैं। एक प्रवृत्ति सामान्य मूल्य के अर्थ में होती है जिसे अज्ञात गुणांक (पैरामीटर) रैखिक संयोजन द्वारा निर्धारित किया जा सकता है । (इस पोस्ट के दौरान, प्राइम Prime मैट्रिक्स ट्रांज़ोज़ को दर्शाता है और सभी वैक्टर को कॉलम वैक्टर माना जाता है।)पी β = ( β 1 , β 2 , ... , β पी ) ' 'zमैं, ( मैं = 1 , 2 , । । । , N ) पीβ= ( β1, β2, … , Βपी)''
किसी अध्ययन क्षेत्र के भीतर किसी भी स्थान पर संख्यात्मक गुण को "स्वतंत्र चर" या " " कहा जाता है। (आमतौर पर एक "निरंतर अवधि" है, और स्थानिक निर्देशांक हो सकते हैं, और अतिरिक्त स्थानिक जानकारी के साथ-साथ अन्य सहायक जानकारी का प्रतिनिधित्व कर सकता है जो अध्ययन क्षेत्र के सभी स्थानों पर उपलब्ध है, जैसे कि porosity of a जलभृत या प्रत्येक डेटा स्थान पर अच्छी तरह से एक पंप के लिए दूरी।) अपने covariates के अलावा, , संबद्ध अवलोकनy 1 = 1 y 2 y 3 y मैं मैं y मैं = ( y मैं 1 , y मैं 2 , ... , y मैं पी ) ' जेड मैं जेड मैं y I y i Z iy =( y)1, वाई2, ... , yपी)'y1= 1y2y3yमैंमैंyमैं= ( y)मैं १, वाईमैं २, ... , yमैं पी)'zमैंएक यादृच्छिक चर की प्राप्ति माना जाता है । इसके विपरीत, को अवलोकनों द्वारा दर्शाए गए बिंदुओं या छोटे क्षेत्रों (डेटा "समर्थन") द्वारा निर्धारित या मान के रूप में माना जाता है। यादृच्छिक चर की प्रतीति नहीं माना जाता है और में से किसी के गुणों से संबंधित नहीं होना भी आवश्यक है ।जेडमैंyमैंyमैंजेडमैं
रेखीय संयोजन
पैरामीटर संदर्भ में
के अपेक्षित मूल्य को व्यक्त करता है , जो स्थान पर प्रवृत्ति का मूल्य है । आकलन प्रक्रिया डेटा का उपयोग करता मूल्यों को खोजने के कि अज्ञात मानकों का प्रतिनिधित्व जबकि भविष्यवाणी प्रक्रिया स्थानों पर डेटा का उपयोग करता एक संयुक्त राष्ट्र नमूना स्थान पर एक मूल्य की गणना करने , जिसे यहाँ रूप में अनुक्रमित किया गया है । अनुमान के लक्ष्य निर्धारित हैं ( यानीजेड मैं βमैं β मैं β मैं मैं=1,2,...,nमैं=0 जेड 0 y ' 0 β0
ई [ जेडमैं] = य'मैंβ= यमैं १β1+ यमैं २β2+ ⋯ + yमैं पीβपी
जेडमैंβमैंβ^मैंβमैंi = 1 , 2 , … , nमैं = ०, गैर-यादृच्छिक) पैरामीटर जबकि भविष्यवाणी का लक्ष्य यादृच्छिक है, क्योंकि मूल्य में इसकी प्रवृत्ति आसपास एक यादृच्छिक उतार-चढ़ाव शामिल है । आमतौर पर, अलग-अलग स्थान द्वारा एक ही डेटा का उपयोग करके कई स्थानों के लिए भविष्यवाणियां की जाती हैं । उदाहरण के लिए, भविष्यवाणियों को अक्सर समोच्च के लिए उपयुक्त बिंदुओं के एक नियमित ग्रिड के साथ एक सतह के मानचित्रण के लिए बनाया जाता है।
z0y'0β0
अनुमान
क्लासिकल मानना है कि यादृच्छिक उतार-चढ़ाव में शून्य के अपेक्षित मूल्य हैं और उनके सह - ज्ञात हैं। और बीच covariance को रूप में । इस सहसंयोजक का उपयोग करके, GLS का उपयोग करके अनुमान लगाया जाता है। इसका समाधान निम्नलिखित है:
जहां है टिप्पणियों के -vector, ( "डिजाइन मैट्रिक्स") है द्वारा मैट्रिक्स जिसका पंक्तियों वैक्टर हैंजेड मैं जेड जे सी मैं j β = एच जेड , एच = ( Y ' सी - 1 Y ) - 1 Y ' सी - 1 जेड = ( z 1 , जेड 2 , ... , जेड एन ) एन वाई = ( y i j ) n p y ′ i , 1जेडमैंजेडमैंजेडजेसीमैं जे
β^= एच जेड , एच = ( वाई 'सी- 1य )- 1Y'सी- 1
z =( z)1, ज़ेड2, ... , zn)nY =( yमैं जे)nपीसी = ( ग मैं j ) एन एन पी एन एच जेड बीटा बीटा सी = ( ग मैं j )y'मैं, 1 ≤ i ≤ n , और है -by- सहप्रसरण मैट्रिक्स जो उलटी माना जाता है (ड्रेपर और स्मिथ (1981), खंड 2.11) । द्वारा मैट्रिक्स , जो डेटा परियोजनाओं पैरामीटर अनुमान पर , कहा जाता है "टोपी मैट्रिक्स।" डेटा के लिए हैट मैट्रिक्स के अनुप्रयोग के रूप में का सूत्रीकरण स्पष्ट रूप से दिखाता है कि पैरामीटर का अनुमान डेटा पर रैखिक रूप से कैसे निर्भर करता है। सहप्रसरण
सी =( सी)मैं जे)nnपीnएचzβ^β^सी =( सी)मैं जे) एक वैरोग्राम का उपयोग करके शास्त्रीय रूप से गणना की जाती है जो डेटा स्थानों के संदर्भ में कोवरियन देता है, हालांकि यह सारहीन है कि कोवरियन वास्तव में कैसे गणना की जाती है।
भविष्यवाणी
इसी तरह डेटा के रैखिक संयोजन के माध्यम से UK भविष्यवाणी है
की भविष्यवाणी के लिए "kriging वजन" कहा जाता है । यूके दो मानदंडों को पूरा करके की इस भविष्यवाणी को पूरा करता है। सबसे पहले, भविष्यवाणी निष्पक्ष, जो की आवश्यकता होती है कि यादृच्छिक चर के रैखिक संयोजन से व्यक्त किया जाता है होना चाहिए के बराबर होती है : औसतन
इस अपेक्षा को संयुक्त से अधिक लिया जाता हैजेड 0 = λ 1 z 1 + λ 2 जेड 2 + ⋯ + λ n z n = λ ' जेड । λ मैं जेड 0 जेड 0 जेड मैं जेड 0 0 = ई [ जेड 0 - जेड 0 ] = ई [ λ ' जेड - जेड 0 ] । n +z0
z^0= λ1z1+ λ2z2+ ⋯ + λnzn= λ'जेड ।
λमैंz0z0जेडमैंजेड00 = ई [ जेड]^0- जेड0] = ई [ λ'जेड - जेड0] हो गया ।
Z 0 जेड = ( जेड 1 , जेड 2 , ... , जेड एन ) 0 = ई [ λ ' जेड - जेड 0 ] = λ ' ई [ Z ] - ई [ जेड 0 ] = λ ' ( Y β ) - y ' 0 β = ( λ ' वाई - वाई 'एन + १की -variate वितरण और । प्रवृत्ति धारणा (1) के साथ उम्मीद की का तात्पर्य:
जेड0जेड =( जेड)1, जेड2, ... , जेडn)0= ई [ λ'जेड - जेड0] = λ'ई [ Z ]- ई [ जेड0] = λ'( य β) - वाई'0β= ( λ'वाई - y'0) β= β'( य'λ - वाई0)
कोई बात नहीं क्या हो सकता है। यह मामला प्रदान करेगाβ
Y^'λ = वाई0।
समीकरणों की इस अल्पविकसित प्रणाली के सभी संभावित समाधानों के बीच, ब्रिटेन ने भविष्यवाणी की त्रुटि के विचरण को कम करने के लिए को । इस मायने में, यूके सभी निष्पक्ष रैखिक भविष्यवक्ताओं के बीच "सर्वश्रेष्ठ" है। चूँकि यह अंतिम संबंध भविष्यवाणी की त्रुटि औसत पर शून्य है, इसलिए विचरण केवल चुकता पूर्वानुमान त्रुटि की अपेक्षा है:
जहां बीच का वेक्टर हैजेड 0 - जेड 0 वी एक आर ( जेड 0 - जेड 0 ) = ई [ ( जेड 0 - जेड 0 ) 2 ] = ई [ ( λ ' जेड - जेड 0 ) 2 ] = ग 00 - 2 λ ' सी 0 + λ ' सी λ सी 0 =λजेड^0- जेड0
V a r ( Z)^0- जेड0) = ई [ ( जेड)^0- जेड0)2] = ई [ ( λ)'जेड - जेड0)2] = सी00- 2 λ'सी0+ λ'सी λ
सी0= ( सी)01, सी02, … , सी0 एन)'जेड0और , और का प्रसरण है ।
जेडमैं, मैं ≥ 1 सी00जेड0
विचरण को कम करने के लिए, संबंध में अंतर करें और बाधा की में शामिल करने के लिए लैग्रेंज मल्टीप्लायरों का वेक्टर पेश करें । यह रैखिक समीकरणों की एक प्रणाली उत्पन्न करता है, जिसे ब्लॉक-मैट्रिक्स रूप में लिखा जाता है
जहां एक का प्रतिनिधित्व करता है द्वाराλपीμY^'λ = वाई0एन + पी
( सी)Y'Y0) ( λμ) = ( सी )0y0)
0पीपीशून्य का मैट्रिक्स। लेखन के लिए से पहचान मैट्रिक्स, के लिए अद्वितीय समाधान द्वारा दिया जाता है
1nnλλ = एच'y0+ सी- 1( 1 - वाई एच ) सी0।
(कई प्रतिगमन से परिचित पाठक इसे इस निर्देश की तुलना करने के लिए निर्देश दे सकते हैं कि इस समाधान की तुलना सामान्य कम से कम वर्गों के सहसंयोजक-आधारित सामान्य समीकरणों से की जाए , जो लगभग बिल्कुल एक जैसा दिखता है, लेकिन बिना लैगेंज गुणक शब्दों के साथ।)
यह संबंध क्रेटिंग वेट, प्रस्तुत करता है , केवल एक शब्द का योग है जो केवल हेट मैट्रिक्स पर निर्भर करता है और भविष्यवाणी स्थान पर करता है , साथ ही एक शब्द covariances के आधार पर डेटा और पूर्वानुमान के बीच, । इसे प्रसरण समीकरण के दाहिने हाथ में प्रतिस्थापित करने से क्रिप्टिंग भविष्यवाणी विचरण पैदा होता है, जिसका उपयोग आसपास की भविष्यवाणी सीमा का निर्माण करने के लिए किया जा सकता है ।λ जेड 0 जेड 0[ ज'y0]जेड0z^0