जटिल डेटा के साथ विश्लेषण, कुछ अलग?


31

उदाहरण के लिए कहें कि आप एक रेखीय मॉडल कर रहे हैं, लेकिन डेटा y जटिल है।

y=xβ+ϵ

मेरा डेटा सेट जटिल है, क्योंकि में सभी संख्याएँ फॉर्म । क्या इस तरह के डेटा के साथ काम करते समय प्रक्रियात्मक रूप से कुछ अलग है?y(a+bi)

मैं पूछता हूं, क्योंकि आप जटिल कॉवरियस मैट्रिस, और परीक्षण आँकड़े प्राप्त कर रहे हैं, जो कि महत्वपूर्ण हैं।

क्या आपको कम से कम वर्ग में बदलाव के बजाय एक संयुग्मित संक्रमण का उपयोग करने की आवश्यकता है? एक जटिल मूल्यवान सहसंयोजक सार्थक है?


3
दो अलग-अलग चर के रूप में जटिल संख्या पर विचार करें, और इस तरह से मैं अपने सभी समीकरणों से हटा देता हूं। अन्यथा यह एक बुरा सपना होगा ...
सश्कलो

या पर कोई जानकारी ? xβ
Stijn

3
@ सश्कलो क्या "बुरा सपना"? जब आप जटिल संख्याओं का उपयोग करते हैं तो आयाम आधा हो जाता है, इसलिए यकीनन यह एक सरलीकरण है। इसके अलावा, आपने एक bivariate DV को एक univariate DV में बदल दिया है , जो एक बहुत बड़ा लाभ है। पीटरब्रैबिट: हां, संयुग्म संक्रमणों की जरूरत है। जटिल सहसंयोजक मैट्रिक्स हर्मिटियन पॉजिटिव-निश्चित है। अपने वास्तविक समकक्ष की तरह, इसमें अभी भी सकारात्मक वास्तविक प्रतिध्वनियां हैं, जो अर्थपूर्णता के प्रश्न को संबोधित करती हैं।
व्हिबर

2
@ जब भी समस्या दिखाई जाए तो जटिल संख्या में जाने के लिए इससे मुझे कोई मतलब नहीं है। जटिल संख्या से निपटने के लिए यह आसान नहीं है - अन्यथा यहाँ एक सवाल नहीं होगा। नहीं सब कुछ जटिल संख्याओं के साथ ठीक काम करेगा और यदि आप नहीं जानते कि आप क्या कर रहे हैं तो यह एक सीधा बदलाव नहीं है। इस समस्या को वास्तविक स्थान पर बदलना समान है , और आप सभी प्रकार की सांख्यिकीय तकनीकों को लागू कर सकते हैं, फिर चिंता किए बिना कि यह जटिल स्थान पर काम करता है या नहीं।
साश्केलो

1
@ शुभ उत्तर और अच्छा स्पष्टीकरण। मैं कहता हूँ जैसे ही आप एक से दूसरे में रूपांतरित होते हैं यह वास्तव में कठिन नहीं है ...
sashkello

जवाबों:


40

सारांश

जटिल-मूल्यवान चरों के लिए कम से कम वर्गों के प्रतिगमन का सामान्यीकरण सीधा है, जिसमें मुख्य रूप से मैट्रिक्स मैट्रिक्स को प्रतिस्थापित किया जाता है, जो सामान्य मैट्रिक्स के फ़ार्मुलों में संयुग्मित परिवर्तनों द्वारा होता है। एक जटिल-मूल्यवान प्रतिगमन, हालांकि, एक जटिल बहुभिन्नरूपी एकाधिक प्रतिगमन से मेल खाता है जिसका समाधान मानक (वास्तविक चर) विधियों का उपयोग करके प्राप्त करना अधिक कठिन होगा। इस प्रकार, जब जटिल-मूल्यवान मॉडल सार्थक होता है, तो समाधान प्राप्त करने के लिए जटिल अंकगणित का उपयोग करना दृढ़ता से अनुशंसित होता है। इस उत्तर में डेटा को प्रदर्शित करने और फिट के नैदानिक ​​प्लॉटों को प्रस्तुत करने के कुछ सुझाए गए तरीके भी शामिल हैं।


सरलता के लिए, आइए साधारण (अविभाज्य) प्रतिगमन के मामले पर चर्चा करें, जिसे लिखा जा सकता है

zj=β0+β1wj+εj.

मैंने स्वतंत्र चर और आश्रित चर जेड के नामकरण की स्वतंत्रता ली है , जो पारंपरिक है (उदाहरण के लिए, लार्स अहलफोरर्स, कॉम्प्लेक्स एनालिसिस )। सभी इस प्रकार है कि कई प्रतिगमन सेटिंग का विस्तार करने के लिए सीधा है।WZ

व्याख्या

यह मॉडल एक आसानी से कल्पना ज्यामितीय व्याख्या है: द्वारा गुणा होगा rescale डब्ल्यू जे के मापांक द्वारा β 1 और बारी बारी से की तर्क द्वारा मूल के आसपास यह β 1 । इसके बाद, transl 0 को जोड़ने से परिणाम इस राशि में बदल जाता है। Effect j का प्रभाव "घबराना" है जो अनुवाद को थोड़ा बढ़ा देता है। इस प्रकार, regressing z j पर डब्ल्यू जे इस तरह से 2 डी अंक का संग्रह को समझने के लिए एक प्रयास है ( z )β1 wjβ1β1β0εjzjwj(zj)इस तरह के एक परिवर्तन के माध्यम से 2 डी अंक एक नक्षत्र से उत्पन्न होने के रूप में, प्रक्रिया में कुछ त्रुटि के लिए अनुमति देता है। यह नीचे चित्र के साथ चित्रित किया गया है, जिसका शीर्षक है "परिवर्तन के रूप में फिट।"(wj)

ध्यान दें कि रीकॉलिंग और रोटेशन विमान का कोई रैखिक परिवर्तन नहीं है: उदाहरण के लिए, वे तिरछा परिवर्तनों को नियंत्रित करते हैं। इस प्रकार यह मॉडल चार मापदंडों के साथ एक द्विभाजित एकाधिक प्रतिगमन के समान नहीं है।

सामान्य कम चौकोर

जटिल मामले को वास्तविक मामले से जोड़ने के लिए, आइए लिखते हैं

आश्रित चर के मूल्यों के लिए औरzj=xj+iyj

स्वतंत्र चर के मान के लिए।wj=uj+ivj

इसके अलावा, मापदंडों के लिए लिखें

और β 1 = γ 1 + मैं δ 1β0=γ0+iδ0β1=γ1+iδ1

प्रस्तुत किए गए नए शब्दों में से प्रत्येक, निश्चित रूप से, वास्तविक है, और काल्पनिक है जबकि j = 1 , 2 , , n डेटा को अनुक्रमित करता है।i2=1j=1,2,,n

OLS पाता बीटा 0 और β 1 कि विचलनों के वर्गों का योग कम से कम,β^0β^1

j=1n||zj(β^0+β^1wj)||2=j=1n(z¯j(β^0¯+β^1¯w¯j))(zj(β^0+β^1wj)).

औपचारिक रूप से यह सामान्य मैट्रिक्स तैयार करने के समान है: के साथ उसकी तुलना फर्क सिर्फ इतना है हम पाते हैं कि डिजाइन मैट्रिक्स के पक्षांतरित है एक्स ' ने ले ली है संयुग्म पक्षांतरित एक्स * = ˉ एक्स ' । नतीजतन औपचारिक मैट्रिक्स समाधान है(zXβ)(zXβ).X X=X¯

β^=(XX)1Xz.

उसी समय, यह देखने के लिए कि इसे वास्तविक रूप से वास्तविक चर समस्या में डालने से क्या पूरा हो सकता है, हम OLS उद्देश्य को वास्तविक घटकों के संदर्भ में लिख सकते हैं:

j=1n(xjγ0γ1uj+δ1vj)2+j=1n(yjδ0δ1ujγ1vj)2.

जाहिर है इस दो का प्रतिनिधित्व करता है जुड़ा हुआ असली प्रतिगमन: उनमें से एक regresses पर यू और वी , अन्य regresses y पर यू और वी ; और हम चाहते हैं कि वी के लिए गुणांक एक्स की नकारात्मक हो यू के लिए गुणांक y और यू के लिए गुणांक एक्स के बराबर वी के लिए गुणांक y । इसके अलावा, क्योंकि कुलxuvyuvvxuyuxvyदो रजिस्ट्रियों से प्राप्त अवशेषों के वर्गों को कम से कम किया जाना है, यह आमतौर पर ऐसा नहीं होगा कि या तो गुणांक का सेट अकेले या वाई के लिए सबसे अच्छा अनुमान देता है । नीचे दिए गए उदाहरण में इसकी पुष्टि की गई है, जो दो वास्तविक प्रतिगमन को अलग-अलग करता है और उनके समाधानों की तुलना जटिल प्रतिगमन से करता है।xy

यह विश्लेषण यह स्पष्ट करता है कि वास्तविक भागों के संदर्भ में जटिल प्रतिगमन को फिर से लिखना (1) सूत्रों को जटिल बनाता है, (2) सरल ज्यामितीय व्याख्या को अस्पष्ट करता है, और (3) चर के बीच nontrivial सहसंबंधों के साथ एक सामान्यीकृत बहुभिन्नरूपी प्रतिगमन की आवश्यकता होगी ) समाधान करना। हम बेहतर कर सकते हैं।

उदाहरण

एक उदाहरण के रूप में, मैं जटिल विमान में मूल के समीप अभिन्न बिंदुओं पर मानों का एक ग्रिड लेता हूं । तब्दील मूल्यों के लिए डब्ल्यू β एक द्विचर गाऊसी वितरण होने आईआईडी त्रुटियों जोड़े जाते हैं: विशेष रूप से, त्रुटियों की वास्तविक और काल्पनिक भागों स्वतंत्र नहीं हैं।wwβ

जटिल चर के लिए के सामान्य स्कैल्पलॉट को खींचना मुश्किल है , क्योंकि इसमें चार आयामों में अंक शामिल होंगे। इसके बजाय हम उनके वास्तविक और काल्पनिक भागों के बिखराव मैट्रिक्स को देख सकते हैं।(wj,zj)

स्कैटरप्लॉट मैट्रिक्स

अभी के लिए फिट पर ध्यान न दें और शीर्ष चार पंक्तियों और चार बाएँ स्तंभों को देखें: ये डेटा प्रदर्शित करते हैं। का गोलाकार ग्रिड ऊपरी बाएँ में स्पष्ट है; इसके 81 अंक हैं। के घटकों के scatterplots w के घटकों के खिलाफ जेड स्पष्ट सहसंबंध दिखा। उनमें से तीन में नकारात्मक सहसंबंध हैं; केवल y ( z का काल्पनिक भाग ) और u ( w का वास्तविक भाग ) सकारात्मक रूप से सहसंबद्ध हैं।w81wzyzuw

इन आंकड़ों के लिए, की सही कीमत है ( - 20 + 5 मैं , - 3 / 4 + 3 / 4 β। यह द्वारा एक विस्तार का प्रतिनिधित्व करता है3/2और 120 डिग्री का अनुवाद के बाद के एक वामावर्त रोटेशन20बाईं ओर इकाइयों और5इकाइयों की। मैं तीन फिट की गणना करता हूं: तुलना के लिए(xj)और(yj) केलिए जटिल कम से कम वर्ग समाधान और दो OLS समाधान।(20+5i,3/4+3/43i)3/2205(xj)(yj)

Fit            Intercept          Slope(s)
True           -20    + 5 i       -0.75 + 1.30 i
Complex        -20.02 + 5.01 i    -0.83 + 1.38 i
Real only      -20.02             -0.75, -1.46
Imaginary only          5.01       1.30, -0.92

यह हमेशा ऐसा होगा कि वास्तविक-केवल अवरोधन जटिल अवरोधन के वास्तविक भाग से सहमत होता है और काल्पनिक-अंतरविरोध केवल जटिल अवरोधन के काल्पनिक भाग से सहमत होता है। हालांकि, यह स्पष्ट है कि केवल-वास्तविक और काल्पनिक-केवल ढलान न तो जटिल ढलान गुणांक के साथ सहमत हैं और न ही एक-दूसरे के साथ, जैसा कि भविष्यवाणी की गई है।

आइए जटिल फिट के परिणामों पर करीब से नज़र डालें। सबसे पहले, अवशिष्टों का एक भूखंड हमें उनके बीवरिएट गौसियन वितरण का संकेत देता है। (अंतर्निहित वितरण में सीमांत मानक विचलन और 0.8 का सहसंबंध है ।) फिर, हम अवशिष्ट के परिमाण (परिपत्र प्रतीकों के आकार द्वारा दर्शाए गए) और उनके तर्कों (रंगों द्वारा पहली साजिश में बिल्कुल उसी तरह दर्शाए गए) को प्लॉट कर सकते हैं। फिट किए गए मूल्यों के खिलाफ: यह भूखंड आकार और रंगों के यादृच्छिक वितरण की तरह दिखना चाहिए, जो यह करता है।20.8

अवशिष्ट भूखंड

अंत में, हम फिट को कई तरीकों से चित्रित कर सकते हैं। स्कैटरप्लॉट मैट्रिक्स ( qv ) की अंतिम पंक्तियों और स्तंभों में फिट दिखाई दिया और इस बिंदु पर करीब से देखने लायक हो सकता है। नीचे बाईं ओर फिट को नीले नीले घेरे के रूप में प्लॉट किया गया है और तीर (अवशेषों का प्रतिनिधित्व करते हुए) उन्हें डेटा से जोड़ते हैं, जो लाल लाल हलकों के रूप में दिखाए जाते हैं। दाईं ओर को उनके तर्कों के अनुरूप रंगों से भरे खुले काले घेरे के रूप में दिखाया गया है; इन्हें ( z j ) के संबंधित मानों से तीरों द्वारा जोड़ा जाता है । याद रखें कि प्रत्येक तीर से एक विस्तार का प्रतिनिधित्व करता है 3 / 2 द्वारा मूल के आसपास, रोटेशन 120(wj)(zj)3/2120डिग्रियां, और अनुवाद , प्लस उस द्विअर्थी Guassian त्रुटि।(20,5)

परिवर्तन के रूप में फिट

ये परिणाम, भूखंड और नैदानिक ​​भूखंड सभी बताते हैं कि जटिल प्रतिगमन सूत्र सही ढंग से काम करता है और चर के वास्तविक और काल्पनिक भागों के अलग-अलग रैखिक रजिस्टरों की तुलना में कुछ अलग प्राप्त करता है।

कोड

Rडेटा बनाने, फिट करने और प्लॉट बनाने का कोड नीचे दिखाई देता है। ध्यान दें कि की वास्तविक समाधान β कोड की एक पंक्ति में प्राप्त की है। अतिरिक्त काम - लेकिन इसका बहुत अधिक नहीं - सामान्य रूप से कम से कम वर्गों का उत्पादन प्राप्त करने के लिए आवश्यक होगा: फिट, मानक त्रुटियां, पी-मान, आदि का विचरण-सहसंयोजक मैट्रिक्स।β^

#
# Synthesize data.
# (1) the independent variable `w`.
#
w.max <- 5 # Max extent of the independent values
w <- expand.grid(seq(-w.max,w.max), seq(-w.max,w.max))
w <- complex(real=w[[1]], imaginary=w[[2]])
w <- w[Mod(w) <= w.max]
n <- length(w)
#
# (2) the dependent variable `z`.
#
beta <- c(-20+5i, complex(argument=2*pi/3, modulus=3/2))
sigma <- 2; rho <- 0.8 # Parameters of the error distribution
library(MASS) #mvrnorm
set.seed(17)
e <- mvrnorm(n, c(0,0), matrix(c(1,rho,rho,1)*sigma^2, 2))
e <- complex(real=e[,1], imaginary=e[,2])
z <- as.vector((X <- cbind(rep(1,n), w)) %*% beta + e)
#
# Fit the models.
#
print(beta, digits=3)
print(beta.hat <- solve(Conj(t(X)) %*% X, Conj(t(X)) %*% z), digits=3)
print(beta.r <- coef(lm(Re(z) ~ Re(w) + Im(w))), digits=3)
print(beta.i <- coef(lm(Im(z) ~ Re(w) + Im(w))), digits=3)
#
# Show some diagnostics.
#
par(mfrow=c(1,2))
res <- as.vector(z - X %*% beta.hat)
fit <- z - res
s <- sqrt(Re(mean(Conj(res)*res)))
col <- hsv((Arg(res)/pi + 1)/2, .8, .9)
size <- Mod(res) / s
plot(res, pch=16, cex=size, col=col, main="Residuals")
plot(Re(fit), Im(fit), pch=16, cex = size, col=col,
     main="Residuals vs. Fitted")

plot(Re(c(z, fit)), Im(c(z, fit)), type="n",
     main="Residuals as Fit --> Data", xlab="Real", ylab="Imaginary")
points(Re(fit), Im(fit), col="Blue")
points(Re(z), Im(z), pch=16, col="Red")
arrows(Re(fit), Im(fit), Re(z), Im(z), col="Gray", length=0.1)

col.w <-  hsv((Arg(w)/pi + 1)/2, .8, .9)
plot(Re(c(w, z)), Im(c(w, z)), type="n",
     main="Fit as a Transformation", xlab="Real", ylab="Imaginary")
points(Re(w), Im(w), pch=16, col=col.w)
points(Re(w), Im(w))
points(Re(z), Im(z), pch=16, col=col.w)
arrows(Re(w), Im(w), Re(z), Im(z), col="#00000030", length=0.1)
#
# Display the data.
#
par(mfrow=c(1,1))
pairs(cbind(w.Re=Re(w), w.Im=Im(w), z.Re=Re(z), z.Im=Im(z),
            fit.Re=Re(fit), fit.Im=Im(fit)), cex=1/2)

मैं सवाल को एक अनुवर्ती था, आकलनकर्ता के बारे में β और उसके सहप्रसरण। जब मैं अपनी समस्या को जटिल वाई के साथ हल करता हूं , तो मेरे अनुमानक के कोविरियस मैट्रिक्स (जो मैं फिट अवशिष्ट का उपयोग करके अनुमान लगाता हूं) में वास्तविक और काल्पनिक भाग होते हैं। मुझे यकीन नहीं है कि यह कैसे काम करता है। क्या सहसंयोजक का काल्पनिक भाग केवल अनुमानक के काल्पनिक भाग के विषय में है (वास्तविक भाग के लिए भी)? यदि मैं सीआई की साजिश करना चाहता हूं, तो मुझे यकीन नहीं है कि इस बारे में कैसे जाना है ... क्या अनुमानक के काल्पनिक और वास्तविक हिस्सों में एक ही सीआई है? क्या आपके स्पष्टीकरण में इस पर थोड़ी जानकारी शामिल करना संभव होगा? धन्यवाद! β^y
बिल_ए १e

यदि सभी को सही ढंग से गणना की जाती है, तो सहसंयोजक अभी भी सकारात्मक-निश्चित होगा। विशेष रूप से, इसका तात्पर्य यह है कि जब आप इसका उपयोग वास्तविक भाग या किसी वैरिएबल के काल्पनिक भाग के सहसंयोजन की गणना करने के लिए करते हैं, तो आपको एक सकारात्मक संख्या प्राप्त होगी, इसलिए सभी CI को अच्छी तरह से परिभाषित किया जाएगा।
whuber

β^

इसके अलावा, जब मैं परीक्षण आँकड़ों के लिए मूल्यों की गणना करता हूं, तो मुझे 3 + .1 * i जैसे नंबर मिलते हैं। इसके लिए मैं उम्मीद कर रहा था कि संख्या का कोई काल्पनिक हिस्सा नहीं होगा। क्या यह सामान्य है? या एक संकेत मैं कुछ गलत कर रहा हूँ?
बिल_ए १e ’

जब आप जटिल संख्याओं के साथ परीक्षण आँकड़ों की गणना करते हैं, तो आपको जटिल परिणाम प्राप्त करने की उम्मीद करनी चाहिए! यदि आपके पास गणितीय कारण है कि सांख्यिकीय वास्तविक क्यों होना चाहिए, तो गणना गलत होनी चाहिए। जब वास्तविक भाग की तुलना में काल्पनिक हिस्सा वास्तव में छोटा होता है, तो संभावना है कि संचित फ़्लोटिंग पॉइंट त्रुटि हो और इसे बंद ( zapsmallइन R) मारना आम तौर पर सुरक्षित है । अन्यथा यह एक संकेत है कि कुछ मौलिक रूप से गलत है।
whuber

5

एक अच्छी लंबी Google sesh के बाद, मुझे वैकल्पिक तरीके से समस्या को समझने के बारे में कुछ प्रासंगिक जानकारी मिली। यह पता चला है कि इसी तरह की समस्याएं सांख्यिकीय सिग्नल प्रोसेसिंग में कुछ सामान्य हैं। एक गाऊसी संभावना के साथ शुरू करने के बजाय जो वास्तविक डेटा के लिए एक रैखिक कम से कम वर्गों से मेल खाती है, एक के साथ शुरू होता है:

http://en.wikipedia.org/wiki/Complex_normal_distribution

यह विकिपीडिया पृष्ठ इस वस्तु पर एक संतोषजनक विस्तार देता है।

β^

एक अन्य स्रोत जो मैंने पाया कि व्हिबर के समान ही निष्कर्ष पर पहुंचता है, लेकिन अधिकतम संभावना की तरह अन्य अनुमानकों की पड़ताल करता है: यान एट अल से "अनुचित रैखिक प्रतिगमन मॉडल का अनुमान"।


1

जबकि @whuber के पास एक सुंदर-सचित्र और अच्छी तरह से समझाया गया उत्तर है, मुझे लगता है कि यह एक सरलीकृत मॉडल है जो जटिल स्थान की शक्ति को याद करता है।

wβएक्स

z=β0+β1w+ε

ε

मेरा सुझाव है कि जटिल रैखिक प्रतिगमन को निम्नानुसार परिभाषित किया जाना चाहिए:

z=β0+β1w+β2w¯+ε

दो प्रमुख अंतर हैं।

β2

ε

वास्तविक मॉडल पर वापस जाने पर, साधारण न्यूनतम वर्ग समाधान नुकसान को कम करने के लिए निकलता है, जो कि नकारात्मक लॉग-लाइबिलिटी है। सामान्य वितरण के लिए, यह परवलय है:

y=एक्स2+सीएक्स+

एक्स=z-(β0+β1w), निश्चित है (आमतौर पर), सी मॉडल के अनुसार शून्य है, और इससे कोई फर्क नहीं पड़ता कि नुकसान के कार्य निरंतर जोड़ के तहत अपरिवर्तनीय हैं।

जटिल मॉडल पर वापस, नकारात्मक लॉग-संभावना है

y=|एक्स|2+(एक्स2+सीएक्स)+

सी तथा पहले की तरह शून्य हैं। वक्रता है और "छद्म वक्रता" है। अनिसोट्रोपिक घटकों को कैप्चर करता है। अगर द फ़ंक्शन आपको परेशान करता है, फिर यह लिखने का एक समान तरीका है

[एक्स-μएक्स-μ¯]एच[रोंयूयू¯रों¯]-1[एक्स-μएक्स-μ¯]+
मापदंडों के एक और सेट के लिए रों,यू,μ,। यहाँरों विचरण है और यू छद्म विचरण है। μ हमारे मॉडल के अनुसार शून्य है।

यहां एक जटिल सामान्य वितरण घनत्व की छवि है:

एक जटिल univariate सामान्य वितरण का घनत्व

ध्यान दें कि यह असममित कैसे है। के बिना पैरामीटर, यह असममित नहीं हो सकता।

इस प्रतिगमन को जटिल बनाता है, हालांकि मुझे यकीन है कि समाधान अभी भी विश्लेषणात्मक है। मैंने इसे एक इनपुट के मामले के लिए हल किया है, और मैं अपने समाधान को यहां ट्रांसफर करने के लिए खुश हूं, लेकिन मुझे लगता है कि व्ह्यूबर सामान्य मामले को हल कर सकता है।


Thank you for this contribution. I don't follow it, though, because I'm not sure (a) why you introduce a quadratic polynomial, (b) what you actually mean by "corresponding" polynomial, or (c) what statistical model you are fitting. Would you be able to elaborate on those?
व्हीबर

@ जब मैंने इसे एक सांख्यिकीय मॉडल के रूप में फिर से लिखा है। कृपया मुझे पता है अगर आप के लिए समझ में आता है।
नील जी

धन्यवाद: जो इसे साफ़ करता है (+1)। आपका मॉडल अब चर का एक विश्लेषणात्मक कार्य नहीं है। लेकिन क्योंकि यह मापदंडों का एक विश्लेषणात्मक कार्य है, इसलिए इसे कई प्रतिगमन के रूप में माना जा सकता हैzदो जटिल चर के खिलाफw तथा w¯। इसके अलावा, आप अनुमति देते हैंεअधिक लचीला वितरण होना: यह मेरे समाधान के भीतर नहीं है। जहां तक ​​मैं बता सकता हूं, आपका समाधान अपने वास्तविक और काल्पनिक भागों में सब कुछ परिवर्तित करने और एक बहुभिन्नरूपी वास्तविक प्रतिगमन करने के बराबर है ।
whuber

@whuber Right, with the two changes I suggested, I think it is as you said multivariate real regression. \Beta2 can be removed to constrain the transformation as you describe in your solution. However, the pseudo-curvature term has some realistic practical applications such as trying to do regression to predict an AC voltage with a nonzero ground state?
नील जी

यह एक विश्लेषणात्मक कार्य होने के संबंध में, तुम्हारा न तो विश्लेषणात्मक है क्योंकि तुम्हारा नुकसान पराश्रव्य है |एक्स|2, जो विश्लेषणात्मक नहीं है। काठीएक्स2 विश्लेषणात्मक है, लेकिन अपने आप से, इसे कम नहीं किया जा सकता क्योंकि यह विचलन करता है।
नील जी

1

This issue has come up again on the Mathematica StackExchange and my answer/extended comment there is that @whuber 's excellent answer should be followed.

My answer here is an attempt to extend @whuber 's answer just a little bit by making the error structure a little more explicit. The proposed least squares estimator is what one would use if the bivariate error distribution has a zero correlation between the real and imaginary components. (But the data generated has a error correlation of 0.8.)

If one has access to a symbolic algebra program, then some of the messiness of constructing maximum likelihood estimators of the parameters (both the "fixed" effects and the covariance structure) can be eliminated. Below I use the same data as in @whuber 's answer and construct the maximum likelihood estimates by assuming ρ=0 and then by assuming ρ0. I've used Mathematica but I suspect any other symbolic algebra program can do something similar. (And I've first posted a picture of the code and output followed by the actual code in an appendix as I can't get the Mathematica code to look as it should with just using text.)

Data and least squares estimator

Now for the maximum likelihood estimates assuming ρ=0...

maximum likelihood estimates assuming rho is zero

We see that the maximum likelihood estimates which assume that ρ=0 match perfectly with the total least squares estimates.

Now let the data determine an estimate for ρ:

Maximum likelihood estimates including rho

We see that γ0 and δ0 are essentially identical whether or not we allow for the estimation of ρ. But γ1 is much closer to the value that generated the data (although inferences with a sample size of 1 shouldn't be considered definitive to say the least) and the log of the likelihood is much higher.

My point in all of this is that the model being fit needs to be made completely explicit and that symbolic algebra programs can help alleviate the messiness. (And, of course, the maximum likelihood estimators assume a bivariate normal distribution which the least squares estimators do not assume.)

Appendix: The full Mathematica code

(* Predictor variable *)
w = {0 - 5 I, -3 - 4 I, -2 - 4 I, -1 - 4 I, 0 - 4 I, 1 - 4 I, 2 - 4 I,
    3 - 4 I, -4 - 3 I, -3 - 3 I, -2 - 3 I, -1 - 3 I, 0 - 3 I, 1 - 3 I,
    2 - 3 I, 3 - 3 I, 4 - 3 I, -4 - 2 I, -3 - 2 I, -2 - 2 I, -1 - 2 I,
    0 - 2 I, 1 - 2 I, 2 - 2 I, 3 - 2 I, 
   4 - 2 I, -4 - 1 I, -3 - 1 I, -2 - 1 I, -1 - 1 I, 0 - 1 I, 1 - 1 I, 
   2 - 1 I, 3 - 1 I, 
   4 - 1 I, -5 + 0 I, -4 + 0 I, -3 + 0 I, -2 + 0 I, -1 + 0 I, 0 + 0 I,
    1 + 0 I, 2 + 0 I, 3 + 0 I, 4 + 0 I, 
   5 + 0 I, -4 + 1 I, -3 + 1 I, -2 + 1 I, -1 + 1 I, 0 + 1 I, 1 + 1 I, 
   2 + 1 I, 3 + 1 I, 4 + 1 I, -4 + 2 I, -3 + 2 I, -2 + 2 I, -1 + 2 I, 
   0 + 2 I, 1 + 2 I, 2 + 2 I, 3 + 2 I, 
   4 + 2 I, -4 + 3 I, -3 + 3 I, -2 + 3 I, -1 + 3 I, 0 + 3 I, 1 + 3 I, 
   2 + 3 I, 3 + 3 I, 4 + 3 I, -3 + 4 I, -2 + 4 I, -1 + 4 I, 0 + 4 I, 
   1 + 4 I, 2 + 4 I, 3 + 4 I, 0 + 5 I};
(* Add in a "1" for the intercept *)
w1 = Transpose[{ConstantArray[1 + 0 I, Length[w]], w}];

z = {-15.83651 + 7.23001 I, -13.45474 + 4.70158 I, -13.63353 + 
    4.84748 I, -14.79109 + 4.33689 I, -13.63202 + 
    9.75805 I, -16.42506 + 9.54179 I, -14.54613 + 
    12.53215 I, -13.55975 + 14.91680 I, -12.64551 + 
    2.56503 I, -13.55825 + 4.44933 I, -11.28259 + 
    5.81240 I, -14.14497 + 7.18378 I, -13.45621 + 
    9.51873 I, -16.21694 + 8.62619 I, -14.95755 + 
    13.24094 I, -17.74017 + 10.32501 I, -17.23451 + 
    13.75955 I, -14.31768 + 1.82437 I, -13.68003 + 
    3.50632 I, -14.72750 + 5.13178 I, -15.00054 + 
    6.13389 I, -19.85013 + 6.36008 I, -19.79806 + 
    6.70061 I, -14.87031 + 11.41705 I, -21.51244 + 
    9.99690 I, -18.78360 + 14.47913 I, -15.19441 + 
    0.49289 I, -17.26867 + 3.65427 I, -16.34927 + 
    3.75119 I, -18.58678 + 2.38690 I, -20.11586 + 
    2.69634 I, -22.05726 + 6.01176 I, -22.94071 + 
    7.75243 I, -28.01594 + 3.21750 I, -24.60006 + 
    8.46907 I, -16.78006 - 2.66809 I, -18.23789 - 
    1.90286 I, -20.28243 + 0.47875 I, -18.37027 + 
    2.46888 I, -21.29372 + 3.40504 I, -19.80125 + 
    5.76661 I, -21.28269 + 5.57369 I, -22.05546 + 
    7.37060 I, -18.92492 + 10.18391 I, -18.13950 + 
    12.51550 I, -22.34471 + 10.37145 I, -15.05198 + 
    2.45401 I, -19.34279 - 0.23179 I, -17.37708 + 
    1.29222 I, -21.34378 - 0.00729 I, -20.84346 + 
    4.99178 I, -18.01642 + 10.78440 I, -23.08955 + 
    9.22452 I, -23.21163 + 7.69873 I, -26.54236 + 
    8.53687 I, -16.19653 - 0.36781 I, -23.49027 - 
    2.47554 I, -21.39397 - 0.05865 I, -20.02732 + 
    4.10250 I, -18.14814 + 7.36346 I, -23.70820 + 
    5.27508 I, -25.31022 + 4.32939 I, -24.04835 + 
    7.83235 I, -26.43708 + 6.19259 I, -21.58159 - 
    0.96734 I, -21.15339 - 1.06770 I, -21.88608 - 
    1.66252 I, -22.26280 + 4.00421 I, -22.37417 + 
    4.71425 I, -27.54631 + 4.83841 I, -24.39734 + 
    6.47424 I, -30.37850 + 4.07676 I, -30.30331 + 
    5.41201 I, -28.99194 - 8.45105 I, -24.05801 + 
    0.35091 I, -24.43580 - 0.69305 I, -29.71399 - 
    2.71735 I, -26.30489 + 4.93457 I, -27.16450 + 
    2.63608 I, -23.40265 + 8.76427 I, -29.56214 - 2.69087 I};

(* whuber 's least squares estimates *)
{a, b} = Inverse[ConjugateTranspose[w1].w1].ConjugateTranspose[w1].z
(* {-20.0172+5.00968 \[ImaginaryI],-0.830797+1.37827 \[ImaginaryI]} *)

(* Break up into the real and imaginary components *)
x = Re[z];
y = Im[z];
u = Re[w];
v = Im[w];
n = Length[z]; (* Sample size *)

(* Construct the real and imaginary components of the model *)
(* This is the messy part you probably don't want to do too often with paper and pencil *)
model = \[Gamma]0 + I \[Delta]0 + (\[Gamma]1 + I \[Delta]1) (u + I v);
modelR = Table[
   Re[ComplexExpand[model[[j]]]] /. Im[h_] -> 0 /. Re[h_] -> h, {j, n}];
(* \[Gamma]0+u \[Gamma]1-v \[Delta]1 *)
modelI = Table[
   Im[ComplexExpand[model[[j]]]] /. Im[h_] -> 0 /. Re[h_] -> h, {j, n}];
(* v \[Gamma]1+\[Delta]0+u \[Delta]1 *)

(* Construct the log of the likelihood as we are estimating the parameters associated with a bivariate normal distribution *)
logL = LogLikelihood[
   BinormalDistribution[{0, 0}, {\[Sigma]1, \[Sigma]2}, \[Rho]],
   Transpose[{x - modelR, y - modelI}]];

mle0 = FindMaximum[{logL /. {\[Rho] -> 
      0, \[Sigma]1 -> \[Sigma], \[Sigma]2 -> \[Sigma]}, \[Sigma] > 
    0}, {\[Gamma]0, \[Delta]0, \[Gamma]1, \[Delta]1, \[Sigma]}]
(* {-357.626,{\[Gamma]0\[Rule]-20.0172,\[Delta]0\[Rule]5.00968,\[Gamma]1\[Rule]-0.830797,\[Delta]1\[Rule]1.37827,\[Sigma]\[Rule]2.20038}} *)

(* Now suppose we don't want to restrict \[Rho]=0 *)
mle1 = FindMaximum[{logL /. {\[Sigma]1 -> \[Sigma], \[Sigma]2 -> \[Sigma]}, \[Sigma] > 0 && -1 < \[Rho] < 
     1}, {\[Gamma]0, \[Delta]0, \[Gamma]1, \[Delta]1, \[Sigma], \[Rho]}]
(* {-315.313,{\[Gamma]0\[Rule]-20.0172,\[Delta]0\[Rule]5.00968,\[Gamma]1\[Rule]-0.763237,\[Delta]1\[Rule]1.30859,\[Sigma]\[Rule]2.21424,\[Rho]\[Rule]0.810525}} *)
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.