रैखिक प्रणालियां साइनसोइडल निष्ठा क्यों दिखाती हैं?


9

मैं sinusoidal निष्ठा के लिए एक सबूत के लिए देख रहा हूँ। डीएसपी में हम रैखिक प्रणालियों के बारे में बहुत अध्ययन करते हैं। रैखिक प्रणाली समरूप और additive हैं। एक और शर्त यह व्यंग्य करती है कि यदि कोई संकेत साइन या कॉस तरंग है तो आउटपुट केवल चरण या आयाम को बदलता है। क्यों? जब इनपुट के रूप में साइन वेव दिया जाता है तो आउटपुट क्यों बिल्कुल अलग आउटपुट नहीं हो सकता?


1
DSP में आपका स्वागत है। बड़ा अच्छा सवाल!
फोनन जूल

5
तुम्हारी समझ अधूरी है। एक रैखिक (जिसका अर्थ है सजातीय और योजक) प्रणाली में जरूरी नहीं है कि एक इनपुट साइनसॉइड एक ही आवृत्ति के एक साइनसॉइड का उत्पादन करता है, लेकिन संभवतः विभिन्न आयाम और चरण। आपको आगे प्रतिबंध लगाने की आवश्यकता है कि प्रणाली समय-अपरिवर्तनीय भी है। उदाहरण के लिए, यदि इनपुटx(t) उत्पादन करता है x(t)cos(2π109t), प्रणाली सजातीय और योगात्मक है, और इसलिए रैखिक है, लेकिन एसआईएसओ (साइनसॉइड इन-साइनसॉइड आउट) संपत्ति को संतुष्ट नहीं करता है।
दिलीप सरवटे

दिलीप (या किसी को) एक जवाब के रूप में रखा जाना चाहिए: "वे नहीं।" केवल समय-अपरिवर्तनीय रैखिक प्रणाली करते हैं।
हॉटपावर 2

2
एक नोट के रूप में, इस प्रश्न को वाक्यांश करने का एक और तरीका यह होगा कि " रैखिक समय-अपरिवर्तनीय प्रणालियों के घातीय जीनोमैक्शंस क्यों हैं ?"
जेसन आर

जवाबों:


8

कुछ हद तक दृश्य अन्य उत्तरों के पूरक हैं

आप उन प्रणालियों के बारे में बात कर रहे हैं जो रैखिक और समय अपरिवर्तनीय हैं।

घातीय कार्यों में एक अजीबोगरीब संपत्ति होती है (और वास्तव में इसे इसके द्वारा परिभाषित किया जा सकता है): एक ही फ़ंक्शन में एक समय अनुवाद परिणाम को एक स्थिर से गुणा करता है। इसलिए

ett0=et0et

गणितज्ञ ग्राफिक्स

लाल घातीय भी नीले रंग से विभाजित हो सकता है e या दाईं ओर 1 सेकंड ले जाया गया

सामान्य तौर पर, यह जटिल घातांक के लिए भी होता है

क्या आप अपने दिमाग में एक जटिल हार्मोनिक जैसे की तस्वीर लगा सकते हैं x(t)=ej2πt? यदि ऐसा है, तो आप देखेंगे कि यह वसंत की तरह है: यह जटिल विमान के साथ घूमता है जैसे ही समय गुजरता है।

गणितज्ञ ग्राफिक्स

उस स्प्रिंग को घुमाना (यूनिट सर्कल में एक जटिल संख्या से गुणा करना) इसका अनुवाद करने के समान है। आप शायद अपने जीवन में कुछ समय इस दृश्य प्रभाव में आए हैं

यहाँ छवि विवरण दर्ज करें

यह किसी भी मानक पेंच का सिद्धांत भी है।

मान लें कि हम इसे एक रैखिक समय-अपरिवर्तनीय प्रणाली में इनपुट करते हैं। आपको एक आउटपुट मिलता हैy अब, इस वसंत के एक घुमाए गए संस्करण को इनपुट करें। रैखिकता के कारण, आउटपुट होना चाहिएyउसी राशि से घुमाया गया। लेकिन चूंकि एक रोटेशन समय-अनुवाद के बराबर है, और सिस्टम समय-अपरिवर्तनीय है, इसलिए आउटपुट भी होना चाहिएyएक ही राशि द्वारा समय-अनुवाद। इसलिए,yइनपुट के समान संपत्ति को संतुष्ट करना है: इसे घुमाने से एक विशेष समय अनुवाद के बराबर होना चाहिए। यह केवल तब होता है जब आउटपुट मूल स्प्रिंग का एक गुणक होता है।

कितना अनुवाद? खैर, यह रोटेशन के सीधे आनुपातिक है जैसे कि यह एक वसंत के साथ होगा। तंग वसंत के छोरों (तेजी से यह घूमता है), कम समय यह एक निश्चित रोटेशन के लिए अनुवाद करता है। एक पेंच के छोरों को तंग करते हुए, आपको इसे पूरी तरह से फिट करने के लिए जितना अधिक गोल करना होगा। और, जब आधे राउंड किए जाते हैं, तो स्क्रू आधा हो जाएगा, जिस तरह से ... आउटपुट को उसी संबंध को संतुष्ट करना पड़ता है, इसलिए आउटपुट स्प्रिंगy इनपुट के समान आवृत्ति पर घूमता है।

अंत में, एक अनुस्मारक

cos(t)=ejt+ejt2

sin(t)=ejtejt2j

तो, वह बात जो घातीय के साथ होती है, वास्तव में सबसे सामान्य मामले में कोजाइन और साइन के साथ होने की आवश्यकता नहीं है। लेकिन अगर सिस्टम भी वास्तविक है तो यह एक अलग कहानी है ...

सामान्य तौर पर, इसी तर्क द्वारा, किसी भी घातांक को रैखिक समय के अपरिवर्तनीय प्रणालियों का एक "आइजनफंक्शन" (आउटपुट आनुपातिक है)। यही कारण है कि इन प्रणालियों के लिए जेड-ट्रांसफॉर्म और लाप्लास ट्रांसफॉर्म बहुत उपयोगी हैं


आपको वह एनीमेशन कैसे / कहां से मिला?
स्पेसी

@ मोहम्मद ने इसे आर्किमिडीज़ स्क्रू पर विकिपीडिया पृष्ठ से लिया
रोजो

आपको वह कॉर्कस्क्रू प्लॉट कहां से मिला? :) math.stackexchange.com/q/144268/2206
19 सितंबर को 19

@ ओन्डोलिथ ओह मैंने इसे केवल गणितज्ञ में किया है। तुम्हारा है;)
रोजो

4

इनपुट के साथ एक प्रणाली पर विचार करें x(t) और उत्पादन y(t)। लार्स 1 के उत्तर से अंकन को देखते हुए, हम इस संबंध को निरूपित करते हैं x(t)y(t)। सिस्टम को एक रैखिक समय-अपरिवर्तनीय (LTI) प्रणाली कहा जाता है यदि यह निम्नलिखित गुणों को संतुष्ट करता है:

एच। अगरx(t)y(t), फिर αx(t)αy(t)

A. अगर x1(t)y1(t) तथा x2(t)y2(t), फिर x1(t)+x2(t)y1(t)+y2(t).

टी। अगर x(t)y(t), फिर x(tτ)y(tτ) किसी भी वास्तविक संख्या के लिए τ

गुण एच और ए एक साथ संपत्ति एल के बराबर हैं

एल। अगर x1(t)y1(t) तथा x2(t)y2(t), फिर αx1(t)+βx2(t)αy1(t)+βy2(t)


एक आवधिक प्रणाली के लिए आवधिक इनपुट आवधिक उत्पादन पैदा करता है
मान लीजिए किx(t)अवधि के साथ एक आवधिक संकेत हैT, अर्थात्, x(tnT)=x(t) सभी पूर्णांकों के लिए n। फिर, संपत्ति टी से , यह तुरंत उस के बादy(t) अवधि के साथ एक आवधिक संकेत भी है T। इस प्रकार, हम व्यक्त कर सकते हैं y(t) फूरियर श्रृंखला के रूप में:

y(t)=a02+n=1ancos(nωt)+bnsin(nωt)
कहाँ पे ω=2π/T मौलिक आवृत्ति है।

जबसे cos(ωt) तथा sin(ωt) आवधिक संकेत हैं, हमारे पास है कि किसी भी समय-अपरिवर्तनीय प्रणाली के लिए, चाहे रैखिक हो या न हो,

cos(ωt)p02+n=1pncos(nωt)+qnsin(nωt)sin(ωt)r02+n=1rncos(nωt)+snsin(nωt).
वास्तव में, के लिए रेखीय समय-अपरिवर्तनीय (LTI) प्रणाली, सभीpn,qn,rn, तथा snशून्य हैं को छोड़कर के लिएp1,q1,r1,s1। यह देखने के लिए कि ऐसा क्यों है, आइए हम LTI सिस्टम की प्रतिक्रिया की गणना करेंcos(ωtθ) दो अलग-अलग तरीकों से और परिणामों की तुलना करें।

जबसे cos(ωtθ)=cos(θ)cos(ωt)+sin(θ)sin(ωt), हम संपत्ति एल और उपरोक्त समीकरणों से प्राप्त करते हैं

cos(ωtθ)p0cos(θ)+q0sin(θ)2+n=1(pncos(θ)+rnsin(θ))cos(nωt)+n=1(qncos(θ)+snsin(θ))sin(nωt).
दूसरी ओर, चूंकि cos(ωtθ)=cos(ω(tθ/ω)) बस एक विलंबित संस्करण है cos(ωt), प्रॉपर्टी T से हमें वह मिलता है
cos(ωtθ)p02+n=1pncos(nωtnθ)+qnsin(nωtnθ)=p02+n=1(pncos(nθ)qnsin(nθ))cos(nωt)+n=1(qncos(nθ)+pnsin(nθ))sin(nωt).
इन दो फूरियर श्रृंखला के समान ही होना चाहिए चाहे कोई भी मूल्य हो θहम चुनेंगे। गुणांक की तुलना करते हुए, हम देखते हैं कि p0/2 बराबरी नहीं कर सकते (p0cos(θ)+r0cos(θ))/2 सबके लिए θ जब तक p0=r0=0। इसी तरह, किसी के लिएn>1, pncos(nθ)qnsin(nθ) बराबरी नहीं कर सकते pncos(θ)+rnsin(θ) आदि सभी के लिए θ जब तक pn=qn=rn=sn=0। हालाँकि, के लिएn=1, p1cos(θ)q1sin(θ)=p1cos(θ)+r1sin(θ) इसका आशय है r1=q1, और इसी तरह, s1=p1। दूसरे शब्दों में, LTI प्रणाली के लिए,
cos(ωt)p1cos(ωt)+q1sin(ωt)sin(ωt)q1cos(ωt)+p1sin(ωt).
Now, p1cos(ωt)+q1sin(ωt)=Bcos(ωtϕ) where B=p12+q12 and ϕ=arctan(q1/p1). Therefore, Properties T and H give us that
Acos(ωtθ)ABcos(ωtϕθ).
Any sinusoid of frequency ω rad/s can be expressed as Acos(ωtθ) for appropriate choice of A and θ, and so the above result is what we need.

SISO property of linear time-invariant systems: If the input to an LTI system is a sinusoid, the output is a sinusoid of the same frequency but possibly different amplitude and phase.

This is not quite the result that the OP wanted -- he wanted a proof that a linear system (one in which Properties H and A (equivalently, Property L) hold but not necessarily Property T) has the SISO property, but as the development above shows, Property T must hold in order to prove even the weaker result that periodic input results in periodic output.


As a final comment, note that it is not necessary to use complex numbers or convolution theorems or Fourier or LaPlace transforms, impulses, eigenfunctions etc to prove the SISO property. It follows from Properties L and *T and the trigonometric identity

cos(αβ)=cos(α)cos(β)+sin(α)sin(β).

What would happen if x(t) is not periodic (not periodic could happen for incommensurate frequencies)? Need T be finite? Could we gain something in terms of generality by requiring x(t) to be square integrable in the observation time interval?
Lars1

@Lars1 If the input to a LTI system is not periodic, the output is not periodic either. As a specific case, if x(t)=A1cos(ω1t)+\A2cos(ω2t) where ω1/ω2 is irrational (and so input is not periodic), then from Property L we have that
A1cos(ω1t)+\A2cos(ω2t)A1B1cos(ω1tϕ1)+\A2B2cos(ω2tϕ2)
which output is not periodic either. So there is no problem.
Dilip Sarwate

@Sarwate: Not quite what I meant to say, sorry. Was wondering if e.g. x(t)=cos(πt)+cos(2t) would be handled by the case above. If we require a finite observation time interval with tT=[0;T] any square integrable signal can be written as a Fourier series in the observation interval. For finite T this is likely the most general approach and your derivations still hold as far as I can see. Obviously the Fourier series approach forces periodicity outside T but if we only care about the signal t\ont this does not really matter.
Lars1

@Lars1 I don't agree with your comment that the enforced periodicity outside [0,T] does not matter. If input x(t) produces output y(t) in an LTI system, then applying the SISO property to the Fourier series does not give y(t) restricted to [0,T]. Instead, what is obtained is one period of the periodic response y^(t) to the periodic signal x^(t) where for each time instant t, <t<,
x^(t)=x(tmodT).
In other words, the T-second segment of x(t) repeated periodically (with period T) along the time axis.
Dilip Sarwate

E.g. in nonlinear RF systems we often choose a sum of incommensurate sinusoidals to ensure a unique frequency mapping from input to output. These result in a non-periodic signal, and I just was curious to why you had to assume periodicity above which to me seems to exclude most practically relevant signals. Square integrable x(t) and y(τ) in finite observation intervals can be written as Fourier series. I did not (intend to) claim that t was defined on the same interval for x and y BTW and y could be a time offset version. I'll stop here to avoid further confusion.
Lars1

3

Here's the idea of the proof. Let's assume we can describe the output of a system by a convolution,

y(t)=kt(tτ)f(τ)dτ

Notice that the function (aka "kernel") kt(t) as I've written it here may change as t varies. However, we usually make an important assumption about kt(t) - that it doesn't change with time. This is called "linear time-invariance" (also check out the Wikipedia page on Toeplitz matrices). If our system is linear time-invariant, kt is the same for any t, and so we'll just ignore the subscript and write

y(t)=k(tτ)f(τ)dτ

Now, let's say f(t) is a sinusoid, say f(t)=eiωt. So, we have

y(t)=k(tτ)eiωτdτ=k(τ)eiω(tτ)dτ=eiωtk(τ)eiωτdτ

Notice that the last equation has no dependence on t! As a result, let's define K(ω):=k(τ)eiωτdτ.

Thus, we've discovered that

y(t)=K(ω)eiωt

or, in other words, y(t) is a sinusoid oscillating at the same frequency as the input, but weighted by a complex number K(ω) which is constant with respect to t (and thus may shift the amplitude and phase of the output with respect to the input).

EDIT: The comments noted this answer was pretty loose. My goal was to avoid details like different forms of the Fourier transform, but I ended up conflating the Fourier and Laplace transforms. What I called Fourier transform previously was only the Fourier transform if s was purely imaginary. I decided that clarifying this route would necessarily add too much notation, so I'm relegating it to italics.

Now, take the Laplace transform, to end up with (since Laplace transform takes convolution to multiplication),

Y(s)=K(s)F(s)

Now, if f is a sinusoid, say f(t)=eiωt, its Laplace transform is a delta function at that ω. That is, F(s)=δw(s). So, the Laplace transform of the output is also a delta function at that frequency:

Y(s)=K(s)δω(s)=K(ω)δω(s)

Since K(ω) is just some complex number that depends on the input frequency, the output y(t) will be a sinusoid with the same frequency as the input, but with potentially different amplitude and phase.

Incidentally, I just noticed you can find the same idea written out in the time domain at Wikipedia. A higher-level explanation (which you can ignore if it's too mathy) is that linear systems theory is defined through the convolution operation, which is diagonalized by the Fourier transform. Thus, a system whose input is an eigenvector of the Fourier transform operator will output only a scaled version of its input.


-1 What is s and how does it relate to ω? And could you explain what is meant by δω(s)? Your equation Y(s)=K(s)δωs) is sheer nonsense.
Dilip Sarwate

@DilipSarwate I suspect he's using Laplace transform notation instead of Fourier notation.
Jim Clay

@sydeulissie The problem is that you assert that K(w) is "just some complex number", but you haven't said why it's just a complex number at each frequency. That's the heart of the proof.
Jim Clay

3
This has a correct outline but many problems in the details. Not downvoting, but it should be fixed.
Phonon

1

Say we have a system with input x1(t) which generates the output y1(t)=G(x1(t)), and with an input x2(t) we get the output y2(t)=G(x1(t)). The system is linear if:

ax1(t)+bx2(t)y(t)=G(ax1(t)+bx2(t))=aG(x1(t))+bG(x2(t))=ay1(t)+by2(t)

where a and b are (real or complex) constants. If the equations above are not fulfilled the system is nonlinear. The equation can be used for real and complex signals in time and frequency domains. This is the same as the superposition principle must be valid. As Sarwate illustrates in a comment this does not prevent the system from generating new frequencies. We are probably often just used to indirectly assume time invariance. The reason is likely that it is often possible to map a time varying system to a time invariant system by applying one or more external controlling signals.

From the definition of linearity and further requiring a time invariant system we can directly see that two (or more signals) can not interfere and generate new frequency components while still complying with the linearity requirement. The principle of superposition also follows directly from the linearity definition.

Also from the linearity definition the concept of convolution for linear time invariant systems follow. For nonlinear systems we for example have Volterra series which is a multi-dimensional convolution integral - the 1-dimensional convolution integral is a special case of the Volterra series. This is way more complicated than linear techniques though. But based on the convolution integral for a linear system the derivation follows the one shown by @sydeulissie.

To demonstrate a simple counter example of a nonlinear relation where new frequencies are generated we could use G:y(t)=x2(t). Let us first show that this is indeed nonlinear. If we apply the input x1(t) we get the output y1(t)=x12(t) and if we apply the input x2(t) we get the output y2(t)=x22(t). The output y(t) is then:

y(t)={ax1(t)+bx2(t)}2=a2x12(t)+b2x22(t)+2abx1(t)x2(t)

or:

y(t)=a2y1(t)+b2y2(t)±2aby1(t)y2(t)ay1(t)+by2(t)

and we have thus proved x2 to be nonlinear (which can hardly be surprising). If we apply a single sinusoidal signal x(t)=Acos(2πf0t+ϕ0) to the system G we have the output:

y(t)=x2(t)=A2cos2(2πf0t+ϕ0)=A22+A22cos(2π2f0t+2ϕ0)

The output here contains a DC component and another component at the frequency 2f0. The nonlinear function x2 thus generates new frequency components.

In conclusion it can be observed that a linear system may generate frequency components not present in the input (if the system is time variant). If the system is linear time invariant the output can not include frequency components not present in the input.

Thanks to @Sarwate for the most relevant comment.


You are right. I forgot to mention that I refer to time invariant systems. The example you provide is a time varying system where your example does not hold. Normally such a signal as the cos(t) is applied at an external port as a signal in which case the linearity is not fulfilled. I have noted the time invariant part in the answer above.
Lars1

@DilipSarwate So is that that only LTI systems have that property?
Phonon

Just checked a couple of books to be on the safe side. Actually there seems to be some difference in the details. One definition in Yang and Lee's book on circuit systems from 2007 says: "A system is said to be linear if the superposition principle holds, i.e. its output to a linear combination of several arbitrary inputs is the same as the linear combination of the outputs to individual inputs". In that respect Sarwate's example is linear - but not time invariant. Other refs are less precise though. Thanks to @Sarwate.
Lars1

1
Comment referred to by Lars1 with typographical errors corrected: Consider the system that produces output x(t)cos(t) from input x(t). Then, ax1(t)+bx2(t) produces output
(ax1(t)+bx2(t))cos(t)=ax1(t)cos(t)+bx2(t)cos(t)
so that the system is linear but without the claimed property.
Dilip Sarwate

@Sarwate How is the system which produces output x(t) cos(t) time varying? I am a beginner in DSP's
Hobyist

1

As Dilip Sarwate pointed out, only linear shift-invariant (LSIV) systems have the SISO (sinusoid in- sinusoid out) property.

The short answer to your question is that the complex exponentials eȷωt are are the eigenfunctions of a LSIV system. By the definition of eigenfunction, if the input is eigenfunction (sine/cos can be represented by complex exponential according to Euler's formula), the output is just the product of the input and the corresponding eigenvalue, which could be a complex number, and that's where changes the phase/amplitude come from.

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.