ऑप्टिकल फाइबर संचार में 255 Tbit / s को कैसे संसाधित किया जाता है?


25

मैं कभी नहीं समझ पाया कि कैसे / से इलेक्ट्रिकल और ऑप्टिकल सिग्नल को परिवर्तित करने के मामले में नया रिकॉर्ड ब्रेकिंग डेटा ट्रांसफर गति प्राप्त करता है।

मान लें कि हमारे पास 255 Tbit डेटा हैं और हम इसे एक सेकंड में स्थानांतरित करना चाहते हैं। (यह एक वास्तविक विश्व उपलब्धि है।) आपको 255 ट्रिब्यूट मिले हैं, जो कहते हैं, 255 ट्रिलियन कैपेसिटर (यह रैम है)। अब हम उम्मीद करते हैं कि हम हर एक को सफलतापूर्वक पढ़ पाएंगे, हर एक से पूछताछ करेंगे ताकि एक सेकंड बाद हम उनमें से सभी 255 ट्रिलियन को पढ़ सकें। यह स्पष्ट रूप से एक 3 गीगाहर्ट्ज प्रोसेसर द्वारा ऑर्केस्ट्रेटेड नहीं है।

प्राप्त अंत के बारे में क्या? दलहन 255 THz पर आ रहे हैं, फिर भी एक आने वाले सिग्नल को पढ़ने की कोशिश कर रहे इलेक्ट्रॉनिक्स की ताज़ा दर 255 THz तक नहीं है। केवल एक चीज जिसकी मैं कल्पना कर सकता हूं, उसके हजारों प्रोसेसर हैं जिनकी क्लॉक सिग्नल टाइम डिवीजन मल्टीप्लेक्स (विलंबित) 0.000000000001 सेकेंड से कम है। हालांकि इस तरह के मल्टीप्लेक्सिंग को कैसे हासिल किया जाए, यह मुझे इस समस्या के साथ-साथ आवृत्तियों में इस हजार गुना अंतर के साथ वापस लाता है।


4
"यह स्पष्ट रूप से एक 3GHz प्रोसेसर द्वारा ऑर्केस्ट्रेटेड नहीं है" क्यों नहीं? यह सिर्फ डेटा को भेजने के लिए हर घटक को बताने की जरूरत है, डीएमए और इसी तरह की प्रौद्योगिकियां मूल रूप से हमेशा के लिए आसपास रही हैं। इसके अलावा स्पष्ट रूप से 255Tbit उपभोक्ता हार्डवेयर पर हासिल नहीं किया जाता है।
प्लाज्माएचएच

22
आप मानते हैं कि इस तरह की प्रणाली एक निश्चित तरीके से काम करती है, उदाहरण के लिए दालों के साथ। मुझे संदेह है कि यह उस तरह से काम करता है जैसे कि डेटा स्थानांतरित करने के लिए अधिक कुशल, अधिक कुशल तरीके हैं। फाइबर के बैंडविड्थ का उपयोग करने के लिए मुझे दालों का उपयोग करना एक बहुत ही अक्षम तरीका लगता है । मुझे उम्मीद है कि OFDMA मॉड्यूलेशन के कुछ रूप का उपयोग किया जाएगा। फिर विभिन्न वाहक आवृत्तियों पर समानांतर मॉड्यूलेशन में कई चैनल बनाते हैं और प्रकाश की विभिन्न तरंग दैर्ध्य का उपयोग करते हैं। इससे पहले कि यह सोचते हैं एक निश्चित तरीके से कुछ काम करता है, यह अनुसंधान क्योंकि गलत मान्यताओं गलत निष्कर्ष करने के लिए नेतृत्व!
बिम्पील्रेकी

2
@Bimpelrekkie: उस तकनीक के अधिक गहन तथ्यों में से एक (जो कि 3 साल पुराना btw है।) यह है कि वे उस सामान के लिए 7 कोर मल्टीमोड फाइबर का उपयोग करते हैं।
प्लाज्माएचएच

12
फिर, आप सिर्फ धारणा बना रहे हैं और फिर इन पर सवाल उठा रहे हैं? ...? उस विषय पर शोध क्यों न करें ताकि आप यह जान सकें और समझ सकें कि यह केवल कुछ मानने के बजाय कैसे किया जाता है (जो कि वैसे भी गलत है)। यह कहना बेहतर है: मुझे यह नहीं पता है कि केवल कुछ निश्चित तरीके से काम करने और उस (गलत) धारणा पर विस्तार करने के लिए।
बिम्पील्रेकी

3
कृपया इस वास्तविक दुनिया की उपलब्धि के बारे में पढ़ें इसके अलावा, आपको क्यों लगता है कि डेटा सिलसिलेवार भेजा गया था?
फोटॉन

जवाबों:


43

एक शोध पत्र के बारे में चिंता करने के बजाय, जो चीजों को सीमा तक पहुंचा रहा है, सबसे पहले आपके सामने बैठे सामान को समझकर शुरू करें।

एक होम कंप्यूटर में SATA 3 हार्ड ड्राइव एक सीरियल लिंक को 6 Gbit / s नीचे कैसे डालता है? मुख्य प्रोसेसर 6 गीगाहर्ट्ज़ नहीं है और हार्ड ड्राइव में एक निश्चित रूप से आपके तर्क से ऐसा नहीं है, यह संभव नहीं होना चाहिए।

इसका उत्तर यह है कि प्रोसेसर एक समय में एक बिट बाहर नहीं बैठे हैं, एक समर्पित हार्डवेयर है जिसे SERDES (सीरियलाइज़र / डिसेरिएलाइज़र) कहा जाता है जो एक कम गति के समानांतर डेटा स्ट्रीम को एक हाई स्पीड सीरियल में परिवर्तित करता है और फिर से वापस दूसरा छोर। यदि यह 32 बिट्स के ब्लॉक में काम करता है तो दर 200 मेगाहर्ट्ज से कम है। और फिर उस डेटा को एक डीएमए प्रणाली द्वारा नियंत्रित किया जाता है जो प्रोसेसर को शामिल किए बिना स्वचालित रूप से डेटा को SERDES और मेमोरी के बीच ले जाता है। सभी प्रोसेसर को डीएमए कंट्रोलर को निर्देश देना होता है कि डेटा कहां है, कितना भेजना है और कोई जवाब कहां डालना है। उसके बाद प्रोसेसर बंद हो सकता है और कुछ और कर सकता है, डीएमए नियंत्रक काम खत्म होने के बाद बाधित हो जाएगा।

और यदि CPU अपना अधिकांश समय बेकार में व्यतीत कर रहा है तो वह उस समय का उपयोग दूसरे हस्तांतरण पर चल रहे दूसरे DMA और SERDES को शुरू करने के लिए कर सकता है। वास्तव में एक CPU समानांतर में उन स्थानांतरणों में से कुछ चला सकता है जो आपको काफी स्वस्थ डेटा दर दे रहा है।

ठीक है, यह ऑप्टिकल के बजाय विद्युत है और यह उस प्रणाली की तुलना में 50,000 गुना धीमा है जिसके बारे में आपने पूछा था लेकिन वही मूल अवधारणाएं लागू होती हैं। प्रोसेसर केवल बड़ी मात्रा में डेटा के साथ काम करता है, समर्पित हार्डवेयर छोटे टुकड़ों में इसके साथ काम करता है और केवल कुछ बहुत ही विशेष हार्डवेयर एक समय में 1 बिट के साथ काम करता है। फिर आपने उन लिंक को समानांतर में रखा।


इसके अलावा एक देर से जो अन्य उत्तरों में संकेतित है, लेकिन स्पष्ट रूप से कहीं भी स्पष्ट रूप से नहीं बताया गया है, वह है बिट रेट और बॉड रेट के बीच का अंतर। बिट दर वह दर है जिस पर डेटा प्रसारित किया जाता है, बॉड दर वह दर होती है जिस पर प्रतीकों को प्रसारित किया जाता है। बहुत सारी प्रणालियों पर प्रतीक बाइनरी बिट्स पर प्रेषित होते हैं और इसलिए दो संख्याएं प्रभावी रूप से एक ही होती हैं, यही वजह है कि दोनों के बीच बहुत अधिक भ्रम हो सकता है।

हालाँकि कुछ प्रणालियों पर एक बहु-बिट एन्कोडिंग प्रणाली का उपयोग किया जाता है। यदि आप प्रत्येक घड़ी के लिए 0 वी या 3 वी नीचे तार भेजने के बजाय प्रत्येक घड़ी के लिए 0 वी, 1 वी, 2 वी या 3 वी भेजते हैं तो आपकी प्रतीक दर समान है, प्रति घड़ी 1 प्रतीक। लेकिन प्रत्येक प्रतीक में 4 संभावित राज्य हैं और इसलिए 2 बिट डेटा रख सकते हैं। इसका मतलब है कि घड़ी की दर में वृद्धि के बिना आपकी बिट दर दोगुनी हो गई है।

कोई वास्तविक विश्व प्रणाली जो मुझे इस तरह के एक साधारण वोल्टेज स्तर शैली बहु-बिट प्रतीक के उपयोग के बारे में पता है, वास्तविक दुनिया प्रणालियों के पीछे के गणित बहुत खराब हो सकते हैं, लेकिन मूल प्रिंसिपल वही रहता है; यदि आपके पास दो से अधिक संभावित राज्य हैं तो आप प्रति घड़ी अधिक बिट प्राप्त कर सकते हैं। ईथरनेट और एडीएसएल दो सबसे आम इलेक्ट्रिकल सिस्टम हैं जो इस प्रकार के एन्कोडिंग का उपयोग करते हैं जैसा कि किसी भी आधुनिक रेडियो सिस्टम के बारे में करता है। जैसा कि @ alex.forencich ने अपने उत्कृष्ट उत्तर में कहा कि सिस्टम ने आपके द्वारा उपयोग किए जाने वाले 32-QAM (द्विघात आयाम मॉड्यूलेशन) सिग्नल प्रारूप के बारे में पूछा था, 32 विभिन्न संभावित प्रतीकों का अर्थ है प्रति प्रतीक प्रेषित 5 बिट्स।


1
धन्यवाद, @Andrew, वास्तव में मुझे कुछ विचार के बाद एहसास हुआ कि मेरी समस्या सीरियल और समानांतर प्रसंस्करण पर विचार नहीं कर रही है। और यह पढ़ना अच्छा था कि डीएमए ने यहां एक भूमिका कैसे निभाई। बहुत धन्यवाद!
स्टीव जूल

1
"बहुत सारी प्रणालियों पर प्रतीक बाइनरी बिट्स पर प्रसारित होते हैं और इसलिए दो नंबर प्रभावी रूप से समान होते हैं" मुझे लगता है कि यह किसी प्रकार के उद्धरण की आवश्यकता है। यह किसी भी nontrivial डेटा दरों के लिए मुझे अधिक सामान्य प्रतीत होता है कि प्रत्येक प्रतीक कई बिट्स को एन्कोड करता है, और इस प्रकार बॉड दर बिट दर की तुलना में बहुत कम है। जबकि हमें मल्टी-गीगाहर्ट्ज सिग्नल से निपटने के इन दिनों में बहुत अच्छा विचार है, सैकड़ों मेगाहर्ट्ज रेंज में सिग्नल से निपटना अभी भी आसान है, जिसका अर्थ है कि यदि आप दिए गए बिट के लिए कम प्रतीक दर के साथ कर सकते हैं दर, इसमें शामिल अधिकांश उपकरणों को सरल बनाया गया है।
एक CVn

मैं सहमत हूँ कि बहु-बिट प्रतीक nontrivial डेटा दरों के लिए अधिक सामान्य हैं। हालाँकि जब लोग पहली बार डिजिटल सिग्नलिंग के बारे में सीख रहे होते हैं तो वे पहले कम, पुरानी गति की चीजों को सीखना शुरू कर देते हैं और वे आम तौर पर प्रति प्रतीक सभी 1 बिट होते हैं। इसलिए मुझे लगता है कि "अधिकांश सिस्टमों पर ऐसा लगता है कि इस तरह का प्रश्न पूछने वाला व्यक्ति पहले किसी भी स्तर के विवरण पर ध्यान देता होगा" अधिक सटीक होगा। और ईमानदार होने के लिए बहुत से तुच्छ डेटा दर लिंक हैं, जो अप्रत्यक्ष हैं।
एंड्रयू

2
@PaulUszak वे समानांतर में कई एडीसी चला रहे होंगे ताकि कोई भी एडीसी उस गति के आस-पास कहीं भी न चल रहा हो लेकिन एक प्रभावी नमूना दर देने के लिए उनकी नमूना घड़ियों को कंपित किया जाएगा। उसके बाद कुछ भी बहुत तेजी से नहीं चलाना पड़ता है, यह डेटा लिंक की स्थिति के लिए थोड़ा अलग है क्योंकि इसमें एक स्कोप केवल एक छोटी नमूना मेमोरी है। एक बार जब यह मेमोरी भर जाती है तो यह नमूना लेना बंद कर देता है और तब तक इंतजार करता है जब तक कि प्रोसेसर को डेटा को मुख्य मेमोरी में कॉपी करने का मौका न मिला हो, यह प्रक्रिया बहुत धीमी हो सकती है।
एंड्रयू

2
उस 100 गीगाहर्ट्ज बीडब्ल्यू लेक्रॉय स्कोप ने कई तकनीकों (डिप्लेक्सर + डाउनकॉनवर्सन, फिर टाइम-इंटरलेस्ड सैंपलिंग) का उपयोग करते हुए सिग्नल को बहुत बड़ी संख्या में धीमी गति से विभाजित करने के लिए उपयोग किया है, जो तब कस्टम उच्च गति एएसआईसी को खिलाते हैं जो डेटा को डीआरएएम के बड़े बैंकों में डंप करते हैं। मूल तरंग को फिर एक सामान्य प्रयोजन सीपीयू पर डीएसपी के साथ फिर से जोड़ा जाता है। केवल छोटे खंडों का पुनर्निर्माण किया जा सकता है, नमूना मेमोरी के आकार तक। मुझे लगता है कि 100 गीगाहर्ट्ज लेक्रॉय स्कोप (और संभवत: अधिकांश अन्य हाई स्पीड स्कोप) पीसीसी का उपयोग कंट्रोल कंप्यूटर को एडीसी और सैंपल रैम से जोड़ने के लिए करता है।
एलेक्स। वेन्निच

60

ऐसा लगता है कि आप विशेष रूप से http://www.nature.com/nphoton/journal/v8/n11/full/nphoton.2014.243.html का उल्लेख कर रहे हैं । इसे यहाँ पढ़ा जा सकता है: https://www.researchgate.net/publication/269099858_Ultra-high-density_spatial_division_multiplexing_with_a_few-mult_multicore_fibre

इस मामले में, यह "एक ऑप्टिकल सिग्नल" की तुलना में थोड़ा अधिक जटिल है। प्रश्न में लिंक उस 255 टीबीपीएस आंकड़े को प्राप्त करने के लिए समानता के कई रूपों का उपयोग करता है:

  • घने तरंग दैर्ध्य विभाजन बहुसंकेतन का उपयोग फाइबर में 50 अलग-अलग तरंग दैर्ध्य 50 गीगाहर्ट्ज अंतराल (1550 एनएम सी बैंड में ~ 0.8 एनएम) में किया जाता है, प्रत्येक में 1/50 वां डेटा होता है।

  • उपयोग किया जाने वाला फाइबर एक कस्टम-निर्मित 7 कोर, कुछ-मोड वाला फाइबर है, जिसमें 3 मोड प्रति कोर, प्रत्येक 2 ध्रुवीकरण के साथ, 7 * 3 * 2 = 42 स्वतंत्र (अधिक या कम) चैनलों के लिए है। ऐसा लगता है कि उनके फाइबर का विक्रय बिंदु यह है कि कोर के बीच अलगाव काफी अच्छा है, इसलिए रिसीवर को केवल प्रत्येक कोर के मोड और ध्रुवीकरण के बीच क्रॉसस्टॉक को बराबर करना होगा (42x42 के बजाय 7 समानांतर 6x6)।

फिर, उन्होंने सभी 42 * 50 चैनलों के लिए 0.1215 * 42 * 50 = 255.15 Tbps के समग्र बैंडविड्थ के लिए 24.3 Gbaud 32-QAM सिग्नल प्रारूप (5 बिट प्रति प्रतीक, 24.3 * 5 = 121.5 Gbps) का उपयोग किया।

अब, इन लोगों ने वास्तव में यहां थोड़ा धोखा दिया: वे 50 लेज़र लेते हैं, उन्हें एक साथ मल्टीप्लेक्स करते हैं, एक एकल बुद्धि मॉड्यूलेटर के साथ मॉड्यूलेट करते हैं, फिर स्वतंत्र ट्रांसमीटरों का उपयोग करने के लिए तय देरी के साथ ध्रुवीकरण और आसन्न चैनलों को सजाते हैं। तो यह वास्तव में 121.5 जीबीपीएस पर केवल एक संकेत है, समानांतर में 2100 बार दोहराया गया। और प्रेषित संकेत शायद केवल एक छद्म आयामी बाइनरी अनुक्रम (PRBS) है जो मक्खी पर उत्पन्न होता है और मेमोरी से बाहर नहीं पढ़ा जाता है। या इसे तेज़ SRAM या DRAM की एक सरणी से उच्च प्रदर्शन मनमाने ढंग से तरंग जनरेटर में पढ़ा जा सकता है।

प्राप्त पक्ष पर, प्रत्येक कोर में मोड और ध्रुवीकरण के बीच क्रॉसस्टॉक की भरपाई और त्रुटि सुधार लागू करके मूल डेटा को पुनर्प्राप्त करने के लिए डिजिटल सिग्नल प्रोसेसिंग की आवश्यकता होती है। पेपर में 200 टीबीपीएस नेट के आंकड़े का उल्लेख है, जो ट्रांसमिशन के लिए एन्कोडिंग से पहले डेटा दर होगा (इसी तरह 1000BASE-X गीगाबिट ईथरनेट एन्कोडिंग से पहले 1 जीबीपीएस है और 1.25 जीबीपीएस के बाद, या पीसीआई 2/4 / 7.877 जीबीपीएस से पहले है) एन्कोडिंग और 2.5 / 5/8 Gbps के बाद) लेकिन यह स्पष्ट नहीं है कि एन्कोडिंग और आगे की त्रुटि सुधार योजना वे क्या मान रहे हैं।

यह भी दिखता है कि उन्होंने वास्तविक रिसीवर का निर्माण नहीं किया था, लेकिन वे कच्चे डेटा पर कब्जा करने और फिर सिग्नल प्रोसेसिंग और ऑफ़लाइनकरण करने के लिए सुसंगत डिटेक्टरों के साथ दो उच्च गति वाले ऑसीलोस्कोप का उपयोग कर रहे हैं। उन्हें एक फैंसी टाइम इंटरलीव्ड कैप्चर भी करना पड़ता था क्योंकि उन्हें एक ही समय में प्रत्येक फाइबर कोर से सभी 3 मोडों पर सुसंगत पता लगाना होता था, लेकिन उनके पास केवल 2 फास्ट ऑसीलोस्कोप उपलब्ध थे। और यहां तक ​​कि सेटअप केवल उन्हें एक समय में 1 फाइबर कोर पर 1 तरंग दैर्ध्य प्राप्त करने की अनुमति देता है - 729 जीबीपीएस, और केवल शॉर्ट बर्स्ट में।

लेकिन यह सब ठीक है, क्योंकि कागज फाइबर के बारे में है न कि वास्तविक लिंक के बारे में।

टीएल; डीआर: 255 टीबीपीएस आंकड़ा थोड़ा भ्रामक है - उन्होंने इसके लिए सक्षम ट्रांसीवर का निर्माण नहीं किया, लेकिन उन्होंने 121.5 जीपीबीएस सिग्नल की 2100 प्रतियों और एकल रिसीवर के साथ किए गए मल्टीकोर फाइबर का मूल्यांकन किया।


15

प्रश्न में विशिष्ट संचरण के विवरणों को अनदेखा करना (जो @ एलेक्स.फोरनिच ने पहले से ही काफी विस्तार से चर्चा की है), ऐसा लगता है कि यह संभवतः अधिक सामान्य मामले पर विचार करने के लिए उपयोगी है।

हालांकि यह विशेष संचरण फाइबर के माध्यम से 255 टीबीपीएस हिट करता है, बेहद तेज फाइबर लिंक पहले से ही नियमित उपयोग में हैं। मुझे ठीक से पता नहीं है कि वहाँ कितनी तैनाती है (शायद बहुत अधिक नहीं) लेकिन OC-1920 / STM-640 और OC-3840 / STM-1280 के लिए वाणिज्यिक विनिर्देश हैं, क्रमशः 100- और 200-Gbps की संचरण दर के साथ। । इस परीक्षण के प्रदर्शन की तुलना में परिमाण धीमे के तीन क्रम हैं, लेकिन अधिकांश सामान्य उपायों से यह अभी भी काफी तेज है।

तो, यह कैसे किया जाता है? समान तकनीकों में से कई का उपयोग किया जाता है। विशेष रूप से, बहुत अधिक सब कुछ "तेज" फाइबर ट्रांसमिशन करते हुए घने तरंग विभाजन मल्टीप्लेक्सिंग (DWDM) का उपयोग करता है। इसका मतलब है, संक्षेप में, आप लेज़रों की एक (काफी) बड़ी संख्या के साथ शुरू करते हैं, प्रत्येक प्रकाश की एक अलग तरंग दैर्ध्य को प्रसारित करता है। आप उन पर बिट्स मॉड्यूलेट करते हैं, और फिर एक ही फाइबर के माध्यम से उन सभी को एक साथ संचारित करते हैं - लेकिन एक विद्युत दृष्टिकोण से, आप न्यूनाधिक रूप से पूरी तरह से अलग-अलग बिट धाराओं की एक संख्या को खिला रहे हैं, फिर आप आउटपुट को वैकल्पिक रूप से मिला रहे हैं, इसलिए सभी प्रकाश के वे विभिन्न रंग एक ही समय में एक ही फाइबर से गुजरते हैं।

प्राप्त होने वाले छोर पर, रंगों को फिर से अलग करने के लिए ऑप्टिकल फिल्टर का उपयोग किया जाता है, और फिर एक फोटोट्रांसिस्टर का उपयोग एक व्यक्तिगत बिट स्ट्रीम को पढ़ने के लिए किया जाता है।

यहाँ छवि विवरण दर्ज करें

हालांकि मैंने केवल 7 इनपुट / आउटपुट दिखाए हैं, वास्तविक सिस्टम दर्जनों तरंग दैर्ध्य का उपयोग करता है।

के रूप में यह संचारण और प्राप्त करने पर क्या होता है: ठीक है, एक कारण है कि बैक-बोन राउटर महंगे हैं। भले ही एक एकल मेमोरी को केवल समग्र बैंडविड्थ के एक अंश को खिलाने की आवश्यकता होती है, फिर भी आपको आम तौर पर बहुत तेज़ रैम की आवश्यकता होती है - राउटर के तेज भागों का थोड़ा बहुत उच्च-अंत SRAM का उपयोग करते हैं, इसलिए उस बिंदु पर डेटा से आ रहा है गेट्स, कैपेसिटर नहीं।

यह शायद ध्यान देने योग्य है कि कम गति पर भी (और DWDM जैसे भौतिक कार्यान्वयन की परवाह किए बिना) यह सर्किट के उच्चतम गति भागों को कुछ, छोटे भागों में अलग करने के लिए पारंपरिक है। उदाहरण के लिए, XGMII 10 गीगाबिट / दूसरा ईथरनेट मैक और PHY के बीच संचार को निर्दिष्ट करता है। यद्यपि भौतिक माध्यम पर संचरण एक बिटस्ट्रीम है (प्रत्येक दिशा में) प्रति सेकंड 10 गीगाबिट ले जाने पर, XGMII मैक और PHY के बीच 32-बिट चौड़ी बस को निर्दिष्ट करता है, इसलिए उस बस पर घड़ी की दर लगभग 10 GHz / 32 = है 312.5 मेगाहर्ट्ज (अच्छी तरह से, तकनीकी रूप से घड़ी ही आधी है कि - यह डीडीआर सिग्नलिंग का उपयोग करता है, इसलिए घड़ी के बढ़ते और गिरने वाले दोनों किनारों पर डेटा है)। केवल PHY के अंदर ही किसी को मल्टी-गीगाहर्ट्ज क्लॉक रेट से निपटना पड़ता है। बेशक, XGMII केवल MAC / PHY इंटरफ़ेस नहीं है,


विस्तृत करने के लिए धन्यवाद, यह पूरी पहेली का एक महत्वपूर्ण हिस्सा है।
स्टीव जूल
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.