उदाहरण के लिए, इनपुट अनुक्रम में स्थिति में शब्द लिए 4-आयामी एम्बेडिंग__ , और , ऑपरेशन होगा
wp o s ∈ [ 0 , L - 1 ]w = (w0, ⋯ ,wएल - 1)इwघएम ओ डीई एल= 4इ'w=इw+ [ एस मैं n (पी ओ एस100000) ,सीओएस (पी ओ एस100000) ,एसमैंn (पी ओ एस100002 / 4) ,सीओएस (पी ओ एस100002 / 4) ]]=इw+ [ s i n ( p o s ) , c o s ( p o s ) , s i n (पी ओ एस100) ,सीओएस (पी ओ एस100) ]]
जहाँ स्थितीय एन्कोडिंग का सूत्र इस प्रकार है
साथ (इस प्रकार मूल कागज में)।PE ( p o s , 2 i ) = s i n (पी ओ एस100002 i /घएम ओ डीई एल) ,
PE ( p o s , 2 i + 1 ) = c o s (पी ओ एस100002 i /घएम ओ डीई एल) का है ।
घएम ओ डीई एल= 512मैं ∈ [ 0 , 255 ]
इस तकनीक का उपयोग इसलिए किया जाता है क्योंकि प्रस्तावित वास्तुकला में शब्द क्रम (1 शब्द, दूसरा शब्द, ..) की कोई धारणा नहीं है । इनपुट अनुक्रम के सभी शब्द नेटवर्क को बिना किसी विशेष क्रम या स्थिति (आम आरएनएन या कॉन्टेनेट आर्किटेक्चर के विपरीत) से खिलाए जाते हैं, इस प्रकार, मॉडल को पता नहीं है कि शब्दों को कैसे आदेश दिया जाता है। नतीजतन, प्रत्येक शब्द-एम्बेडिंग में एक स्थिति-निर्भर संकेत जोड़ा जाता है ताकि मॉडल को शब्दों के क्रम को शामिल करने में मदद मिल सके। प्रयोगों के आधार पर, यह जोड़ न केवल एम्बेडिंग जानकारी को नष्ट करने से बचता है, बल्कि महत्वपूर्ण स्थिति की जानकारी भी जोड़ता है। RNN के मामले में, हम शब्दों को क्रमिक रूप से RNN को खिलाते हैं, अर्थात -th शब्द को चरण पर खिलाया जाता है , जो मॉडल को शब्दों के क्रम को शामिल करने में मदद करता है।nn
जे। अलम्मार का यह लेख उत्कृष्ट दृश्यों के साथ पेपर की व्याख्या करता है। दुर्भाग्य से, पोजिशनिंग एन्कोडिंग के लिए इसका उदाहरण फिलहाल गलत है (यह एम्बेडिंग आयामों की पहली छमाही के लिए और दूसरी छमाही के लिए का उपयोग , बजाय विषम सूचक के लिए और लिए विषम का उपयोग करने के लिए)।s i nc o ss i nc o s