यादृच्छिक DFAs के साथ शब्दों को अलग करना


15

DFA के बारे में दिलचस्प खुली समस्याओं में से एक क्या DFA के बारे में कोई खुली समस्या है? लंबाई के दो तारों को अलग करने के लिए आवश्यक DFA का आकार । अगर दो यादृच्छिक (गैर-आयामी) तारों को अलग करने के लिए यादृच्छिक डीएफए की क्षमता के बारे में कोई परिणाम है, तो मैं उत्सुक हूं।n

स्पष्ट रूप से पर्याप्त रूप से कई राज्यों के साथ एक यादृच्छिक डीएफए उच्च संभावना वाले तारों को अलग करता है। विशेष रूप से, यदि , राज्यों के साथ एक यादृच्छिक DFA, कभी भी उसी स्थिति को फिर से देखने की संभावना नहीं है, जब वह पहली जगह पर पहुंच जाती है, जहां और भिन्न होते हैं, और इसलिए और अलग करता है ।u,vΣnO(n)uvuv

क्या हम बेहतर कर सकते हैं? आदर्श रूप से, सबसे छोटा सेंट है जो राज्यों के साथ एक यादृच्छिक DFA पॉजिटिव प्रायिकता (या शायद प्रायिकता ) के साथ लंबाई तारों को अलग करता है ? एक संक्षिप्त खोज ने यादृच्छिक डीएफए के गुणों पर कई परिणाम नहीं दिए; सभी मुझे मिल सकते थे http://arxiv.org/abs/1311.6830( एन ) एन 1 / 2f(n)f(n)n1/2


सकारात्मक संभावना यहां विशेष रूप से उपयोगी स्थिति नहीं है, यह देखते हुए कि यह खुली समस्या का एक प्रतिबंध है। उच्च संभावना अभी भी दिलचस्प हो सकती है।
जेफ्री इरविंग

1
"अलग" का क्या अर्थ है? एक को स्वीकार करता है और दूसरे को अस्वीकार करता है? यदि हां, तो क्या यह स्पष्ट है कि राज्य पर्याप्त हैं? O(n)
usul

हां, अलग होने का अर्थ है बिल्कुल एक को स्वीकार करना। और आप सही हैं: सबसे तुच्छ जुदाई तर्क वास्तव में राज्यों (जो मैंने ऊपर लिखा है वह गलत है) की आवश्यकता है, हालांकि मुझे आश्चर्य होगा कि यदि बहुत कम पर्याप्त नहीं था। O(n2)
जेफ्री इरविंग

1
क्या आप सीमा की अपेक्षा नहीं करेंगे कि यह निर्भर करेगा कि शब्द कितने भिन्न हैं? ऐसा लगता है कि एक अक्षर से भिन्न होने वाले शब्द यादृच्छिक रूप से भेदभाव करने के लिए कठिन होंगे, क्योंकि आपको उस एक संक्रमण में भेदभाव करने की आवश्यकता होती है, और बहुत अलग शब्द आसान होंगे। [सामान्य बनाने के लिए, आप सबसे लंबे समय तक सामान्य उपसर्ग के बारे में भूल सकते हैं (आप उस से एक यादृच्छिक स्थिति तक पहुंचते हैं); फिर, अलग-अलग पत्र आपको एक ही राज्य या विभिन्न राज्यों में भेजते हैं; फिर अगर राज्य अलग-अलग हैं, तो आपको
पुनरुत्थान की संभावना

हां, खुली समस्या की तरह, मुझे भेदभाव करने के लिए सबसे कठिन संभव शब्दों में दिलचस्पी है। वे शब्द जो केवल कुछ स्थानों में भिन्न होते हैं, उन्हें पहले से ही राज्यों द्वारा अलग किया जा सकता है, इसलिए वे कठिन मामला होने की संभावना नहीं है। O(logn)
जेफ्री इरविंग

जवाबों:


2

[संपादित करें: यह उत्तर काम नहीं करता है, टिप्पणियाँ देखें]

यह सिर्फ एक अनौपचारिक विचार है और मुझे नहीं पता कि यह मदद करता है, लेकिन यह एक टिप्पणी के रूप में दिया जाना बहुत लंबा है। इसके अलावा, मैं यादृच्छिक डीएफए से बिल्कुल भी परिचित नहीं हूं, इसलिए शायद मुझे इस बात का गलत अनुमान है कि आपको उन पर संभावनाओं के बारे में कैसे तर्क करना चाहिए, लेकिन उम्मीद है कि यह पूरी तरह से बेकार नहीं है।

मुझे लगता है कि आपकी सीमाएं इस बात पर निर्भर होनी चाहिए कि आप कितने और v भिन्न हैं; यदि वे ऐसा नहीं करते, यह मेरे कि सबसे खराब स्थिति अपने पहले चरित्र से ही अलग-अलग तार कर रहे हैं करने के लिए स्पष्ट लगता है (एक सेट पर भिन्न तार एक्स पदों का एक सेट पर भिन्न तार से अलग कहा जा रहा है की अधिक संभावना है Y एक्स पदों में से , मैं कहूंगा, और अंतर को जितना जल्दी हो सके उतना डाल देना आपको पुन: सिंक्रनाइज़ करने का अवसर देता है)।uvXYX

मैं इस संभावना को भी देखूंगा कि शब्द अलग-अलग हैं, अर्थात्, वे विभिन्न राज्यों तक पहुंचते हैं। मुझे लगता है कि तब आपको यह स्वीकार करने या अस्वीकार करने के लिए अनुकूलित करने की आवश्यकता होगी कि आपके यादृच्छिक डीएफए अंतिम राज्यों को कैसे आवंटित करते हैं। यदि प्रत्येक राज्य में अंतिम होने की संभावना 1/2 है, तो जब तार एक ही राज्य में समाप्त हो जाते हैं, तो वे प्रतिष्ठित नहीं होते हैं, और जब वे अलग-अलग राज्यों में समाप्त होते हैं, तो उनके अलग-अलग होने की संभावना 1/2 होती है।

अब मैं शब्द पर विचार करेंगे से प्राप्त यू और वी इस प्रकार है: डब्ल्यू मैं = 1 अगर यू मैं = वी मैं , और डब्ल्यू मैं = 0 अन्यथा। मुझे लगता है कि यह स्पष्ट है कि यू और वी के बारे में विचार करने के लिए डब्ल्यू एकमात्र दिलचस्प चीज है ।wuvwi=1ui=viwi=0wuv

अब, की संभावना को यू और वी की लंबाई i के उपसर्गों को पढ़ने के बाद हम उसी स्थिति में हैं , और q ( i ) = 1 - p ( i ) संभावना है कि हम नहीं हैं।p(i)iuvq(i)=1p(i)

मुझे लगता है कि हमारे पास जब डब्ल्यू मैं + 1 है 1 । सहज रूप से, हम i + 1 अक्षर पढ़ने के बाद उसी अवस्था में हैं , जब हम i पढ़ने के बाद उसी अवस्था में थे, या जब हम दो अलग-अलग (यादृच्छिक) अवस्थाओं में थे, तो हमने यादृच्छिक अवस्थाओं में दो बदलाव किए, और वे हुए एक ही हो। इसी तरह, हमारे पास p ( i + 1 ) = 1 हैp(i+1)=p(i)+q(i)/nwi+11i+1i जब डब्ल्यू मैं + 1 है 0 : आप दो यादृच्छिक राज्यों, भले ही आप कहीं से शुरू बना रहे हैं।p(i+1)=1/nwi+10

इससे मुझे लगता है कि आप और वी पढ़ने के बाद एक ही राज्य में होने की संभावना की गणना कर सकते हैं ।uv


दुर्भाग्य से, यह स्पष्ट है कि यू और वी की एकमात्र दिलचस्प संपत्ति है । इसे देखने का सबसे आसान तरीका यह है कि किसी भी nontrivial w को 0 n से अलग करने की संभावना नॉनवेज है ; वास्तव में, केवल दो राज्य एन की परवाह किए बिना पर्याप्त हैं । हालाँकि, जैसा कि arxiv.org/pdf/1103.4513.pdf में चर्चा की गई है , शब्द हैं u , v की लंबाई n st no o ( log n ) राज्य DFA उन्हें अलग कर सकते हैं। यह p ( i ) के लिए आपके सूत्रों का खंडन करता हैwuvw0nnu,vno(logn)p(i)
ज्योफ्री इरविंग

1
स्पष्ट करने के लिए, यदि डीएफए संक्रमण स्ट्रिंग सूचकांक का एक यादृच्छिक कार्य था, तो आपके सूत्र सही होंगे; चूंकि वे सूचकांक से स्वतंत्र हैं, इसलिए संभावनाएं एक जटिल फैशन में सहसंबद्ध हैं।
जेफ्री इरविंग

मुझे डर है कि मुझे आपका प्रतिवाद नहीं मिलेगा। वहाँ एक है prba, दो राज्यों के साथ, अलग प्रदर्शित करने वाले 0 एन और डब्ल्यू 0 एन , ठीक है; और हो सकता है वहाँ लंबाई के शब्द हैं n उस के साथ अलग से कहा नहीं जा सकता है ( लॉग एन ) राज्यों। लेकिन यह मेरे दावे का खंडन कैसे करता है कि w एकमात्र महत्वपूर्ण चीज है, या p ( i ) के लिए मेरे सूत्र>00nw0nno(logn)wp(i)? सहसंबंधों के अनुसार, मैं देख रहा हूँ कि आप जिस प्रकार का उल्लेख कर रहे हैं उसकी एक पकड़ हो सकती है लेकिन मुझे अभी तक समझ नहीं आया कि यह वास्तव में विफल क्यों है। यदि आप एक ही राज्य में दो बार जाते हैं, तो सहसंबंध होता है, लेकिन क्या यह सोचने का एक कारण है कि यह औसत पर एक निश्चित दिशा में प्रभावित होगा?
a3nm

यदि , u और v को सकारात्मक संभाव्यता के साथ प्रतिष्ठित किया जाता है। हालाँकि, पर्याप्त रूप से बड़े n और राज्यों की छोटी संख्या के लिए हम जानते हैं कि p ( n ) = 1 कुछ u और v के लिए है । चूँकि आपके सूत्र बताते हैं कि यदि p ( i ) < 1 तो p ( i + 1 ) = p ( i ) + ( 1 - pp(n)<1uvnp(n)=1uvp(i)<1 , अपने सूत्र तथ्य पर कब्जा नहीं कर रहा है कि कुछ यू और वी भेद करने के लिए असंभव है। p(i+1)=p(i)+(1p(i))/n=p(i)(11/n)+1/n<1uv
जेफ्री इरविंग

आह ... ठीक है, मैं समझता हूं। यदि कोई छोटा DFA दो शब्दों को अलग नहीं कर सकता है, तो कोई भी यादृच्छिक DFA उन्हें अलग नहीं कर सकता है। तो वास्तव में मेरे दृष्टिकोण के साथ एक समस्या है, संभावना को अंततः शून्य पर छोड़ देना चाहिए, क्योंकि उन सहसंबंधों के कारण ऐसा लगता है। गलत उत्तर देने के लिए क्षमा करें। q(i)
a3nm
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.