अंतर्दृष्टि के लिए अग्रणी


41

MathOverflow पर, टिमोथी गोवर्स ने एक सवाल पूछा, जिसका शीर्षक था " कठोरता का प्रदर्शन महत्वपूर्ण है "। अधिकांश चर्चा सबूत के महत्व को दर्शाने वाले मामलों के बारे में थी, जिन पर CSTheory के लोगों को संभवतः आश्वस्त होने की आवश्यकता नहीं है। मेरे अनुभव में प्रमाणों को निरंतर कंप्यूटर के कई हिस्सों की तुलना में सैद्धांतिक कंप्यूटर विज्ञान में अधिक कठोर होने की आवश्यकता है, क्योंकि हमारे अंतर्ज्ञान अक्सर असतत संरचनाओं के लिए गलत हो जाते हैं, और क्योंकि कार्यान्वयन बनाने की ड्राइव अधिक विस्तृत तर्कों को प्रोत्साहित करती है। एक गणितज्ञ एक अस्तित्व प्रमाण के साथ संतुष्ट हो सकता है, लेकिन एक सैद्धांतिक कंप्यूटर वैज्ञानिक आमतौर पर एक रचनात्मक प्रमाण खोजने की कोशिश करेंगे। Lovász स्थानीय Lemma एक अच्छा उदाहरण है [1]।

इसलिए मैं जानना चाहूंगा

क्या सैद्धांतिक कंप्यूटर विज्ञान में विशिष्ट उदाहरण हैं, जहां एक विश्वास-से-सच कथन के एक कठोर प्रमाण ने अंतर्निहित समस्या की प्रकृति में नई अंतर्दृष्टि पैदा की है?

एक हालिया उदाहरण जो एल्गोरिदम और जटिलता सिद्धांत से प्रत्यक्ष रूप से नहीं है , वह है सबूत-सिद्धांत संबंधी संश्लेषण , पूर्व और बाद की स्थितियों से सही और कुशल एल्गोरिदम की स्वचालित व्युत्पत्ति [2]।

  • [1] रॉबिन ए मोजर और गैबर टार्डोस, जनरल Lovasz स्थानीय लेम्मा का एक रचनात्मक प्रमाण , JACM 57 , अनुच्छेद 11, 2010 http://doi.acm.org/10.1145/1667053.1667060
  • [2] सौरभ श्रीवास्तव, सुमित Gulwani, और जेफरी एस फोस्टर, कार्यक्रम सत्यापन से कार्यक्रम संश्लेषण के लिए , एसीएम SIGPLAN नोटिस 45 , 313-326, 2010 http://doi.acm.org/10.1145/1707801.1706337

संपादित करें:मेरे मन में जिस तरह का जवाब था, वह स्कॉट और मैटस की तरह है। जैसा कि केव ने सुझाव दिया, यह कुछ ऐसे लोगों का एक ट्रिपल है जो साबित करना चाहते थे (लेकिन जो "भौतिकी", "हैंडवॉइंग", या "सहज" तर्क) द्वारा अप्रत्याशित नहीं था, एक सबूत, और "अंतर्निहित समस्या" के लिए परिणाम है कि उस प्रमाण से पीछा नहीं किया गया था (शायद अप्रत्याशित रूप से नए विचारों के लिए आवश्यक प्रमाण बनाने के लिए, या स्वाभाविक रूप से एक एल्गोरिथ्म की ओर जाता है, या जिस तरह से हम इस क्षेत्र के बारे में सोचते हैं) को बदल दिया है। प्रमाण विकसित करते समय विकसित तकनीक सैद्धांतिक कंप्यूटर विज्ञान के निर्माण खंड हैं, इसलिए इस कुछ व्यक्तिपरक प्रश्न के मूल्य को बनाए रखने के लिए, यह व्यक्तिगत अनुभव पर ध्यान देने योग्य होगा, जैसे स्कॉट द्वारा प्रदान किया गया, या एक तर्क जो संदर्भों द्वारा समर्थित है, जैसा कि माटूस ने किया। इसके अलावा, मैं ' मी इस बारे में तर्कों से बचने की कोशिश कर रहा है कि कुछ योग्य है या नहीं; दुर्भाग्य से प्रश्न की प्रकृति आंतरिक रूप से समस्याग्रस्त हो सकती है।

हमारे पास पहले से ही जटिलता में "आश्चर्यजनक" परिणामों के बारे में एक प्रश्न है: जटिल परिणाम (जटिलता ब्लॉग सूची पर नहीं) में आश्चर्यजनक रूप से इसलिए आदर्श रूप से मैं उन उत्तरों की तलाश में हूं जो कठोर प्रमाण के मूल्य पर ध्यान केंद्रित करते हैं , जरूरी नहीं कि सफलता का आकार।


2
क्या हम हर दिन ऐसा नहीं करते / करते हैं?
डेव क्लार्क

"अंतर्निहित समस्या" से वास्तव में क्या अभिप्राय है? क्या आपका मतलब केवल उन्हीं समस्याओं का सुझाव देना है जहाँ किसी विशेष कथन की तुलना में कोई गहरी समस्या है? मैं किसी भी समस्या के बारे में सोच रहा था जिसमें एक एल्गोरिथ्म के अस्तित्व का रचनात्मक प्रमाण शामिल है (उदाहरण के लिए, AKS primality परीक्षण यह स्थापित करने के लिए कि PRIMES P में है) कठोर प्रमाण के माध्यम से "नई अंतर्दृष्टि" लाएगा, लेकिन अगर आप केवल बात कर रहे हैं एक समस्या के भीतर छोटे बयानों के बारे में, इससे कोई मतलब नहीं होगा।
फिलिप व्हाइट

बस यह सुनिश्चित करने के लिए कि मैं आपका प्रश्न समझ गया हूं, क्या आप एक ट्रिपल (स्टेटमेंट एस, प्रूफ पी, इनसाइट आई) के लिए पूछ रहे हैं, जहां स्टेटमेंट एस ज्ञात है / सच माना जाता है, लेकिन हम किसी के आने पर एक नई जानकारी प्राप्त करते हैं। एस के लिए नए सबूत पी के साथ?
केवह

[जारी] एलएलएल मामले में उदाहरण के लिए, हमारे पास एलएलएल (एस) के लिए गैर-अवरोधी सबूत थे , लेकिन नए रचनात्मक प्रमाण आर्काइव (पी) हमें एक नई अंतर्दृष्टि (आई) प्रदान करता है।
केवह

हम्म ... विशिष्ट एल्गोरिदम के साथ शुरू करने और फिर उन्हें सामान्य बनाने के लिए डेटा बिंदुओं के रूप में उपयोग करने के बारे में क्या? जैसे, लोग कुछ लालची एल्गोरिदम डिज़ाइन करते हैं, और अंततः क्षेत्र इष्टतम उप-संरचना के साथ एक समस्या की धारणा विकसित करता है।
एरोन स्टर्लिंग

जवाबों:


34

András, जैसा कि आप शायद जानते हैं, वहाँ बहुत सारे उदाहरण हैं कि आप किस बारे में बात कर रहे हैं, यह जानना लगभग असंभव है कि कहां से शुरू करें! हालांकि, मुझे लगता है कि यह प्रश्न वास्तव में एक अच्छा हो सकता है, अगर लोग अपने स्वयं के अनुभव से उदाहरण देते हैं जहां उनके उपनगरीय इलाके में व्यापक रूप से विश्वास किए गए अनुमान के प्रमाण ने नई अंतर्दृष्टि पैदा की।

जब मैं एक अंडरग्रेजुएट था, तो मैंने जो पहली वास्तविक टीसीएस समस्या का सामना किया था, वह थी: प्रत्येक के varin ANDs के बूलियन वेरिएबल्स में से प्रत्येक का मूल्यांकन करने के लिए सबसे तेज़ क्वांटम एल्गोरिदम क्या है? यह मेरे लिए स्पष्ट रूप से स्पष्ट था और बाकी सभी से मैंने बात की थी कि ग्रोवर के एल्गोरिदम को पुन: लागू करने के लिए सबसे अच्छा होगा, ओआरएस और दोनों को। इसने एक O ((n log (n)) ऊपरी सीमा दी। (वास्तव में आप लॉग फ़ैक्टर को बंद कर सकते हैं, लेकिन आइए अब इसके लिए ध्यान न दें।)

मेरी भारी हताशा के लिए, हालांकि, मैं तुच्छ Ω (n 1/4 ) की तुलना में किसी भी निचली सीमा को बेहतर साबित करने में असमर्थ था । "भौतिक विज्ञानी जा रहे हैं" और "जवाब को हाथ लगाना" कभी अधिक आकर्षक नहीं देखा! :-D

लेकिन फिर, कुछ महीने बाद, एंड्रीस अंबनीस अपनी क्वांटम प्रतिकूल विधि के साथ बाहर आया , जिसका मुख्य अनुप्रयोग पहले एक first (√n) OR-of-ANDs के लिए कम बाध्य था। इस परिणाम को साबित करने के लिए, एंड्रिस ने क्वांटम एल्गोरिथ्म को अलग-अलग इनपुट के सुपरपोजिशन को खिलाने की कल्पना की ; फिर उन्होंने अध्ययन किया कि कैसे इनपुट और एल्गोरिथ्म के बीच उलझाव प्रत्येक एल्गोरिथ्म में किए गए क्वेरी के साथ बढ़ गया। उन्होंने दिखाया कि कैसे यह दृष्टिकोण आपको "गड़बड़," गैर-सममित समस्याओं के लिए भी कम-मात्रा वाली क्वांटम क्वेरी जटिलता देता है, फ़ंक्शन एफ के केवल बहुत ही सामान्य दहनशील गुणों का उपयोग करके, जो क्वांटम एल्गोरिदम की गणना करने की कोशिश कर रहा था।

केवल इस बात की पुष्टि करना कि एक कष्टप्रद समस्या की क्वांटम क्वेरी की जटिलता यह है कि हर कोई यह होने की उम्मीद करता था, ये तकनीक शोर और ग्रोवर के एल्गोरिदम के बाद से क्वांटम कंप्यूटिंग सिद्धांत में सबसे बड़ी प्रगति में से एक का प्रतिनिधित्व करने के लिए निकली। वे तब से दर्जनों अन्य क्वांटम लोअर सीमा को साबित करने के लिए उपयोग किए गए हैं, और नए शास्त्रीय निचले सीमा प्राप्त करने के लिए भी पुनर्निर्मित किया गया था ।

बेशक, यह "गणित और टीसीएस की अद्भुत दुनिया में सिर्फ एक और दिन है।" यहां तक ​​कि अगर हर कोई "पहले से ही जानता है" एक्स सच है, तो एक्स को साबित करने के लिए अक्सर नई तकनीकों का आविष्कार करना पड़ता है जो तब एक्स से परे लागू होते हैं, और विशेष रूप से उन समस्याओं के लिए जिनके लिए सही उत्तर बहुत कम स्पष्ट रूप से एक प्राथमिकता थी


27

समानांतर दोहराव मेरे क्षेत्र से एक अच्छा उदाहरण है:

Lxq1q2a1a2a1a2q1,q2xLxLs

s1s=1015kq1(1),,q1(k)q2(1),,q2(k)a1(1),,a1(k)a1(1),,a1(k)k

skksΩ(k/log|Σ|)Σ

Σk

फिर, ऐसे एक्सटेंशन हैं जो संभव हो गए: अनूप राव विश्लेषण दिखाने के लिए अनुकूल करने में सक्षम थे कि जब मूल प्रूफ सिस्टम एक {\ em प्रोजेक्शन गेम} है, अर्थात, पहली कहावत का जवाब सबसे स्वीकार्य उत्तर में निर्धारित होता है दूसरी कहावत है, वर्णमाला पर कोई निर्भरता नहीं है, और प्रतिपादक में निरंतर सुधार किया जा सकता है। यह महत्वपूर्ण है क्योंकि सन्निकटन परिणामों की अधिकांश कठोरता प्रक्षेपण खेलों पर आधारित होती है, और अद्वितीय खेल प्रक्षेपण खेलों का एक विशेष मामला होते हैं। विस्तारकों (रिकी रोसेन और रैन रेज़ द्वारा) के खेल में मात्रात्मक सुधार भी हैं, और भी बहुत कुछ।

फिर, इसके दूरगामी परिणाम हैं। बस कुछ उदाहरण: आरजे के पेपर से एक सूचना सिद्धांतिक लेम्मा का उपयोग कई अन्य संदर्भों में (क्रिप्टोग्राफी में, नमूना और खोज, आदि के समकक्ष में) किया गया था। "सहसंबद्ध नमूनाकरण" तकनीक जिसका उपयोग होलेनस्टीन ने कई अन्य कार्यों में किया था (संचार जटिलता में, पीसीपी में, आदि)।


3
यह एक अच्छा उदाहरण है!
सुरेश वेंकट

20

कथनों (और नई तकनीकों) का एक और अच्छा उदाहरण उन बयानों को साबित करने के लिए आवश्यक है जिन्हें सच माना जाता था: सुचारू विश्लेषण। बिंदु में दो मामले:

  • सिम्प्लेक्स एल्गोरिथ्म
  • K- साधन एल्गोरिथ्म

kO(nckd)n


13

मुझे लगता है कि निम्नलिखित उदाहरण ने बहुत सारे शोधों को जन्म दिया, जिनके परिणाम आप देख रहे थे, कम से कम अगर मैं आपके एलएलएल उदाहरण की भावना का पालन करता हूं।

रॉबर्ट ई। शेपायर। कमजोर सीखने की शक्ति। मशीन लर्निंग, 5 (2): 197-227, 1990।

ϵ>0,δ>01δϵϵδδδγ

वैसे भी, शापायर के पेपर के बाद चीजें बहुत दिलचस्प हो गईं। उनके समाधान ने मूल वर्ग में परिकल्पना पर बहुमत का बहुमत पैदा किया। उसके बाद आया:

योव फ्रायंड। बहुमत से कमजोर शिक्षा एल्गोरिथ्म को बढ़ावा देना। सूचना और संगणना, 121 (2): 256--285, 1995।

इस पत्र में शापायर के परिणाम का एक 'खंडन' था, लेकिन अब निर्मित परिकल्पना में केवल एक बहुमत का उपयोग किया गया था। इन पंक्तियों के साथ, दोनों ने तब एक और रिप्रूफ बनाया, जिसे AdaBoost कहा जाता है:

योव फ्रायंड और रॉबर्ट ई। शेपायर। ऑन-लर्निंग का एक निर्णय-सिद्धांत सामान्यीकरण और बढ़ावा देने के लिए एक आवेदन। कंप्यूटर और सिस्टम विज्ञान के जर्नल, 55 (1): 119-139, 1997।

कमजोर / मजबूत सीखने का सवाल मुख्य रूप से सैद्धांतिक चिंता के रूप में शुरू हुआ, लेकिन 'रिप्रॉफ्स' के इस क्रम में एक सुंदर एल्गोरिथ्म हुआ, जो मशीन सीखने के सबसे प्रभावशाली परिणामों में से एक था। मैं यहाँ सभी प्रकार के स्पर्शरेखाओं पर जा सकता था लेकिन अपने आप को संयमित करूँगा। टीसीएस के संदर्भ में, ये परिणाम (1) गुणक भार एल्गोरिदम और (2) हार्ड-कोर सेट परिणामों के संदर्भ में बहुत अधिक सांस लेते हैं। के बारे में (1), मैं केवल यह स्पष्ट करना चाहूंगा कि AdaBoost को वार्मथ / लिटलस्टोन (फ्रंड एक वार्मथ स्टूडेंट) के गुणात्मक भार / winnow कार्य के एक उदाहरण के रूप में देखा जा सकता है, लेकिन बूस्टिंग में बहुत कुछ नया है परिणाम है। के बारे में (2), मैं '

ऐतिहासिक सटीकता के लिए मुझे यह भी कहना चाहिए कि मेरे उद्धरणों पर तारीखें शायद कुछ लोगों को उम्मीद नहीं होंगी, क्योंकि इनमें से कुछ के लिए पहले सम्मेलन संस्करण थे।

अपने प्रश्न की प्रकृति पर वापस जाएं। यहां 'कठोरता' का मुख्य मूल्य परिकल्पना वर्ग को प्रदान करने में था, जो उन्हें खोजने के लिए (मूल परिकल्पना वर्ग से अधिक भारित) और कुशल एल्गोरिदम को सीखता है।


12

यह उदाहरण दाना और स्कॉट के जवाबों की तर्ज पर है।

ndd2n1d2n1/(d1)2n1/(d1)1n1/(d1)d12n1/(d1)2n1/(d1)d2O(n1/(d1))

dAC0


11

Rasborov और Rudich के कागज "प्राकृतिक सबूत" प्रदान करता है की एक कठोर सबूत (का एक औपचारिक) दर्दनाक स्पष्ट बयान "यह वास्तव में साबित होता है कि पी ≠ एनपी कठिन।"


2
"यह साबित करना बहुत मुश्किल है कि पी ≠ एनपी" के बराबर नहीं है "प्राकृतिक सबूत सबसे अधिक संभावना पी P एनपी साबित नहीं होंगे"। अन्य बाधाएं जैसे कि रिलेटिवाइजेशन और अल्जिब्रीजेशन हैं। दरअसल, असीम रूप से कई और अवरोध हो सकते हैं।
मोहम्मद अल-तुर्किस्टानी

7
सापेक्षतावाद सिर्फ "पी iv एनपी को साबित करना मुश्किल है।" बीजगणित बाद में आया, लेकिन यह " पी ≠ एनपी को साबित करने के लिए वास्तव में कठिन है।" (हा हा केवल गंभीर।)
जेफ़

6

यह विचार कि कुछ एल्गोरिथम समस्याओं के लिए सभी संभावनाओं पर एक घातीय संख्या, या अत्यधिक खोज की आवश्यकता होती है, को 50 के दशक से और शायद पहले उठाया गया था। (ज़ाहिर है, प्रतिस्पर्धी भोला विचार है कि कंप्यूटर सब कुछ कर सकते हैं भी आम था।) कुक और लेविन की प्रमुख सफलता इस विचार को कठोर आधारों पर रखना था। यह, ज़ाहिर है, सब कुछ बदल गया।

अद्यतन: मुझे अभी पता चला है कि तुर्किस्टनी के अच्छे उत्तर की तरह मेरा उत्तर प्रश्न के शीर्षक को संबोधित करता है "अंतर्दृष्टि की ओर अग्रसर" लेकिन शायद विशिष्ट शब्दांकन नहीं था जो "प्रमेय के कठोर प्रमाण" के बारे में था।


0

एलन ट्यूरिंग ने ट्यूरिंग मशीनों का उपयोग करके एल्गोरिथ्म (प्रभावी कम्प्यूटेबिलिटी) की धारणा को औपचारिक रूप दिया। उन्होंने इस नई औपचारिकता का इस्तेमाल यह साबित करने के लिए किया कि हाल्टिंग समस्या अनिर्दिष्ट है (अर्थात किसी भी एल्गोरिथ्म द्वारा हल करने की समस्या को हल नहीं किया जा सकता)। इसने एक लंबे शोध कार्यक्रम का नेतृत्व किया जो हिल्बर्ट 10 वीं समस्या की असंभवता साबित हुआ। 1970 में माटियासेविच ने साबित कर दिया कि कोई एल्गोरिथ्म नहीं है जो यह तय कर सकता है कि एक पूर्णांक डायोफैंटाइन समीकरण में एक पूर्णांक समाधान है या नहीं।


1
@ क्या, MRDP क्या है?
मोहम्मद अल-तुर्कस्टनी

1
इसमें असंगत रूप से पुनरावर्ती enumerable (RE) सेट होते हैं (जैसे कि हॉल्टिंग समस्या)। Matiyasevich ने साबित किया कि किसी भी पुनरावर्ती सेट को डियोफ़ैंटाइन कहा जाता है। इसका तात्पर्य हिल्बर्ट की 10 वीं समस्या की असंभवता है।
मोहम्मद अल-तुर्कस्टनी

1
@ क्यों, आपने अपने "कठोर" परीक्षणों का पहला उत्तर क्यों नहीं दिया? जहां तक ​​मुझे पता है, नेचुरल प्रूफ़ हमें पी बनाम एनपी साबित करने से रोकने वाला एकमात्र बैरियर नहीं है।
मोहम्मद अल-तुर्कस्टनी

1
PNPPNP

मुझे लगता है कि यह एक अच्छा जवाब है।
गिल कलाई
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.