एक मानक सन्निकटन सिद्धांत है जहां सन्निकटन अनुपात ( MIN उद्देश्यों के साथ समस्याओं के लिए ), A - कुछ एल्गोरिथम A और OPT द्वारा लौटाया गया मान - एक इष्टतम मान। और एक अन्य सिद्धांत, विभेदक सन्निकटन, जहां सन्निकटन अनुपात \ inf \ frac {\ Omega-A} {\ Omega-OPT} , \ Omega - दिए गए उदाहरण के लिए संभव समाधान का सबसे खराब मूल्य है। लेखकों इस सिद्धांत का दावा है यह शास्त्रीय एक पर कुछ निश्चित लाभ है कि के। उदाहरण के लिए:
- यह इस तरह की समस्याओं के लिए एक ही सन्निकटन अनुपात देता है जैसे कि न्यूनतम शीर्ष कवर और अधिकतम स्वतंत्र सेट जो एक ही समस्या के अलग-अलग अहसास के रूप में जाने जाते हैं;
- यह एक ही समस्या के अधिकतम और न्यूनतम संस्करणों के लिए समान अनुपात देता है। उसी समय हम मानक सिद्धांत में जानते हैं कि न्यूनतम TSP और MAX TSP में बहुत भिन्न अनुपात होते हैं।
- यह न केवल इष्टतम के लिए बल्कि pessimum \ Omega के लिए दूरी को मापता है । तो वर्टेक्स कवर के मामले में मानक अनुमान सिद्धांत कहता है कि सबसे अच्छा ऊपरी बाध्य है। लेकिन अनिवार्य इष्टतम और इष्टतम के बीच अधिकतम अनुपात है। इस प्रकार इस तरह के एल्गोरिदम को सबसे खराब मूल्य के साथ समाधान का उत्पादन करने की गारंटी है।
मेरा तर्क समर्थक है: स्पर्शोन्मुख विश्लेषण में हम विचार स्थिरांक और निम्न-क्रम की शर्तों को नहीं लेते हैं (यहां मैंने एविए विडरसन द्वारा उद्धरण को याद किया: "हम सफल हैं क्योंकि हम अमूर्त के सही स्तर का उपयोग करते हैं") और यह है। एल्गोरिथ्म के संसाधनों के उपयोग की तुलना करने के लिए अमूर्तता का स्तर। लेकिन जब हम सन्निकटन का अध्ययन करते हैं तो हम किसी कारण से उन स्थानों में अंतर का परिचय देते हैं जहां हम इससे बच सकते हैं।
मेरा सवाल यह है कि
क्यों अंतर सन्निकटन सिद्धांत इतना खराब अध्ययन किया। या इसमें शामिल तर्क पर्याप्त मजबूत नहीं हैं?