कई समस्याओं के लिए, सबसे अच्छा स्पर्शोन्मुख जटिलता के साथ एल्गोरिथ्म में एक बहुत बड़ा स्थिर कारक है जो बड़े ओ नोटेशन द्वारा छिपा हुआ है। यह कुछ बनाने के लिए मैट्रिक्स गुणन, पूर्णांक गुणन (विशेष रूप से, हाल ही में ओ (n लॉग एन) पूर्णांक गुणन एल्गोरिथ्म हार्वे और वैन डर होवेन), कम गहराई वाले छँटाई नेटवर्क और ग्राफ़ नाबालिगों को खोजने में होता है। ऐसे एल्गोरिदम को कभी-कभी गेलेक्टिक एल्गोरिदम कहा जाता है।
ध्यान दें कि अन्य एल्गोरिदम के लिए, जैसे कि सामान्य छंटाई और पूर्णांक जोड़, एल्गोरिदम को इष्टतम विषम जटिलता और छोटे निरंतर कारकों के साथ जाना जाता है।
पूर्व एल्गोरिदम को बाद के एल्गोरिदम से अलग करने में, सैद्धांतिक दृष्टिकोण से क्या शोध किया गया है?
मुझे पता है कि गणना के विभिन्न मॉडलों के बीच अंतर को छिपाने के लिए छिपे हुए स्थिरांक अक्सर छोड़ दिए जाते हैं। हालांकि, मुझे विश्वास है कि विभिन्न मॉडलों की एक विस्तृत विविधता के तहत, ये गेलेक्टिक एल्गोरिदम उदाहरण के लिए, एक बिलियन आकार के इनपुट के लिए asymptotically बदतर एल्गोरिदम की तुलना में धीमा होंगे। कुछ मामलों में, अंतर सूक्ष्म नहीं है। क्या इसे कठोर बनाया गया है?
उदाहरण के लिए, कोई भी गणना के एक बहुत ही सरल मॉडल का आविष्कार कर सकता है, जैसे कि एक बहुत ही साधारण ISA के साथ एक वॉन न्यूमैन मशीन, और फिर एल्गोरिदम को लागू करना और स्पष्ट स्थिरांक के साथ उनके चलने के समय को बाध्य करना। क्या यह विभिन्न प्रकार के एल्गोरिदम के लिए किया गया है?