यह प्रश्न एल्गोरिथ्म और डेटा संरचनाओं को डिज़ाइन करने के लिए कंप्यूटर के सही सैद्धांतिक मॉडल के लिए एक सामान्य प्रश्न के समान है ।
यहाँ, मैं विशेष रूप से वर्तमान उच्च प्रदर्शन वाले कंप्यूटरों के बारे में पूछता हूं (जैसे शीर्ष 500 के रूप में सूचीबद्ध ) या यहाँ तक कि आगामी सुपर कंप्यूटर।
यह देखते हुए कि ये कंप्यूटर आमतौर पर विशाल डेटा सेट पर काम कर रहे हैं (ऐसा लगता है कि कुछ लोग मुख्य रूप से इस तरह की मशीनों का उपयोग करते हैं क्योंकि उनके पास आई / ओ-मॉडल के बड़े संयुक्त स्मृति हैं) ( 1988 में अग्रवाल और विटर द्वारा प्रस्तुत ) और इसके समानांतर संस्करण , PEM ( Arge, Goodrich, Nelson and Sitchinava in 2008 ) उपस्थित होना चाहिए। दूसरी ओर, संचार के बारे में कुछ होना चाहिए, विशेष रूप से सभी छोटे कंप्यूटिंग नोड्स को अल्ट्रा छोटे पैकेजों को दंडित करना।
जैसा कि आप कल्पना कर सकते हैं, मुझे डर नहीं है कि मैं नए मॉडल बनाते समय विचारों से बाहर चल रहा हूं, लेकिन मैं थोड़ा चिंतित हूं कि मैं ऐसा करने में पिछले प्रयासों को नजरअंदाज कर सकता हूं, विशेष रूप से क्योंकि मुझे आभास है कि 1980- 1995 या तो कई ऐसे मॉडलिंग प्रयास (जैसे बीएसपी या ब्रिजिंग मॉडल) देखे गए हैं जिनका व्यापक रूप से उपयोग नहीं किया गया है।
मुझे किन मॉडलों पर ध्यान देना चाहिए?