प्रकारों के लिए बाइट का आकार बहुत दिलचस्प नहीं है जब आपको केवल एक ही भाषा (और कोड के लिए जो आपको गणित के बारे में खुद को याद दिलाना नहीं है) से निपटना है। वह हिस्सा जो दिलचस्प हो जाता है, जब आप एक भाषा से दूसरी भाषा, C # से COM ऑब्जेक्ट आदि के बीच पुल करते हैं, या आप कुछ बिट-शिफ्टिंग या मास्किंग कर रहे हैं और आपको खुद को याद रखने की आवश्यकता है (और आपकी कोड-समीक्षा सह-वोकर) डेटा का आकार।
व्यवहार में, मैं आमतौर पर Int32 का उपयोग केवल अपने आप को याद दिलाने के लिए करता हूं कि वे किस आकार के हैं क्योंकि मैं प्रबंधित C ++ (उदाहरण के लिए C # को पुल करने के लिए) और साथ ही अप्रबंधित / मूल C ++ लिखता हूं।
जब तक आप शायद जानते हैं, C # में 64-बिट्स है, लेकिन मूल C ++ में, यह 32-बिट्स के रूप में समाप्त होता है, या char यूनिकोड / 16-बिट्स है जबकि C ++ में यह 8-बिट्स है। लेकिन हम यह कैसे जानते हैं? जवाब है, क्योंकि हमने इसे मैनुअल में देखा है और ऐसा कहा है।
समय और अनुभवों के साथ, आप अधिक प्रकार-ईमानदार होने लगेंगे जब आप सी # और अन्य भाषाओं के बीच पुल बनाने के लिए कोड लिखते हैं (यहां कुछ पाठक "आप क्यों करेंगे?" सोच रहे हैं), लेकिन आईएमएचओ का मानना है कि यह एक बेहतर अभ्यास है क्योंकि? मुझे याद नहीं है कि मैंने पिछले सप्ताह क्या कोडित किया है (या मुझे अपने एपीआई दस्तावेज़ में यह निर्दिष्ट नहीं करना है कि "यह पैरामीटर 32-बिट पूर्णांक है")।
में एफ # (हालांकि मैं इसे उपयोग नहीं किया है), वे परिभाषित पूर्णांक , int32 , और nativeint । एक ही सवाल उठना चाहिए, "मैं किसका उपयोग करता हूं?"। जैसा कि दूसरों ने उल्लेख किया है, ज्यादातर मामलों में, यह कोई फर्क नहीं पड़ता (पारदर्शी होना चाहिए)। लेकिन मैं सिर्फ अस्पष्टताओं को दूर करने के लिए int32 और uint32 को चुनूंगा।
मुझे लगता है कि यह सिर्फ उन अनुप्रयोगों पर निर्भर करेगा जो आप कोडिंग कर रहे हैं, जो इसका उपयोग कर रहे हैं, क्या कोडिंग आप और आपकी टीम का अनुसरण करता है, आदि जब इंट 32 का उपयोग करने के लिए औचित्य साबित करने के लिए।