ठीक है, इसलिए मैं इस तरह के अनौपचारिक प्रश्न / सर्वेक्षण के बारे में अनुमान लगाता हूं कि आपके ईएसआरआई दुनिया में आप कितने बड़े डेटासेट का उपयोग कर रहे हैं ...
मैं राज्यव्यापी डेटासेट बना रहा हूं और बनाए रख रहा हूं, जहां मुझे अलग-अलग हाउस स्तर पर प्रक्रिया करनी है, न कि पार्सल स्तर लेकिन हमारे सिस्टम के लिए प्रति पार्सल के कई मेलिंग पते। कई स्थानों पर मैं सड़क नेटवर्क या USPS AMS / AIS डेटा से गणना किए गए सैद्धांतिक पते का उपयोग कर रहा हूं। तो मेरी पता सूची लगभग 13.5 मिलियन पते और मासिक या त्रैमासिक रूप से बढ़ रही है।
क्या कोई भी व्यक्ति अभी पते की एक लाइव प्रणाली / ठीक से देखने की जानकारी बनाए रखता है, जो एक निरंतर डेटासेट में यह बड़ी है?
मैं सहयोग या बात करना पसंद करूंगा कि दूसरे लोग इतने बड़े डेटासेट को कैसे संभाल रहे हैं। मैं उन मुद्दों को देख रहा हूं जहां ईएसआरआई सॉफ्टवेयर को उड़ाने की कोशिश हो रही है, जब मैं चौराहों या स्थानिक जुड़ाव जैसे कार्यों को करने की कोशिश करता हूं। ईएसआरआई का कहना है कि वे इस प्रकार के मुद्दों को नहीं देखते हैं, लेकिन मेरे पास ये मुद्दे 9.3.1 से हैं, इसलिए मैं ऐसा करने वाला पहला / एकमात्र व्यक्ति नहीं हो सकता क्योंकि मैं इसे कई मशीनों में फिर से बना सकता हूं।
मेरा प्लेटफ़ॉर्म अभी डेस्कटॉप पर ESRI ArcGIS 10 है, GEOMETRY स्थानिक वस्तु का उपयोग करते हुए SQL2008 बैकएंड पर ArcSDE 9.3.1-sp1 से बात कर रहा है। इसलिए मैं वास्तव में विदेशी कुछ भी नहीं कर रहा हूं; लेकिन अभी भी मुझे लगता है कि कुछ क्षेत्रों में मैं शायद लिफाफे को आगे बढ़ा रहा हूं।
[आगे की]
मुझे यह जानने में दिलचस्पी है कि इन डेटासेट से निपटने के लिए अन्य लोग क्या कर रहे हैं। मैं एक महीने में एक लाख रिकॉर्ड के अपडाउन करने जा रहा हूं, और जब जियोकोडिंग आदि कोई समस्या नहीं है, जब आप अन्य प्रक्रियाओं को चलाना शुरू कर देते हैं और आगे के विश्लेषण के लिए डेटा को लिंक करना शुरू कर देते हैं। खैर, आप केवल_FID का उपयोग करके Intersects / Overlays / Identities से डेटा आउटपुट करते हैं और आपको इसमें शामिल होने के लिए एक पतली मध्य तालिका भी मिलती है; लेकिन जब आप उस तालिका के निर्माण को विभाजित करने और जीतने की कोशिश करना शुरू करते हैं, तो आप उन मुद्दों को हिट करना शुरू करते हैं जहां आपको अपने स्रोत डेटा को कार्य क्षेत्रों में विभाजित करने की आवश्यकता होती है, लेकिन फिर आपके पास आईडीएस को दोहराते हुए कि आप वापस विलय नहीं कर सकते हैं; इसलिए आप डेटा के छोटे ब्लॉक के साथ बचे रहते हैं जिन्हें आप आसानी से फिर से पूरा नहीं कर सकते।
उन विकल्पों के बारे में सोचना जो काउंटी-दर-काउंटी पैमाने पर डेटा को तोड़ते हैं, फिर स्थानिक विचारों का उपयोग करके इसे वापस एक साथ जोड़ने के लिए आदि ... बस उत्सुक अगर अन्य उपयोगकर्ता इतने बड़े पैमाने पर एक ही तरह की समस्याओं को देख रहे हैं, लेकिन छोटे पर पैरों के निशान।