मेरे पास बड़ी स्थिर सामग्री है जिसे मुझे लिनक्स-आधारित वेबसर्वर के माध्यम से वितरित करना है। यह एक मिलियन से अधिक छोटी, gzip फ़ाइलों का एक सेट है। 90% फाइलें 1K से कम हैं और शेष फाइलें अधिकतम 50K हैं। भविष्य में, यह 10 मिलियन से अधिक gzip फ़ाइलों तक बढ़ सकता है।
क्या मुझे इस सामग्री को एक फ़ाइल संरचना में रखना चाहिए या क्या मुझे इस सभी सामग्री को डेटाबेस में रखने पर विचार करना चाहिए? यदि यह एक फ़ाइल संरचना में है, तो क्या मैं बड़ी निर्देशिकाओं का उपयोग कर सकता हूं या क्या मुझे छोटी निर्देशिकाओं पर विचार करना चाहिए?
मुझे बताया गया था कि डिलीवरी के लिए एक फाइल संरचना तेज होगी, लेकिन दूसरी तरफ, मुझे पता है कि डिस्क पर फाइलें बहुत अधिक जगह ले लेंगी, क्योंकि फाइलें ब्लॉक 1K से अधिक होंगी।
डिलीवरी प्रदर्शन के बारे में सबसे अच्छी रणनीति क्या है?
अपडेट करें
अभिलेखों के लिए, मैंने विंडोज 7 के तहत एक परीक्षण किया है, जिसमें आधी मिलियन फाइलें हैं: