क्या यह सेटअप अनुशंसित है या संभव भी है?
यह तकनीकी रूप से संभव है। मुझे यकीन नहीं है कि एनटीएफएस फाइल सिस्टम बढ़ने की सीमा क्या है, लेकिन मुझे संदेह है कि आप डिस्क की शुरुआत से एनटीएफएस फाइल सिस्टम को बढ़ा सकते हैं, और मुझे पता है कि आप मनमानी विभाजन जोड़कर एक जेडएफएस पूल विकसित कर सकते हैं ताकि आप डिस्क के अंत से अंदर की तरफ बढ़ सकता है। ऐसा करने से दोनों को बीच में कहीं मिलना होगा।
हालांकि, अनुशंसित? मैं कहूँगा बिल्कुल नहीं!
यह नरक की तलाश में समाप्त होता है, या ZFS मात्रा एक डिस्क पर कई भागों से मिलकर बना सकती है बिना प्रदर्शन के (बिना अतिरिक्त प्रतियां)?
ZFS अपने कॉपी-ऑन-राइट डिज़ाइन की वजह से शुरू करने के लिए भारी है। (यदि आप स्नैपशॉट का उपयोग करते हैं, तो यह समाप्त हो गया है। स्नैपशॉट एक ZFS सुविधा है जो बहुत से लोगों को वास्तव में पसंद है, भले ही वे वास्तव में ZFS की अन्य विशेषताओं में से किसी का भी उपयोग न करें, लेकिन वे जोखिम के संदर्भ में एक महत्वपूर्ण लागत पर आते हैं। डेटा विखंडन, खासकर यदि आप कई छोटे लिखते हैं।)
जब आप किसी मौजूदा पूल में अतिरिक्त संग्रहण जोड़ते हैं, जिसे आप अपनी प्रस्तावित योजना के साथ जोड़ते हैं, तो पहले से संग्रहीत डेटा स्वचालित रूप से पुन: असंतुलित नहीं होता है। इसके बजाय, ZFS उन vdevs के लिए नए डेटा ब्लॉक लिखता है जिनके पास सबसे अधिक रिक्त स्थान है , जो समय के साथ-साथ सभी डेटा को वितरित किए जाने के कारण डेटा को लिखा जाता है । आपके मामले में, इसका मतलब है कि डेटा मोटे तौर पर आपकी अपेक्षा के अनुसार वितरित किया जाएगा: नए लिखित डेटा, जिसमें मौजूदा फ़ाइलों में परिवर्तन शामिल हैं, पहले से मौजूद vdev (s) की तुलना में नए जोड़े गए vdev के लिखे जाने की अधिक संभावना है। चूंकि सभी vdevs एक ही भौतिक डिस्क पर हैं, इसलिए इससे कोई वास्तविक विश्वसनीयता प्राप्त नहीं होती है; यदि एकल डिस्क मर जाती है, तो आपका पूल मर जाता है, और आपके सभी डेटा को इसके साथ ले जाता है।
ZFS डेटा को समान रूप से vdev के भीतर वितरित करने की कोशिश करता है , इस धारणा पर कि यह सभी प्रतियों को प्रभावित करने वाले स्थानीयकृत भौतिक क्षति या तार्किक त्रुटियों के जोखिम को कम करता है। यह अपने मर्कल ट्री ऑन-डिस्क डिज़ाइन के पीछे एक ड्राइविंग कारण है, और एक संभावित कारण है कि यह copies
जहां तक संभव हो सके, बिना किसी कारण के सहसंबद्ध vdevs पर जगह देने की कोशिश करता है ।
जहाँ तक मुझे पता है, वर्तमान में जेडएफएस में अतिरिक्त भंडारण जोड़ने के बाद vdevs के बीच डेटा के असंतुलन में कोई देशी समर्थन नहीं है। Btrfs के पास btrfs rebalance
कमांड है, लेकिन ZFS के पास ऐसा कुछ नहीं है। आप डेटा का उपयोग करके (उपयोग करके zfs send ... | zfs recv ...
) कुछ हद तक पास हो सकते हैं लेकिन यह केवल एक साइड इफेक्ट है।
निचला रेखा, मुझे संदेह है कि आपके प्रस्तावित सेटअप डिस्क विभाजन के मामले में एक ही विभाजन पर ZFS के समान सेट की तुलना में काफी खराब होगा ।
मैंने तब इस पर एक बड़ा ZFS फाइल सिस्टम बनाया। अगर मैं प्रतियां = 2 सेट करता हूं, तो क्या वह तलाश-नरक में भी समाप्त होती है, या क्या कोई चतुर ZFS तंत्र है जो एक बफर का उपयोग करके एक ही डिस्क पर सभी फ़ाइलों की प्रतियां संग्रहीत करेगा [धारणा: नरक के रूप में अच्छी तरह से तलाश करें + केवल एक प्रति क्योंकि आपको कई प्रतियों के लिए कई उपकरणों की आवश्यकता होगी]।
सबसे पहले, कृपया ZFS पूल और ZFS फाइल सिस्टम के बीच अंतर को ध्यान में रखें। आपने एक पूल बनाया , जिसमें डिफ़ॉल्ट रूप से पूल के समान नाम वाला एक एकल फ़ाइल सिस्टम है । पूल भौतिक भंडारण के गुणों को निर्धारित करता है, जैसे कि vdev कॉन्फ़िगरेशन और न्यूनतम ब्लॉक आकार (ZFS में राख के रूप में जाना जाता है), और zpool
उपयोगिता का उपयोग करके प्रशासित किया जाता है । फाइल सिस्टम लॉजिकल स्टोरेज के गुणधर्मों को निर्धारित करता है, जैसे कि कम्प्रेशन, कोटा, माउंट पॉइंट्स, और चेकसमिंग, और zfs
यूटिलिटी का उपयोग करके प्रशासित किया जाता है । यह उदाहरण के लिए Btrfs के विपरीत है, जो दोनों को एक साथ जोड़ देता है।
दूसरा, मैं आपको संक्षेप में बताता हूं कि copies
ZFS फाइल सिस्टम प्रॉपर्टी कैसे काम करती है। भौतिक copies
अतिरेक के ऊपर और परे अतिरेक को निर्दिष्ट करता है, और एक फ़ाइल की कई उपयोगकर्ता-दृश्य प्रतियाँ बनाने के समान है (लेकिन फ़ाइल सिस्टम पर उपयोग में कमी होने पर उपयोगकर्ता के मानसिक मॉडल को नहीं तोड़ता)। हालांकि यह सभी vdev redundancy प्रकारों पर लागू होता है, दर्पणों के साथ यह वर्णन करना सबसे आसान है: दर्पण होने की साधारण संपत्ति द्वारा, दो-तरफा दर्पण vdev, आपके डेटा की दो समान प्रतियों को संग्रहीत करेगा। यदि आपने भी सेट किया है copies=2
, तो दर्पण जोड़ी में प्रत्येक दो डिस्क भी होंगेबिट्स की कुल चार प्रतियों को संग्रहीत करने के लिए और लगभग 25% प्रयोग करने योग्य भंडारण की एक कुल कुल (जब उपलब्ध कच्चे भंडारण की मात्रा की तुलना में) के लिए अपने डेटा की दो प्रतियां रखें। सरल स्पष्टीकरण कुछ हद तक raidz N vdevs के साथ टूट जाता है , लेकिन परिणाम एक ही है: एक ही बिट्स की कई प्रतियां डिस्क पर संग्रहीत की जा रही हैं, जैसे कि एक खराब होने पर, दूसरे का उपयोग किया जा सकता है।
डिफ़ॉल्ट रूप से, उपयोगकर्ता डेटा की एक प्रतिलिपि संग्रहीत की जाती है, और फ़ाइल सिस्टम मेटाडेटा की दो प्रतियां संग्रहीत की जाती हैं। बढ़ते हुए copies
, आप इस व्यवहार को ऐसे समायोजित करते हैं कि copies
उपयोगकर्ता डेटा (उस फ़ाइल सिस्टम के भीतर) की copies
प्रतियां संग्रहीत की जाती हैं, और सिस्टम मेटाडेटा की एक प्रतियां (उस फ़ाइल सिस्टम के भीतर) संग्रहीत की जाती हैं। सर्वोत्तम प्रभाव के लिए, यदि आप कॉपियों को एक से अधिक मूल्य पर सेट करना चाहते हैं, तो आपको ऐसा तब करना चाहिए जब आप पूल का उपयोग करके बनाते हैं zpool create -O copies=N
, यह सुनिश्चित करने के लिए कि सभी रूट फाइल सिस्टम मेटाडेटा की अतिरिक्त प्रतियां संग्रहीत हैं।
सामान्य पढ़ने के संचालन के तहत , अतिरिक्त प्रतियां केवल भंडारण स्थान का उपभोग करती हैं। जब रीड त्रुटि होती है, यदि डेटा की निरर्थक, वैध प्रतियाँ होती हैं, तो उन निरर्थक प्रतियों को रीड रिक्वेस्ट को संतुष्ट करने के लिए एक विकल्प के रूप में उपयोग किया जा सकता है और टूटी हुई कॉपी को पारदर्शी रूप से फिर से लिखना होगा। पढ़ें त्रुटियां या तो एकमुश्त I / O त्रुटियां हो सकती हैं, या यदि चेकसमिंग चालू है (जो कि यह डिफ़ॉल्ट रूप से है, और जिसे आपको वास्तव में उस तरह से छोड़ देना चाहिए जब तक कि आपके पास वास्तव में असामान्य कार्यभार न हो), डिस्क से वापस आ रहा डेटा कुछ और के रूप में मूल रूप से (एक चेकसम मिसमैच) लिखे जाने का इरादा था।
हालाँकि, लिखने के दौरान , सभी प्रतियों को यह सुनिश्चित करने के लिए अद्यतन किया जाना चाहिए कि उन्हें सिंक में रखा गया है। क्योंकि ZFS का उद्देश्य है कि प्रतियां एक-दूसरे से बहुत दूर हों, इससे अतिरिक्त मांग होती है। इसके अलावा इसके मर्कल ट्री डिजाइन के बारे में मत भूलना, मेटाडेटा ब्लॉकों के साथ कुछ भौतिक दूरी को डेटा ब्लॉक से दूर रखा गया है (उदाहरण के लिए गार्ड के खिलाफ एक एकल लिखने की विफलता चेकसम और डेटा दोनों को भ्रष्ट करता है )। मेरा मानना है कि ZFS का उद्देश्य copies
कम से कम 1/8 vdev को एक दूसरे से दूर रखना है, और डेटा ब्लॉक के लिए चेकसम युक्त मेटाडेटा ब्लॉक को हमेशा डेटा ब्लॉक से कुछ दूरी पर रखा जाता है।
नतीजतन, की स्थापना copies
1 से अधिक काफी मदद नहीं करता है या चोट प्रदर्शन करते हुए पढ़ने , लेकिन प्रदर्शन को कम कर देता है, जबकि लेखन का अनुरोध किया प्रतियों की संख्या और अंतर्निहित भंडारण की IOPS (आई / प्रति सेकंड हे संचालन) प्रदर्शन के संबंध में।