सबसे पहले, ध्यान दें कि डिवाइस ब्लॉक आकार फाइल सिस्टम द्वारा उपयोग में ब्लॉक आकार से अलग है। डिस्क्यूटिल द्वारा रिपोर्ट किया गया पूर्व मान हार्डवेयर द्वारा उपयोग किए जाने वाले कच्चे ब्लॉक आकार को संदर्भित करता है। मुझे कमांड लाइन द्वारा बाद के मूल्य की जांच करने का एक आसान तरीका नहीं मिला है, लेकिन आप बस एक शून्य-बाइट फ़ाइल बना सकते हैं, फिर फाइंडर से जानकारी प्राप्त करें। यह 0 बाइट्स कहेगा, लेकिन डिस्क पर 4k का उपयोग किया जाता है।
दूसरा, आप कमांड लाइन प्रोग्राम का उपयोग करके 4k से बड़े आकार के साथ एक HFS + फाइलसिस्टम बना सकते हैं newfs_hfs
। सबसे आसान तरीका है कि डिस्क विभाजन का उपयोग ड्राइव को विभाजित करने और डिफ़ॉल्ट स्वरूपण के साथ एक विभाजन बनाने के लिए करें, फिर /bin/df
ब्लॉक डिवाइस (केवल एक उदाहरण:) को निर्धारित करने के लिए उपयोग करें /dev/disk0s2
। फिर उस विभाजन को अनमाउंट करें ( umount /dev/diskXXX
डिस्क उपयोगिता का उपयोग करके ), और 64k ब्लॉकों के साथ HFS + के रूप में पुन: स्वरूपित करने के लिए:
newfs_hfs -v VolumeName -b 65536 /dev/disk0s2
यह सत्यापित करने के लिए उपरोक्त जानकारी टिप का उपयोग करें कि एक छोटी फ़ाइल अब डिस्क पर 64k में रहती है (इसे 10k की शक्तियों के लिए 65k कह सकते हैं)।
प्रदर्शन मुख्य कारण है जो आप ऐसा करना चाहते हैं, यदि संग्रहित किए जाने वाले अधिकांश डेटा बड़ी फ़ाइलें (जैसे MP3, फ़ोटो, वीडियो, .zip फ़ाइलें, आदि) हैं, और यह डिस्क विखंडन को कम रखने में भी मदद करता है। अगर आप ज्यादातर छोटी फाइलों को स्टोर करने की योजना बनाते हैं, तो परेशान न हों।
मैंने पाया है कि बड़े ड्राइव पर (> 1 टीबी) डिफ़ॉल्ट 4k ब्लॉक आकार के साथ एचएफएस के रूप में स्वरूपित होता है, जब ड्राइव क्षमता के निकट होता है, तो प्रदर्शन में बहुत गिरावट आती है। मैं अनुमान लगा रहा हूं कि विभाजन खंडित होने के कारण है और अंतिम 1% आंकड़ों को लिखने के लिए मुक्त ब्लॉकों के लिए शिकार करना और चोंच मारना है। मुझे उम्मीद है कि बड़े ब्लॉक आकार इस समस्या को कुछ हद तक दूर करेंगे।