क्या कोई अच्छी फोटो डुप्लीकेशन डिटेक्शन यूटिलिटी का सुझाव दे सकता है, जब मैं 100 जीबी डेटा (वर्षों में एकत्र) के साथ काम कर रहा हूं?
मैं उबंटू पर काम करने वाली किसी चीज को पसंद करूंगा।
अग्रिम में धन्यवाद!
संपादित करें: क्या एक उपकरण है जो मेरे संग्रह को पुनर्गठित करने और डुप्लिकेट को हटाने में मदद करेगा, एक बार उनका पता चलने के बाद?
Edit2: हार्ड पार्ट यह पता लगा रहा है कि एक बार आउटपुट करने के लिए मुझे हजारों डुप्लिकेट फ़ाइलों (जैसे fdupes के आउटपुट) से मिलकर क्या करना होगा।
यह स्पष्ट नहीं है कि अगर मैं अभी भी किसी निर्देशिका को सुरक्षित रूप से हटा सकता हूं (यानी यदि निर्देशिका में अद्वितीय फ़ाइलें हो सकती हैं), जो निर्देशिका अन्य निर्देशिकाओं के सबसेट हैं और इसी तरह। इस समस्या के लिए एक आदर्श उपकरण फ़ाइल दोहराव का निर्धारण करने में सक्षम होना चाहिए और फिर अपनी फ़ाइलों और फ़ोल्डरों के पुनर्गठन का एक शक्तिशाली साधन प्रदान करना चाहिए। हार्डलिंकिंग के द्वारा मर्ज करना (जैसा कि fslint करता है) वास्तव में डिस्कनेक्ट को मुक्त करता है, लेकिन यह अंतर्निहित समस्या को हल नहीं करता है जिसने दोहराव को जन्म दिया है - यानी खराब फ़ाइल / डीआईआर संगठन।