सरल बाइनरी डेटा का कुशल संपीड़न


27

मेरे पास से तक ऑर्डर किए गए बाइनरी नंबर वाली फाइल है :2 एन - 102n1

0000000000
0000000001
0000000010
0000000011
0000000100
...
1111111111

7z ने इस फ़ाइल को बहुत कुशलता से संपीड़ित नहीं किया (n = 20, 22 MB के लिए 300 kB तक संकुचित किया गया)।

क्या ऐसे एल्गोरिदम हैं जो डेटा की बहुत सरल संरचना को पहचान सकते हैं और फ़ाइल को कई बाइट्स तक संपीड़ित कर सकते हैं? इसके अलावा, मैं जानना चाहता हूं कि सीएस या सूचना सिद्धांत का कौन सा क्षेत्र ऐसे स्मार्ट एल्गोरिदम का अध्ययन करता है। "एआई" बहुत व्यापक होगा, कृपया अधिक ठोस कीवर्ड सुझाएं।
समरूपता की धारणा को डेटा संपीड़न में मौलिक भूमिका निभानी चाहिए, लेकिन खोज क्वेरी "डेटा संपीड़न में समरूपता" और "डेटा संपीड़न में समूह सिद्धांत" आश्चर्यजनक रूप से लगभग कुछ भी प्रासंगिक नहीं है।


11
कोलमोगोरोव जटिलता की जांच करें, जो कुछ अर्थों में इष्टतम संपीड़न (एक additive निरंतर तक) है। दुर्भाग्य से, Kolmogorov जटिलता कम्प्यूटेशनल नहीं है ...
युवल फिल्मस

12
आपको उस डेटा को संपीड़ित करने की आवश्यकता क्यों है? क्या आप किसी भी समय अपनी आवश्यकता के अनुसार इसे पुनः प्राप्त नहीं कर सकते? (जो @YuvalFilmus द्वारा उल्लिखित कोलमोगोरोव जटिलता दृष्टिकोण से निकटता से संबंधित है: कोलमोगोरोव जटिलता अनिवार्य रूप से सबसे छोटे कार्यक्रम की लंबाई है जो आउटपुट उत्पन्न करती है)।
डेविड रिचेर्बी

7
मैंने 20 साल पहले हाई स्कूल में ऐसा एल्गोरिथम लिखा था। आपके इनपुट को देखते हुए, यह "कुछ बाइट्स" (लगभग अधिक: 1 एक इष्टतम परिदृश्य में) के लिए संकुचित होता। हालांकि, डेटा शायद ही कभी ऐसा दिखता है, इसलिए इस तरह का एल्गोरिदम होना व्यावहारिक नहीं है। सामान्य संपीड़न एल्गोरिदम को जटिल पैटर्न से निपटना पड़ता है, न कि सरल। रेखीय डेटा को स्टोर करने के लिए कोई भी एक एल्गोरिदम लिख सकता है, लेकिन दिलचस्प डेटा संग्रहीत करना चुनौती है।
फेयरफॉक्स

3
N = 20 आपको 22MB कैसे देता है? यदि 4 बाइट पूर्णांक
njzk2

3
@ जिक ओह, ठीक है। अच्छी तरह से कि संपीड़न की पहली धारणा होगी, एक बिट का प्रतिनिधित्व करने के लिए 8 बिट का उपयोग नहीं करना।
njzk2

जवाबों:


27

यह डेल्टा संपीड़न के लिए एक स्पष्ट उपयोग मामला लगता है । अगर को एक प्राथमिकता के रूप में जाना जाता है तो यह तुच्छ है: पहली संख्या को शब्दशः स्टोर करें, और प्रत्येक अगली संख्या की दुकान के लिए केवल पिछले का अंतर । आपके मामले में, यह देगाn

0
1
1
1
1
...

इसके बाद सरल रन-लंबाई एन्कोडिंग को अंतरिक्ष में संग्रहीत किया जा सकता है, क्योंकि विभिन्न डेल्टा के केवल ( 1 ) समूह (अर्थात्, दो) हैं।O(n)O(1)

यदि ज्ञात नहीं है, तो सबसे सरल चीज शब्द-आकार के लिए एक क्रूर-बल खोज होगी जिसके लिए यह डेल्टा / रन-लंबाई प्रतिनिधित्व सबसे कम निकलता है। शायद ही, बेतरतीब ढंग से चुने हुए के लिए यह खोज करते हैं nअच्छी विश्वसनीयता बरकरार रखते हुएnखोजने के ओवरहेड को परिचालित करने के लिए N- आकार वाली विखंडू।Nn

डीडब्ल्यू के "सभी या कुछ भी नहीं" प्रस्ताव के विपरीत, रन-लंबाई एन्कोडिंग के साथ डेल्टा संपीड़न वास्तव में कम-रिज़ॉल्यूशन ऑडियो की तरह कुछ सरल वास्तविक-प्रकार की सामग्री के लिए समझदार संपीड़न अनुपात दे सकता है। (यह इस प्रकार निम्न-गुणवत्ता, बहुत कम-विलंबता और कम-शक्ति ऑडियो संपीड़न के लिए उपयुक्त है।)


44

निश्चित रूप से, एल्गोरिदम हैं। यहाँ मेरा एल्गोरिथ्म है:

  1. पहले, जांचें कि क्या फ़ाइल में कुछ एन के लिए से 2 एन - 1 तक बाइनरी नंबर का आदेश दिया गया है । यदि हां, तो 0 बिट के बाद n बिट्स के बाद 0 बिट के बाद लिखिए ।02n-1nn

  2. यदि नहीं, तो 1 बिट लिखें, फिर फ़ाइल का 7z-संपीड़न लिखें।

यह उस विशेष संरचना की फ़ाइलों के लिए अत्यंत कुशल है।

मुद्दा यह है: डेटा संपीड़न में कोई मुफ्त दोपहर का भोजन नहीं है। आप एक संपीड़न एल्गोरिथ्म का निर्माण करने में सक्षम हो सकते हैं जो एक प्रकार की फ़ाइल को अच्छी तरह से संपीड़ित करता है, दूसरों को बदतर तरीके से संपीड़ित करने की कीमत पर। लेकिन, यदि आप उन फ़ाइलों की प्रकृति के बारे में कोई प्राथमिकता जानते हैं जिन्हें आप कंप्रेस कर रहे हैं, तो आप उस विशेष प्रकार की फ़ाइल के लिए अपने एल्गोरिथ्म को ऑप्टिमाइज़ कर सकते हैं।

क्षेत्र "डेटा संपीड़न" है। हमारा टैग देखें , और डेटा संपीड़न पर पाठ्यपुस्तकें पढ़ें।


5
कंप्रेसर का काम आम पैटर्न को पहचानना और उनका शोषण करना है। ऐसा नहीं है कि यह पैटर्न असामान्य या अस्पष्ट है। इसलिए यह सवाल उठना स्वाभाविक है कि इसका शोषण क्यों नहीं होता। उसे बताना कि एक व्यापार है या उसे एक एल्गोरिथ्म दे रहा है जो उस पैटर्न को छोड़कर हर चीज में विफल रहता है।
मेहरदाद

17
यकीन है कि मुझे असामान्य लगता है। यह वास्तविक जीवन के आंकड़ों में बहुत कम आएगा, अच्छे कंप्रेशर्स के पैटर्न की तुलना में।
amalloy

17
@ मेहरदाद यह एक नकली पुलिस वाला नहीं है: यह पूरी बात है । किसी भी पैटर्न X के लिए जो केवल उत्पन्न होता है और बस के लिए जाँच की जाती है, वहाँ एक संपीड़न एल्गोरिथ्म है जो उस पैटर्न को देखता है और उसके साथ व्यवहार करता है। तो यह किसी भी प्रश्न का उत्तर है "क्या एक संपीड़न एल्गोरिथ्म है जो ऐसे एक्स के साथ व्यवहार करता है?" ज़रूर, वहाँ हमेशा एक एल्गोरिथ्म है जो थोड़ा और अधिक जटिल पैटर्न के लिए दिखता है। और वहाँ एक है कि एक से थोड़ा अधिक जटिल पैटर्न के लिए लग रहा है, भी, विज्ञापन infinitum । आपकी आपत्ति अशुभ है।
डेविड रिचेर्बी

टिप्पणियाँ विस्तारित चर्चा के लिए नहीं हैं; इस वार्तालाप को बातचीत में स्थानांतरित कर दिया गया है ।
गाइल्स का SO- बुराई पर रोक '22

इस सिद्धांत का एक चरम अनुप्रयोग बिटोरेंट चुंबक लिंक है जहां किसी भी आकार की फ़ाइलों की किसी भी फ़ाइल या संग्रह को केवल एक निश्चित 160 बिट्स डेटा का प्रतिनिधित्व (संपीड़ित) किया जाता है। बेशक एक जोखिम है कि हैश टक्कर हो सकती है।
स्लीबटमैन

17

BWT (बरोज़-व्हीलर ट्रांसफ़ॉर्म) का उपयोग करके कोई भी चीज़ जो कि अच्छी तरह से संपीड़ित करने में सक्षम होना चाहिए।

मेरा त्वरित अजगर परीक्षण:

>>> import gzip
>>> import lzma
>>> import zlib
>>> import bz2
>>> import time
>>> dLen = 16
>>> inputData = '\n'.join('{:0{}b}'.format(x, dLen) for x in range(2**dLen))
>>> inputData[:100]
'0000000000000000\n0000000000000001\n0000000000000010\n0000000000000011\n0000000000000100\n000000000000010'
>>> inputData[-100:]
'111111111111010\n1111111111111011\n1111111111111100\n1111111111111101\n1111111111111110\n1111111111111111'
>>> def bwt(text):
    N = len(text)
    text2 = text * 2
    class K:
        def __init__(self, i):
            self.i = i
        def __lt__(a, b):
            i, j = a.i, b.i
            for k in range(N): # use `range()` in Python 3
                if text2[i+k] < text2[j+k]:
                    return True
                elif text2[i+k] > text2[j+k]:
                    return False
            return False # they're equal

    inorder = sorted(range(N), key=K)
    return "".join(text2[i+N-1] for i in inorder)

>>> class nothing:
    def compress(x):
        return x

>>> class bwt_c:
    def compress(x):
        return bwt(x.decode('latin_1')).encode('latin_1')

>>> for first in ('bwt_c', 'nothing', 'lzma', 'zlib', 'gzip', 'bz2'):
    fTime = -time.process_time()
    fOut = eval(first).compress(inputData)
    fTime += time.process_time()
    print(first, fTime)
    for second in ('nothing', 'lzma', 'zlib', 'gzip', 'bz2'):
        print(first, second, end=' ')
        sTime = -time.process_time()
        sOut = eval(second).compress(fOut)
        sTime += time.process_time()
        print(fTime + sTime, len(sOut))

bwt_c 53.76768319200005
bwt_c nothing 53.767727423000224 1114111
bwt_c lzma 53.83853460699993 2344
bwt_c zlib 53.7767307470001 5930
bwt_c gzip 53.782549449000044 4024
bwt_c bz2 54.15730512699997 237
nothing 6.357100005516259e-05
nothing nothing 0.0001084830000763759 1114111
nothing lzma 0.6671195740000258 27264
nothing zlib 0.05987233699988792 118206
nothing gzip 2.307255977000068 147743
nothing bz2 0.07741139000017938 187906
lzma 0.6767229399999906
lzma nothing 0.6767684639999061 27264
lzma lzma 0.6843232409999018 27324
lzma zlib 0.6774435929999072 27280
lzma gzip 0.6774431810001715 27292
lzma bz2 0.6821310499999527 27741
zlib 0.05984937799985346
zlib nothing 0.05989508399989063 118206
zlib lzma 0.09543156799986718 22800
zlib zlib 0.06264000899977873 24854
zlib gzip 0.0639041649999399 24611
zlib bz2 0.07275534999985211 21283
gzip 2.303239570000187
gzip nothing 2.303286251000145 147743
gzip lzma 2.309592880000082 1312
gzip zlib 2.3042639900002087 2088
gzip gzip 2.304663197000309 1996
gzip bz2 2.344431411000187 1670
bz2 0.07537686600016968
bz2 nothing 0.07542737000017041 187906
bz2 lzma 0.11371452700018381 22940
bz2 zlib 0.0785322910001014 24719
bz2 gzip 0.07945505000020603 24605
bz2 bz2 0.09332576600013454 27138

(यहां नंबर 'First_compressor second_compressor time_taken bytes_out' हैं)

( यहां से लिया गया BWT )

यह अभी भी 'न केवल कुछ बाइट्स' है, लेकिन फिर भी केवल गज़िप की तुलना में बहुत बेहतर है। BWT + bz2 उदाहरण के लिए, 1614-बिट इनपुट के लिए 1114111 से 237 बाइट्स तक नीचे जाता है।

अफसोस, BWT कई अनुप्रयोगों के लिए बहुत धीमी और स्मृति-भूख है। विशेष रूप से यह दिया गया है पायथन में एक भोली कार्यान्वयन है - मेरी मशीन पर मैं 2 ** 20 से पहले रैम से बाहर चलाता हूं।

Pypy के साथ मैं पूर्ण 2 ** 20 इनपुट को चलाने में सक्षम था, और यह bw2 के बाद BWT के साथ इसे 2611 बाइट्स तक संपीड़ित करता है। लेकिन 3 मिनट से अधिक समय लगा और 4GB से अधिक रैम का इस्तेमाल किया ...

दुर्भाग्य से, यह दृष्टिकोण अभी भी ओ (2 ^ एन) आउटपुट स्पेस है, यह दिखाई देगा - कम से कम वक्र-फिटिंग 1..20 से।


आप कर से छुटकारा पा सकते evalहैं: for first in (bwt_c, nothing, lzma, zlib, gzip, bz2):और fOut = first.compress(inputData)
कास्परड

@kasperd - मैं उस मामले में नाम कैसे छापूंगा? व्यक्तिगत रूप से, यह आसान है (और कम त्रुटि-प्रवण) से एक ऐसा करने की तुलना में नाम + संदर्भ को समकालिक रखने की कोशिश करना है।
टीएलडब्ल्यू

5
पहले bwt और फिर bz2 इस चरम रूप से अच्छी तरह से संपीड़ित करता है। यह चरम अजीब व्यवहार है और शायद इस सटीक पैटर्न के कारण। ध्यान दें कि आप दो बार bwt कर रहे हैं (bz2 BWT पर आधारित है) जिसके परिणामस्वरुप खराब संपीड़न होता है। यह भी ध्यान दें कि आज bwt 4 times block sizeस्मृति में चलता है (उदाहरण के लिए ~ 4MB इसके लिए) और गति पर >10 MB/s(मैं इस तरह के bwt पुस्तकालय / संपीड़न एल्गोरिथ्म का लेखक हूं) जो कई अनुप्रयोगों के लिए काफी उपयोगी है। ध्यान दें कि यहां तक ​​कि gzip बहुत अच्छा संपीड़ित परिणाम पैदा करता है। साझा करने के लिए धन्यवाद, मुझे दो बार bwt के उपयोग पर किसी भी शोध के बारे में पता नहीं है।
क्रिस्टोफ़

3
@Christoph - मुझे पता है कि bz2 BWT पर आधारित है ... मैंने वास्तव में 'बस bz2 का उपयोग करने' के प्रभाव का उत्तर लिखना शुरू कर दिया था, लेकिन पाया कि यह लगभग उसी तरह संपीड़ित नहीं हुआ जैसा कि मैंने उम्मीद की थी, 'हुह' ', और यह देखने का फैसला किया कि क्या मेरा अपना बीडब्ल्यूटी बेहतर करेगा। केवल मुझे आउटपुट के लिए एक कंप्रेसर की आवश्यकता थी, और 'जो कुछ होता है उसे देखने के लिए विभिन्न कंप्रेशर्स आज़मा सकता है'।
टीएलडब्ल्यू

1
@ क्रिसटोफ - मैंने एक और रूप लिया। इस डेटा के 2 bwts कुछ ऐसा उत्पन्न करते हैं जो RLE एन्कोडिंग के लिए बेहद सामान्य है । जैसे, यदि आप 0, 1, 2, ... के लिए आवश्यक RLE जोड़े की संख्या की गणना करते हैं, तो 16-बिट इनपुट पर BWTs से नेस्टेड, आपको 622591 1081343 83 मिलता है ...
TLW

10

PNG एन्कोडिंग ठीक वही करती है जो आप चाहते हैं। यह वास्तविक जीवन डेटा पर भी काम करता है, न कि केवल अत्यंत संगठित डेटा पर।

पीएनजी में, प्रत्येक पंक्ति एक फिल्टर के साथ एन्कोडेड है, जिसमें से 4 निर्दिष्ट हैं। इनमें से एक है "इस पिक्सेल को उसके मान और उसके ऊपर पिक्सेल के मूल्य के बीच के अंतर के रूप में एन्कोड करें।" फ़िल्टर करने के बाद, डेटा तब DEFLATE का उपयोग कर zip'd है।

यह फ़िल्टरिंग उनके उत्तर में बायीं ओर लेटैबाउट द्वारा उल्लिखित डेल्टा एन्कोडिंग का एक विशिष्ट उदाहरण है , रन लंबाई एन्कोडिंग के साथ इसका अनुसरण करने के बजाय आप इसे अधिक शक्तिशाली DEFLATE एल्गोरिथम के साथ अनुसरण करते हैं। यह एक ही लक्ष्य को पूरा करता है, केवल डीफ्लाइट वांछित संपीड़न अनुपात प्रदान करते हुए बड़ी मात्रा में इनपुट संभाल लेगा।

एक अन्य उपकरण जो अक्सर वैज्ञानिक डेटा में उपयोग किया जाता है जहां साधारण फ़िल्टर + DEFLATE काफी प्रभावी नहीं होता है वह है RICE एन्कोडिंग। RICE में, आप मानों का एक ब्लॉक लेते हैं और सबसे पहले सभी महत्वपूर्ण-बिट्स को आउटपुट करते हैं, फिर सभी 2-सबसे महत्वपूर्ण-बिट्स, सभी तरह से कम से कम महत्वपूर्ण बिट्स तक। आप फिर परिणाम संपीड़ित करें। आपके डेटा के लिए जो PNG स्टाइल फ़िल्टरिंग के रूप में काफी प्रभावी नहीं होगा (क्योंकि आपका डेटा PNG फ़िल्टरिंग के लिए एकदम सही है ), लेकिन बहुत सारे वैज्ञानिक डेटा के लिए यह अच्छे परिणाम देता है। बहुत सारे वैज्ञानिक आंकड़ों में, हम देखते हैं कि सबसे महत्वपूर्ण बिट धीरे-धीरे बदलता है, जबकि सबसे कम महत्वपूर्ण लगभग यादृच्छिक है। यह अत्यधिक एन्ट्रापिक डेटा से अत्यधिक अनुमानित डेटा को अलग करता है।

0000000000       00000  most significant bits
0000000001       00000
0000000010  =>   00000
0000000011       00000
0000000100       00000
                 00000
                 00000
                 00001
                 00110
                 01010 least significant bits

5

विशिष्ट संरचनाओं की खोज करने वाला कोई भी व्यावहारिक एल्गोरिदम केवल उन संरचनाओं तक सीमित होगा जो इसमें हार्ड-कोडेड हैं। आप इस विशिष्ट अनुक्रम को पहचानने के लिए 7z पैच कर सकते हैं, लेकिन वास्तविक जीवन में यह विशिष्ट संरचना कितनी बार होने वाली है? इस इनपुट के इनपुट की जांच करने में लगने वाले समय को अक्सर वारंट करना पर्याप्त नहीं है।

एक तरफ व्यावहारिकता, एक आदर्श एल्गोरिथ्म के रूप में एक सही कंप्रेसर की कल्पना कर सकता है जो एक दिए गए आउटपुट का निर्माण करने वाले सबसे कम कार्यक्रम का निर्माण करने की कोशिश करता है। कहने की जरूरत नहीं है, ऐसा करने के कोई व्यावहारिक तरीके नहीं हैं। यहां तक ​​कि अगर आपने सभी संभावित कार्यक्रमों की एक क्रूर बल गणना की कोशिश की और जांच की कि क्या उन्होंने वांछित आउटपुट ( पूरी तरह से पागल विचार नहीं ) का उत्पादन किया है , तो आप हॉल्टिंग समस्या में भाग लेंगे , जिसका अर्थ है कि आपको एक निश्चित संख्या के बाद परीक्षण रन रोकना होगा। निष्पादन चरणों का, इससे पहले कि आप जानते हैं कि क्या यह कार्यक्रम निश्चित रूप से वांछित उत्पादन नहीं कर सकता है।

इस तरह के एक जानवर-बल दृष्टिकोण के लिए खोज पेड़ कार्यक्रम की लंबाई के साथ तेजी से बढ़ता है और सभी के लिए व्यावहारिक नहीं है, लेकिन सरलतम कार्यक्रम (5-7 निर्देश लंबे जैसे कुछ)।


n

1
nnn+1n1

खैर, मेथेमेटिका जैसे उपकरणों के लिए काम करता है खोजने के कई दृश्यों ...
राफेल

3

संपीड़न अनुपात पूरी तरह से लक्षित डीकंप्रेसर पर निर्भर करता है। यदि डिकम्प्रेसर क्रमिक 4 बाइट संख्याओं को 4 बाइट्स प्रति संख्या से अधिक कॉम्पैक्ट रूप से डिकोड नहीं कर सकता है, तो आप एसओएल हैं।

विभिन्न चीजें हैं जो अनुक्रमिक संख्याओं की एन्कोडिंग की अनुमति देती हैं। उदाहरण के लिए एक अंतर एन्कोडिंग। आप एक बार में n बाइट लेते हैं और फिर अंतर या बिट्स के xor लेते हैं और फिर परिणाम को संपीड़ित करते हैं। यह हर बाइट गिनती के लिए प्रयास करने के लिए यहां 4 विकल्प जोड़ता है: पहचान a'[i] = a[i]; अंतर a'[i] = a[i-1]-a[i]; रिवर्स अंतर a'[i] = a[i]-a[i-1]; और xor a'[i] = a[i]^a[i-1]। इसका मतलब है कि तरीकों का चयन करने के लिए 2 बिट्स जोड़ना और 4 विकल्पों में से 3 के लिए एक बाइट गिनती।

हालांकि सभी डेटा निश्चित-लंबाई रिकॉर्ड का एक अनुक्रम नहीं है। अंतर एन्कोडिंग उस के लिए कोई मतलब नहीं है (जब तक कि कंप्रेसर अनुभवजन्य रूप से साबित नहीं कर सकता है कि यह थोड़ा डेटा के लिए काम करता है)।

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.