PyTorch और Tensorflow Fold दोनों ही गहन शिक्षण ढाँचे हैं जो उन स्थितियों से निपटने के लिए हैं जहाँ इनपुट डेटा में गैर-समान लंबाई या आयाम हैं (यानी, ऐसी स्थितियाँ जहाँ डायनेमिक ग्राफ़ उपयोगी या आवश्यक हैं)।
मैं जानना चाहूंगा कि वे किस तरह की तुलना करते हैं, प्रतिमानों के अर्थ में वे (जैसे गतिशील बैचिंग) और उनके निहितार्थ, हर एक में उन चीजों को लागू किया जा सकता है, जिन्हें लागू नहीं किया जा सकता है, कमजोरी / ताकत, आदि।
मैं इस जानकारी का उपयोग करने के लिए उनमें से एक को चुनने के लिए गतिशील कम्प्यूटेशन ग्राफ़ की खोज शुरू करने का इरादा रखता हूं, लेकिन मेरे पास कोई विशिष्ट कार्य नहीं है।
नोट 1: DyNet या Chainer जैसे अन्य गतिशील संगणना ग्राफ फ्रेमवर्क की तुलना में भी स्वागत है, लेकिन मैं PyTorch और Tensorflow Fold पर ध्यान केंद्रित करना चाहूंगा क्योंकि मुझे लगता है कि वे / सबसे अधिक उपयोग किए जाने वाले हैं।
नोट 2: मैंने कुछ हैक जानकारी के साथ PyTorch पर इस हैकर्न्यूज़ थ्रेड को पाया है , लेकिन ज्यादा नहीं।
नोट 3: Tensorflow Fold के बारे में एक और प्रासंगिक हैकर्न्यूज़ थ्रेड , जिसमें उनकी तुलना के बारे में कुछ जानकारी है।
नोट 4: प्रासंगिक Reddit धागा ।
नोट 5: टेन्सरफ्लो फोल्ड के गीथब में प्रासंगिक बग जो एक महत्वपूर्ण सीमा की पहचान करता है: मूल्यांकन के दौरान सशर्त शाखाओं में बंटने की असंभवता ।
नोट 6: उपयोग किए गए एल्गोरिदम (जैसे डायनेमिक बैचिंग) के संबंध में चर लंबाई इनपुट के बारे में पाइटोरेक फोरम पर चर्चा ।