मैं कुछ समय के लिए एक परियोजना पर काम कर रहा हूं, यूएवी से कैप्चर किए गए वीडियो में वाहनों का पता लगाने और ट्रैक करने के लिए, वर्तमान में मैं वाहन और पृष्ठभूमि छवियों से निकाले गए स्थानीय विशेषताओं के बैग-ऑफ-फ़ीचर प्रतिनिधित्व पर प्रशिक्षित एसवीएम का उपयोग कर रहा हूं। मैं तब एक स्लाइडिंग विंडो डिटेक्शन एप्रोच का उपयोग कर रहा हूँ और कोशिश कर रहा हूँ कि वाहनों में वाहनों को स्थानीयकृत करूं, जिन्हें मैं ट्रैक करना चाहूंगा। समस्या यह है कि यह दृष्टिकोण धीमी गति से दूर है और मेरा डिटेक्टर उतना विश्वसनीय नहीं है क्योंकि मैं चाहूंगा कि मुझे बहुत कुछ गलत सकारात्मक मिल रहा है।
इसलिए मैं अपने क्लासिफायर को लागू करने से पहले खोज स्थान को कम करने के लिए पृष्ठभूमि से कारों को खंडित करने की कोशिश कर रहा हूं ताकि अनुमानित स्थान मिल सके, लेकिन मुझे यकीन नहीं है कि इस बारे में कैसे जाना चाहिए, और उम्मीद थी कि कोई मदद कर सकता है?
इसके अतिरिक्त, मैं परतों के साथ गति विभाजन के बारे में पढ़ रहा हूं, फ्लो मॉडल द्वारा फ्रेम को खंडित करने के लिए ऑप्टिकल प्रवाह का उपयोग करता है, क्या किसी को इस पद्धति के साथ कोई अनुभव है, यदि आप कुछ इनपुट की पेशकश कर सकते हैं जैसे कि क्या आपको लगता है कि यह विधि के लिए लागू होगी। मेरी समस्या।
अद्यतन : मैंने इस सवाल को स्टैक ओवरफ्लो पर भी पोस्ट किया है, और इसका एक उत्कृष्ट उत्तर था , मैंने इस विचार को पहले ही लागू कर दिया है और यह इस तकनीक के अतिरिक्त ऑप्टिकल प्रवाह का उपयोग करके अब अच्छी तरह से जांच कर रहा है।
नीचे एक नमूना वीडियो से दो फ्रेम हैं