मैं पायथन, स्किट-लर्न और केरस के साथ काम कर रहा हूं। मेरे पास सामने वाले घड़ियों की 3000 हज़ार छवियां हैं जैसे निम्नलिखित: Watch_1 , Watch_2 , Watch_3 ।
मैं एक प्रोग्राम लिखना चाहता हूं जो एक इनपुट के रूप में प्राप्त होता है जो वास्तविक घड़ी की एक तस्वीर है जो शायद ऊपर की तस्वीरों (अलग-अलग पृष्ठभूमि का रंग, गहरा बिजली आदि) की तुलना में कम आदर्श परिस्थितियों में लिया गया है और 3000 लोगों के बीच सबसे अधिक समान घड़ियों को ढूंढता है। समानता से मेरा मतलब है कि अगर मैं एक इनपुट के रूप में गोल, भूरे रंग की घड़ी पतली फीता के साथ देता हूं, तो मुझे गोल आकार की उत्पादन घड़ियों के रूप में, गहरे रंग के और पतली फीता के साथ उम्मीद है।
ऐसा करने के लिए सबसे कुशल मशीन लर्निंग एल्गोरिदम क्या है?
उदाहरण के लिए, इस लिंक का अनुसरण करके मेरे मन में दो अलग-अलग समाधान हैं:
1) एक सीएनएन को फीचर एक्सट्रैक्टर के रूप में उपयोग करना और इनपुट इमेज के संदर्भ में प्रत्येक जोड़ी छवियों के लिए इन सुविधाओं के बीच की दूरी की तुलना करना।
2) छवियों की तुलना करने के लिए एक सियामी तंत्रिका नेटवर्क में दो सीएनएन का उपयोग करना।
क्या ये दो विकल्प इस कार्य के लिए सबसे अच्छे हैं या आप कुछ और सुझाव देंगे?
क्या आप इस कार्य के लिए किसी पूर्व-प्रशिक्षित तंत्रिका नेटवर्क (पूर्व-निर्धारित हाइपरपामेटर्स के साथ) को जानते हैं?
मुझे इस बारे में StackOverflow पर कुछ दिलचस्प पोस्ट मिली हैं, लेकिन वे बहुत पुराने हैं: Post_1 , Post_2 , Post_3 ।