मैं केरस में साझा परतों को लागू करने की कोशिश कर रहा हूं। मैं देख रहा हूं कि केरस के पास है keras.layers.concatenate
, लेकिन मैं इसके उपयोग के बारे में प्रलेखन से अनिश्चित हूं। क्या मैं इसे कई साझा परतों को बनाने के लिए उपयोग कर सकता हूं? एक सरल साझा तंत्रिका नेटवर्क को लागू करने का सबसे अच्छा तरीका क्या होगा जैसा कि केरस का उपयोग करके नीचे दिखाया गया है?
ध्यान दें कि सभी 3 एनएन के लिए इनपुट, आउटपुट और साझा परतों के सभी आकार समान हैं। तीन एनएन में कई साझा परतें (और गैर-साझा परतें) हैं। रंगीन परतें प्रत्येक एनएन के लिए अद्वितीय होती हैं, और उनका आकार समान होता है।
असल में, यह आंकड़ा कई साझा छिपी हुई परतों के साथ 3 समान एनएन का प्रतिनिधित्व करता है, इसके बाद कई गैर-साझा छिपी हुई परतें होती हैं।
मैं अनिश्चित हूं कि ट्विटर के उदाहरण में कई परतों को कैसे साझा किया जाए, बस एक साझा परत थी (एपीआई डॉक्टर में उदाहरण)।
model.fit([data1, data2], [labels1, labels2])
, तो इसे एकल मॉडल के रूप में प्रशिक्षित किया जाएगा (बैक प्रचार), है ना?