मान लें कि हम सरल f = x * y
डीप न्यूरल नेटवर्क का उपयोग करके सरलता के लिए प्रतिगमन करना चाहते हैं ।
मुझे याद है कि ऐसे पुनर्विक्रेता हैं जो बताते हैं कि एनएन एक हीडेन परत के साथ किसी भी फ़ंक्शन को लगभग कर सकता है, लेकिन मैंने कोशिश की है और सामान्यीकरण के बिना एनएन इस सरल गुणन में भी अनुमानित नहीं था। केवल लॉग-डेटा के सामान्यीकरण में मदद मिली m = x*y => ln(m) = ln(x) + ln(y).
लेकिन यह एक धोखा की तरह दिखता है। क्या एनएन बिना लॉग-नॉर्मलाइजेशन के ऐसा कर सकता है? अनवर्स स्पष्ट रूप से (मेरे लिए) है - हां, इसलिए यह सवाल अधिक है कि ऐसे एनएन का टाइप / कॉन्फ़िगरेशन / लेआउट क्या होना चाहिए?