नई Adhockeries
हाल के वर्षों में किसी भी जुड़े सैद्धांतिक सिद्धांतों के लिए अपील करने के बजाय सहज उपकरणों का आविष्कार करने की रूढ़िवादी आदत को इस तरह से नई समस्याओं के लिए बढ़ा दिया गया है जिससे यह पहली बार में प्रकट होता है कि विज्ञान के कई नए क्षेत्रों का निर्माण हुआ है। फिर भी इन सभी का संबंध अधूरी जानकारी से है; और हम मानते हैं कि हमारे पास उस संभाव्यता सिद्धांत को स्थापित करने का सिद्धांत है क्योंकि तर्क ऐसी सभी समस्याओं से निपटने का सामान्य साधन है। हम तीन उदाहरणों पर ध्यान देते हैं।
फजी सेट हैं - काफी स्पष्ट रूप से, बायेसियन इनवेंशन में प्रशिक्षित किसी को भी - बायसियन पूर्व संभावित संभावनाओं को कच्चे सन्निकटन। वे केवल इसलिए बनाए गए थे क्योंकि उनके चिकित्सकों ने प्रकृति में मौजूद "यादृच्छिकता" के संदर्भ में संभावना के बारे में सोचा था लेकिन कभी भी अच्छी तरह से परिभाषित नहीं किया गया था; और इसलिए निष्कर्ष निकाला कि संभावना सिद्धांत ऐसी समस्याओं पर लागू नहीं है। जैसे ही कोई संभावना को अपूर्ण जानकारी निर्दिष्ट करने के सामान्य तरीके के रूप में पहचानता है , फ़ज़ी सेट को पेश करने का कारण गायब हो जाता है।
इसी तरह, आर्टिफिशियल इंटेलिजेंस (एआई) में से अधिकांश अधूरी जानकारी से तर्क करने के लिए सहज उपकरणों का एक संग्रह है, जो रूढ़िवादी आंकड़ों के पुराने लोगों की तरह, बेयसियन तरीकों के लिए सन्निकटन हैं और समस्याओं के कुछ प्रतिबंधित वर्ग में प्रयोग करने योग्य हैं; लेकिन जब हम उस वर्ग के बाहर की समस्याओं के लिए उन्हें लागू करने का प्रयास करते हैं तो कौन से बेतुके निष्कर्ष निकलते हैं। फिर से, इसके चिकित्सकों को केवल इसलिए पकड़ा जाता है क्योंकि वे अपूर्ण जानकारी के बजाय एक भौतिक "यादृच्छिकता" का प्रतिनिधित्व करने की संभावना के बारे में सोचते रहते हैं। बेइज़ियन निष्कर्ष में उन सभी परिणामों को स्वचालित रूप से समाहित किया गया है - और बल्कि तुच्छ रूप से - बिना किसी सीमित समस्याओं के किसी सीमा तक।
महान नया विकास न्यूरल नेट्स है, जिसका अर्थ है कि अद्भुत नई संपत्ति के साथ एल्गोरिदम की एक प्रणाली, जो मानव मस्तिष्क की तरह है, अनुकूली ताकि वे पिछली त्रुटियों से सीख सकें और स्वचालित रूप से अपने आप को सही कर सकें (वाह! यह एक महान नया विचार है!) । वास्तव में, हम यह देखकर आश्चर्यचकित नहीं हैं कि तंत्रिका जाल वास्तव में कई अनुप्रयोगों में अत्यधिक उपयोगी हैं; फ़ज़ी सेट या एआई से अधिक। हालांकि, वर्तमान तंत्रिका जाल में दो व्यावहारिक कमियां हैं; (ए) वे वर्तमान इनपुट के साथ-साथ पिछले प्रशिक्षण की जानकारी से निर्धारित आउटपुट प्राप्त करते हैं। यह आउटपुट वास्तव में एक अनुमान हैहाथ पर सभी जानकारी के आधार पर उचित प्रतिक्रिया, लेकिन यह इसकी सटीकता का कोई संकेत नहीं देता है, और इसलिए यह हमें यह नहीं बताता है कि हम लक्ष्य के कितने करीब हैं (यानी, प्रशिक्षण की कितनी आवश्यकता है); (बी) जब नॉनलाइनियर प्रतिक्रिया के लिए कहा जाता है, तो एक आंतरिक रूप से संग्रहीत मानक "सिग्मॉइड" नॉनलाइनियर फ़ंक्शन के लिए अपील करता है, जो कि कुछ आयामों के साथ और कुछ हद तक, सच्चे नॉनएयर फ़ंक्शन के लिए रैखिक आयाम बनाए जा सकते हैं। (नोट: जोर मेरा)
लेकिन, क्या हमें वास्तव में यह इंगित करने की आवश्यकता है कि (1) कोई भी प्रक्रिया जो अनुकूली है, परिभाषा के अनुसार, अपूर्ण जानकारी को ध्यान में रखने का एक साधन है; (२) बेयस प्रमेय ठीक सभी अनुकूली प्रक्रियाओं की जननी है; नई जानकारी लेने के लिए ज्ञान के किसी भी राज्य को अपडेट करने का सामान्य नियम; (३) जब इन समस्याओं को बायेसियन शब्दों में तैयार किया जाता है, तो एक एकल गणना स्वचालित रूप से सबसे अच्छा अनुमान और इसकी सटीकता दोनों प्राप्त करती है; (४) यदि अशुद्धता के लिए कहा जाता है, तो बेयस प्रमेय स्वचालित रूप से समस्या के लिए बुलाए गए सटीक nonlinear फ़ंक्शन को उत्पन्न करता है, बजाय इसके कि किसी अन्य तदर्थ उपकरण द्वारा इसके निर्माण की कोशिश की जाए ।
दूसरे शब्दों में, हम तर्क देते हैं कि ये नए क्षेत्र नहीं हैं; केवल झूठी शुरुआत होती है। यदि कोई मानक बेयसियन प्रिस्क्रिप्शन द्वारा ऐसी सभी समस्याओं का निर्माण करता है, तो किसी को स्वचालित रूप से उनके सभी उपयोगी परिणाम बेहतर रूप में मिलते हैं। लोगों को यह समझने में जो मुश्किलें होती हैं, वे सभी एक ही विफलता के उदाहरण हैं जो अमूर्त गणित और वास्तविक दुनिया के बीच के संबंध को अवधारणा बनाते हैं। जैसे ही हम समझते हैं कि संभाव्यता वास्तविकता का वर्णन नहीं करती है - केवल वास्तविकता के बारे में हमारी जानकारी - उस जानकारी से तर्क की समस्याओं के इष्टतम समाधान के लिए द्वार व्यापक हैं।