जैसा कि सेल्वाराजू एट अल ने तर्क दिया था । , एआई विकास के तीन चरण हैं, जिनमें से सभी व्याख्यात्मकता सहायक है।
एआई विकास के शुरुआती चरणों में, जब एआई मानव प्रदर्शन से कमजोर है, पारदर्शिता हमें बेहतर मॉडल बनाने में मदद कर सकती है । यह एक बेहतर समझ दे सकता है कि एक मॉडल कैसे काम करता है और हमें कई महत्वपूर्ण सवालों के जवाब देने में मदद करता है। उदाहरण के लिए क्यों एक मॉडल कुछ मामलों में काम करता है और दूसरों में नहीं, क्यों कुछ उदाहरण दूसरों की तुलना में मॉडल को भ्रमित करते हैं, इस प्रकार के मॉडल काम क्यों करते हैं और अन्य नहीं करते हैं, आदि।
जब एआई मानव प्रदर्शन के साथ बराबरी पर है और एमएल मॉडल कई उद्योगों में तैनात होने लगे हैं, तो यह इन मॉडलों के लिए विश्वास बनाने में मदद कर सकता है । मैं बाद में इस पर थोड़ा विस्तार करूंगा, क्योंकि मुझे लगता है कि यह सबसे महत्वपूर्ण कारण है।
जब एआई मनुष्यों को बेहतर ढंग से समझाता है (जैसे एआई शतरंज या गो खेलना), तो यह मशीन शिक्षण (यानी उस विशिष्ट कार्य पर मानव प्रदर्शन को बेहतर बनाने के लिए मशीन से सीखने ) के साथ मदद कर सकता है ।
विश्वास इतना महत्वपूर्ण क्यों है?
सबसे पहले, मैं आपको उन उद्योगों के कुछ उदाहरण देता हूं जहां विश्वास सर्वोपरि है:
स्वास्थ्य सेवा में, एक विशिष्ट बीमारी के लिए एक डीप न्यूरल नेट प्रदर्शन निदान की कल्पना करें। एक क्लासिक ब्लैक बॉक्स एनएन सिर्फ एक बाइनरी "हाँ" या "नो" आउटपुट करेगा। यहां तक कि अगर यह मनुष्यों की सरासर भविष्यवाणी में बेहतर प्रदर्शन कर सकता है, तो यह व्यवहार में बिल्कुल बेकार होगा। क्या होगा अगर डॉक्टर मॉडल के मूल्यांकन से असहमत है, तो क्या उसे पता नहीं होना चाहिए कि मॉडल ने यह भविष्यवाणी क्यों की है; शायद यह देखा कि कुछ डॉक्टर को याद किया। इसके अलावा, अगर इसने एक गलत निदान किया (जैसे एक बीमार व्यक्ति को स्वस्थ के रूप में वर्गीकृत किया गया था और उसे उचित उपचार नहीं मिला था), तो कौन जिम्मेदारी लेगा: मॉडल का उपयोगकर्ता? अस्पताल? मॉडल तैयार करने वाली कंपनी इसके आसपास का कानूनी ढांचा थोड़ा धुंधला है।
एक अन्य उदाहरण सेल्फ ड्राइविंग कार है। एक ही सवाल उठता है: अगर कोई कार दुर्घटनाग्रस्त हो जाती है तो इसका दोष क्या है: चालक का? कार निर्माता की? कंपनी है कि AI डिजाइन किया है? कानूनी जवाबदेही, इस उद्योग के विकास के लिए महत्वपूर्ण है।
वास्तव में, यह विश्वास की कमी है, कई के अनुसार कई क्षेत्रों में एआई को अपनाने में बाधा है (स्रोत: 1 , 2 , 3 )। जबकि एक चल रही परिकल्पना है कि अधिक पारदर्शी, व्याख्यात्मक या व्याख्या करने योग्य प्रणालियों के साथ उपयोगकर्ता बेहतर तरीके से समझने के लिए सुसज्जित होंगे और इसलिए बुद्धिमान एजेंटों (स्रोतों: 1 , 2 , 3 ) पर भरोसा करते हैं ।
कई वास्तविक दुनिया अनुप्रयोगों में आप बस यह नहीं कह सकते हैं कि "यह समय का 94% काम करता है"। आपको एक औचित्य प्रदान करने की भी आवश्यकता हो सकती है ...
सरकारी नियमावली
कई सरकारें धीरे-धीरे एआई को विनियमित करने के लिए आगे बढ़ रही हैं और पारदर्शिता इस सब के केंद्र में है।
इस दिशा में कदम रखने वाला पहला ईयू है, जिसने कई दिशा-निर्देश तय किए हैं जहां वे कहते हैं कि एआई पारदर्शी होना चाहिए (स्रोत: 1 , 2 , 3 )। उदाहरण के लिए जीडीपीआर कहता है कि यदि किसी व्यक्ति का डेटा "स्वचालित निर्णय लेने" या "रूपरेखा" प्रणालियों के अधीन है, तो उसे एक्सेस करने का अधिकार है
"तर्क के बारे में सार्थक जानकारी शामिल"
( अनुच्छेद 15, यूरोपीय संघ GDPR )
अब यह थोड़ा धुंधला है, लेकिन स्पष्ट रूप से इन प्रणालियों से स्पष्टीकरण के कुछ रूप की आवश्यकता का इरादा है। यूरोपीय संघ को पारित करने का सामान्य विचार यह है कि "यदि आपके पास लोगों के जीवन को प्रभावित करने वाली स्वचालित निर्णय प्रणाली है तो उन्हें यह जानने का अधिकार है कि एक निश्चित निर्णय क्यों किया गया है।" उदाहरण के लिए एक बैंक के पास ऋण आवेदनों को स्वीकार करने और गिराने वाला एआई है, तो आवेदकों को यह जानने का अधिकार है कि उनके आवेदन को अस्वीकार क्यों किया गया।
सारांश में...
व्याख्या करने योग्य AI आवश्यक हैं क्योंकि:
- यह हमें एक बेहतर समझ प्रदान करता है, जो हमें उन्हें बेहतर बनाने में मदद करता है।
- कुछ मामलों में हम एआई से सीख सकते हैं कि कुछ कार्यों में बेहतर निर्णय कैसे लें।
- यह उपयोगकर्ताओं को एआई पर भरोसा करने में मदद करता है , जो एआई को व्यापक रूप से अपनाता है।
- भविष्य में (दूर नहीं) में तैनात एआईएस को अधिक "पारदर्शी" होने की आवश्यकता हो सकती है।