एआई को विकसित करने से क्या उद्देश्य होगा जो मानव जैसी भावनाओं का अनुभव करता है?


19

एक में हाल ही में वाल स्ट्रीट जर्नल लेख , यान LeCunn निम्नलिखित बयान करता है:

मानव-स्तर एआई को प्राप्त करने में अगला कदम बुद्धिमानी पैदा कर रहा है - लेकिन स्वायत्तता-मशीनें नहीं। आपकी कार में मौजूद AI सिस्टम आपको सुरक्षित रूप से घर पहुंचा देगा, लेकिन आपके अंदर जाते ही एक और गंतव्य का चयन नहीं करेगा। वहां से, हम भावनाओं और नैतिक मूल्यों के साथ, मूल ड्राइव जोड़ेंगे। यदि हम ऐसी मशीनें बनाते हैं जो हमारे दिमाग के साथ-साथ सीखते हैं, तो यह कल्पना करना आसान है कि उनमें मानव जैसे गुण हैं - और दोष।

निजी तौर पर, मैंने आमतौर पर यह स्थिति ली है कि कृत्रिम बुद्धिमत्ता के लिए भावनाओं के बारे में बात करना मूर्खतापूर्ण है, क्योंकि एआई के अनुभव का कोई कारण नहीं होगा कि भावनाओं का निर्माण किया जाए। जाहिर है कि यान असहमत है। तो सवाल यह है कि ऐसा करने से क्या अंत होगा? क्या एक AI को एक उपयोगी उपकरण के रूप में सेवा करने के लिए भावनाओं की आवश्यकता होती है?


1
संभावित डुप्लिकेट क्यों कोई एआई के भीतर भावनात्मक निराशा-निर्माण का अनुकरण करना चाहेगा? स्वीकृत उत्तर ("मेह, यह एआई कार्यक्रमों को बनाए रखने के लिए मानव प्रोग्रामर के लिए सिर्फ आसान होगा।") रोमांचक या अद्भुत नहीं हो सकता है, लेकिन कम से कम यह अर्ध-समझदार और उचित लगता है।
लेफ्ट एसई 10_6_19

वहाँ भी एक वैकल्पिक संभावना है: हम जरूरी नहीं कि एआई को विकसित करना चाहते हैं जो मानव जैसी भावनाओं का अनुभव करते हैं (क्योंकि तब वे अप्रत्याशित होंगे, हमें उन्हें अधिकार देना होगा, ब्ला ब्ला ब्ला), लेकिन यह अधिक उन्नत एआई तकनीक (जैसे गहरी सीख) अनजाने में एआई को विकसित करेंगे जो मानव जैसी भावनाओं का अनुभव करते हैं। ऐसा नहीं है कि हम उन्हें चाहते हैं, यह है कि वे वैसे भी आ सकते हैं। क्या कृत्रिम सुदृढीकरण-शिक्षण एजेंट नैतिक रूप से बात करते हैं? इस संभावना पर चर्चा करता है।
बाएं एसई 10_6_19

जवाबों:


11

इस प्रश्न का उत्तर, इस बोर्ड में कई के विपरीत, मुझे लगता है कि निश्चित है। नहीं, हमें AI के उपयोगी होने के लिए भावना की आवश्यकता नहीं है , क्योंकि हम AI की कई राशि से देख सकते हैं जो हमारे पास पहले से ही उपयोगी हैं।

लेकिन सवाल को आगे बढ़ाने के लिए, हम वास्तव में एआई की भावनाओं को नहीं दे सकते । मुझे लगता है कि हम जितना करीब हो सकते हैं, 'क्या हम इस एआई को एक तरह से इंसान बना सकते हैं अगर वह इंसान होता insert emotion?'। मुझे लगता है कि एक भावना है, लेकिन यह एक पूरी चर्चा है।

और किस अंत तक? वीडियो गेम या अन्य मनोरंजन के प्रयोजनों के लिए दिमाग में आने वाला एकमात्र तात्कालिक कारण अधिक आजीवन साथी या इंटरैक्शन बनाना होगा। एक उचित लक्ष्य,
लेकिन आवश्यक से बहुत दूर। यहां तक ​​कि कुछ इमारत की लॉबी में AI-imbued ग्रीटिंग रोबोट को देखते हुए, हम शायद केवल यही चाहते हैं कि यह सौहार्दपूर्ण कार्य करे।

यन का कहना है कि सुपर एडवांस AI से इंसानों जैसे गुण और खामियां पैदा होंगी। मुझे लगता है कि यह अधिक है जैसे कि यह 'हमारे एआई को अधिक मानवीय-जैसे गुण देगा या दूसरे शब्दों में दोष देगा'। दुखी या क्रोधित होने पर लोगों को तर्कहीन तरीके से काम करने की प्रवृत्ति होती है और अधिकांश भाग के लिए हम केवल तर्कसंगत एआई चाहते हैं।
जब तक वे कहते हैं, तब तक मानवीय है।

एअर इंडिया और लर्निंग एल्गोरिदम का उद्देश्य ऐसे सिस्टम बनाना है जो मनुष्यों की तरह काम करते हैं या 'सोचते हैं', लेकिन बेहतर है। ऐसे सिस्टम जो अनुकूल या विकसित हो सकते हैं, जबकि जितना संभव हो उतना कम गड़बड़ कर सकते हैं। Emotive AI में उपयोग हैं, लेकिन यह निश्चित रूप से एक उपयोगी प्रणाली के लिए एक शर्त नहीं है।


5

मुझे लगता है कि मूल प्रश्न यह है: एआई बनाने का प्रयास क्यों? यदि वह उद्देश्य स्पष्ट है, तो यह स्पष्ट करेगा कि एआई में भावनात्मक भागफल का कोई अर्थ है या नहीं। "पारो" जैसे कुछ प्रयास जो चिकित्सीय कारणों से विकसित किए गए थे, उन्हें कुछ मानव जैसे भावनाओं का प्रदर्शन करने की आवश्यकता होती है। फिर, ध्यान दें कि "भावनाओं को प्रदर्शित करना" और "भावनाओं को प्रदर्शित करना" दो पूरी तरह से अलग चीजें हैं।

आप सहानुभूति, स्नेह, साहचर्य, या जो कुछ भी व्यक्त करने के लिए वॉइस टोन या फेशियल ट्वाइट्स को मॉड्यूलेट करने के लिए पैरो जैसी चीज को प्रोग्राम कर सकते हैं - लेकिन ऐसा करते समय, एक पारो अपने मालिक के साथ सहानुभूति नहीं रखता है - यह केवल शारीरिक अभिव्यक्तियों का प्रदर्शन करके इसे पूरा करता है। एक भावना की। यह कभी भी "महसूस" नहीं करता है कि मानव मस्तिष्क में जो भावनाएं पैदा होती हैं, उसके करीब कुछ भी नहीं।

तो यह भेद वास्तव में महत्वपूर्ण है। आपको कुछ महसूस करने के लिए, एक स्वतंत्र स्वायत्त विषय होना चाहिए जो महसूस करने की क्षमता रखता हो। बाहरी मानव एजेंट द्वारा महसूस नहीं किया जा सकता है।

तो यह इस सवाल पर वापस जाता है कि यह किस उद्देश्य से हल करता है - उत्तर वास्तव में है - यह निर्भर करता है। और सबसे अधिक मुझे लगता है कि हम सिलिकॉन आधारित एआई के साथ कभी भी हासिल करेंगे भावनाओं का सिर्फ भौतिक प्रतिनिधित्व करते हैं।


मैं सहमत हूं। और शायद मेरी सोच सिर्फ बहुत सीमित है, लेकिन एआई के अधिकांश अनुप्रयोगों के बारे में जो मैं सोचता हूं, एआई को भावनाओं से लाभ नहीं होगा। अच्छा, कम से कम मुझे तो ऐसा लगता है, अब यहाँ बैठे हैं। शायद मैं एक दिन वापस देखूंगा और महसूस करूंगा कि मैं गलत था।
माइंडक्राइम

यह आवश्यक है कि एआई को भावनाओं का होना चाहिए / एक गलत उम्मीद है। एआई मूल रूप से औजारों का एक समूह है, और इसके आवेदन को जरूरतों के आधार पर भी तय किया जाना चाहिए। कुछ उपयोग मामलों में भावनात्मक पहलू की आवश्यकता हो सकती है, कुछ नहीं। कौन जाने!
किंग्ज़

4

मुझे लगता है कि एआई एजेंट को उपयोगी बनाने के लिए भावनाएं आवश्यक नहीं हैं। लेकिन मुझे यह भी लगता है कि वे एजेंट को काम करने के लिए अधिक सुखद बना सकते हैं। यदि आप जिस बॉट के साथ बात कर रहे हैं वह आपकी भावनाओं को पढ़ सकता है और रचनात्मक रूप से प्रतिक्रिया दे सकता है, तो इसके साथ बातचीत करने का अनुभव बहुत अधिक सुखद होगा, शायद शानदार।

अपने बिल या उत्पाद के बारे में शिकायत के साथ आज एक मानव कॉल सेंटर प्रतिनिधि से संपर्क करने की कल्पना करें। आप संघर्ष की आशा करते हैं। आपने यह भी तय नहीं किया होगा कि आप फोन न करें क्योंकि आप जानते हैं कि यह अनुभव दर्दनाक, या तो जुझारू या निराश करने वाला है, क्योंकि कोई व्यक्ति गलत कहता है कि आप क्या कहते हैं या शत्रुतापूर्ण या मूर्खतापूर्ण प्रतिक्रिया देते हैं।

अब कल्पना कीजिए कि आप अब तक मिले कमांडर डेटा - सबसे चतुर ग्राहक सहायता व्यक्ति को कॉल करें - जिसका एकमात्र कारण मौजूदा के लिए इस फोन कॉल को आपके लिए सुखद और उत्पादक बनाना संभव है। अधिकांश कॉल प्रतिनिधि पर एक बड़ा सुधार, हाँ? कल्पना कीजिए कि अगर कॉल रेप डेटा आपके मूड का अनुमान लगा सकता है और आपकी भावनात्मक स्थिति को खराब करने के लिए आपकी शिकायतों का उचित जवाब दे सकता है ... तो आप इस लड़के से शादी करना चाहेंगे। जब भी आप नीले या ऊब महसूस कर रहे थे या आप कुछ खुश खबरों को साझा करना चाहते थे, तो आप कभी भी कॉल प्रतिनिधि कॉल कर सकते हैं। यह आदमी रातोंरात आपका सबसे अच्छा दोस्त बन जाएगा - सचमुच पहली कॉल पर प्यार।

मुझे यकीन है कि यह परिदृश्य वैध है। मैंने अपने आप को "आई रोबोट" से डेटा या सन्नी जैसे पात्रों के लिए एक आश्चर्यजनक मात्रा में देखा है। आवाज बहुत सुखदायक है और मुझे तुरंत आराम से रखती है। अगर बॉट बहुत स्मार्ट, धैर्यवान, ज्ञानवान और समझदार भी होता ... मैं वास्तव में ऐसे बॉट को सोचता हूं, जो भावनात्मक बुद्धिमत्ता की एक स्वस्थ खुराक के साथ गले लगाता है, उसके साथ बातचीत करने के लिए बहुत सुखद हो सकता है। मेरे जानने वाले किसी भी व्यक्ति की तुलना में बहुत अधिक पुरस्कृत। और मुझे लगता है कि यह सिर्फ मेरे लिए ही सच है।

तो हाँ, मुझे लगता है कि भावनाओं और भावनात्मक जागरूकता का उपयोग करके रोबोट के व्यक्तित्व को ट्यून करने में बहुत महत्व है।


4

एक AI में भावना उपयोगी है, लेकिन आपके उद्देश्य के आधार पर आवश्यक नहीं है (ज्यादातर मामलों में, यह नहीं है)।

विशेष रूप से, भावना मान्यता / विश्लेषण बहुत अच्छी तरह से उन्नत है, और यह ऑटिस्टिक बच्चों के लिए रोबोट शिक्षक से (व्यक्तिगत विकास एजेंटों को देखें) जुआ (पोकर) के लिए व्यक्तिगत एजेंटों और राजनीति भावना / झूठ विश्लेषण के लिए बहुत सफलतापूर्वक उपयोग किया जाता है।

भावनात्मक अनुभूति , एक रोबोट के लिए भावनाओं का अनुभव, बहुत कम विकसित है, लेकिन बहुत दिलचस्प शोध हैं (देखें प्रभावित Heuristic , Lovotics की प्रोबेबिलिस्टिक लव असेंबली , और अन्य ...)। वास्तव में, मैं यह नहीं देख सकता कि हम भावनाओं को प्यार क्यों नहीं कर सकते जैसे कि वे केवल संकेत हैं जो पहले से ही मनुष्यों के दिमाग में कट सकते हैं (ब्रायन डी। ईयरपीस पेपर देखें) । यह मुश्किल है, लेकिन असंभव नहीं है, और वास्तव में आंशिक भावनात्मक अनुभूति को पुन: उत्पन्न करने वाले कई रोबोट हैं।

मेरी राय है कि "रोबोट सिर्फ अनुकरण कर सकते हैं, लेकिन महसूस नहीं कर सकते" सिर्फ शब्दार्थ का विषय है , उद्देश्य क्षमता का नहीं: उदाहरण के लिए, क्या कोई पनडुब्बी मछली की तरह तैरती है? हालांकि, विमान उड़ान भरते हैं, लेकिन पक्षियों की तरह नहीं। अंत में, क्या तकनीकी मतलब वास्तव में मायने रखता है जब अंत में हमें समान व्यवहार मिलता है? क्या हम वास्तव में कह सकते हैं कि चैपी जैसा रोबोट , अगर वह कभी भी बन जाता है, तो साधारण थर्मोस्टेट जैसा कुछ महसूस नहीं होता है?

हालाँकि, एक AI के लिए भावनात्मक अनुभूति का क्या उपयोग होगा? यह प्रश्न अभी भी बड़ी बहस में है, लेकिन मैं अपनी अंतर्दृष्टि प्रदान करने का साहस करूंगा:

  1. मनुष्यों (और जानवरों!) में भावनाओं को यादों को प्रभावित करने के लिए जाना जाता है। अब वे न्यूरोसाइंस में अतिरिक्त तौर-तरीकों, या मेटा-डेटा के रूप में अच्छी तरह से जाने जाते हैं यदि आप पसंद करते हैं, तो दीर्घकालिक यादों की: वे यह निर्धारित करने की अनुमति देते हैं कि मेमोरी कैसे संग्रहीत की जाती है, यह अन्य यादों के साथ कैसे जुड़ा / संबंधित है, और इसे कैसे पुनर्प्राप्त किया जाएगा। ।

  2. जैसे, हम यह अनुमान लगा सकते हैं कि भावनाओं की मुख्य भूमिका यादों में अतिरिक्त मेटा-जानकारी को जोड़ने के लिए है, ताकि अनुमानी अनुमान / पुनः प्राप्ति में मदद मिल सके। वास्तव में, हमारी यादें बहुत बड़ी हैं, हमारे जीवनकाल में बहुत सी जानकारी संग्रहीत हैं, इसलिए भावनाओं को संभवतः प्रासंगिक यादों को तेजी से प्राप्त करने में मदद करने के लिए "लेबल" के रूप में उपयोग किया जा सकता है।

  3. समान "लेबल" अधिक आसानी से एक साथ जुड़े हो सकते हैं (डरावनी घटनाओं की यादें, एक साथ सुखद घटनाओं की यादें, आदि)। जैसे, वे डरावनी रणनीतियों से ज्ञात रणनीतियों (पलायन!) को जल्दी से प्रतिक्रिया देने और लागू करने से जीवित रहने में मदद कर सकते हैं, या लाभकारी स्थितियों (खुशहाल घटनाओं को सबसे ज्यादा खा सकते हैं, सबसे ज्यादा खा सकते हैं, बाद में जीवित रहने में मदद करेंगे!)। और वास्तव में, तंत्रिका विज्ञान के अध्ययनों से पता चला है कि भय-उत्प्रेरण संवेदी उत्तेजनाओं के लिए विशिष्ट मार्ग हैं, ताकि वे हर उत्तेजनाओं के रूप में सामान्य पूरे सोमाटो-संवेदी सर्किट से गुजरने की तुलना में तेजी से एक्ट्यूएटर्स तक पहुंचते हैं। इस तरह के साहचर्य तर्क से समाधान और निष्कर्ष भी निकल सकते हैं जो अन्यथा नहीं पहुंच सकते।

  4. सहानुभूति महसूस करके, यह रोबोट / मनुष्यों के संपर्क को आसान बना सकता है (उदाहरण के लिए, विनाशकारी घटनाओं के पीड़ितों की मदद करने वाले ड्रोन)।

  5. भावनाओं के साथ एअर इंडिया का एक आभासी मॉडल भावनात्मक विकारों में तंत्रिका विज्ञान और चिकित्सा अनुसंधान के लिए उपयोगी हो सकता है क्योंकि अंतर्निहित मापदंडों को समझने और / या इसका अनुमान लगाने के लिए (यह अक्सर अल्जाइमर और अन्य न्यूरोडीजेनेरेटिव रोगों के साथ उदाहरण के लिए किया जाता है, लेकिन मैं नहीं हूं यकीन है कि अगर यह कभी भावनात्मक विकारों के लिए किया गया था क्योंकि वे डीएसएम में काफी नए हैं)।

तो हाँ, "कोल्ड" एआई पहले से ही उपयोगी है, लेकिन भावनात्मक एआई को निश्चित रूप से नए क्षेत्रों में लागू किया जा सकता है जो अकेले एआई कोल्ड का उपयोग करके नहीं खोजा जा सकता है। यह निश्चित रूप से हमारे अपने मस्तिष्क को समझने में मदद करेगा, क्योंकि भावनाएं एक अभिन्न अंग हैं।


2

मुझे लगता है कि एआई के आवेदन पर निर्भर करता है। जाहिर है अगर मैं एक एआई विकसित करता हूं जिसका उद्देश्य स्पष्ट रूप से मनुष्यों की देखरेख में विशिष्ट कार्य करना है, तो भावनाओं की कोई आवश्यकता नहीं है। लेकिन अगर एआई का उद्देश्य स्वायत्तता से कार्य करना है, तो भावनाएं या सहानुभूति उपयोगी हो सकती है। उदाहरण के लिए, उस AI के बारे में सोचें जो मेडिकल डोमेन में काम कर रहा है। यहां एआई के लिए फायदेमंद हो सकता है कि किसी तरह की सहानुभूति हो, बस मरीजों को और अधिक आरामदायक बनाया जा सके। या एक अन्य उदाहरण के रूप में, एक रोबोट के बारे में सोचें जो नानी के रूप में कार्य करता है। फिर यह स्पष्ट है कि भावनाएं और सहानुभूति लाभप्रद और वांछनीय होगी। यहां तक ​​कि एक सहायक एआई कार्यक्रम (कैचवर्ड स्मार्ट होम) भावनाओं और सहानुभूति के लिए लोगों को अधिक आरामदायक बनाने के लिए वांछनीय हो सकता है।

दूसरी ओर, यदि एआई सिर्फ एक असेंबली लाइन पर काम कर रहा है, तो जाहिर तौर पर भावनाओं और सहानुभूति की जरूरत नहीं है (इस मामले में इसके विपरीत यह लाभहीन हो सकता है)।


2

मजबूत ए.आई.

एक मजबूत एआई के लिए, संक्षिप्त उत्तर मदद के लिए कॉल करना है, जब वे यह भी नहीं जानते होंगे कि कथित मदद क्या हो सकती है।

यह इस पर निर्भर करता है कि AI क्या करेगा। यदि यह एक आसान काम को पूरी तरह से और पेशेवर रूप से हल करना चाहिए, तो यकीन है कि भावनाएं बहुत उपयोगी नहीं होंगी। लेकिन अगर इसे यादृच्छिक नई चीजों को सीखने के लिए माना जाता है, तो एक बिंदु होगा कि यह कुछ ऐसा सामना करता है जो इसे संभाल नहीं सकता है।

ली सेडोल बनाम अल्फा गो 4 के मैच में, कुछ प्रो ने कहा कि कंप्यूटर में पहले की भावनाएं नहीं हैं, टिप्पणी की कि शायद अल्फा गो में भी भावनाएं हैं, और मानव की तुलना में मजबूत है। इस मामले में, हम जानते हैं कि अल्फ़ागो का पागल व्यवहार "भावनाओं" नामक कुछ जानबूझकर जोड़ी गई चीज़ों के कारण नहीं है, लेकिन एल्गोरिथ्म में एक दोष है। लेकिन यह बिल्कुल वैसा ही व्यवहार करता है जैसे यह घबरा गया हो।

यदि यह एक AI के लिए बहुत कुछ होता है। इसके फायदे हो सकते हैं अगर यह खुद इसे जान सके और ऐसा होने पर दो बार सोच सके। यदि अल्फ़ागो समस्या का पता लगा सकता है और अपनी रणनीति बदल सकता है, तो यह बेहतर या बुरा खेल सकता है। यदि यह अन्य दृष्टिकोणों के लिए कोई संगणना नहीं करता है तो इसके खराब होने की संभावना नहीं है। यदि यह बदतर होता है, तो हम कह सकते हैं कि यह "भावनाओं" से ग्रस्त है, और यही कारण हो सकता है कि कुछ लोगों को लगता है कि भावनाएं मनुष्य का दोष हो सकती हैं। लेकिन यह समस्या का असली कारण नहीं होगा। असली कारण यह है कि जीतने की गारंटी देने के लिए कोई दृष्टिकोण नहीं है, और रणनीति में बदलाव केवल समस्या को ठीक करने का एक प्रयास है। टीकाकारों को लगता है कि बेहतर तरीके हैं (जो जीतने की गारंटी नहीं देते हैं, लेकिन अधिक मौका था), लेकिन इसके एल्गोरिथ्म ' इस स्थिति में पता लगाने में सक्षम टी। यहां तक ​​कि मानव के लिए, भावनाओं से संबंधित किसी भी चीज के समाधान से भावनाओं को दूर करने की संभावना नहीं है, लेकिन यह सुनिश्चित करने के लिए कुछ प्रशिक्षण कि आप स्थिति को समझकर शांति से कार्य करने के लिए पर्याप्त हैं।

फिर किसी को इस बारे में बहस करनी होगी कि यह एक तरह की भावना है या नहीं। हम आमतौर पर यह नहीं कहते हैं कि छोटे कीड़ों में मानव जैसी भावनाएँ होती हैं, क्योंकि हम उन्हें समझ नहीं पाते हैं और उनकी मदद करने को तैयार नहीं होते हैं। लेकिन यह जानना आसान है कि उनमें से कुछ लोग हताश स्थितियों में घबरा सकते हैं, जैसे अल्फ़ाज़ो ने किया था। मैं कहूंगा कि ये प्रतिक्रियाएं एक ही तर्क पर आधारित हैं, और वे कम से कम यही कारण हैं कि मानव जैसी भावनाएं संभावित रूप से उपयोगी हो सकती हैं। वे केवल मानव-समझने योग्य तरीकों से व्यक्त नहीं होते हैं, क्योंकि वे मदद के लिए मानव को बुलाने का इरादा नहीं रखते थे।

यदि वे अपने स्वयं के व्यवहार को समझने की कोशिश करते हैं, या किसी और को मदद के लिए बुलाते हैं, तो यह बिल्कुल मानव जैसा होना अच्छा हो सकता है। कुछ पालतू जानवर मानवीय भावनाओं को समझ सकते हैं और कुछ हद तक मानवीय समझ को व्यक्त कर सकते हैं। उद्देश्य मनुष्य के साथ बातचीत करना है। वे इस क्षमता को विकसित करने के लिए विकसित हुए क्योंकि उन्हें किसी समय इसकी आवश्यकता थी। यह संभावना है कि एक पूर्ण मजबूत एआई को भी इसकी आवश्यकता होगी। यह भी ध्यान दें कि, पूर्ण भावनाओं के विपरीत पागल हो सकता है।

यह शायद किसी भी विश्वास को खोने का एक त्वरित तरीका है यदि कोई व्यक्ति केवल पहली पीढ़ियों में थोड़ी समझ के साथ मनुष्यों की नकल करने वाली भावनाओं को लागू करता है, हालांकि।

कमजोर एम्स

लेकिन क्या किसी को मजबूत एआई चाहने से पहले उनके पास भावनाओं को रखने का कोई उद्देश्य है? मैं कहता हूँ कि, कोई अंतर्निहित कारण नहीं है कि उनमें भावनाएँ हों। लेकिन अनिवार्य रूप से कोई भी वैसे भी नकली भावनाओं को लागू करना चाहेगा। क्या "हम" के लिए उन्हें भावनाओं की ज़रूरत है, बस बकवास है।

तथ्य यह है कि बिना किसी खुफिया कार्यक्रम के भी कुछ कार्यक्रम होते हैं, जिनमें कुछ "भावनात्मक" तत्व होते हैं। वे अव्यवसायिक दिख सकते हैं, लेकिन हर कार्य को व्यावसायिकता की आवश्यकता नहीं है ताकि वे पूरी तरह से स्वीकार्य हो सकें। वे केवल संगीत और कला में भावनाओं की तरह हैं। कोई इस तरह से भी अपने कमजोर एअर को डिजाइन करेगा। लेकिन वे वास्तव में एआई की भावनाएं नहीं हैं, बल्कि उनके निर्माता हैं। यदि आप उनकी भावनाओं के कारण बेहतर या बदतर महसूस करते हैं, तो आप एग्रकुल एम्स को अलग तरह से नहीं मानेंगे, लेकिन यह मॉडल या एक पूरे के रूप में ब्रांड।

वैकल्पिक रूप से कोई व्यक्ति कुछ भूमिका निभा सकता है जैसे कि वहाँ एक भूमिका निभाने वाला खेल। फिर से, कोई कारण नहीं है कि उनके पास ऐसा होना चाहिए, लेकिन अनिवार्य रूप से कोई ऐसा करेगा, क्योंकि जाहिर तौर पर उनके पास कुछ बाजार था जब एक भूमिका खेल खेल करता है।

या तो मामलों में, भावनाएं वास्तव में एआई से ही उत्पन्न नहीं होती हैं। और इसे लागू करना आसान होगा, क्योंकि एक मानव उनसे बिल्कुल एक मानव की तरह होने की उम्मीद नहीं करेगा, लेकिन यह समझने की कोशिश करता है कि उनका क्या मतलब है। इसे महसूस करने वाली इन भावनाओं को स्वीकार करना बहुत आसान हो सकता है।

भावनाओं के पहलू

यहाँ कुछ मूल शोध पोस्ट करने के बारे में क्षमा करें। मैंने 2012 में भावनाओं की एक सूची बनाई थी और जिसमें से मैं भावनाओं के 4 पहलुओं को देखता हूं। यदि वे सभी कार्यान्वित किए जाते हैं, तो मैं कहूंगा कि वे मनुष्य के समान ही भावनाएं हैं। वे वास्तविक नहीं लगते अगर उनमें से कुछ को लागू किया जाता है, लेकिन इसका मतलब यह नहीं है कि वे पूरी तरह से गलत हैं।

  • कारण, या मूल तार्किक समस्या जिसे AI हल नहीं कर सकता है। AlphaGo के पास पहले से ही कारण था, लेकिन कुछ और नहीं। अगर मुझे एक सटीक परिभाषा बनानी है, तो मैं कहूंगा कि यह राज्य एक-दूसरे के साथ असहमत होने वाले कई समान रूप से महत्वपूर्ण उत्तराधिकार हैं।
    • संदर्भ, या वर्तमान दृष्टिकोण के किस भाग को अच्छी तरह से काम नहीं किया जाता है और इसे संभवतः प्रतिस्थापित किया जाना चाहिए। यह उदासी से संबंधित, चिंता से संबंधित और भावुक से संबंधित है।
    • वर्तमान स्थिति, या क्या यह अग्रणी महसूस करता है, या क्या इसका विश्वास या तथ्य पहले खराब होना चाहिए (या सभी के साथ बुरा था) अगर चीजें गलत हो जाती हैं। यह उदासी से संबंधित, प्यार से संबंधित और गर्व से संबंधित है।
  • योजना या अनुरोध। मुझे लगता है कि कुछ पालतू जानवरों के पास पहले से ही यह था। और मुझे लगता है कि ये कुछ निश्चित पैटर्न थे जो बहुत मुश्किल नहीं है। यहां तक ​​कि कला भी उन्हें आसानी से शामिल कर सकती है। कारणों के विपरीत, ये संभवतः किसी भी एल्गोरिदम में निहित नहीं हैं, और उनमें से कई एक साथ दिखाई दे सकते हैं।
    • अगर भावना से कुछ नहीं बदला जाता है तो किसकी जिम्मेदारी थी। यह जिज्ञासा, क्रोध और उदासी को अलग करता है।
    • अगर भावना से कुछ नहीं बदला जाता है तो क्या माना जाता है। यह निराशा, उदासी और आश्चर्य को अलग करता है।
  • स्रोत। संदर्भ के बिना, यहां तक ​​कि एक मानव भी मज़बूती से नहीं बता सकता है कि कोई रो रहा है या आभारी होने के लिए रो रहा है, या किसी तरह की शर्मिंदगी के लिए मुस्कुरा रहा है। अधिकांश अन्य मामलों में उनका वर्णन करने वाले शब्द भी नहीं हैं। यदि कोई AI इसे विशेष रूप से अलग नहीं करता है या नहीं दिखाता है, तो यह उतना अंतर नहीं करता है। यह संभव है कि वे इन (स्वचालित रूप से और एक मानव के रूप में) गलत तरीके से सीखेंगे, जिस बिंदु पर वे मानव भाषाओं को समझना सीख सकते हैं।
  • माप, जैसे कि समस्या कितनी जरूरी या महत्वपूर्ण है, या यहां तक ​​कि भावनाओं के सही होने की कितनी संभावना है। मैं कहता हूँ कि इसे AI में लागू नहीं किया जा सकता है। मनुष्य को उनका सम्मान करने की आवश्यकता नहीं है, भले ही वे मनुष्य के समान हों। लेकिन मनुष्य सीखेंगे कि एक एआई को कैसे समझा जाए यदि यह वास्तव में मायने रखता है, भले ही वे मनुष्यों की तरह न हों। वास्तव में, मुझे लगता है कि कुछ बेहद कमजोर भावनाएं (जैसे कि कुछ सोचना बहुत बेवकूफी भरा और उबाऊ है कि आप टिप्पणी करना नहीं जानते) लगभग विशेष रूप से इमोटिकॉन्स में मौजूद हैं, जहां कोई आपको वास्तव में इस भावना को दिखाने का इरादा रखता है, और शायद ही। वास्तविक जीवन या किसी भी जटिल विज्ञान में ध्यान देने योग्य। मुझे लगा कि एम्स के लिए शुरुआत में भी ऐसा हो सकता है। सबसे खराब स्थिति में, वे पहले पारंपरिक रूप से "भावनाओं" के रूप में जाने जाते हैं क्योंकि इमोटिकॉन्स इन मामलों में काम करते हैं, इसलिए यह '

इसलिए जब मजबूत एआई संभव हो जाता है, तो इनमें से कोई भी पहुंच से बाहर नहीं होगा, हालांकि कनेक्शन बनाने के लिए बहुत काम हो सकता है। तो मैं कहूंगा कि अगर मजबूत एआई की आवश्यकता होगी, तो वे बिल्कुल भावनाओं में होंगे।


2

भावनाओं द्वारा वह एआई में सभी प्रकार की भावनाओं को जोड़ने का मतलब नहीं है। वह केवल उन लोगों का मतलब था जो महत्वपूर्ण निर्णय लेने के लिए सहायक होंगे। एक सेकंड के लिए इस घटना पर विचार करें:
मान लीजिए कि एआई सेल्फ ड्राइव कार राजमार्ग के माध्यम से चल रही है। अंदर बैठा व्यक्ति एक कंपनी का सीईओ है और वह शेड्यूल में बहुत पीछे चल रहा है। अगर उसे समय पर नहीं मिला तो लाखों डॉलर का नुकसान होगा। कार में एआई को कहा गया है कि वह जितनी जल्दी हो सके गाड़ी चलाए और गंतव्य तक पहुंचे। और अब एक खरगोश (या कुछ अन्य जानवर) रास्ते में आता है। अब अगर कार आपातकालीन ब्रेक लगाती है तो यात्रियों को गंभीर चोट लगेगी और साथ ही लाखों का नुकसान होगा क्योंकि सीईओ बैठक में नहीं जा पाएंगे।

अब एआई क्या करेगा? उपयोगिता समारोह
चूंकि एआई के लिए, उनके निर्णय केवल उनके आधार पर होते हैं । खरगोश को मारना और चलते रहना तार्किक रूप से बेहतर विकल्प दिखाएगा। लेकिन, क्या एआई को वह फैसला लेना चाहिए।

ऐसे कई सवाल हैं जहां एक AI ऐसी स्थिति में फंस सकता है जहां नैतिक आधारित निर्णय एक महत्वपूर्ण भूमिका निभाएंगे।
उपरोक्त परिदृश्य केवल उदाहरण के लिए है।


1

मस्तिष्क का सिद्धांत

अगर हम चाहते हैं कि एक मजबूत सामान्य एआई पर्यावरण में अच्छी तरह से काम करे जिसमें मनुष्य शामिल हों, तो इसके लिए यह बहुत उपयोगी होगा कि मन का एक अच्छा सिद्धांत है जो मेल खाता हो कि मनुष्य वास्तव में कैसे व्यवहार करता है। मन के उस सिद्धांत को मानव जैसी भावनाओं को शामिल करने की आवश्यकता है, या यह इस वातावरण की वास्तविकता से मेल नहीं खाएगा।

हमारे लिए, अक्सर इस्तेमाल किया जाने वाला शॉर्टकट स्पष्ट रूप से सोच रहा है "मैंने इस स्थिति में क्या किया होगा?" "कौन सी घटना मुझे प्रेरित कर सकती है कि उन्होंने जो कुछ किया है?" "मुझे कैसा लगेगा अगर मेरे साथ ऐसा हुआ हो ?"। हम चाहते हैं कि एआई इस तरह के तर्क के लिए सक्षम हो, यह व्यावहारिक और उपयोगी है, यह भविष्य की बेहतर भविष्यवाणियों और अधिक प्रभावी कार्यों की अनुमति देता है।

हालांकि, इसके लिए बेहतर होगा कि एआई वास्तव में उन सटीक भावनाओं से प्रेरित न हो (शायद उस दिशा में कुछ उपयोगी होगा लेकिन संभवतः बिल्कुल समान नहीं है ), यह सब बदल जाता है कि सोचने के बजाय " मुझे क्या महसूस होगा" यह एक सामान्य मानव को क्या लगता है परिकल्पना करने में सक्षम होना चाहिए। उस सबसिस्टम को लागू करने की आवश्यकता है जो मानवीय भावनाओं को सटीक रूप से मॉडलिंग करने में सक्षम हो।


1

सावधान! आपके प्रश्न के वास्तव में दो भाग हैं। अपने प्रश्नों में अर्थ न निकालें, अन्यथा आप वास्तव में नहीं जान पाएंगे कि आप किस भाग का उत्तर दे रहे हैं।

  1. क्या हमें एजीआई को "गुणात्मक अनुभव" प्रति भावना का अनुभव करने देना चाहिए? (इस अर्थ में कि आपको लगता है कि "आपका दिल आग पर है" जब आप प्यार में पड़ते हैं)

ऐसा लगता नहीं है कि हम ऐसा क्यों चाहते हैं। Hypothetically हम कुछ ऐसा कर सकते हैं जो भावनाओं से कार्यात्मक रूप से अप्रभेद्य है, लेकिन एजीआई के संबंध में कोई गुणात्मक अनुभव नहीं है। लेकिन हम एक वैज्ञानिक स्थिति में नहीं हैं जहां हम गुणात्मक अनुभव की उत्पत्ति के बारे में किसी भी प्रश्न का उत्तर देना शुरू कर सकते हैं, इसलिए मैं इस प्रश्न की गहराई में जाने की जहमत नहीं उठाऊंगा।

  1. क्या हमें बाहरी पर्यवेक्षक से एजीआई को अपने कार्यात्मक तुल्यता के प्रति भावनाएं रखने देना चाहिए?

IMHO हाँ। हालाँकि कोई भी व्यक्ति किसी भी भावनाओं के साथ एक बदमाश एआई की कल्पना कर सकता है जो आप इसे चाहते हैं, हम चाहते हैं कि एआई मानवीय मूल्यों और भावनाओं के साथ एकीकृत हो सके, जो कि संरेखण की समस्या है। इस प्रकार यह मानना ​​स्वाभाविक है कि किसी भी सुव्यवस्थित AGI में भावनाओं के लिए कुछ समान होगा यदि यह मनुष्यों के साथ अच्छी तरह से एकीकृत हो।

लेकिन, मन के स्पष्ट सिद्धांत के बिना, यह पूछना भी शुरू नहीं होता है: "क्या हमारे एजीआई में भावनाएं होनी चाहिए?" शायद हमारी भावनाओं के बारे में कुछ महत्वपूर्ण है जो हमें उत्पादक संज्ञानात्मक एजेंट बनाता है जिसे किसी भी एजीआई की आवश्यकता होगी।

वास्तव में, भावनाएं अक्सर अनुभूति का एक अनदेखा पहलू है। लोग किसी तरह सोचते हैं कि भावनाहीन स्पॉक जैसे चरित्र मानवीय बुद्धिमत्ता का शिखर हैं। लेकिन निर्णय लेने में भावनाएं वास्तव में एक महत्वपूर्ण पहलू हैं, "भावनाओं के बिना बुद्धि" के साथ समस्याओं के उदाहरण के लिए इस लेख को देखें ।

अनुवर्ती सवाल यह होगा कि "एजीआई किस तरह की भावनाओं का विकास करेगा?", लेकिन फिर से हम इसका जवाब देने की स्थिति में नहीं हैं (अभी तक)।


0

एआई को विकसित करने से क्या उद्देश्य होगा जो मानव जैसी भावनाओं का अनुभव करता है?

मानवीय भावनाओं को शामिल करने वाली कोई भी जटिल समस्या, जहाँ समस्या के समाधान के लिए मनुष्य की भावनात्मक अवस्थाओं के साथ सहानुभूति रखने की क्षमता की आवश्यकता होती है, सबसे कुशलता से एक एजेंट द्वारा सेवा दी जाएगी जो मानवीय भावनाओं के साथ सहानुभूति रख सके

राजनीति। सरकार। नीति और योजना। जब तक बात को मानव अनुभव का गहन ज्ञान नहीं है, तब तक यह हमारे मानव अनुभव में आने वाली सभी समस्याओं के निश्चित उत्तर नहीं दे पाएगा।


आपके द्वारा किया गया राजनीति और सरकारी बिंदु एक उत्कृष्ट उदाहरण था। मेरा दृष्टिकोण हालांकि यह है कि एआई को केवल भावनाओं को समझने में सक्षम होना चाहिए और आवश्यक रूप से इसका अनुभव नहीं करना चाहिए।
सेठ सिम्बा

0

मानवीय भावनाएं मानवीय मूल्यों और समाजों के सहयोग और निर्माण की हमारी क्षमता से गहन रूप से जुड़ी हुई हैं।

बस एक आसान उदाहरण देने के लिए: आप एक अजनबी से मिलते हैं, जिसे मदद की ज़रूरत है, आप सहानुभूति महसूस करते हैं । यह आपको खुद की कीमत पर उसकी मदद करने के लिए मजबूर करता है। चलो अगली बार जब आप उससे मिलें, तो आपको कुछ चाहिए। चलो यह भी मान लें कि वह आपकी मदद नहीं करता है, आप क्रोध महसूस करेंगे । यह भावना आपको उसे खुद के लिए और अधिक कीमत पर, दंडित करने के लिए मजबूर करती है। वह दूसरी ओर, अगर वह आपकी मदद नहीं करता है, तो शर्म की बात है । यह उसे वास्तव में आपकी मदद करने के लिए मजबूर करता है, आपके गुस्से से बचने और आपके शुरुआती निवेश को सार्थक बनाने के लिए। आप दोनों को फायदा होगा।

इसलिए ये तीन भावनाएँ पारस्परिक मदद का एक घेरा बनाकर रखती हैं। आरंभ करने के लिए सहानुभूति, रक्षकों को दंडित करने के लिए क्रोध और क्रोध से बचने के लिए शर्म। इससे न्याय की अवधारणा भी सामने आती है।

यह देखते हुए कि मान संरेखण एजीआई में बड़ी समस्याओं में से एक है, मानव जैसी भावनाएं मुझे एआई के प्रति अच्छे दृष्टिकोण के रूप में हड़ताल करती हैं जो वास्तव में हमारे मूल्यों को साझा करती हैं और खुद को हमारे समाज में समेकित रूप से एकीकृत करती हैं।


ठीक है, लेकिन अगर आप पिता के पास जाएंगे तो आप देखेंगे कि भावनाएं तार्किक व्याख्या के लिए सिर्फ शॉर्टकट हैं कि वे उपयोगी क्यों हैं या उपयोगी नहीं हैं। नियम भावनाओं और हमारे जीव विज्ञान से प्राप्त किए जा सकते हैं। और उन नियमों को भावनाओं और जीव विज्ञान के रूप में संकुचित और गैर-स्पष्ट रूप में रखा जाता है। हमारे लिए यह आवश्यक है, लेकिन एई के लिए नहीं, हालांकि हमारे लिए यह एआई के लिए अनुकूलन के रूप में काम कर सकता है यदि डिजिटल रूप में ऐसे कार्यान्वयन की लागत कम होगी तो नियम आधारित कार्यान्वयन। नियमों के साथ समस्या केवल एक ही है, हम खुद उन्हें पूरी तरह से नहीं जानते हैं, लेकिन एआई कार्य अधिक संकीर्ण है, तो हो सकता है कि हमें अधिक नियमों की आवश्यकता न हो
मोल्बॉर्ग
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.