सेल्फ-ड्राइविंग कारें नैतिक निर्णय कैसे ले सकती हैं कि किसे मारना है?


74

जाहिर है, सेल्फ-ड्राइविंग कारें सही नहीं होतीं, इसलिए कल्पना करें कि Google कार (एक उदाहरण के रूप में) एक मुश्किल स्थिति में आ गई।

यहाँ घटनाओं के एक सेट के कारण दुर्भाग्यपूर्ण स्थितियों के कुछ उदाहरण हैं:

  • कार सड़क पार करने वाले 10 लोगों की भीड़ की ओर जा रही है, इसलिए यह समय में नहीं रुक सकता है, लेकिन यह दीवार से टकराने (यात्रियों को मारने) से 10 लोगों को मारने से बच सकता है।
  • मोटरसाइकिल के सवार को मारने से बचते हुए, यह विचार करते हुए कि कार के यात्री के लिए जीवित रहने की संभावना अधिक है,
  • इंसान के पक्ष में सड़क पर एक जानवर को मारना,
  • कुत्ते को मारने से बचने के लिए गलियों को दूसरी कार में बदलना

और यहाँ कुछ दुविधाएँ हैं:

  • क्या एल्गोरिथ्म इंसान और जानवर के बीच के अंतर को पहचानता है?
  • क्या इंसान का आकार या जानवर मायने रखता है?
  • क्या यह गिनता है कि इसके सामने कितने लोग हैं?
  • क्या यह "पता है" जब बच्चे / बच्चे बोर्ड पर होते हैं?
  • क्या यह उम्र को ध्यान में रखता है (जैसे पहले बड़े को मारना)?

एक एल्गोरिथ्म कैसे तय करेगा कि उसे तकनीकी दृष्टिकोण से क्या करना चाहिए? क्या यह ऊपर से अवगत हो रहा है (हत्याओं की संभावना की गिनती), या नहीं (सिर्फ अपने विनाश से बचने के लिए लोगों को मारना)?

संबंधित आलेख:


3
मैं किसी भी वाहन में सवारी नहीं करूंगा जो कि मुझे यात्री को अपनी शीर्ष सुरक्षा प्राथमिकता बनाने के लिए प्रोग्राम नहीं किया गया है। मैं उस सोच में अकेला नहीं हूं। यदि किसी के पास स्वायत्त वाहन निर्माताओं को अपने यात्रियों की सुरक्षा को प्राथमिकता देने के अलावा कुछ भी करने के लिए अपने वाहन को प्रोग्राम करने के लिए मजबूर करने की योजना है, तो पूरा उद्योग अपने दरवाजे अब बंद कर सकता है। कुछ घिनौने नैतिक निर्णय के कारण किसी यात्री की मृत्यु हो जाती है, जबकि अंतिम बार किसी अन्य स्वायत्त वाहन को खरीदने वाले लोगों का विशाल बहुमत अंतिम बार होगा। कौन मौत के जाल में सवारी करना चाहता है?
डंक

तथाकथित "ट्रॉली समस्या" एक ट्रोल-वाई समस्या है। एक कारण यह है कि इसे एक केस स्टडी के बजाय एक विचार प्रयोग के रूप में जाना जाता है: यह ऐसा कुछ नहीं है जो कभी हुआ हो। यह वास्तविक होने के करीब भी नहीं है, मोटे तौर पर क्योंकि कारें मौलिक रूप से ट्रॉलियां नहीं हैं। किसी भी दूरस्थ रूप से लागू मामले में सही उत्तर हमेशा "ब्रेक मारा जाता है", और अगर कभी कोई अपवाद होता है, तो इसे संभवतः केवल एक ही तरीके से हल किया जा सकता है: हर कीमत पर कार के निवासियों की रक्षा करके और कभी भी किसी भी चीज पर विचार नहीं करना। , दो कारणों से।
मेसन व्हीलर

2
पहला, @ डंक ने काफी अच्छी तरह से कवर किया: व्यावहारिकता। यदि कार के लिए एक अलग विकल्प बनाना संभव है, तो उनके सही दिमाग में कोई भी एक खरीदना नहीं चाहेगा। दूसरा यह है कि अगर कार के कंप्यूटर में बनाया गया "किल एवरीवन" फंक्शन है, तो इसका मतलब है कि दुर्भावनापूर्ण हैकर्स के लिए यह पहले से ही है। किसी को यह पता लगाने का एक बहुत ही वास्तविक मौका है कि ट्रिगर करने के लिए एक वैध ट्रॉली-समस्या स्थिति के विशुद्ध रूप से काल्पनिक विचार के खिलाफ प्रतिकूल इनपुट के साथ, और केवल एक संभावित उत्तर है जो नैतिक रूप से बेतुका और घिनौना नहीं है।
मेसन व्हीलर 19

जवाबों:


54

सेल्फ-ड्राइविंग कारें नैतिक निर्णय कैसे ले सकती हैं कि किसे मारना है?

यह नहीं करना चाहिए स्व-ड्राइविंग कार नैतिक एजेंट नहीं हैं। अनुमान लगाने योग्य तरीके से कारें विफल हो जाती हैं। भविष्यवाणी के तरीकों में घोड़े विफल होते हैं।

कार सड़क पार करने वाले 10 लोगों की भीड़ की ओर जा रही है, इसलिए यह समय में नहीं रुक सकती है, लेकिन यह 10 लोगों को दीवार से टकराने (यात्रियों को मारने) से बचा सकती है।

इस मामले में, कार को ब्रेक पर पटकना चाहिए। अगर 10 लोग मर जाते हैं, तो यह दुर्भाग्यपूर्ण है। हम बस कार के बाहर क्या हो रहा है के बारे में हमारी सभी मान्यताओं पर भरोसा नहीं कर सकते । क्या होगा अगर उन 10 लोगों को वास्तव में लोगों की तरह दिखने के लिए रोबोट बनाया जाता है ? क्या होगा अगर वे आपको मारने की कोशिश कर रहे हैं?

मोटरसाइकिल के सवार को मारने से बचने पर विचार करते हुए कि कार के यात्री के लिए जीवित रहने की संभावना अधिक है,

फिर से, एक वाहन में इस तरह की भावनाओं को हार्ड-कोडिंग करने से "नकली" मोटरसाइकिल चालकों सहित सभी प्रकार के हमलों तक वाहन का सवार खुल जाता है । इंसान मुश्किल से ही इन फैसलों को अपने दम पर करने के लिए तैयार होता है, अगर बिल्कुल भी। जब संदेह होता है, तो बस ब्रेक पर पटक देते हैं।

इंसान के पक्ष में सड़क पर जानवर मारना,

फिर, बस ब्रेक मारा। अगर यह बच्चा होता तो क्या होता? अगर यह बम होता तो क्या होता?

कुत्ते को मारने से बचने के लिए गलियों को दूसरी कार में बदलना

नहीं। कुत्ता गलत समय पर गलत जगह पर था। दूसरी कार नहीं थी। बस ब्रेक पर स्लैम, जितना संभव हो उतना सुरक्षित रूप से।

क्या एल्गोरिथ्म इंसान और जानवर के बीच के अंतर को पहचानता है?

क्या एक इंसान? हर बार नहीं। अगर मानव के पास बंदूक है तो क्या होगा? यदि जानवर के बड़े दांत हैं तो क्या होगा? क्या कोई संदर्भ नहीं है?

  • क्या इंसान का आकार या जानवर मायने रखता है?
  • क्या यह गिनता है कि इसके सामने कितने लोग हैं?
  • क्या यह "पता है" जब बच्चे / बच्चे बोर्ड पर होते हैं?
  • क्या यह उम्र को ध्यान में रखता है (जैसे पहले बड़े को मारना)?

मनुष्य इन बातों पर सहमत नहीं हो सकता। यदि आप किसी पुलिस वाले से पूछते हैं कि इनमें से किसी भी स्थिति में क्या करना है, तो इसका जवाब नहीं होगा, "आपको बाईं ओर झुका होना चाहिए, सभी प्रासंगिक पक्षों को अपने सिर पर तौला जाना चाहिए, सभी पक्षों के बीच प्रासंगिक उम्र का आकलन करना चाहिए, फिर थोड़ा दाएं मुड़ें, और आपने 8% अधिक जान बचाई होगी। " नहीं, पुलिस सिर्फ यह कहेगी, "आपको वाहन को जल्द से जल्द और सुरक्षित रूप से रोकना चाहिए था।" क्यों? क्योंकि पुलिस को पता है कि आमतौर पर लोग हाई-स्पीड क्रैश परिदृश्य से निपटने के लिए सुसज्जित नहीं होते हैं।

"सेल्फ-ड्राइविंग कार" के लिए हमारा लक्ष्य 'मानव के साथ बराबरी का नैतिक एजेंट' नहीं होना चाहिए। यह कॉकरोच की प्रतिक्रियाशील जटिलता के साथ एक एजेंट होना चाहिए, जो कि अनुमानित रूप से विफल हो जाता है।


उन परिदृश्यों में जो संभावित रूप से मारे गए हैं उनमें से ज्यादातर कार के नुकसान / कार के कब्जे वाले की तुलना में अधिक हैं - ब्रेक को थप्पड़ मारना केवल उचित प्रतिक्रिया की तरह लगता है क्योंकि कब्जे वाले संभवतः दुर्घटना से बच नहीं सकते थे। जैसा कि आप बताते हैं, एक एल्गोरिथ्म का उपयोग करना बहुत संभव है जो कि (संभावित रूप से) एक पैदल यात्री के बजाय वास्तव में रहने वाले की हत्या करने का एक तरीका है, संभावित रूप से यहां तक ​​कि कब्जा करने वाले, कार या निर्माता पर दोष डालकर हत्या करना।
क्लियर

48

उन सवालों के जवाब का बहुत कुछ इस बात पर निर्भर करता है कि डिवाइस कैसे प्रोग्राम किया जाता है। एक कंप्यूटर जो चारों ओर ड्राइविंग करने और पहचानने में सक्षम है कि सड़क कहां जाती है, किसी जानवर से मानव को नेत्रहीन रूप से अलग करने की क्षमता है, चाहे वह रूपरेखा, छवि या आकार पर आधारित हो। पर्याप्त रूप से तेज छवि मान्यता के साथ, यह किसी अन्य वाहन में संख्या और तरह के लोगों की गणना करने में सक्षम हो सकता है। यह विभिन्न प्रकार के वाहनों में लोगों को चोट लगने की संभावना पर मौजूदा डेटा का उपयोग भी कर सकता है।

अंतत: लोग इसमें शामिल नैतिक विकल्पों पर असहमत हैं। शायद उपयोगकर्ता / मालिक को कॉन्फ़िगर करने के लिए "नैतिकता सेटिंग्स" हो सकती है, जैसे "जीवन गणना केवल" पर विचार करें "बनाम" युवा जीवन अधिक मूल्यवान हैं। " मुझे व्यक्तिगत रूप से लगता है कि यह बहुत विवादास्पद नहीं है कि एक मशीन को मानव को नुकसान पहुंचाने से पहले खुद को नुकसान पहुंचाना चाहिए, लेकिन लोग इस बात पर असहमत हैं कि पालतू जानवरों का जीवन कितना महत्वपूर्ण है। यदि स्पष्ट मार-यह-पहली सेटिंग्स लोगों को असहज करती हैं, तो जवाब उपयोगकर्ता को दिए गए एक प्रश्नावली से निर्धारित किया जा सकता है।


2
मेरे दिमाग के सबसे गहरे हिस्से में कुछ सोचता है कि एक संपादित नैतिकता सेटिंग एक बुरा विचार होगा। वास्तव में यह निश्चित नहीं है कि यह इस तथ्य के अलावा क्या है कि इसकी मशीन एक व्यक्ति के बजाय, लेकिन मैं हमेशा इस निष्कर्ष पर पहुंचता हूं कि जब भी हम किसी अन्य व्यक्ति के साथ कार में बैठते हैं, तो हमारे पास पहले से ही एक व्यक्ति के नैतिक निर्णयों की सदस्यता का यह अलिखित अनुबंध है।
इयान

6
'नैतिकता सेटिंग्स'? वास्तव में? आप लोगों को इसे किसी भी संभावित पूर्वाग्रह के आधार पर स्थापित करेंगे 'उस व्यक्ति को मारें जो सबसे अधिक ____' समलैंगिक दिखता है? कम से कम पसंदीदा दौड़? या क्या होगा अगर टक्कर के ड्राइवरों में दो वाहनों ने नैतिकता का विरोध किया है? फिर दोनों को मार दिया जाता है और अतिरिक्त अतिरिक्त नुकसान होता है? इन कानूनों को सड़क कानूनों की तरह सार्वभौमिक (कम से कम एक देश के भीतर) होने की आवश्यकता है।
navigator_

3
@navigator_ मुझे उम्मीद है कि निर्माता द्वारा प्रदान किए गए विकल्प कारण के भीतर होंगे।
बेन एन

1
हालांकि, किसके द्वारा परिभाषित किया गया है? यही मेरी बात है।
navigator_

3
मुझे वास्तव में लगता है कि "नैतिकता की स्थापना" एकमात्र व्यवहार्य / उचित विकल्प है, क्योंकि यह विशिष्ट चालक की यथासंभव निकटता का अनुकरण करता है। कार के चालक को तब जवाबदेह होना चाहिए जो कुछ भी होता है, जैसे कि वह गाड़ी चला रहा हो। मैं यह नहीं देखता कि किसी भी चीज़ के लिए कार की प्रोग्रामिंग कैसे होती है (जैसे) ड्राइवर के जीवन को किसी और चीज़ से पहले रखना, ड्राइवर द्वारा अपनी ज़िंदगी को किसी और चीज़ से पहले डालने से अलग है।
पंडोरा

26

व्यक्तिगत रूप से, मुझे लगता है कि यह एक ओवरहिप्ड मुद्दा हो सकता है। ट्रॉली की समस्याएं केवल तब होती हैं जब स्थिति "3 विकल्प" को रोकने के लिए अनुकूलित होती है।

एक कार में ब्रेक होता है, है ना? "लेकिन अगर ब्रेक काम न करे तो क्या होगा?" ठीक है, तो कार को बिल्कुल भी ड्राइव करने की अनुमति नहीं है। नियमित यातायात में भी, मानव ऑपरेटरों को सिखाया जाता है कि आपकी गति इतनी सीमित होनी चाहिए कि आप उस क्षेत्र के भीतर रुक सकें, जिसे आप देख सकते हैं। इन जैसे समाधानों से ट्रॉली समस्या की संभावना कम हो जाएगी।

जानवरों के लिए के रूप में ... अगर वहाँ सड़क पर मनुष्यों के साथ निपटने के लिए कोई स्पष्ट प्रयास नहीं है मुझे लगता है कि जानवरों को एक ही माना जाएगा। यह ध्वन्यात्मक है - रोडकिल अक्सर होता है और मानव "रोडकिल" अवांछित है, लेकिन जानवर मनुष्यों की तुलना में बहुत छोटे और कठिन हैं, इसलिए मुझे लगता है कि मनुष्यों का पता लगाना आसान होगा, बहुत सारी दुर्घटनाओं को रोकना।

अन्य मामलों में (ड्राइविंग करते समय कीड़े, एक-दूसरे पर ढेर सारी विफलताएं), शायद दुर्घटनाएं होंगी, उनका विश्लेषण किया जाएगा, और इसी तरह की स्थितियों से बचने के लिए वाहनों को अपडेट किया जाएगा।


यह कहना गलत है कि एआई केवल इतनी तेजी से ड्राइव करेगा क्योंकि वे जो देखते हैं उससे रोक सकते हैं, क्योंकि वही रक्षात्मक ड्राइविंग मनुष्यों के लिए भी सच है। कारण यह है कि मान्यताओं को बनाया जाना चाहिए। पहाड़ी पर चढ़ते समय, यह माना जाता है कि एक बड़ी बाधा सही नहीं है [स्रोत DARPA ग्रैंड चैलेंज]। ये धारणाएं सड़क के नियमों पर आधारित हैं जो यह निर्धारित करती हैं कि कौन सी क्रियाएं सही हैं। इस प्रकार, यदि कोई दुर्घटना होती है, जब तक आप सड़क के नियमों का पालन करते हैं, तो आप अपनी देयता को कम कर सकते हैं। तो, एक कार को ये निर्णय लेने में सक्षम होना चाहिए, लेकिन शायद सीमित फैशन (उपभोक्ता की रक्षा) में।
Harrichael

12

यह प्रसिद्ध ट्रॉली समस्या है । जैसा कि बेन एन ने कहा, ट्रॉली समस्या परिदृश्यों के लिए लोग कार्रवाई के सही तरीके से असहमत हैं, लेकिन यह ध्यान दिया जाना चाहिए कि स्व-ड्राइविंग कारों के साथ, विश्वसनीयता इतनी अधिक है कि ये परिदृश्य वास्तव में संभावना नहीं हैं। इसलिए, कम से कम अल्पावधि में आपके द्वारा बताई जा रही समस्याओं में बहुत प्रयास नहीं किए जाएंगे।


मुझे आश्चर्य है कि ट्रॉली समस्या वास्तव में कितनी अच्छी है? ट्रॉली समस्या अनिवार्य रूप से असतत है, `एक बार और सभी 'पसंद का वर्णन करते हुए, जबकि व्यवहार में एल्गोरिथ्म को संभवतः (नई और काफी कम) समय की वृद्धि पर विकल्पों का अनुक्रम बनाना चाहिए , संभवतः नई जानकारी उपलब्ध होने के साथ। एक उपयोगी एल्गोरिथ्म वास्तविक 3 डी अंतरिक्ष में एम्बेडेड 'निरंतर नियंत्रण' मुद्दा होने की संभावना है, वेग और संभावनाओं से निपटना, एक सार नहीं, असतत नैतिक निर्णय। यदि और कुछ नहीं है, तो इसका मतलब यह होगा कि कार्यान्वयन को इस तरह के नैतिक नियमों में परिभाषित नहीं किया जाना चाहिए।
नीत्शेचयनए

1
@NietzscheanAI ट्रॉली समस्या का विचार इस निर्णय में नहीं है कि क्या करना है, बल्कि इस पर अपने निर्णय लेना है। क्या आपको बर्गुलर, लोगों की संख्या, जानवरों की संख्या, जो गलती पर है, ड्राइवर की सुरक्षा, अधिक अच्छा, कम से कम परिवर्तन आदि पर विचार करना चाहिए। आप अभी भी ट्रॉली की समस्याओं, यानी की संभावनाओं को लागू कर सकते हैं। मार्ग ए में 10 लोगों को मारने का 30 प्रतिशत मौका है। ट्रॉली की समस्याओं में आम तौर पर दो मार्ग शामिल होते हैं ताकि आप इस बात पर विचार कर सकें कि आप अधिक सटीक रूप से नैतिक निर्णय किस आधार पर लेते हैं।
Harrichael

11

वास्तविक दुनिया में, निर्णय कानून के आधार पर किए जाएंगे, और जैसा कि Law.SE पर उल्लेख किया गया है , कानून आमतौर पर कार्रवाई पर निष्क्रियता का पक्षधर है।


आह, जो मानव पीड़ितों के लिए बहुत मायने रखता है। अगर कार पैदल यात्री के बजाय कुत्ते को मारने के लिए घूम सकती है तो क्या कानून की पसंद अलग होगी?
बेन एन

6

एक चालक रहित कार के लिए जिसे एकल इकाई द्वारा डिज़ाइन किया गया है, इसके लिए सबसे अच्छा तरीका यह है कि निर्णय लेने के लिए कि किसको मारना है, संभावित देयता का आकलन और कम से कम करना है।

इसके क्षेत्र में सभी संभावित पीड़ितों को सही ढंग से पहचानने की जरूरत नहीं है, ताकि उनके निर्णय की रक्षा हो, केवल उन्हें पहचानने के साथ-साथ एक मानव की अपेक्षा की जा सके।

कार में सभी की उम्र और शारीरिक स्थिति को जानने की भी आवश्यकता नहीं है, क्योंकि यह उस जानकारी के लिए पूछ सकता है और अगर इनकार कर दिया गया है, तो बचाव है कि यात्रियों ने इसे प्रदान करने के लिए नहीं चुना, और इसलिए इसे वंचित करने की जिम्मेदारी ली बेहतर निर्णय लेने की क्षमता।

यह केवल मुकदमों के लिए इकाई के जोखिम को कम करने के लिए एक व्यवहार्य मॉडल होना चाहिए, जिसे तब अधिक लाभदायक बनाने के लिए समय के साथ सुधार किया जा सकता है।


6

"यह नैतिक सवाल है कि किसे बचाया जाए: हमारे इंजीनियरिंग का 99 प्रतिशत काम इन स्थितियों को बिल्कुल भी होने से रोकना है।" -क्रिस्टोफ़ वॉन ह्यूगो, मर्सिडीज-बेंज

यह उद्धरण सेल्फ-ड्राइविंग मर्सिडीज-बेन्ज़ विल प्रायरिफ़ायट सेफ्टी ऑन पेडेस्ट्रिएंस शीर्षक से प्रकाशित एक लेख से लिया गया है ।

यहाँ एक अंश है जो बताता है कि समस्या का तकनीकी, व्यावहारिक समाधान क्या है।

दुनिया के सबसे पुराने कार निर्माता अब समस्या को नहीं देखते हैं, 1967 से ट्रॉली समस्या के रूप में जाने वाले प्रश्न के समान, अकल्पनीय है। एक संकट में नैतिक और नैतिक गाँठ में खुद को बांधने के बजाय, मर्सिडीज-बेंज बस कार के अंदर लोगों को बचाने के लिए अपनी सेल्फ-ड्राइविंग कारों को प्रोग्राम करने का इरादा रखता है। हर बार।

ड्राइवर की सहायता प्रणाली और सक्रिय सुरक्षा के ऑटोमेकर प्रबंधक क्रिस्टोफ़ वॉन ह्यूगो के अनुसार, मर्सिडीज-बेंज की भविष्य की स्तर 4 और स्तर 5 की सभी स्वायत्त कारें उन लोगों को बचाने में प्राथमिकता देंगी, जिन्हें वे ले जाते हैं।

वहाँ लेख में निम्नलिखित आकर्षक अनुच्छेद भी शामिल हैं।

विज्ञान पत्रिका द्वारा midyear पर जारी एक अध्ययन ने या तो हवा को साफ नहीं किया। सर्वेक्षण में शामिल 1928 लोगों में से अधिकांश ने सोचा कि यह स्वायत्त कारों के लिए नैतिक रूप से बेहतर होगा कि वे पैदल चलने वालों में दुर्घटनाग्रस्त होने के बजाय अपने रहने वालों का बलिदान करें। फिर भी बहुमत ने कहा कि वे स्वायत्त कारों को नहीं खरीदेंगे अगर कार अपने दम पर पैदल चलने वालों की सुरक्षा को प्राथमिकता दे।


3

सच कहूँ तो मुझे लगता है कि यह समस्या (ट्रॉली समस्या) स्वाभाविक रूप से बहुत अधिक है, क्योंकि वास्तविक दुनिया का समाधान बहुत सीधा होने की संभावना है। एक मानव चालक की तरह, एक एआई ड्राइवर को हर समय एक नैतिक रूप से कार्य करने के लिए क्रमादेशित किया जाएगा, हमेशा ऐसे कार्य का चयन करना जिससे कोई नुकसान न हो, या कम से कम नुकसान संभव हो।

यदि कोई AI ड्राइवर संपत्ति के आसन्न नुकसान जैसे खतरे का सामना करता है, तो जाहिर है कि AI कड़ी मेहनत करेगा और कार को टूटने वाली वस्तुओं से दूर रखेगा या प्रभाव को कम करेगा। यदि खतरा एक पैदल यात्री या कार या इमारत को मार रहा है, तो वह कम से कम नुकसान पहुंचाने के लिए किसी कीमती या महंगी वस्तु से टकराएगा, किसी इमारत या कुत्ते की तुलना में मानव पर अधिक मूल्य रखना।

अंत में, यदि आपकी कार का AI ड्राइवर किसी बच्चे के ऊपर चलाने या दीवार से टकराने के लिए है ... तो यह कार को, और आप को , दीवार में घुसा देगा। यही कोई भी अच्छा इंसान करेगा। एक अच्छा AI किसी भी अलग तरह से कार्य क्यों करेगा?


1
'एआई कड़ी मेहनत करेगा ’,' इससे टकराने का चुनाव करेगा…’, अगर ये बयान हैं, तो क्या आप कुछ संदर्भों को पोस्ट कर सकते हैं? या वे राय आधारित हैं?
kenorb

1
ओपी ने सवाल उठाया, "एआई को नुकसान क्या होगा?" मुझे लगता है कि यह गलत उद्देश्य है। मनुष्य ऐसा नहीं करते। इसके बजाय एआई नुकसान से बचने की अधिक सामान्य रणनीति का पालन करेगा, और जितना संभव हो उतना कम नुकसान कर सकता है। यह अनुकूलन उद्देश्य अधिक सहज और कठिन होता है जब दायित्व चिंता उत्पन्न होती है।
रैंडी

3

उन्हें नहीं करना चाहिए लोगों को चाहिए।

लोग नैतिक निर्णयों की जिम्मेदारियों को कंप्यूटर के हाथों में नहीं डाल सकते हैं। यह कंप्यूटर के लिए निर्णय लेने के लिए प्रोग्राम करने के लिए कंप्यूटर वैज्ञानिकों / एआई विशेषज्ञों के रूप में हमारी जिम्मेदारी है। क्या मानव हताहत अभी भी इससे मौजूद होंगे? बेशक, वे करेंगे --- लोग सही नहीं हैं और न ही कार्यक्रम हैं।

इस विषय पर यहाँ एक उत्कृष्ट बहस चल रही है । मैं विशेष रूप से मरीजों पर घातक दवाओं के परीक्षण के समानांतर नैतिक दुविधा के बारे में यान लेकन के तर्क को पसंद करता हूं। सेल्फ-ड्राइविंग कारों के समान, लंबे समय में अधिक लोगों को बचाने के अच्छे इरादे होने के कारण दोनों घातक हो सकते हैं।


3

सेल्फ-ड्राइविंग कारें नैतिक निर्णय कैसे ले सकती हैं कि किसे मारना है?

कानूनी दायित्व और उपभोक्ता सुरक्षा का प्रबंधन करके।

एक कार जो उपभोक्ता को सुरक्षा प्रदान करती है, वह एक ऐसी कार होगी जो उक्त उपभोक्ताओं द्वारा खरीदी जाती है। कंपनियां अपने ग्राहकों को मारने के लिए उत्तरदायी नहीं बनना चाहती हैं और न ही वे ऐसा उत्पाद बेचना चाहती हैं जो उपयोगकर्ता को कानूनी भविष्यवाणी में मिले। कानूनी देयता और उपभोक्ता सुरक्षा एक ही मुद्दा है जब "उपभोक्ता को लागत" के परिप्रेक्ष्य से देखा जाता है।

और यहाँ कुछ दुविधाएँ हैं:

  • क्या एल्गोरिथ्म इंसान और जानवर के बीच के अंतर को पहचानता है?

यदि किसी पशु / मानव को कानूनी रूप से टाला नहीं जा सकता है (और कार कानूनी अधिकार में है - यदि ऐसा नहीं है तो एआई के निर्णय लेने में कुछ और गलत है), इसकी संभावना नहीं होगी। यदि कार सुरक्षित रूप से बाधा से बच सकती है, तो एआई को यह निर्णय लेने के लिए यथोचित रूप से देखा जा सकता है, अर्थात। एक खुले राजमार्ग पर एक और लेन के लिए तैरना। सूचना देयता और चालक सुरक्षा पर जोर है।

  • क्या इंसान का आकार या जानवर मायने रखता है?

बाधा को टकराने से केवल जोखिम कारक। खाई से टकराने की तुलना में हिप्पो को मारना कम वांछनीय हो सकता है। एक कुत्ते को मारना ग्राहक के ऑटोमोबाइल को बर्बाद करने की तुलना में अधिक वांछनीय है।

  • क्या यह गिनता है कि इसके सामने कितने लोग हैं?

यह लोगों को यात्रियों के रूप में देखता है कि क्या कार-पूलिंग लेन को ले जाया जा सकता है। यह सामने वाले लोगों को टक्कर के मामले में जोखिम कारक के रूप में गिना जाता है।

  • क्या यह "पता है" जब बच्चे / बच्चे बोर्ड पर होते हैं?

नहीं।

  • क्या यह उम्र को ध्यान में रखता है (जैसे पहले बड़े को मारना)?

नहीं, यह केवल एक निर्णय लेने के लिए गलत अमूर्तता है, यह कैसे जोखिम कारक को कम करने के लिए कार्रवाई का सही कोर्स चुनने में भारित किया जा सकता है? यदि विकल्प 1 महत्वपूर्ण व्यवसायी क्षति के 20% संभावना के साथ युवा लड़के को मारा जाता है और कोई कानूनी देयता नहीं है और विकल्प 2 एक बूढ़े व्यक्ति को महत्वपूर्ण कब्जे वाले नुकसान के 21% संभावना और कोई कानूनी देयता के साथ मारा जाता है, तो दार्शनिक क्या सिर्फ 1 व्यक्ति को भी मना सकता है निर्णय लेने के लिए उचित और न्यायसंगत भार?

शुक्र है, सबसे अच्छा निर्णय बहुत समय गति को कम करने के लिए ब्रेक मारने के लिए होता है (विशेषकर जब आप समझते हैं कि यह अक्सर अनुमानित रूप से कार्य करने के लिए मूल्यवान है ताकि पैदल यात्री और मोटर चालक तदनुसार प्रतिक्रिया कर सकें)। इस बीच, भविष्यवाणी करने के संदर्भ में बेहतर मूल्य सुधार किए जा सकते हैं जब ड्राइवर खराब निर्णय लेंगे और जब ब्रेक को मारने की तुलना में अन्य क्रियाएं (जैसे रिवर्स को मारना) अधिक फायदेमंद होती हैं। इस बिंदु पर, दार्शनिकों द्वारा प्रस्तावित नैतिक निर्णय लेने के लिए जानकारी एकत्र करना शुरू करना भी इसके लायक नहीं है। इस प्रकार, यह मुद्दा सनसनीखेज पत्रकारों और दार्शनिकों द्वारा अति-सम्मोहित है।


2

मुझे लगता है कि ज्यादातर मामलों में कार मुख्य विकल्प के रूप में गति को कम करने के लिए डिफ़ॉल्ट होगी, बजाय एक विशिष्ट विकल्प से स्टीयरिंग की ओर या दूर। जैसा कि दूसरों ने उल्लेख किया है, नैतिकता से संबंधित सेटिंग्स होना सिर्फ एक बुरा विचार है। यदि दो कारें जो विपरीत नैतिक सेटिंग्स के साथ प्रोग्राम की जाती हैं और टकराने वाली हैं, तो क्या होगा? कारों में संभावित रूप से उपयोगकर्ता सेटिंग्स को ओवरराइड करने और सबसे अधिक लाभकारी समाधान चुनने की प्रणाली हो सकती है। यह वास्तव में एक दिलचस्प अवधारणा है, और एक जो निश्चित रूप से व्यापक कार्यान्वयन से पहले चर्चा और मानकीकृत है। मशीनों में हाथों से नैतिक निर्णय लेना परिणामी दायित्व को कभी-कभी कठिन बना देता है।


हाँ, टकराव से बचने के लिए ब्रेक लगाना सबसे अच्छा उपाय होगा। दुर्भाग्य से, कुछ मामलों में (मामलों में पूछे गए मामले), कुछ को मारना अपरिहार्य है। आप कुछ मौजूदा उत्तरों से सहमत हैं। कृपया ध्यान दें कि हम चाहते हैं कि प्रत्येक उत्तर अपने दम पर खड़ा हो सके। एक बार जब आपके पास पर्याप्त प्रतिष्ठा होगी, तो आप उन उत्तरों को उभारने में सक्षम होंगे जो आपको विश्वास है कि सहायक हैं। दो विपरीत-कॉन्फ़िगर कारों की समस्या वास्तव में दिलचस्प है; यह बहुत अच्छा होगा यदि आप उस पर विस्तार करने के लिए अपने उत्तर को संपादित करेंगे। धन्यवाद!
बेन एन

आपके उत्तर के लिए बहुत बहुत धन्यवाद, मैं वास्तव में इसकी सराहना करता हूं और इसे साइट पर आगे बढ़ाने के लिए उपयोग करूंगा। मुझे उत्तर के दिशानिर्देशों की जानकारी नहीं थी।
imhotraore

1

मुझे लगता है कि कार में इस तरह की नैतिकता को संपादित करने का कोई तरीका नहीं होगा। लेकिन हे, अगर सेल फोन जड़ें हो सकते हैं, तो कार क्यों नहीं? मुझे लगता है कि विशिष्ट मॉडलों के लिए भविष्य में लिनक्स का निर्माण होगा जो आपको जो कुछ भी आप चाहते हैं वह करने देगा।

जैसे कि इस तरह के निर्णय कौन करेगा, यह आज के गोपनीयता मुद्दों की तरह होगा। ओएस प्रदाताओं द्वारा कंबल पर एक रस्साकशी युद्ध होगा (जो घायल लोगों की न्यूनतम राशि, प्रत्येक अपने स्वयं के तरीकों से इसे स्थापित करने की कोशिश करेंगे), बीमा कंपनियां (जो आपको भुगतान करने की कोशिश करेंगे ओएस के लिए और अधिक जो कि आपकी कार को आसानी से नुकसान पहुंचाने के लिए सांख्यिकीय रूप से दिखाया जाएगा), और कार निर्माता (जो चाहते हैं कि आप जितनी जल्दी हो सके अपनी कार को कचरा कर दें, इसलिए आप एक नया खरीद लेंगे, या एक हास्यास्पद बनाने के लिए कार की आवश्यकता होगी; $ $ $ सेवा की राशि)।

तब कुछ व्हिसलब्लोअर सामने आएंगे और कोड का एक टुकड़ा उजागर करेंगे जो छोटे बच्चों को वयस्कों पर मारने का विकल्प चुनता है - क्योंकि इससे उन्हें जानवरों से अलग एक कठिन समय मिलेगा, और वे इसे बचाने के लिए मौके लेंगे जो इसे निश्चित रूप से मनुष्यों के रूप में पहचानेंगे। ओएस निर्माता को जनता से एक सिर-थप्पड़ मिलेगा और एक नई सहमति मिल जाएगी। व्हिसलब्लोअर बीमा कंपनियों और कार निर्माताओं से भी निकलेंगे।

मानवता एक गर्म फ्राइंग पैन को पकड़ेगी और खुद को जलाएगी और फिर पहले से दस्ताने पहनना सीखेगी। मेरी सलाह सिर्फ यह सुनिश्चित करेगी कि आप उस हाथ नहीं होंगे - कुछ वर्षों तक उनसे दूर रहें जब तक कि सभी शुरुआती गलतियाँ नहीं हो जातीं।


1

केवल समझदार विकल्प ही पूर्वानुमानित व्यवहार का उपयोग करना है। तो कार परिदृश्य के सामने लोगों में: पहले कार ब्रेक मारती है, उसी समय हॉर्न को सम्मानित करती है, और निश्चित रूप से रहती है। इसके बाद लोगों के पास शून्य लोगों को मारे जाने के रास्ते से बाहर निकलने का मौका है। पूर्ण ब्रेक के साथ (50 किमी प्रति घंटे से शून्य तक 3 कार की लंबाई कम है), एक प्रभाव स्थिति लगभग कल्पना नहीं है। यहां तक ​​कि अगर पूर्ण विराम तक नहीं पहुंचा जा सकता है, तो पैदल चलने वालों को गंभीर नुकसान होने की संभावना नहीं है।

अन्य परिदृश्य सिर्फ पागल है। इसलिए दूरी 3 कार की लंबाई से कम होनी चाहिए, स्टीयरिंग के लिए आवश्यक कम से कम 1 कार की लंबाई, फिर एक कार दुर्घटनाग्रस्त होना एक बेकाबू स्थिति है, जिससे सभी 11 व्यक्तियों को स्पिन करना और मारना पड़ सकता है।

यह कहने के अलावा कि मुझे विश्वास नहीं है कि वास्तविकता में एक उदाहरण है जहां एक दुविधा है; इन असंभावित मामलों में समाधान यदि विरोधी पक्ष की अपेक्षाओं के अनुरूप है तो दूसरे पक्ष को स्थिति को कम करने के लिए अनुमति देगा।


क्या आप कृपया बेन द्वारा पोस्ट किए गए पहले उत्तर के माध्यम से जाने की कोशिश कर सकते हैं। और फिर एआई के बारे में जो कुछ है, उसके अनुरूप उसे संपादित करने की कोशिश करें!
क्विंटुमिनिया

क्या आप अधिक विशिष्ट हो सकते हैं? मैं पहले उत्तर के माध्यम से पढ़ता हूं, लेकिन यह देखने में विफल रहता हूं कि यह कैसे संबंधित है। क्या आप समझा सकते हैं कि 'AI क्या है?'
लालला

मेरा वहाँ क्या मतलब है; एआई के बारे में जानकार होना चाहिए। यदि आपका जवाब देखने के लिए कम या ज्यादा मत दिया जा सकता है, तो आपकी महिमा!
क्विंटुमिनिया

@quintumnia यह उत्तर मुझे (+1) ठीक लगता है - बिना किसी निर्णय के उसे बदलने या बनाने का प्रयास करना एक वैध विकल्प है।
बेन एन
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.