मेरे पास अमेज़ॅन के हालिया भर्ती घोटाले से प्रेरित प्रश्न हैं, जहां उनकी भर्ती प्रक्रिया में महिलाओं के साथ भेदभाव का आरोप लगाया गया था। अधिक जानकारी यहाँ :
Amazon.com इंक के मशीन-लर्निंग विशेषज्ञों ने एक बड़ी समस्या को उजागर किया: उनका नया भर्ती इंजन महिलाओं को पसंद नहीं आया।
टीम 2014 से कंप्यूटर प्रोग्राम बना रही थी, शीर्ष आवेदकों की खोज को मशीनी बनाने के उद्देश्य से नौकरी के आवेदकों के रिज्यूमे की समीक्षा करने के उद्देश्य से
... कंपनी के प्रायोगिक हायरिंग टूल ने आर्टिफिशियल इंटेलिजेंस का उपयोग नौकरी के उम्मीदवारों को एक से पांच सितारों तक के स्कोर देने के लिए किया। ...
... लेकिन 2015 तक, कंपनी ने महसूस किया कि इसकी नई प्रणाली लिंग-तटस्थ तरीके से सॉफ्टवेयर डेवलपर नौकरियों और अन्य तकनीकी पदों के लिए उम्मीदवारों की रेटिंग नहीं थी।
ऐसा इसलिए है क्योंकि 10 साल की अवधि में कंपनी को जमा किए गए रिज्यूमे में अमेज़ॅन के कंप्यूटर मॉडल को आवेदकों को प्रशिक्षित करने के लिए प्रशिक्षित किया गया था। अधिकांश लोग तकनीक उद्योग में पुरुष प्रभुत्व का प्रतिबिंब थे। (टेक में लिंग टूटने पर एक ग्राफिक के लिए, देखें: यहां ) वास्तव में, अमेज़ॅन के सिस्टम ने खुद को सिखाया कि पुरुष उम्मीदवार बेहतर थे। इसने फिर से शुरू किया जिसमें "महिला शतरंज क्लब कप्तान" के रूप में "महिला" शब्द शामिल था। मामले से परिचित लोगों के अनुसार, इसने दो सभी-महिला कॉलेजों के स्नातक को अपग्रेड किया। उन्होंने स्कूलों के नाम नहीं बताए।
अमेज़ॅन ने इन विशेष शर्तों के लिए उन्हें तटस्थ बनाने के लिए कार्यक्रमों को संपादित किया। लेकिन इस बात की कोई गारंटी नहीं थी कि मशीनें उम्मीदवारों को छांटने के अन्य तरीकों से वंचित नहीं करेंगी जो भेदभावपूर्ण साबित हो सकते हैं, लोगों ने कहा।
सिएटल कंपनी ने अंततः पिछले साल की शुरुआत तक टीम को भंग कर दिया क्योंकि अधिकारियों ने परियोजना के लिए उम्मीद खो दी ...
... कंपनी का प्रयोग ... मशीन सीखने की सीमाओं में एक केस अध्ययन प्रदान करता है।
... कंप्यूटर वैज्ञानिक जैसे निहार शाह, जो कार्नेगी मेलन यूनिवर्सिटी में मशीन लर्निंग सिखाते हैं, कहते हैं कि अभी बहुत काम करना बाकी है।
"यह सुनिश्चित करने के लिए कि एल्गोरिथ्म निष्पक्ष है, यह सुनिश्चित करने के लिए कि एल्गोरिथ्म वास्तव में व्याख्या योग्य और व्याख्यात्मक है - यह अभी भी काफी दूर है," उन्होंने कहा।MASCULINE भाषा
[अमेज़ॅन] ने अमेज़ॅन के एडिनबर्ग इंजीनियरिंग हब में एक टीम स्थापित की जो लगभग एक दर्जन लोगों के लिए बढ़ी। उनका लक्ष्य एआई को विकसित करना था, जो भर्ती के लायक वेब और स्पॉट उम्मीदवारों को तेजी से क्रॉल कर सकता था, इस मामले से परिचित लोगों ने कहा।
समूह ने 500 कंप्यूटर मॉडल बनाए जो विशिष्ट कार्य और स्थानों पर केंद्रित थे। उन्होंने प्रत्येक को कुछ 50,000 शब्दों को पहचानना सिखाया जो पिछले उम्मीदवारों के रिज्यूमे पर दिखाई देते थे। एल्गोरिदम ने उन कौशल को बहुत कम महत्व देना सीखा जो आईटी आवेदकों में सामान्य थे, जैसे कि विभिन्न कंप्यूटर कोड लिखने की क्षमता ...
इसके बजाय, प्रौद्योगिकी ने उन उम्मीदवारों का समर्थन किया जिन्होंने खुद को पुरुष इंजीनियरों के रिज्यूमे पर पाए जाने वाले क्रियाओं का उपयोग करके वर्णित किया, जैसे कि "निष्पादित" और "कब्जा कर लिया," एक व्यक्ति ने कहा।
मान लीजिए कि मैं व्यक्तिगत डेटा से कुछ आउटपुट की भविष्यवाणी करने के लिए एक सांख्यिकीय मॉडल बनाना चाहता हूं, जैसे नए लोगों की भर्ती में मदद करने के लिए पांच सितारा रैंकिंग। मान लीजिए कि मैं एक नैतिक बाधा के रूप में भी लैंगिक भेदभाव से बचना चाहता हूं। लिंग के अलावा दो सख्ती से समान प्रोफ़ाइल को देखते हुए, मॉडल का आउटपुट समान होना चाहिए।
क्या मुझे एक इनपुट के रूप में लिंग (या किसी भी डेटा को सहसंबद्ध) का उपयोग करना चाहिए और उनके प्रभाव को ठीक करने की कोशिश करनी चाहिए, या इन डेटा का उपयोग करने से बचना चाहिए?
मैं लिंग के खिलाफ भेदभाव की अनुपस्थिति की जांच कैसे करूं?
मैं आंकड़ों के लिए अपने मॉडल को सही कैसे करूं जो सांख्यिकीय रूप से भेदभावपूर्ण हैं लेकिन मैं नैतिक कारणों से नहीं बनना चाहता हूं?