Home » (How Far) Can We Trust Our AI?
How Can We Build Better Systems Out of AI Corrupted by Human Biases?

(How Far) Can We Trust Our AI?

by Sneha Shukla

आर्टिफिशियल इंटेलिजेंस (एआई) सिस्टम अब सोशल मीडिया को मॉडरेट करने से लेकर निर्णय लेने से लेकर नीति और शासन तक सब कुछ नियंत्रित कर रहा है। आज, हमारे पास ऐसी कंपनियां हैं जो AI का उपयोग करने के लिए सिस्टम बना रही हैं जो यह अनुमान लगा सकती हैं कि COVID-19 अगले स्ट्राइक करेगा, और हेल्थकेयर के बारे में निर्णय करेगा। लेकिन इन प्रणालियों को बनाने में, और उन आंकड़ों को चुनने में, जो उनके निर्णयों को सूचित करते हैं, मानव पूर्वाग्रह का एक बड़ा खतरा है और उन गलतियों को बढ़ाना है जो लोग कर रहे हैं।

यह समझने के लिए कि कोई एआई सिस्टम में विश्वास कैसे बना सकता है, हमने पकड़ लिया आईबीएम रिसर्च इंडिया के निदेशक, गार्गी दासगुप्ता, और विशिष्ट अभियंता, समीप मेहता, साथ ही डॉ विविएन मिंग, विशेषज्ञ और founder के संस्थापक सोकोस लैब्सकुछ जवाब खोजने के लिए कैलिफोर्निया स्थित एआई इनक्यूबेटर।

एआई सिस्टम में पूर्वाग्रह पहली जगह कैसे रिसता है?

डॉ मिंग ने समझाया कि पूर्वाग्रह एक समस्या बन जाती है जब एआई को पहले से पक्षपाती डेटा के लिए प्रशिक्षित किया जा रहा है। डॉ। मिंग एक न्यूरोसाइंटिस्ट और सोकोस लैब्स के संस्थापक हैं, एक इनक्यूबेटर है जो एआई के आवेदन के माध्यम से मानव समस्याओं को गन्दा करने के लिए समाधान खोजने का काम करता है। “एक अकादमिक के रूप में, मुझे बहुत से सहयोगी काम करने का मौका मिला है गूगल तथा वीरांगना और अन्य, ”उसने समझाया।

“यदि आप वास्तव में ऐसी प्रणालियों का निर्माण करना चाहते हैं जो समस्याओं को हल कर सकें, तो यह महत्वपूर्ण है कि आप पहले देखें कि समस्या कहां मौजूद है। डेटा की एक बड़ी मात्रा और समस्या की एक बुरी समझ वास्तव में मुद्दों को बनाने की गारंटी है। “

आईबीएम के दासगुप्ता ने कहा, “यह सुनिश्चित करने के लिए विशेष उपकरण और तकनीकों की आवश्यकता है कि हमारे पास पक्षपात न हो। हमें यह सुनिश्चित करने और अतिरिक्त सावधानी बरतने की आवश्यकता है कि हम पूर्वाग्रह को हटा दें, ताकि हमारे पूर्वाग्रह स्वाभाविक रूप से मॉडल में संचारित न हों। ”

चूंकि मशीन लर्निंग पिछले डेटा पर बनाया गया है, इसलिए एल्गोरिदम के लिए सहसंबंध खोजना बहुत आसान है – और इसे कार्य-कारण के रूप में पढ़ें। शोर और यादृच्छिक उतार-चढ़ाव को मॉडल द्वारा मुख्य अवधारणाओं के रूप में व्याख्यायित किया जा सकता है। लेकिन फिर, जब नया डेटा दर्ज किया जाता है, और इसमें एक ही उतार-चढ़ाव नहीं होता है, तो मॉडल यह सोचेगा कि यह आवश्यकताओं से मेल नहीं खाता है।

“हम उन महिलाओं को काम पर रखने के लिए AI कैसे बनाते हैं जो महिलाओं के खिलाफ पक्षपाती नहीं हैं अमेज़ॅन चाहता था कि मैं बिल्कुल ऐसी चीज़ बनाऊं और मैंने उन्हें बताया कि वे ऐसा कर रहे हैं जो काम नहीं करेगा। “वे अपने बड़े पैमाने पर भर्ती इतिहास पर एआई को सिर्फ प्रशिक्षण दे रहे थे। उनके पास पिछले कर्मचारियों का एक विशाल डेटासेट है। लेकिन मुझे नहीं लगता कि यह हम में से किसी के लिए आश्चर्य की बात है कि इसके लगभग सभी भर्ती इतिहास कई कारणों से पुरुषों के पक्ष में हैं।

“यह सिर्फ यह नहीं है कि वे बुरे लोग हैं; वे बुरे लोग नहीं हैं, लेकिन एआई जादू नहीं है। अगर मनुष्य लिंगवाद या जातिवाद या जातिवाद का पता नहीं लगा सकते हैं तो एआई हमारे लिए ऐसा नहीं करेगा। ”

पूर्वाग्रह को दूर करने और एआई सिस्टम में विश्वास बनाने के लिए क्या किया जा सकता है?

डॉ। मिंग उन्हें विनियमित करने की तुलना में एआई सिस्टम की ऑडिटिंग के पक्षधर हैं। “मैं नियमन का बड़ा वकील नहीं हूँ। बड़ी से लेकर छोटी कंपनियों को ऑडिटिंग को अपनाने की जरूरत है। उनके एआई, एल्गोरिदम और डेटा की ऑडिटिंग ठीक उसी तरह से है जैसे वे वित्तीय उद्योग के लिए करते हैं, ”उसने कहा।

“अगर हम चाहते हैं कि एआई सिस्टम को काम पर रखने में निष्पक्षता हो, तो हमें यह देखने में सक्षम होना चाहिए कि किसी के महान कर्मचारी होने का क्या कारण है और न कि पिछले महान कर्मचारियों के साथ ‘सहसंबंध’ क्या है,” डॉ मिंग ने समझाया।

“क्या सहसंबंध आसान है – कुलीन स्कूल, कुछ लिंग, निश्चित जाति – कम से कम दुनिया के कुछ हिस्सों में वे पहले से ही भर्ती प्रक्रिया का हिस्सा हैं। जब आप कारण विश्लेषण लागू करते हैं, तो एक संभ्रांत विद्यालय में जाना इस बात का सूचक नहीं है कि लोग अपनी नौकरी में अच्छे क्यों हैं। बड़ी संख्या में लोग जो संभ्रांत स्कूलों में नहीं जाते थे, वे अपनी नौकरी में उतने ही अच्छे होते हैं जितने कि एक में जाने वाले। हम आम तौर पर लगभग 122 मिलियन लोगों के डेटा सेट में पाए जाते हैं, दस थे और कुछ मामलों में लगभग 100 बार समान रूप से योग्य लोग थे जो कुलीन विश्वविद्यालयों में भाग लेते हैं। “

इस समस्या को हल करने के लिए, किसी को पहले यह समझना होगा कि क्या और कैसे AI मॉडल पक्षपाती है, और दूसरा, पूर्वाग्रहों को दूर करने के लिए एल्गोरिदम पर काम करना है।

मेहता के अनुसार, “कहानी के दो भाग हैं – एक एआई मॉडल पक्षपाती है, यह समझना है। यदि ऐसा है, तो अगला कदम ऐसे पूर्वाग्रहों को दूर करने के लिए एल्गोरिदम प्रदान करना है।”

आईबीएम रिसर्च टीम ने AI में पूर्वाग्रह को दूर करने और कम करने के उद्देश्य से कई प्रकार के टूल जारी किए। आईबीएम का एआई फेयरनेस 360 टूलकिट ऐसा ही एक उपकरण है। यह डेटासेट और मशीन लर्निंग मॉडल में अवांछित पूर्वाग्रह की जांच के लिए मेट्रिक्स का एक खुला स्रोत है, जो एआई में पूर्वाग्रह की गणना करने के लिए लगभग 70 विभिन्न तरीकों का उपयोग करता है।

दासगुप्ता का कहना है कि ऐसे कई मामले सामने आए हैं जहां एक सिस्टम में पूर्वाग्रह था और आईबीएम टीम इसकी भविष्यवाणी करने में सक्षम थी। “जब हम पूर्वाग्रह की भविष्यवाणी करते हैं, तो यह ग्राहकों के हाथ में होता है कि वे इसे अपनी उपचार प्रक्रिया के हिस्से में कैसे एकीकृत करते हैं।”

आईबीएम रिसर्च टीम ने एआई एक्सपेंडेबिलिटी 360 टूलकिट भी विकसित की है जो एल्गोरिदम का एक टूलकिट है जो मशीन लर्निंग मॉडल की व्याख्यात्मकता का समर्थन करता है। दासगुप्ता ने समझाया कि यह ग्राहकों को अपने सिस्टम को समझने और आगे सुधारने और पुनरावृत्त करने की अनुमति देता है।

इसका एक हिस्सा एक प्रणाली है जिसे आईबीएम फैक्टशीट कहता है – बहुत कुछ पोषण लेबल की तरह, या ऐप गोपनीयता लेबल जो ऐप्पल ने पेश किया हाल फ़िलहाल।

फैक्टशीट में ‘यह AI क्यों बनाया गया था?’, ‘इसे कैसे प्रशिक्षित किया गया था?’, ‘प्रशिक्षण डेटा की विशेषताएं क्या हैं’, ‘क्या मॉडल उचित है?’, ‘क्या मॉडल व्याख्या योग्य है?’ जैसे प्रश्न शामिल हैं। आदि। यह मानकीकरण दो एआई की एक दूसरे के खिलाफ तुलना करने में भी मदद करता है।

आईबीएम ने हाल ही में अपने एआई सिस्टम वाटसन के लिए नई क्षमताओं का शुभारंभ किया। मेहता ने कहा कि आईबीएम के एआई फेयरनेस 360 टूलकिट और वॉटसन ओपेंस्केल को अपने फैसलों के साथ ग्राहकों की मदद के लिए कई स्थानों पर तैनात किया गया है।


HomepageClick Hear

Related Posts

Leave a Comment