पूर्वाग्रह को संबोधित करने और एआई सिस्टम के अनुपालन को सुनिश्चित करने के लिए

जैसा कि कंपनियां स्वचालित प्रणालियों पर अधिक निर्भर करती हैं, नैतिकता एक प्रमुख चिंता का विषय बन गई है। एल्गोरिदम अधिक से अधिक निर्णयों को आकार देते हैं जो पहले लोगों द्वारा लिए गए थे, और इन प्रणालियों का नौकरियों, क्रेडिट, स्वास्थ्य सेवा और कानूनी परिणामों पर प्रभाव पड़ता है। यह शक्ति जिम्मेदारी की मांग करता है। स्पष्ट नियमों और नैतिक मानकों के बिना, ऑटो टमाटर को मजबूत और नुकसान पहुंचा सकता है।

नैतिकता से बचना वास्तविक लोगों को वास्तविकता में प्रभावित करता है, न कि केवल सार्वजनिक विश्वास की डिग्री को बदलना। पूर्वाग्रह प्रणाली ऋण, नौकरियों या स्वास्थ्य सेवा से इनकार कर सकती है, और स्वचालन में खराब निर्णयों की गति बढ़ सकती है यदि कोई गार्ड नहीं है। जब सिस्टम को गलत तरीके से कॉल किया जाता है, तो अपील करना हमेशा मुश्किल होता है या इसे समझना मुश्किल क्यों होता है, और पारदर्शिता की कमी से बड़ी समस्याओं में छोटी त्रुटियां होती हैं।

एआई सिस्टम में पूर्वाग्रह को समझें

ऑटो टोमेशन में तैयारी अक्सर डेटा से आती है। यदि ऐतिहासिक, प्रणालियों के इतिहास में भेदभाव है, तो उस पर प्रशिक्षित सिस्टम उन पैटर्न को दोहरा सकते हैं। उदाहरण के लिए, नौकरी आवेदकों को स्क्रीन करने के लिए उपयोग किया जाने वाला एआई टूल लिंग, नस्ल या उम्र के आधार पर उम्मीदवारों को अस्वीकार कर सकता है यदि इसका प्रशिक्षण डेटा अतीत को दर्शाता है। पूर्वाग्रह भी डिज़ाइन में प्रवेश करता है, जहां क्या मापना है, क्या परिणाम के पक्ष में है, और डेटा को लेबल करने के बारे में विकल्प स्क्वीड परिणाम कैसे बना सकते हैं।

कई प्रकार के पूर्वाग्रह हैं। नमूना पूर्वाग्रह तब होता है जब डेटा सेट सभी समूहों का प्रतिनिधित्व नहीं करता है, जबकि लेबलिंग पूर्वाग्रह व्यक्तिपरक मानव इनपुट से आ सकता है। तकनीकी विकल्प जैसे कि ऑप्टिमेशन Ptimization लक्ष्य या एल्गोरिथ्म प्रकार भी परिणामों से चिपके रह सकते हैं।

मुद्दे केवल सैद्धांतिक नहीं हैं। पुरुष उम्मीदवारों के बाद, अमेज़ॅन ने 2018 में एक भर्ती उपकरण का उपयोग छोड़ दिया, और चेहरे के कुछ सत्यापन प्रणालियों को कोकेशियान के बजाय दरों पर रंगीन लोगों को गलत पाया गया है। ऐसी समस्याएं विश्वास को नुकसान पहुंचाती हैं और कानूनी और सामाजिक चिंताओं को बढ़ाती हैं।

एक और वास्तविक चिंता प्रॉक्सी बायस है। जबकि सुरक्षित लक्षण जैसे कि नस्लों का सीधे उपयोग नहीं किया जाता है, अन्य विशेषताएं जैसे कि ज़िप कोड या शिक्षा स्तर स्टैंड-इन के रूप में कार्य कर सकते हैं, अर्थात, भले ही इनपुट तटस्थ दिखता है, सिस्टम भेदभाव कर सकता है, उदाहरण के लिए, अधिक अमीर या गरीब क्षेत्रों के आधार पर। प्रॉक्सी पूर्वाग्रह को ध्यान से परीक्षण के बिना खोजना मुश्किल है। एआई पूर्वाग्रह की घटनाओं में वृद्धि एक संकेत है कि सिस्टम डिजाइन पर अधिक ध्यान देने की आवश्यकता है।

उस महत्वपूर्ण मानकों को पूरा करने के लिए

कानून बदलना। यूरोपीय संघ का एआई अधिनियम, 2024 में पारित हुआ, एआई सिस्टम को जोखिम से रैंक करता है। हायरिंग या क्रेडिट स्कोरिंग में उपयोग किए जाने वाले उच्च -रिस्क सिस्टम, पारदर्शिता, मानव निरीक्षण और पूर्वाग्रह जांच सहित सख्त आवश्यकताओं को पूरा किया जाना चाहिए। अमेरिका में, एक भी एआई कानून नहीं है, लेकिन नियामक सक्रिय हैं। इसी तरह के रोजगार अवसर आयोग (EEOC) नियोक्ताओं को AI- संचालित हायरिंग टूल के जोखिमों के बारे में चेतावनी देता है, और संघीय व्यापार आयोग (FTC) ने यह भी संकेत दिया है कि पक्षपाती प्रणाली भेदभाव विरोधी कानूनों का उल्लंघन कर सकती है।

व्हाइट हाउस ने एआई बिल राइट्स फाई राइट्स के लिए एक खाका जारी किया है, जो सुरक्षित और नैतिक उपयोग पर निर्देशित है। हालांकि कानून नहीं, यह अपेक्षाओं को निर्धारित करता है, जो पांच प्रमुख क्षेत्रों को कवर करता है: सुरक्षित सिस्टम, एल्गोरिथम भेदभाव संरक्षण, डेटा गोपनीयता, अधिसूचना और स्पष्टीकरण और मानव विकल्प।

कंपनियों को राज्य के कानूनों को भी देखा जाना चाहिए। कैलिफ़ोर्निया एल्गोरिथम निर्णय को विनियमित करने के लिए स्थानांतरित हो गया है, और कंपनियों को नौकरी के आवेदकों को यह बताने की आवश्यकता है कि क्या इलिनोइस का उपयोग एक वीडियो साक्षात्कार में एआई में किया जाता है। अनुपालन करने में विफलता जुर्माना और मुकदमा ला सकती है।

न्यूयॉर्क शहर के नियामकों को अब किराए पर लेने के लिए उपयोग किए जाने वाले एआई सिस्टम के लिए अपने डीआईटी की आवश्यकता है। इसके डिट्स को दिखाना होगा कि क्या सिस्टम लिंग और रेस समूहों में सही परिणाम देता है, और जब स्वचालन का उपयोग किया जाता है, तो नियोक्ता को भी आवेदकों को सूचित करना होगा।

अनुपालन केवल दंड से बचने से अधिक है – यह आत्मविश्वास स्थापित करने के बारे में भी है। जो कंपनियां दिखा सकती हैं कि उनके सिस्टम सही हैं और जिम्मेदार हैं, उपयोगकर्ताओं और नियामकों का समर्थन प्राप्त करने की अधिक संभावना है।

फेरर सिस्टम कैसे बनाएं

ऑटो टोमेशन में अवसर से नैतिक नहीं है। यह योजना, उचित उपकरण और चल रहे हैं। प्री -प्रिजिस और नेस को शुरुआत से ही प्रक्रिया से जुड़ा होना चाहिए, न कि बोल्ट बाद में। इसमें लक्ष्य शामिल हैं, जिसमें सही डेटा शामिल है, और तालिका पर सही ध्वनियों को शामिल करना शामिल है।

यह अच्छी तरह से करने का मतलब है कि कुछ प्रमुख रणनीतियाँ:

पूर्वाग्रह का मूल्यांकन

पूर्वाग्रह को हटाने में पहला कदम इसे ढूंढना है। प्रारंभिक और अक्सर, विकास से लेकर तैनाती तक, प्रारंभिक और अक्सर सुनिश्चित करने के लिए पूर्वाग्रह आकलन किया जाना चाहिए, ताकि सिस्टम अनुचित परिणामों का उत्पादन न करे। मैट्रिक्स में समूहों या निर्णयों में एक त्रुटि दर शामिल हो सकती है जो एक समूह पर दूसरे की तुलना में अधिक प्रभाव डालती है।

पूर्वाग्रह इसके डिट्स को तीसरे पक्ष द्वारा किया जाना चाहिए जब संभव हो। आंतरिक समीक्षा मुख्य मुद्दों को याद कर सकती है या स्वतंत्रता की कमी हो सकती है, और उद्देश्य ऑडिट में पारदर्शिता DIT प्रक्रियाओं में सार्वजनिक आत्मविश्वास पैदा करता है।

विभिन्न डेटा सेटों का कार्यान्वयन

विभिन्न प्रशिक्षण डेटा सभी उपयोगकर्ता समूहों के नमूनों को शामिल करके पूर्वाग्रह को कम करने में मदद करते हैं, विशेष रूप से इसे अक्सर बाहर रखा जाता है। आवाज को अक्सर महिलाओं के लिए खराब रूप से पुरुष ध्वनियों पर प्रशिक्षित किया जाता है, और एक क्रेडिट स्कोरिंग मॉडल जिसमें कम -इन्कोम उपयोगकर्ताओं पर डेटा का अभाव है, उन्हें गलत कर सकते हैं।

डेटा की विविधता भी वास्तविक दुनिया के उपयोग के लिए मॉडल को अनुकूलित करने में मदद करती है। उपयोगकर्ता विभिन्न पृष्ठभूमि से आते हैं, और सिस्टम को इसे प्रतिबिंबित करना चाहिए। भौगोलिक, सांस्कृतिक और भाषाई विविधता सभी चीजें।

देखा गया डेटा अपने आप में पर्याप्त नहीं है-इसे सटीक और अच्छी तरह से लेबल किया जाना चाहिए। कचरा, कचरा अभी भी लागू होता है, इसलिए टीमों को त्रुटियों और अंतराल के लिए उन्हें जांचने और सही करने की आवश्यकता होती है।

डिजाइन में समावेश को बढ़ावा देना

शामिल डिजाइन में प्रभावित लोग शामिल हैं। डेवलपर्स को उपयोगकर्ताओं के साथ परामर्श करना चाहिए, विशेष रूप से क्षति के जोखिम पर (या जो लोग, पक्षपातपूर्ण एआईएस का उपयोग करते हैं, नुकसान का कारण बनते हैं), क्योंकि यह अंधे स्थानों को उजागर करने में मदद करता है। इसका मतलब उत्पादन समीक्षाओं में वकालत समूह, नागरिक अधिकार विशेषज्ञ या स्थानीय समुदाय हो सकते हैं। इसका मतलब है कि सिस्टम के जीवित होने से पहले सुनना, शिकायतों को रोल करने के बाद नहीं।

शामिल डिज़ाइन का मतलब क्रॉस-डिसिप्लिन टीमों का भी अर्थ है। नैतिकता, कानून और सामाजिक ट्रान्स से शोर लाने से निर्णय में सुधार हो सकता है, क्योंकि ये टीमें विभिन्न प्रश्नों और स्पॉट जोखिम पूछती हैं।

टीमों को भी विविध होना चाहिए। विभिन्न जीवन के अनुभवों वाले लोग विभिन्न मुद्दों की तलाश कर रहे हैं, और एक सजातीय समूह द्वारा बनाई गई प्रणाली उन जोखिमों को अनदेखा कर सकती है जो वे दूसरों को पकड़ेंगे।

कंपनियां सही क्या कर रही हैं

कुछ कंपनियां और एजेंसियां ​​AI पूर्वाग्रह को खत्म करने और अनुपालन में सुधार करने के लिए कदम उठा रही हैं।

2005 और 2019 के बीच, डच टैक्स और सीमा शुल्क प्रशासन ने लगभग 26,000 परिवारों पर चाइल्डकैअर लाभ का दावा करने का आरोप लगाया। धोखाधड़ी जांच प्रणाली में उपयोग किए जाने वाले एल्गोरिथ्म कम आय वाले परिवारों को दोहरी राष्ट्रीयता और अनुपातहीन परिवारों को लक्षित करते हैं। गिरे हुए लोगों ने 2021 में सार्वजनिक किया और डच सरकार से इस्तीफा दे दिया।

लिंक्डाई ने अपनी नौकरी की सिफारिश एल्गोरिदम में लिंग पूर्वाग्रह पर सत्यापन का सामना किया है। एमआईटी और अन्य स्रोतों के शोध से पता चला है कि पुरुष आंशिक रूप से उच्च स्तर के नेतृत्व की भूमिकाओं से मेल खाते हैं। उपयोगकर्ताओं ने नौकरियों के लिए कैसे आवेदन किया है, इसके व्यवहार पैटर्न के कारण। जवाब में, लिंक्डइन ने उम्मीदवारों के एक और प्रतिनिधि पूल को सुनिश्चित करने के लिए एक माध्यमिक एआई प्रणाली लागू की।

एक अन्य उदाहरण न्यूयॉर्क सिटी ऑटोमैटिक एम्प्लॉयमेंट डिसीजन टूल (AEDT) अधिनियम है, जिसे 1 जनवरी, 2023 को लागू किया गया था, जिसमें कार्यान्वयन 5 जुलाई, 2023 को शुरू हुआ था। कानून में नियोक्ताओं और रोजगार एजेंसियों को नियुक्ति के लिए स्वचालित उपकरणों के उपयोग की आवश्यकता होती है या स्वतंत्र पूर्वाग्रह ऑडिट के लिए बी -प्रोमी, और कम से कम 10 दिनों में, परिणाम का प्रतिनिधित्व करते हैं।

स्वास्थ्य बीमाकर्ता, अटेना ने अपने दावे के अनुमोदन एल्गोरिदम की आंतरिक समीक्षा शुरू की, और पाया कि कुछ मॉडल कम -कम रोगियों के लिए लंबे समय तक देरी करते हैं। इस दूरी को कम करने के लिए, कंपनी ने डेटा का वजन किया और आगे निरीक्षण जोड़ा।

उदाहरणों से पता चलता है कि एआई पूर्वाग्रह पर ध्यान दिया जा सकता है, लेकिन यह प्रयास, स्पष्ट लक्ष्य और मजबूत जिम्मेदारियों को लेता है।

हम यहाँ से कहाँ जाते हैं

स्वचालन यहां रहने के लिए है, लेकिन सिस्टम में विश्वास परिणामों और स्पष्ट नियमों के नेस पर निर्भर करता है। एआई सिस्टम में तैयारी से नुकसान और कानूनी जोखिम हो सकता है, और अनुपालन जांचने के लिए एक बॉक्स नहीं है – वे वास्तव में चीजों को करने का हिस्सा हैं।

नैतिक स्वचालन जागरूकता के साथ शुरू होता है। यह मजबूत डेटा, नियमित परीक्षण और डिजाइन को शामिल करता है। कानून मदद कर सकते हैं, लेकिन वास्तविक परिवर्तन कंपनी की संस्कृति और नेतृत्व पर निर्भर करता है।

(पिक्सबे की तस्वीर)

यह भी देखें: वैश्विक तकनीकी निवेश के लिए मध्य पूर्व एक गर्म स्थान क्यों है

उद्योग के नेताओं से एआई और बड़े डेटा के बारे में अधिक जानना चाहते हैं? एम्स्टर्डम, कैलिफोर्निया और लंदन में आयोजित एआई और बिग डेटा एक्सपो की जाँच करें। ब्रॉड इवेंट को इंटेलिजेंट ऑटो टोमेशन कॉन्फ्रेंस, ब्लॉकएक्स, डिजिटल ट्रांसफॉर्मेशन वीक और साइबर सिक्योरिटी एंड क्लाउड एक्सपो सहित अन्य प्रमुख घटनाओं के साथ सह-स्थित किया गया है।

TechFire द्वारा संचालित अन्य आगामी उद्यम प्रौद्योगिकी घटनाओं और वेबिनार का अन्वेषण करें।

You might also enjoy

Subscribe Our Newsletter

Scroll to Top