जैसा कि कंपनियां स्वचालित प्रणालियों पर अधिक निर्भर करती हैं, नैतिकता एक प्रमुख चिंता का विषय बन गई है। एल्गोरिदम अधिक से अधिक निर्णयों को आकार देते हैं जो पहले लोगों द्वारा लिए गए थे, और इन प्रणालियों का नौकरियों, क्रेडिट, स्वास्थ्य सेवा और कानूनी परिणामों पर प्रभाव पड़ता है। यह शक्ति जिम्मेदारी की मांग करता है। स्पष्ट नियमों और नैतिक मानकों के बिना, ऑटो टमाटर को मजबूत और नुकसान पहुंचा सकता है।
नैतिकता से बचना वास्तविक लोगों को वास्तविकता में प्रभावित करता है, न कि केवल सार्वजनिक विश्वास की डिग्री को बदलना। पूर्वाग्रह प्रणाली ऋण, नौकरियों या स्वास्थ्य सेवा से इनकार कर सकती है, और स्वचालन में खराब निर्णयों की गति बढ़ सकती है यदि कोई गार्ड नहीं है। जब सिस्टम को गलत तरीके से कॉल किया जाता है, तो अपील करना हमेशा मुश्किल होता है या इसे समझना मुश्किल क्यों होता है, और पारदर्शिता की कमी से बड़ी समस्याओं में छोटी त्रुटियां होती हैं।
एआई सिस्टम में पूर्वाग्रह को समझें
ऑटो टोमेशन में तैयारी अक्सर डेटा से आती है। यदि ऐतिहासिक, प्रणालियों के इतिहास में भेदभाव है, तो उस पर प्रशिक्षित सिस्टम उन पैटर्न को दोहरा सकते हैं। उदाहरण के लिए, नौकरी आवेदकों को स्क्रीन करने के लिए उपयोग किया जाने वाला एआई टूल लिंग, नस्ल या उम्र के आधार पर उम्मीदवारों को अस्वीकार कर सकता है यदि इसका प्रशिक्षण डेटा अतीत को दर्शाता है। पूर्वाग्रह भी डिज़ाइन में प्रवेश करता है, जहां क्या मापना है, क्या परिणाम के पक्ष में है, और डेटा को लेबल करने के बारे में विकल्प स्क्वीड परिणाम कैसे बना सकते हैं।
कई प्रकार के पूर्वाग्रह हैं। नमूना पूर्वाग्रह तब होता है जब डेटा सेट सभी समूहों का प्रतिनिधित्व नहीं करता है, जबकि लेबलिंग पूर्वाग्रह व्यक्तिपरक मानव इनपुट से आ सकता है। तकनीकी विकल्प जैसे कि ऑप्टिमेशन Ptimization लक्ष्य या एल्गोरिथ्म प्रकार भी परिणामों से चिपके रह सकते हैं।
मुद्दे केवल सैद्धांतिक नहीं हैं। पुरुष उम्मीदवारों के बाद, अमेज़ॅन ने 2018 में एक भर्ती उपकरण का उपयोग छोड़ दिया, और चेहरे के कुछ सत्यापन प्रणालियों को कोकेशियान के बजाय दरों पर रंगीन लोगों को गलत पाया गया है। ऐसी समस्याएं विश्वास को नुकसान पहुंचाती हैं और कानूनी और सामाजिक चिंताओं को बढ़ाती हैं।
एक और वास्तविक चिंता प्रॉक्सी बायस है। जबकि सुरक्षित लक्षण जैसे कि नस्लों का सीधे उपयोग नहीं किया जाता है, अन्य विशेषताएं जैसे कि ज़िप कोड या शिक्षा स्तर स्टैंड-इन के रूप में कार्य कर सकते हैं, अर्थात, भले ही इनपुट तटस्थ दिखता है, सिस्टम भेदभाव कर सकता है, उदाहरण के लिए, अधिक अमीर या गरीब क्षेत्रों के आधार पर। प्रॉक्सी पूर्वाग्रह को ध्यान से परीक्षण के बिना खोजना मुश्किल है। एआई पूर्वाग्रह की घटनाओं में वृद्धि एक संकेत है कि सिस्टम डिजाइन पर अधिक ध्यान देने की आवश्यकता है।
उस महत्वपूर्ण मानकों को पूरा करने के लिए
कानून बदलना। यूरोपीय संघ का एआई अधिनियम, 2024 में पारित हुआ, एआई सिस्टम को जोखिम से रैंक करता है। हायरिंग या क्रेडिट स्कोरिंग में उपयोग किए जाने वाले उच्च -रिस्क सिस्टम, पारदर्शिता, मानव निरीक्षण और पूर्वाग्रह जांच सहित सख्त आवश्यकताओं को पूरा किया जाना चाहिए। अमेरिका में, एक भी एआई कानून नहीं है, लेकिन नियामक सक्रिय हैं। इसी तरह के रोजगार अवसर आयोग (EEOC) नियोक्ताओं को AI- संचालित हायरिंग टूल के जोखिमों के बारे में चेतावनी देता है, और संघीय व्यापार आयोग (FTC) ने यह भी संकेत दिया है कि पक्षपाती प्रणाली भेदभाव विरोधी कानूनों का उल्लंघन कर सकती है।
व्हाइट हाउस ने एआई बिल राइट्स फाई राइट्स के लिए एक खाका जारी किया है, जो सुरक्षित और नैतिक उपयोग पर निर्देशित है। हालांकि कानून नहीं, यह अपेक्षाओं को निर्धारित करता है, जो पांच प्रमुख क्षेत्रों को कवर करता है: सुरक्षित सिस्टम, एल्गोरिथम भेदभाव संरक्षण, डेटा गोपनीयता, अधिसूचना और स्पष्टीकरण और मानव विकल्प।
कंपनियों को राज्य के कानूनों को भी देखा जाना चाहिए। कैलिफ़ोर्निया एल्गोरिथम निर्णय को विनियमित करने के लिए स्थानांतरित हो गया है, और कंपनियों को नौकरी के आवेदकों को यह बताने की आवश्यकता है कि क्या इलिनोइस का उपयोग एक वीडियो साक्षात्कार में एआई में किया जाता है। अनुपालन करने में विफलता जुर्माना और मुकदमा ला सकती है।
न्यूयॉर्क शहर के नियामकों को अब किराए पर लेने के लिए उपयोग किए जाने वाले एआई सिस्टम के लिए अपने डीआईटी की आवश्यकता है। इसके डिट्स को दिखाना होगा कि क्या सिस्टम लिंग और रेस समूहों में सही परिणाम देता है, और जब स्वचालन का उपयोग किया जाता है, तो नियोक्ता को भी आवेदकों को सूचित करना होगा।
अनुपालन केवल दंड से बचने से अधिक है – यह आत्मविश्वास स्थापित करने के बारे में भी है। जो कंपनियां दिखा सकती हैं कि उनके सिस्टम सही हैं और जिम्मेदार हैं, उपयोगकर्ताओं और नियामकों का समर्थन प्राप्त करने की अधिक संभावना है।
फेरर सिस्टम कैसे बनाएं
ऑटो टोमेशन में अवसर से नैतिक नहीं है। यह योजना, उचित उपकरण और चल रहे हैं। प्री -प्रिजिस और नेस को शुरुआत से ही प्रक्रिया से जुड़ा होना चाहिए, न कि बोल्ट बाद में। इसमें लक्ष्य शामिल हैं, जिसमें सही डेटा शामिल है, और तालिका पर सही ध्वनियों को शामिल करना शामिल है।
यह अच्छी तरह से करने का मतलब है कि कुछ प्रमुख रणनीतियाँ:
पूर्वाग्रह का मूल्यांकन
पूर्वाग्रह को हटाने में पहला कदम इसे ढूंढना है। प्रारंभिक और अक्सर, विकास से लेकर तैनाती तक, प्रारंभिक और अक्सर सुनिश्चित करने के लिए पूर्वाग्रह आकलन किया जाना चाहिए, ताकि सिस्टम अनुचित परिणामों का उत्पादन न करे। मैट्रिक्स में समूहों या निर्णयों में एक त्रुटि दर शामिल हो सकती है जो एक समूह पर दूसरे की तुलना में अधिक प्रभाव डालती है।
पूर्वाग्रह इसके डिट्स को तीसरे पक्ष द्वारा किया जाना चाहिए जब संभव हो। आंतरिक समीक्षा मुख्य मुद्दों को याद कर सकती है या स्वतंत्रता की कमी हो सकती है, और उद्देश्य ऑडिट में पारदर्शिता DIT प्रक्रियाओं में सार्वजनिक आत्मविश्वास पैदा करता है।
विभिन्न डेटा सेटों का कार्यान्वयन
विभिन्न प्रशिक्षण डेटा सभी उपयोगकर्ता समूहों के नमूनों को शामिल करके पूर्वाग्रह को कम करने में मदद करते हैं, विशेष रूप से इसे अक्सर बाहर रखा जाता है। आवाज को अक्सर महिलाओं के लिए खराब रूप से पुरुष ध्वनियों पर प्रशिक्षित किया जाता है, और एक क्रेडिट स्कोरिंग मॉडल जिसमें कम -इन्कोम उपयोगकर्ताओं पर डेटा का अभाव है, उन्हें गलत कर सकते हैं।
डेटा की विविधता भी वास्तविक दुनिया के उपयोग के लिए मॉडल को अनुकूलित करने में मदद करती है। उपयोगकर्ता विभिन्न पृष्ठभूमि से आते हैं, और सिस्टम को इसे प्रतिबिंबित करना चाहिए। भौगोलिक, सांस्कृतिक और भाषाई विविधता सभी चीजें।
देखा गया डेटा अपने आप में पर्याप्त नहीं है-इसे सटीक और अच्छी तरह से लेबल किया जाना चाहिए। कचरा, कचरा अभी भी लागू होता है, इसलिए टीमों को त्रुटियों और अंतराल के लिए उन्हें जांचने और सही करने की आवश्यकता होती है।
डिजाइन में समावेश को बढ़ावा देना
शामिल डिजाइन में प्रभावित लोग शामिल हैं। डेवलपर्स को उपयोगकर्ताओं के साथ परामर्श करना चाहिए, विशेष रूप से क्षति के जोखिम पर (या जो लोग, पक्षपातपूर्ण एआईएस का उपयोग करते हैं, नुकसान का कारण बनते हैं), क्योंकि यह अंधे स्थानों को उजागर करने में मदद करता है। इसका मतलब उत्पादन समीक्षाओं में वकालत समूह, नागरिक अधिकार विशेषज्ञ या स्थानीय समुदाय हो सकते हैं। इसका मतलब है कि सिस्टम के जीवित होने से पहले सुनना, शिकायतों को रोल करने के बाद नहीं।
शामिल डिज़ाइन का मतलब क्रॉस-डिसिप्लिन टीमों का भी अर्थ है। नैतिकता, कानून और सामाजिक ट्रान्स से शोर लाने से निर्णय में सुधार हो सकता है, क्योंकि ये टीमें विभिन्न प्रश्नों और स्पॉट जोखिम पूछती हैं।
टीमों को भी विविध होना चाहिए। विभिन्न जीवन के अनुभवों वाले लोग विभिन्न मुद्दों की तलाश कर रहे हैं, और एक सजातीय समूह द्वारा बनाई गई प्रणाली उन जोखिमों को अनदेखा कर सकती है जो वे दूसरों को पकड़ेंगे।
कंपनियां सही क्या कर रही हैं
कुछ कंपनियां और एजेंसियां AI पूर्वाग्रह को खत्म करने और अनुपालन में सुधार करने के लिए कदम उठा रही हैं।
2005 और 2019 के बीच, डच टैक्स और सीमा शुल्क प्रशासन ने लगभग 26,000 परिवारों पर चाइल्डकैअर लाभ का दावा करने का आरोप लगाया। धोखाधड़ी जांच प्रणाली में उपयोग किए जाने वाले एल्गोरिथ्म कम आय वाले परिवारों को दोहरी राष्ट्रीयता और अनुपातहीन परिवारों को लक्षित करते हैं। गिरे हुए लोगों ने 2021 में सार्वजनिक किया और डच सरकार से इस्तीफा दे दिया।
लिंक्डाई ने अपनी नौकरी की सिफारिश एल्गोरिदम में लिंग पूर्वाग्रह पर सत्यापन का सामना किया है। एमआईटी और अन्य स्रोतों के शोध से पता चला है कि पुरुष आंशिक रूप से उच्च स्तर के नेतृत्व की भूमिकाओं से मेल खाते हैं। उपयोगकर्ताओं ने नौकरियों के लिए कैसे आवेदन किया है, इसके व्यवहार पैटर्न के कारण। जवाब में, लिंक्डइन ने उम्मीदवारों के एक और प्रतिनिधि पूल को सुनिश्चित करने के लिए एक माध्यमिक एआई प्रणाली लागू की।
एक अन्य उदाहरण न्यूयॉर्क सिटी ऑटोमैटिक एम्प्लॉयमेंट डिसीजन टूल (AEDT) अधिनियम है, जिसे 1 जनवरी, 2023 को लागू किया गया था, जिसमें कार्यान्वयन 5 जुलाई, 2023 को शुरू हुआ था। कानून में नियोक्ताओं और रोजगार एजेंसियों को नियुक्ति के लिए स्वचालित उपकरणों के उपयोग की आवश्यकता होती है या स्वतंत्र पूर्वाग्रह ऑडिट के लिए बी -प्रोमी, और कम से कम 10 दिनों में, परिणाम का प्रतिनिधित्व करते हैं।
स्वास्थ्य बीमाकर्ता, अटेना ने अपने दावे के अनुमोदन एल्गोरिदम की आंतरिक समीक्षा शुरू की, और पाया कि कुछ मॉडल कम -कम रोगियों के लिए लंबे समय तक देरी करते हैं। इस दूरी को कम करने के लिए, कंपनी ने डेटा का वजन किया और आगे निरीक्षण जोड़ा।
उदाहरणों से पता चलता है कि एआई पूर्वाग्रह पर ध्यान दिया जा सकता है, लेकिन यह प्रयास, स्पष्ट लक्ष्य और मजबूत जिम्मेदारियों को लेता है।
हम यहाँ से कहाँ जाते हैं
स्वचालन यहां रहने के लिए है, लेकिन सिस्टम में विश्वास परिणामों और स्पष्ट नियमों के नेस पर निर्भर करता है। एआई सिस्टम में तैयारी से नुकसान और कानूनी जोखिम हो सकता है, और अनुपालन जांचने के लिए एक बॉक्स नहीं है – वे वास्तव में चीजों को करने का हिस्सा हैं।
नैतिक स्वचालन जागरूकता के साथ शुरू होता है। यह मजबूत डेटा, नियमित परीक्षण और डिजाइन को शामिल करता है। कानून मदद कर सकते हैं, लेकिन वास्तविक परिवर्तन कंपनी की संस्कृति और नेतृत्व पर निर्भर करता है।
(पिक्सबे की तस्वीर)
यह भी देखें: वैश्विक तकनीकी निवेश के लिए मध्य पूर्व एक गर्म स्थान क्यों है

उद्योग के नेताओं से एआई और बड़े डेटा के बारे में अधिक जानना चाहते हैं? एम्स्टर्डम, कैलिफोर्निया और लंदन में आयोजित एआई और बिग डेटा एक्सपो की जाँच करें। ब्रॉड इवेंट को इंटेलिजेंट ऑटो टोमेशन कॉन्फ्रेंस, ब्लॉकएक्स, डिजिटल ट्रांसफॉर्मेशन वीक और साइबर सिक्योरिटी एंड क्लाउड एक्सपो सहित अन्य प्रमुख घटनाओं के साथ सह-स्थित किया गया है।
TechFire द्वारा संचालित अन्य आगामी उद्यम प्रौद्योगिकी घटनाओं और वेबिनार का अन्वेषण करें।