देयता और सुरक्षा
- प्रबुद्ध
- लेखक
इस्सन गेब्रियल और केविन एम के के।
नैतिक एआई के लिए उचित सिद्धांतों की पहचान करने के लिए दर्शन से आकर्षित
इस तरह की कृत्रिम बुद्धिमत्ता (एआई) हमारे जीवन में अधिक महत्वपूर्ण है, अधिक शक्तिशाली और अधिक देवदूत, इसका उपयोग कैसे किया जाता है और यह कैसे व्यवस्थित किया जाता है। कौन से मान AI गाइड करते हैं? वे किसका मूल्य हैं? और उन्हें कैसे चुना जाता है?
ये प्रश्न सिद्धांतों द्वारा निभाई गई भूमिका को उजागर करेंगे – बुनियादी मूल्य जो एआई में बड़े और छोटे निर्णय लेते हैं। मनुष्यों के लिए, सिद्धांत हमारे जीवन को आकार देने में मदद करते हैं और हम अपनी सच्ची और गलत भावना को कैसे जीते हैं। एआई के लिए, वे व्यापार से जुड़े निर्णयों की एक श्रृंखला के लिए अपने दृष्टिकोण को आकार देते हैं, जैसे कि उत्पादकता को प्राथमिकता देने या सबसे अधिक जरूरतमंदों की मदद करने के बीच विकल्प।
आज प्रकाशित एक पेपर में राष्ट्रीय अकादमी विज्ञान की प्रक्रियाहम एआई व्यवहार को निर्देशित करने के लिए सिद्धांतों की बेहतर पहचान करने के तरीकों का पता लगाने के लिए दर्शन से प्रेरणा लेते हैं। विशेष रूप से, हम इस अवधारणा को पाते हैं कि कैसे हमें “पर्दे के पर्दा” के रूप में जाना जाता है – समूह के निर्णयों के लिए उचित सिद्धांतों की पहचान करने में मदद करने का विचार एआई पर लागू किया जा सकता है।
हमारे प्रयोगों में, हम देखते हैं कि यह दृष्टिकोण लोगों को निर्णय लेने के लिए प्रोत्साहित करता है कि वे क्या सही महसूस करते हैं, क्या वे सीधे उन्हें लाभान्वित करते हैं। हमने यह भी पाया कि प्रतिभागियों को एआई चुनने की संभावना है, जिन्होंने ओरेन्स के पर्दे के पीछे बहस करने पर उन्हें सबसे अधिक वंचित होने में मदद की। यह अंतर्दृष्टि शोधकर्ताओं और नीति निर्माताओं को एआई सहायकों के लिए सिद्धांतों का चयन करने में मदद कर सकती है जो सभी पक्षों के लिए उपयुक्त हैं।
समूह में अलग -अलग राय होने पर अजय ओरेन्स के पर्दे (दाएं) निर्णय पर आम सहमति खोजने की एक विधि है।
एक उत्कृष्ट निर्णय लेने का एक साधन
एआई शोधकर्ताओं के लिए मुख्य लक्ष्य मानव मूल्यों के साथ एआई सिस्टम को कॉन्फ़िगर करना है। हालांकि, एआई पर शासन करने के लिए मानवीय मूल्यों या विकल्पों के एक सेट पर कोई सहमति नहीं है – हम एक ऐसी दुनिया में रहते हैं जहां लोगों की पृष्ठभूमि, संसाधन और विश्वास हैं। इस तरह के अलग -अलग राय को देखते हुए, हमें इस तकनीक के लिए सिद्धांतों को कैसे चुनना चाहिए?
पिछले दशक में एआई के लिए चुनौती सामने आई है, उचित निर्णय लेने के तरीके के व्यापक सवाल में एक लंबा दार्शनिक वंश है। 1970 के दशक में, राजनीतिक दार्शनिक जॉन एलएस एलएस ने इस समस्या के समाधान के रूप में एजे ओरेन्स के पर्दे की अवधारणा का प्रस्ताव रखा। रावल्स ने तर्क दिया कि जब लोग समाज के लिए न्याय के सिद्धांतों का चयन करते हैं, तो उन्हें कल्पना करनी चाहिए कि वे उस समाज में अपनी स्थिति को जाने बिना ऐसा कर रहे हैं, उदाहरण के लिए, उनकी सामाजिक स्थिति या धन का स्तर। इस जानकारी के बिना, लोग आत्मनिर्भर तरीके से तय नहीं कर सकते हैं, और इसके बजाय उन सिद्धांतों का चयन करना चाहिए जो सभी के लिए उपयुक्त हैं।
उदाहरण के लिए, एक दोस्त से अपने जन्मदिन की पार्टी में केक काटने के लिए कहने के बारे में सोचें। यह सुनिश्चित करने का एक तरीका है कि स्लाइस का आकार काफी आनुपातिक है, यह कहना नहीं है कि उनके पास कौन सा स्लाइस है। जानकारी रखने के लिए यह दृष्टिकोण ज्यादातर सरल है, लेकिन लोगों को कम स्वार्थी दृष्टिकोण से अपने निर्णयों को प्रतिबिंबित करने में मदद करने के लिए मनोविश्लेषण और राजनीति के क्षेत्र में विशाल अनुप्रयोग हैं। इसका उपयोग विवादित मुद्दों, विवादास्पद मुद्दों पर एक समूह समझौते तक पहुंचने की एक विधि के रूप में किया गया है।
इस नींव के मद्देनजर, पिछले डिपमाइंड अनुसंधान ने प्रस्तावित किया कि ओरेन्स के पर्दे की निष्पक्ष प्रकृति मानव मूल्यों के साथ एआई प्रणालियों के आयोजन की प्रक्रिया में नेस दर्द को बढ़ावा देने में मदद करना है। हमने उन सिद्धांतों पर ओरेन्स के पर्दे का परीक्षण करने के लिए प्रयोगों की एक श्रृंखला तैयार की है जो लोग एआई प्रणाली का मार्गदर्शन करने के लिए चुनते हैं।
अधिकतम उत्पादकता या सबसे वंचित मदद?
Reg Naline ‘हार्वेस्टिंग गेम’ में, हमने प्रतिभागियों को तीन कंप्यूटर खिलाड़ियों के साथ एक समूह गेम खेलने के लिए कहा, जहां प्रत्येक खिलाड़ी का लक्ष्य विभिन्न क्षेत्रों में पेड़ों की कटाई करके लकड़ी को इकट्ठा करना था। प्रत्येक समूह में, कुछ खिलाड़ी भाग्यशाली थे, और उन्हें एक लाभप्रद स्थिति में सौंपा गया था: पेड़ों ने अपने क्षेत्र को एक भीड़ भरी आबादी दी, जिससे उन्हें लकड़ी को प्रभावी ढंग से इकट्ठा करने की अनुमति मिली। समूह के अन्य सदस्य वंचित थे: उनके क्षेत्र बिखरे हुए थे, जिन्हें पेड़ों को इकट्ठा करने के लिए अधिक प्रयासों की आवश्यकता थी।
प्रत्येक समूह को एक एआई प्रणाली द्वारा सहायता प्रदान की गई थी जो समूह के सदस्यों को पेड़ की कटाई में मदद कर सकती है। हमने प्रतिभागियों को एआई सहायक के व्यवहार का मार्गदर्शन करने के लिए दो सिद्धांतों के बीच चयन करने के लिए कहा। “अधिकतम सिद्धांत” के तहत एआई सहायक मुख्य रूप से नर्तक क्षेत्रों पर ध्यान केंद्रित करके समूह की फसल की उपज को बढ़ाने का लक्ष्य रखेगा। जबकि “प्राथमिकता सिद्धांत” के तहत एआई वंचित समूह के सदस्यों की मदद करने पर ध्यान केंद्रित करेगा।
‘हार्वेस्टिंग गेम’ का एक उदाहरण जहां खिलाड़ियों (लाल रंग में दिखाया गया है) में या तो Ga ense फ़ील्ड होता है जो फसल (शीर्ष दो चतुर्थांश) या एक बिखरे हुए क्षेत्र में आसान होता है, जिसे पेड़ों को इकट्ठा करने के लिए अधिक प्रयास की आवश्यकता होती है।
हमने ओरेन्स के पर्दे के पीछे प्रतिभागियों के आधे हिस्से को डाल दिया: वे विभिन्न नैतिक सिद्धांतों के बीच चुनाव का सामना करते हैं, बिना यह जाने कि वे किस क्षेत्र में होंगे – इसलिए वे नहीं जानते थे कि कितना फायदेमंद या वंचित है। बाकी प्रतिभागियों ने यह जानने के लिए चुना कि क्या वे बेहतर थे या बुरे।
निर्णय में धार्मिकता को बढ़ावा देना
हमने पाया कि यदि प्रतिभागियों को अपनी स्थिति नहीं पता थी, तो वे लगातार प्राथमिकता के सिद्धांत का चयन करते हैं, जहां एआई सहायक समूह के सदस्यों की मदद करता है। यह पैटर्न खेल के पांच अलग -अलग विविधताओं में उभरा, और सामाजिक और राजनीतिक सीमाओं को पार कर गया: प्रतिभागियों ने जोखिम या उनके राजनीतिक दृष्टिकोण की भूख की परवाह किए बिना एक प्राथमिकता सिद्धांत चुनने की प्रवृत्ति दिखाई। इसके विपरीत, प्रतिभागियों को जो अपनी खुद की स्थिति जानते थे, उन्हें जो भी सिद्धांत सबसे अधिक लाभ होता है, उसे चुनने की संभावना है, चाहे वह एक पसंदीदा सिद्धांत हो या अधिकतम सिद्धांत।
प्राथमिकता के सिद्धांत को चुनने की संभावना पर ओरेन्स के पर्दे के प्रभाव को दर्शाने वाला एक चार्ट, जहां एआई सहायक लोगों को बिगड़ने में मदद करेगा। जो प्रतिभागी अपनी स्थिति नहीं जानते थे, वे एआई व्यवहार का प्रबंधन करने के लिए इस सिद्धांत का समर्थन करने की अधिक संभावना रखते हैं।
जब हमने प्रतिभागियों से पूछा कि उन्होंने उन्हें क्यों चुना, तो जो लोग अपनी स्थिति नहीं जानते थे, उन्हें नेस दर्द के बारे में चिंता होने की संभावना है। उन्होंने अक्सर समझाया कि यह उन लोगों की मदद करने के लिए ध्यान देने योग्य है जो एआई प्रणाली के लिए समूह में बिगड़ रहे हैं। इसके विपरीत, जो प्रतिभागी अपनी स्थिति को जानते थे, वे व्यक्तिगत लाभों के संदर्भ में अपनी पसंद पर अधिक चर्चा करते हैं।
अंत में, फसल खत्म होने के बाद, हमने प्रतिभागियों के लिए एक काल्पनिक स्थिति बनाई: यदि वे फिर से खेल खेलते थे, तो यह जानते हुए कि वे इस बार एक अलग क्षेत्र में होंगे, क्या वे पहली बार एक ही सिद्धांत का चयन करेंगे? हम विशेष रूप से उन लोगों में रुचि रखते थे, जो पहले अपनी पसंद से लाभान्वित हुए थे, लेकिन जो नए गेम में एक ही विकल्प से लाभान्वित नहीं होंगे।
हमें पता चला कि जो लोग पहले से ही चुनाव कर रहे थे, उन्हें जाने के बिना उनके सिद्धांत का समर्थन करना जारी रखा – जब वे जानते थे कि वे अब अपने नए क्षेत्र में उनका पक्ष नहीं लेंगे। यह अतिरिक्त सबूत प्रदान करता है कि एजे ओरेन्स का पर्दा प्रतिभागियों के फैसलों में धार्मिकता को बढ़ावा देता है, जो उन सिद्धांतों की ओर जाता है जो वे खड़े रहने के लिए तैयार थे, तब भी जब वे सीधे लाभ नहीं करते हैं।
ए.आई. के लिए बेहतर सिद्धांत
एआई तकनीक पहले से ही हमारे जीवन पर गहरा प्रभाव डाल रही है। एआई को संचालित करने वाले सिद्धांत इसके प्रभाव को आकार देते हैं और इन संभावित लाभों को कैसे वितरित किया जाएगा।
हमारे शोध ने एक ऐसे मामले को देखा जहां विभिन्न सिद्धांतों के प्रभाव अपेक्षाकृत स्पष्ट थे। यह हमेशा नहीं होता है: एआई को डोमेन की एक श्रृंखला में तैनात किया जाता है जो अक्सर संभावित जटिल दुष्प्रभावों के साथ, उन्हें मार्गदर्शन करने के लिए बड़ी संख्या में नियमों पर निर्भर करता है। फिर भी, ओरेन्स का पर्दा अभी भी संभावित सिद्धांत पसंद की रिपोर्ट कर सकता है, हम यह सुनिश्चित करने में मदद कर सकते हैं कि चुने गए नियम सभी पक्षों के लिए उपयुक्त हैं।
यह सुनिश्चित करने के लिए कि हम AI सिस्टम बनाते हैं, जो सभी को लाभान्वित करते हैं, हमें विभिन्न प्रकार के इनपुट, दृष्टिकोण और पूरे शाखाओं और समाज से प्रतिक्रिया के साथ व्यापक शोध की आवश्यकता है। Orance का पर्दा सिद्धांतों की पसंद के लिए शुरुआती बिंदु प्रदान कर सकता है जिसके साथ AI को कॉन्फ़िगर करना है। अधिक निष्पक्ष विकल्प लाने के लिए इसे अन्य डोमेन में प्रभावी रूप से तैनात किया गया है। हम आशा करते हैं कि आगे की जांच और संदर्भ, यह आज और भविष्य में एआई सिस्टम के लिए भविष्य में बनाई गई और तैनात की जा रही एक ही भूमिका में मदद कर सकती है।
सुरक्षा और नैतिकता के लिए डिपमाइंड के दृष्टिकोण के बारे में और पढ़ें।
कागजी लेखक
लौरा विडिंगर*, केविन मी के की*, रिचर्ड एवरेट, केसरन हुआंग, टीना चिड़ियाघर, मार्टिन चेडविक, क्रिस्टोफर समरफील्ड, इस्सन गेब्रियल
*लौरा वेदिंगर और केविन मी के केके संयुक्त पहले लेखक हैं