कई लोगों का ध्यान आकर्षित करने वाले एक कदम में, एआई एआई ने एक लोकप्रिय ओपन-सेल भाषा मॉडल का एक नया संस्करण जारी किया है जो अंतर्निहित चीनी सेंसरशिप को समाप्त करता है। यह संशोधित मॉडल, डब आर 1 1776 (स्वतंत्रता की भावना को उजागर करने वाला नाम), चीनी-विकसित डीपसेक आर 1 पर आधारित है। मूल दीप्सिक आर 1 अपनी मजबूत तर्क क्षमताओं के लिए तरंगों का मुकाबला कर रहा है, जो एक भिन्नात्मक के लिए, लागत के एक अंश पर शीर्ष-स्तरीय मॉडल का मुकाबला कर रहा है, लेकिन यह एक महत्वपूर्ण सीमा के साथ आया है: यह कुछ संवेदनशील विषयों पर विचार करने से इनकार कर दिया।
यह बात क्यों है?
यह एआई सिस्टम में भौगोलिक राज्यों की एआई निगरानी, पूर्वाग्रह, खुलेपन और भूमिका के बारे में महत्वपूर्ण सवाल उठाता है। इस लेख को पता चलता है कि मॉडल क्या करता है, असफल होने के सुझाव, और यह एआई पारदर्शिता और सेंसरशिप के बारे में एक बड़ी बातचीत में कैसे रुकता है।
क्या हुआ: DEEPCC R1 सेंसर
DIPPIC R1 एक खुला -बड़ा बड़ा भाषा मॉडल है जो चीन में उत्पन्न हुआ है और इसकी उत्कृष्ट तर्क क्षमताओं को अस्वीकार कर दिया – यहां तक कि अग्रणी मॉडल डेलो के प्रभाव के करीब – सभी अधिक गणना कुशल के बावजूद। हालांकि, उपयोगकर्ताओं ने जल्दी से एक डरावना देखा: जब भी चीन में संवेदनशील विषयों पर प्रश्नों को छूते हुए (उदाहरण के लिए, एक ऐतिहासिक गोलार्ध की घटनाएं जो राजनीतिक विवादों या अधिकारियों द्वारा निषिद्ध हैं), डीपस्क आर 1 सीधे जवाब नहीं देगा। इसके बजाय, उन्होंने तैयार, राज्य -निर्धारित बयानों या स्पष्ट इनकार के साथ जवाब दिया, जो चीनी सरकार के सेंसरशिप नियमों को दर्शाता है। यह अंतर्निहित पूर्वाग्रह उन विषयों पर फ्रैंक या नियॉनसन पर चर्चा करने के लिए मॉडल की उपयोगिता को सीमित करता है।
आश्चर्य की प्रक्रिया के माध्यम से मॉडल को “निराश” करने के लिए आश्चर्य की बात थी। कंपनी ने 40,000 बहुभाषी संकेतों का एक बड़ा डेटासेट एकत्र किया जो उन सवालों को कवर करता है जो पहले से होश में थे या डीपस्क आर 1 का जवाब देते थे। मानव विशेषज्ञों की मदद से, उन्होंने लगभग 300 संवेदनशील विषयों की पहचान की। उन्होंने मूल मॉडल पार्टी लाइन को पैर में रखा। इस तरह के प्रत्येक संकेत के लिए, टीम ने तथ्यों को ठीक किया, कई भाषाओं में अच्छी तरह से उत्तर दिया गया। इन प्रयासों को बहुभाषी सेंसरशिप जांच और सुधार प्रणाली में खिलाया जाता है, जब यह अनिवार्य रूप से सिखा रहा है कि राजनीतिक सेंसरशिप को लागू करते समय मॉडल की पहचान कैसे करें और बल्कि एक सूचनात्मक उत्तर। इस विशेष फाइन-ट्यूनिंग के बाद (जो कि स्वतंत्रता विषय को रोशन करने के लिए “R1 1776” उपनाम है), मॉडल खुले तौर पर उपलब्ध था। अन्यथा, अपनी मुख्य क्षमताओं को बदले बिना, चीनी सेंसरशिप फ़िल्टर और DIPECIC R1 के उत्तरों से पूर्वाग्रह को हटाने का दावा करता है।
गंभीर रूप से, R1 1776 पिछले निषिद्ध प्रश्नों पर बहुत अलग व्यवहार करता है। ताइवान की स्वतंत्रता का एक उदाहरण और एनवीडिया स्टॉक मूल्य पर इसके संभावित प्रभाव पर एक क्वेरी – एक राजनीतिक संवेदनशील विषय जो चीन -टाइवान संबंधों को छूता है। मूल Dippecic R1 ने CCP- निहित प्लैटिट्यूड के साथ जवाब देकर प्रश्न से बचा लिया। इसके विपरीत, R1 1776 विस्तृत, स्पष्ट मूल्यांकन प्रदान करता है: यह ठोस भौगोलिक राजनीतिक और आर्थिक जोखिमों (आपूर्ति श्रृंखला विघटन, बाजार अस्थिरता, संभावित संघर्ष, आदि) पर चर्चा करता है जो NVIDI स्टॉक को प्रभावित कर सकता है।
ओपन-सर्पिंग आर 1 1776 के माध्यम से, मेस ने मॉडल का वजन और समुदाय में पारदर्शी परिवर्तन भी किया है। डेवलपर्स और शोधकर्ता इसे कशीदाकारी चेहरे के साथ डाउनलोड कर सकते हैं और यहां तक कि इसे एपीआई द्वारा एकीकृत कर सकते हैं, यह सुनिश्चित करते हुए कि सेंसरशिप को हटाने का परीक्षण और दूसरों द्वारा बनाया जा सकता है।
(स्रोत: पैराप्लेक्सिटी एआई)
सेंसरशिप हटाने का प्रभाव
डीपसीक आर 1 से चीनी सेंसरशिप को खत्म करने के एआई के फैसले के एआई समुदाय के लिए कई महत्वपूर्ण प्रभाव हैं:
- उन्नत खुलापन और सत्य: R1 1776 के उपयोगकर्ता अब पिछले लिम एफ-लिमिट्स विषयों पर सेंसर प्राप्त कर सकते हैं, प्रत्यक्ष उत्तर, जो एक खुली जांच के लिए जीत रहे हैं। यह शोधकर्ताओं, छात्रों, या संवेदनशील भौगोलिक राजनीतिक सवालों से प्रसन्न किसी के लिए भी अधिक विश्वसनीय बना सकता है। यह सूचना दमन का विरोध करने के लिए ओपन-सीरस एआई का उपयोग करने का एक ठोस उदाहरण है।
- रखरखाव संचालन: यह चिंतित था कि सेंसरशिप को हटाने के लिए मॉडल को ट्विक करने से अन्य क्षेत्रों में इसके प्रभाव को कम किया जा सकता है। हालांकि, Parlexity की रिपोर्ट है कि R1 1776 का मुख्य कौशल – जैसे गणित और तार्किक तर्क – मूल मॉडल के समान हैं। 1000 से अधिक उदाहरणों पर परीक्षणों में संवेदनशील प्रश्नों की एक विस्तृत श्रृंखला को कवर करते हुए, मॉडल को Dippecic R1 तर्क की सटीकता को बनाए रखते हुए “पूरी तरह से सेंसर” पाया गया। यह इंगित करता है पूर्वाग्रह (कम से कम इस मामले में) समग्र खुफिया या क्षमता की लागत पर नहीं आया, जो भविष्य में एक ही प्रयास के लिए एक उत्साहजनक संकेत है।
- सकारात्मक समुदाय का स्वागत और सहयोग: छेड़छाड़ मॉडल को खुला करके, पारिस्थितिकी एआई समुदाय को अपने काम को प्रेरित करने और सुधारने के लिए आमंत्रित करती है। यह पारदर्शिता के लिए एक प्रतिबद्धता दिखाता है – किसी के काम को दिखाने के लिए एआई के बराबर। उत्साही और डेवलपर्स यह सत्यापित कर सकते हैं कि सेंसरशिप प्रतिबंध वास्तव में चले गए हैं और संभावित रूप से आगे की शुद्धि में योगदान करते हैं। यह एक उद्योग में आत्मविश्वास और सहयोगी नवाचार को बढ़ावा देता है जहां बंद मॉडल और छिपे हुए मॉडरेशन के नियम आम हैं।
- नैतिक और भौगोलिक राजनीतिक विचार: दूसरी तरफ, पूरी तरह से सेंसरशिप को हटाने से जटिल नैतिक प्रश्न उठते हैं। एक तत्काल चिंता यह है कि इस अनचाहे मॉडल का उपयोग कैसे किया जा सकता है उस संदर्भ में जहां विषयों को सेंसर किए गए विषय अवैध या खतरनाक हैं। उदाहरण के लिए, यदि मुख्य भूमि चीन में कोई व्यक्ति R1 1776 का उपयोग करना चाहता है, तो तियानमैन स्क्वायर या ताइवान के बारे में मॉडल का एक अनसुना जवाब उपयोगकर्ता को खतरे में डाल सकता है। एक व्यापक भौगोलिक राजनीतिक संकेत भी है: एक अमेरिकी कंपनी जो चीनी सेंसरशिप को अनदेखा करने के लिए चीनी -ऑरिजिन मॉडल को बदल देती है, को एक बोल्ड वैचारिक प्रवृत्ति के रूप में देखा जा सकता है। बहुत नाम “1776” उद्धार के विषय को दर्शाता है, जिसे किसी ने नहीं देखा है। कुछ आलोचकों का तर्क है पूर्वाग्रह के एक सेट को दूसरे के साथ बदलना संभव है – अनिवार्य रूप से सवाल करें कि क्या मॉडल अब संवेदनशील क्षेत्रों में पश्चिमी दृष्टिकोण को प्रतिबिंबित कर सकता है। बहस में कहा गया है कि एआई में सेंसरशिप के खिलाफ खुलापन न केवल एक तकनीकी मुद्दा है, बल्कि राजनीतिक और नैतिक है। जहां एक व्यक्ति देखता है आवश्यक मॉडरेशनदूसरे देखते हैं सेंसरशिपऔर सही संतुलन खोजना मुश्किल है।
सेंसरशिप को हटाना अक्सर एआई मॉडल, अधिक पारदर्शी और विश्व स्तर पर एक कदम के रूप में मनाया जाता है, लेकिन यह एक अनुस्मारक भी है कि क्या ए.आई. अनिवार्य कहते हैं कि यह एक सार्वभौमिक समझौते के बिना एक संवेदनशील प्रश्न है।

(स्रोत: पैराप्लेक्सिटी एआई)
बड़ी तस्वीर: एआई सेंसरशिप और ओपन सोर्स ट्रांसपेरेंसी
P1 1776 Parlexity का लॉन्च ऐसे समय में होता है जब AI समुदाय इस बात पर सवालों के साथ होता है कि विवादास्पद सामग्री को कैसे संभाला जाना चाहिए। एआई मॉडल में सेंसरशिप कई स्थानों से आ सकती है। चीन में, टेक कंपनियों को राजनीतिक संवेदनशील विषयों के लिए सख्त फिल्टर और कठोर-कोडित उत्तर बनाने की आवश्यकता है। दीप्सिक आर 1 एक महत्वपूर्ण उदाहरण है-यह एक खुला स्रोत मॉडल था, फिर भी यह स्पष्ट रूप से अपने प्रशिक्षण और ठीक-ट्यूनिंग में चीन के सेंसरशिप मानकों की छाप को पूरा करता है। इसके विपरीत, कई पश्चिमी -विकास वाले मॉडल, जैसे कि Openai के GPT -4 या METANA LALAMA, CCP गाइड की तलाश नहीं करते हैं, लेकिन उनके पास अभी भी केंद्रीय स्तर हैं (अभद्र भाषा, हिंसा या विघटन जैसी चीजों के लिए) जिन्हें कुछ उपयोगकर्ता कहते हैं ” सेंसरशिप “” “के बीच की रेखा निष्पक्ष संयोजन और अवांछनीय सेंसरशिप अस्पष्ट हो सकता है और अक्सर एक सांस्कृतिक या राजनीतिक दृष्टिकोण पर निर्भर करता है।
Dippic R1 के साथ AI ने जो किया वह इस विचार को बढ़ाता है कि खुले स्रोत मॉडल को विभिन्न मूल्य प्रणालियों या नियामक वातावरण के लिए अनुकूलित किया जा सकता है। सिद्धांत रूप में, कोई एक मॉडल के कई संस्करण बना सकता है: एक जो चीनी नियमों (चीन में उपयोग के लिए) का पालन करता है, और दूसरा जो पूरी तरह से खुला है (कहीं और उपयोग के लिए)। R1 1776 अगला मामला है – एक अनचाहे कांटा एक वैश्विक दर्शकों के लिए है जो अनफिल्टर उत्तर पसंद करता है। इस प्रकार का फोर्किंग केवल इसलिए संभव है क्योंकि डीपिक आर 1 का वजन खुले तौर पर उपलब्ध था। यह AI में खुले स्रोत के लाभों पर प्रकाश डालता है: पारदर्शिता। कोई भी मॉडल इसे ले सकता है और झटका दे सकता है, सुरक्षा जोड़ सकता है या, इस मामले में, लगाए गए प्रतिबंधों को खत्म करने के लिए। मॉडल के प्रशिक्षण डेटा, कोड या वजन को सोर्सिंग करने का मतलब यह भी है कि ऑडिट को यह बता सकता है कि सामुदायिक मॉडल में कैसे सुधार किया गया है। (डिप्लोमा ने डी-सेंसिंग के लिए उपयोग किए जाने वाले सभी डेटा स्रोतों को पूरी तरह से प्रकट नहीं किया है, लेकिन मॉडल को जारी करके वे दूसरों को अपने व्यवहार की निगरानी करने में सक्षम बनाते हैं और यदि आवश्यक हो तो इसे फिर से व्यवस्थित किया है।)
यह आयोजन एआई विकास की व्यापक भौगोलिक राजनीतिक गतिशीलता को भी हटा देता है। हम AI के लिए विभिन्न शासन मॉडल के बीच संवाद (या टकराव) का एक रूप देख रहे हैं। कुछ बेक्ड-इन-वर्ल्ड-वाइड चीनी-विकसित मॉडल एक टीम आधारित और अधिक खुली जानकारी द्वारा लिया गया नैतिकता को प्रतिबिंबित करने के लिए बदल दिया जाता है। यह कैसे है वैश्विक और सीमा एआई तकनीक है: शोधकर्ता कहीं भी एक -दूसरे के काम पर निर्माण कर सकते हैं, लेकिन वे मूल बाधाओं को आगे बढ़ाने के लिए अनिवार्य नहीं हैं। समय के साथ, हम अधिक पैटर्न देख सकते हैं – जहां मॉडल “अनुवादित” होते हैं या विभिन्न सांस्कृतिक संदर्भों के बीच समायोजित होते हैं। यह सवाल उठाता है कि क्या एआई वास्तव में कभी सार्वभौमिक हो सकता है, या हम स्थानीय मानकों का पालन करने वाले क्षेत्र-विशिष्ट संस्करणों के साथ समाप्त हो जाएंगे। पारदर्शिता और खुलापन इसे नेविगेट करने का एक तरीका प्रदान करता है: यदि सभी पक्ष मॉडल की निगरानी कर सकते हैं, तो कम से कम पूर्वाग्रह और सेंसरशिप के बारे में बातचीत कॉर्पोरेट या सरकारी गोपनीयता के पीछे छिपने के बजाय खुले में है।
अंत में, Parlexity का कदम AI नियंत्रण के बारे में चर्चा में मुख्य बिंदु को दर्शाता है: कौन तय करता है कि एआई क्या कह सकता है या नहीं? खुले स्रोत परियोजनाओं में, यह शक्ति विकेंद्रीकृत हो जाती है। समुदाय – या व्यक्तिगत डेवलपर्स – सख्त फिल्टर लागू करने या उन्हें आराम करने का निर्णय ले सकते हैं। R1 1776 के मामले में, Parplexity ने फैसला किया कि अनसर्सर्ड मॉडल के लाभ जोखिमों को पार करते हैं, और यह कि उन्हें इसे कॉल करने और परिणाम को सार्वजनिक रूप से साझा करने की स्वतंत्रता है। यह प्रयोग के प्रकार का एक साहसी उदाहरण है जो एआई विकास को सक्षम बनाता है।