एंडोर लैब्स: एआई ट्रांसपेरेंसी बनाम ‘ओपन-वॉशिंग’

जैसा कि एआई उद्योग पारदर्शिता और सुरक्षा पर केंद्रित है, “खुलेपन” के सही अर्थ के आसपास चर्चा तीव्र है। ओपन सोर्स सिक्योरिटी फर्म एंडोर लैब्स के विशेषज्ञों ने इन दबाव वाले विषयों पर तौला।

एंडोर लैब्स, एंड्रयू स्टीफेल, एआई सिस्टम्स में सॉफ्टवेयर फैटवेयर सुरक्षा से सीखा एक सबक लागू करने के महत्व पर जोर दिया गया है।

“अमेरिकी सरकार के 2021 कार्यकारी आदेश में अमेरिकी साइबर सुरक्षा में सुधार करने के लिए, प्रावधान में संघीय सरकारी एजेंसियों को बेचे जाने वाले प्रत्येक उत्पाद के लिए एक सॉफ्टवेयर बिल (एसबीओएम) का निर्माण शामिल है।”

SBOM अनिवार्य रूप से एक इन्वेंट्री है जो उत्पाद के भीतर खुले स्रोत घटकों का विवरण देता है, जो कमजोरियों का पता लगाने में मदद करता है। स्टीफेल ने तर्क दिया कि “एआई सिस्टम में इन समान सिद्धांतों को लागू करना एक तार्किक अगला कदम है।”

उन्होंने समझाया, “नागरिकों और सरकारी कर्मचारियों के लिए बेहतर पारदर्शिता प्रदान करना न केवल सुरक्षा में सुधार करता है,” बल्कि मॉडल डेटासेट, प्रशिक्षण, वजन और अन्य घटकों की दृश्यता भी देता है। “

एआई मॉडल का “खुला” होने का क्या मतलब है?

एंडोर लैब्स के वरिष्ठ उत्पाद प्रबंधक जूलियन सोबियर ने एआई पारदर्शिता और “खुलेपन” के लिए एक महत्वपूर्ण संदर्भ जोड़ा। सोबर ने एआई सिस्टम को वास्तव में खुले के रूप में वर्गीकृत करने में अंतर्निहित जटिलता को तोड़ दिया।

“एआई मॉडल कई घटकों से बना है: प्रशिक्षण सेट, वजन और कार्यक्रमों को प्रशिक्षित करने और परीक्षण करने के लिए कार्यक्रम, आदि। मॉडल को ‘ओपन’ कहने के लिए पूरी श्रृंखला को एक खुले स्रोत के रूप में उपलब्ध कराना महत्वपूर्ण है। यह अभी के लिए एक व्यापक परिभाषा है। ”

सोबियर ने मुख्य खिलाड़ियों के बीच स्थिरता की कमी पर ध्यान दिया, जिससे शब्द के बारे में भ्रम पैदा हुआ।

“मुख्य खिलाड़ियों में, ‘ओपन’ की परिभाषा के बारे में चिंताएं ओपनई के साथ शुरू हुईं, और मेटा अब उनके लामा मॉडल के लिए समाचार में है, हालांकि यह ‘अधिक खुला’ है। हमें एक सामान्य समझ की आवश्यकता है कि खुले मॉडल का क्या अर्थ है। हम किसी भी ‘ओपन-वॉशिंग हॉर्न’ पर नज़र रखना चाहते हैं, जैसा कि हमने इसे सॉफ्टवेयर फेटवेयर के साथ मुफ्त वीएस ओपन-सोल्स के साथ देखा है। ”

संभावित कठिनाइयों में से एक, सोबेरियर प्रकाशित, “ओपन वॉशिंग” का अधिक से अधिक सामान्य अभ्यास है, जहां संगठन प्रतिबंधों को लागू करते समय पारदर्शिता का दावा करते हैं।

“क्लाउड प्रदाताओं में योगदान किए बिना ओपन-सन परियोजनाओं (जैसे डेटाबेस) के एक भुगतान किए गए संस्करण की पेशकश करके, हमने कई खुले स्रोत परियोजनाओं में बदलाव देखा है: स्रोत कोड अभी भी खुला है, लेकिन उन्होंने कई व्यावसायिक प्रतिबंधों को जोड़ा है।”

“मेटा और अन्य ‘ओपन’ एलएलएम प्रदाता अपने प्रतिस्पर्धात्मक लाभ को बनाए रखने के लिए इस मार्ग पर जा सकते हैं: मॉडल के बारे में अधिक खुलापन, लेकिन प्रतियोगियों को इसका उपयोग करने से रोकता है,” सोरार ने चेतावनी दी।

दीप्सिक एआई का उद्देश्य पारदर्शिता बढ़ाना है

एआई उद्योग के खिलाड़ियों-विवादास्पद के बावजूद, डीईपीसीसी ने अपने मॉडल और कोड ओपन सोर्स के कुछ हिस्सों को बनाकर इनमें से कुछ चिंताओं को दूर करने के लिए कदम उठाए हैं। सुरक्षा अंतर्दृष्टि प्रदान करते समय इस कदम को पारदर्शिता को आगे बढ़ाने के लिए सराहना की गई है।

एंड्रयू स्टेफल ने कहा, “डीईपीसीसी ने पहले ही एक खुले स्रोत के रूप में मॉडल और उनके वजन को पेश किया है।” “यह फ्रंट मूव उनकी होस्ट की गई सेवाओं में अधिक पारदर्शिता प्रदान करेगा, और वे इन मॉडलों को दृश्यता देंगे कि वे कैसे उत्पादन में चलते हैं और संचालित करते हैं।”

इस तरह की पारदर्शिता, पंजीकृत स्टीफेल के महत्वपूर्ण लाभ हैं। “यह इस समुदाय के लिए सुरक्षा जोखिमों के लिए अपने सिस्टम के ऑडिट के लिए और व्यक्तियों और संगठनों को उत्पादन में Dippic के अपने स्वयं के संस्करण चलाने के लिए चलाने के लिए आसान बना देगा।”

सुरक्षा के अलावा, Dippacic AI एक पैमाने पर बुनियादी ढांचे का प्रबंधन करने के लिए एक रास्ता भी प्रदान करता है।

“पारदर्शिता के पक्ष से, हम देखेंगे कि दीप्स्क अपनी होस्ट की गई सेवाओं को कैसे चला रहा है। यह सुरक्षा चिंताओं को दूर करने में मदद करेगा कि उन्होंने अपने कुछ क्लिकहाउस डेटाबेस को असुरक्षित छोड़ दिया, क्योंकि यह बाहर आने के बाद असुरक्षित है। “

स्टीफेल प्रकाशित करता है कि डोकर, कुब्रिनिट्स (K8S), और अन्य इन्फ्रास्ट्रक्चर-एएस-कोड (IAC) कॉन्फ़िगरेशन जैसे उपकरणों के साथ Dippic प्रथाओं को समान पैटर्न बनाने के लिए स्टार्टअप्स और हॉबीस्ट को सशक्त बना सकता है।

ओपन-सीरस एआई अभी गर्म है

Dippic की पारदर्शिता पहल खुले स्रोत AI की ओर एक विस्तृत प्रवृत्ति के साथ व्यवस्था करती है। IDC की एक रिपोर्ट में कहा गया है कि 60% संगठन अपने पीढ़ीगत AI (GENII) परियोजनाओं के लिए व्यावसायिक विकल्पों पर खुले स्रोत AI मॉडल चुन रहे हैं।

एंडोर लैब्स रिसर्च आगे बताती है कि संगठन प्रति एप्लिकेशन से सात से बीस -ओपन सोर्स मॉडल का उपयोग करते हैं। तर्क स्पष्ट है: विशिष्ट कार्यों के लिए सबसे अच्छा मॉडल का लाभ और एपीआई लागतों को नियंत्रित करना।

“7 फरवरी तक, एंडोर लैब्स ने पाया कि 3,500 से अधिक अतिरिक्त मॉडल को मूल DIPPEC R1 मॉडल से प्रशिक्षित या आसुत किया गया है,” स्टिफ़ल ने कहा। “ये दोनों ओपन सोर्स एआई मॉडल समुदाय की ऊर्जा को दर्शाता है, और सुरक्षा टीमों को मॉडल के वंश और संभावित जोखिमों दोनों को समझने की आवश्यकता है।”

सोबरियर के लिए, ओपन सोर्स एआई मॉडल के बढ़ते गोद लेने से उनकी निर्भरता का मूल्यांकन करने की आवश्यकता मजबूत होती है।

“हमें एआई मॉडल को मुख्य निर्भरता के रूप में देखने की आवश्यकता है, जिस पर हमारा सॉफ्टवेयर एफटीवेयर निर्भर करता है। कंपनियों को यह सुनिश्चित करने की आवश्यकता है कि उन्हें इन मॉडलों का उपयोग करने की अनुमति है, लेकिन खुले-सूर्य पुस्तकालयों की तरह, वे परिचालन जोखिमों और आपूर्ति श्रृंखला जोखिमों के मामले में सुरक्षित हैं। “

उन्होंने कहा कि कोई भी जोखिम डेटा को प्रशिक्षित कर सकता है: “उन्हें विश्वास करने की आवश्यकता है कि एलएलएम को प्रशिक्षित करने के लिए उपयोग किए जाने वाले डेटासेट को जहर या संवेदनशील निजी जानकारी नहीं थी।”

एआई मॉडल जोखिम के लिए एक व्यवस्थित दृष्टिकोण बनाना

जैसा कि ओपन सोर्स एआई ने अपनाने को अपनाया है, उनका परिचालन जोखिम अधिक गंभीर हो जाता है। स्टीफेल ने तीन प्रमुख चरणों के आसपास एक केंद्रीकृत दृष्टिकोण को रेखांकित किया:

  1. खोज: AI मॉडल खोजें जो वर्तमान में आपके संगठन द्वारा उपयोग किए जा रहे हैं।
  2. मूल्यांकन: सुरक्षा और परिचालन चिंताओं सहित संभावित जोखिमों के लिए इन मॉडलों की समीक्षा करें।
  3. उत्तर: सुरक्षित और सुरक्षित मॉडल को अपनाने के लिए गार्ड्रिल सेट करें और लागू करें।

“कुंजी नवाचार को सक्षम करने और जोखिम को प्रबंधित करने के बीच सही संतुलन की तलाश कर रही है,” स्टेफल ने कहा। “हमें प्रयोग करने के लिए सॉफ्टवेयर फैटवेयर इंजीनियरिंग टीमों को अक्षांश देने की आवश्यकता है, लेकिन पूरी दृश्यता के साथ ऐसा करना चाहिए। सुरक्षा टीम को कार्य करने के लिए दृश्य और अंतर्दृष्टि की आवश्यकता होती है। ”

सोबेरियर ने आगे तर्क दिया कि समुदाय को एआई मॉडल बनाने और अपनाने के लिए सर्वोत्तम प्रयासों को विकसित करना होगा। सुरक्षा, गुणवत्ता, परिचालन जोखिम और खुलेपन जैसे मापदंडों में एआई मॉडल का मूल्यांकन करने के लिए एक साझा विधि की आवश्यकता होती है।

पारदर्शिता से परे: भविष्य के लिए जिम्मेदार एआई कदम

एआई के जिम्मेदार विकास को सुनिश्चित करने के लिए, उद्योग को कई वैक्टर में प्रतिबंध अपनाना चाहिए:

  • SASS मॉडल: होस्ट किए गए मॉडल के कर्मचारियों के उपयोग की सुरक्षा।
  • एपीआई एकीकरण: डेवलपर्स थर्ड-पार्टी एपीआई जैसे कि डिप्पेक को एम्बेड करते हैं, जो कि ओपनईआई एकीकरण जैसे उपकरणों के माध्यम से, केवल दो लाइनों के साथ तैनाती को स्विच कर सकते हैं।
  • ओपन सोर्स मॉडल: डेवलपर्स समुदाय-निर्मित मॉडल का लाभ उठाते हैं या दीप्सिक जैसी कंपनियों द्वारा बनाए गए मौजूदा ठिकानों से अपने स्वयं के मॉडल बनाते हैं।

सोबियर ने तेजी से एआई प्रगति का सामना करने के लिए तारीफ की चेतावनी दी। उन्होंने सलाह दी, “समुदाय को एआई मॉडल खोलने के लिए सबसे अच्छा प्रयास करने की आवश्यकता है,” और उन्हें सुरक्षा, गुणवत्ता, परिचालन जोखिम और खुलेपन के साथ रेटिंग की विधि। ”

जैसा कि स्टीफेल संक्षेप में संक्षेप में बताता है: “कई वैक्टर में सुरक्षा के बारे में सोचें और प्रत्येक के लिए उचित प्रतिबंध लागू करें।”

यह भी देखें: 2025 में एआई: इच्छित मॉडल, मानव एकीकरण और अधिक

उद्योग के नेताओं से एआई और बड़े डेटा के बारे में अधिक जानना चाहते हैं? एम्स्टर्डम, कैलिफोर्निया और लंदन में आयोजित एआई और बिग डेटा एक्सपो की जाँच करें। ब्रॉड इवेंट को इंटेलिजेंट ऑटो टोमेशन कॉन्फ्रेंस, ब्लॉकएक्स, डिजिटल ट्रांसफॉर्मेशन वीक और साइबर सिक्योरिटी एंड क्लाउड एक्सपो सहित अन्य प्रमुख घटनाओं के साथ सह-स्थित किया गया है।

TechFire द्वारा संचालित अन्य आगामी उद्यम प्रौद्योगिकी घटनाओं और वेबिनार का अन्वेषण करें।

Scroll to Top