उद्यम नेताओं द्वारा लगभग दो दशकों तक एक विश्वसनीय घटना में शामिल हों। वीबी ट्रांसफॉर्म एक वास्तविक उद्यम एआई रणनीति बनाने के लिए लोगों को एक साथ लाता है। और अधिक जानें
फ्रांसीसी ऐ डार्लिंग मिस्टेर इस गर्मी में नए प्रकाशनों को बनाए रख रहा है।
अपने स्वयं के घरेलू AI-Optimis Ptimise क्लाउड सर्विस मिस्टेरियल कंप्यूट की घोषणा के कुछ दिनों बाद, एक अच्छी तरह से वित्त पोषित कंपनी ने अपने 24B पैरामीटर ओपन सोर्स मॉडल मिस्टल स्मॉल को एक अपडेट जारी किया है, जिसे 3.1 से 3.1-2506 तक जारी किया जाएगा।
नया संस्करण सीधे एक छोटे 3.1 पर बनाता है, जो विशिष्ट व्यवहारों में सुधार करना है, जैसे कि निर्देश, आउटपुट स्थिरता और शक्ति। जब समग्र वास्तुशिल्प विवरण अपरिवर्तित रहते हैं, तो अपडेट लक्षित शोधन का प्रतिनिधित्व करता है जो आंतरिक मूल्यांकन और सार्वजनिक बेंचमार्क दोनों को प्रभावित करता है।
मिस्टल एआई के अनुसार, छोटे 2.5 विशिष्ट निर्देशों के अनुपालन में बेहतर हैं और अंतहीन या दोहरावदार वेतन पीढ़ियों की संभावना को कम कर देते हैं – लंबे या अस्पष्ट संकेतों को संभालते समय पिछले संस्करणों में देखी गई समस्या।
इसी तरह, फ़ंक्शन कॉलिंग लिंग नमूना को अधिक विश्वसनीय उपकरण-उपयोग विचारों का समर्थन करने के लिए अपग्रेड किया गया है, विशेष रूप से वीएलएम जैसे फ्रेमवर्क में।
और एक ही समय में, यह एक एकल NVIDIA A00/H 100 80 GB GPU के साथ एक सेटअप पर चल सकता है, तंग गणना संसाधनों और/या बजट वाले व्यवसायों के लिए तेजी से उद्घाटन विकल्प।
3 महीने के बाद ही एक अपडेट मॉडल
मिस्टल स्मॉल को मार्च 3.1 मार्च 2025 में 24 बी पैरामीटर रेंज में एक खुली रिलीज के रूप में घोषित किया गया था। यह पूर्ण मल्टीमॉडल क्षमताओं, बहुभाषी समझ और 128K टोकन तक लंबे संदर्भ प्रसंस्करण प्रदान करता है।
यह मॉडल स्पष्ट रूप से GPT-4O मिनी, क्लाउड एच। हाइकू और जेम्मा 3 के स्वामित्व वाले मालिकों के सामने स्थित था-और, मिस्टेर के अनुसार, उन्होंने उन्हें कई कार्यों में भेज दिया।
छोटे 1.1 ने भी कुशल तैनाती पर जोर दिया, प्रति सेकंड दावों में 150 टोकन और 32GB रैम-डिवाइस के उपयोग का समर्थन किया।
यह रिलीज़ बेस और नोटिफिकेशन चौकियों दोनों के साथ आता है, जो कानूनी, चिकित्सा और तकनीकी क्षेत्रों जैसे डोमेन में ठीक ट्यूनिंग से राहत देता है।
इसके विपरीत, छोटे 2.5 व्यवहार और विश्वसनीयता में सर्जिकल सुधार पर केंद्रित हैं। यह नई क्षमताओं या वास्तुकला परिवर्तनों को पेश करने का लक्ष्य नहीं है। इसके बजाय, यह एक रखरखाव रिलीज के रूप में कार्य करता है: आउटपुट पीढ़ी में बढ़त के मामलों को साफ करने के लिए, निर्देश अनुपालन को कसना और सिस्टम प्रॉम्प्ट इंटरैक्शन को शुद्ध करना।
छोटा 3.2 बनाम छोटा 3.1: क्या बदला?
निर्देश से चलने वाला बेंचमार्क एक छोटा लेकिन मापा सुधार दिखाता है। मिस्टल की आंतरिक सटीकता छोटे 3.1 में 82.75% से बढ़कर 84.78% छोटे 3.2 में बढ़ गई है।

इसी तरह, वाइल्डबेंच वी 2 और एरिना हार्ड वी 2 जैसे बाहरी डेटासेट के प्रभाव में काफी सुधार हुआ – वाइल्डबेंच में लगभग 10 प्रतिशत अंक बढ़ गए, जबकि अखाड़ा दोगुना था, 19.56% से 43.10%।
आंतरिक मैट्रिक्स भी एक कम आउटपुट पुनरावृत्ति को इंगित करता है। अनंत वेतन पीढ़ियों की दर छोटे 3.1 में 2.11% से घटकर छोटी 3.2 में 1.29% हो गई – लगभग 2 × कमी। यह डेवलपर्स को उन अनुप्रयोगों के निर्माण के लिए अधिक विश्वसनीय बनाता है जिन्हें लगातार, संलग्न उत्तर की आवश्यकता होती है।
पाठ और कोडिंग बेंचमार्क की ओर प्रदर्शन एक अधिक nunnant चित्र प्रस्तुत करता है। स्मॉल 2.2 ने ह्यूमनवल प्लस (88.99% से 92.90%), MBPP पास@5 (74.63% से 78.33%), और सिम्पुक्ता का लाभ दिखाया। उस MMLU प्रो और गणित के परिणामों में मामूली सुधार हुआ है।

विज़न बेंचमार्क ज्यादातर सुसंगत होते हैं, जिनमें मामूली उतार -चढ़ाव होते हैं। चार्टका और डोकवाका ने सीमांत लाभ देखा, जबकि एआई 2 डी और मैथविस्टा में दो प्रतिशत से कम की गिरावट आई। औसत दृष्टि प्रदर्शन छोटे 3.1 छोटे में 81.39% से गिर गया है।

यह मिस्टल के घोषित उद्देश्य के साथ व्यवस्था करता है: छोटा 2.1 समग्र रूप से एक मॉडल नहीं है, बल्कि शुद्धिकरण है। जैसे, अधिकांश बेंचमार्क अपेक्षित विविधताओं में हैं, और कुछ प्रतिगमन लक्षित अपडेट के लिए एक ट्रेड-एस एफएस प्रतीत होता है।
हालाँकि, AI पावर उपयोगकर्ता और प्रभावशाली @ChatGPT ने X पर पोस्ट किया: “यह MMLU पर बिगड़ गया,” IE मल्टीडिसप्लिएंट टेस्ट 57 प्रश्नों के साथ डिज़ाइन किया गया है जो व्यापक मल्टीटास्क भाषा समझ बेंचमार्क में व्यापक LLM प्रदर्शन का मूल्यांकन करने के लिए डिज़ाइन किया गया है। दरअसल, 80.62%के सबसे छोटे 3.1 से नीचे एक छोटा 3.2 स्कोर 80.50%।
ओपन सोर्स लाइसेंस इसे लागत-समेकन और अनुकूलित-केंद्रित उपयोगकर्ताओं के लिए अधिक आकर्षक बना देगा
दोनों छोटे 3.1 और 3.2 Apache 2.0 लाइसेंस के तहत उपलब्ध हैं और लोकप्रिय द्वारा सफल हो सकते हैं। AI कोड शेयरिंग रिपॉजिटरी फेस (फ्रांस और NYC में एक स्टार्टअप और NYC फ्रांस और NYC में स्थित)।
छोटे 2.1 को VLLM और ट्रांसफॉर्मर जैसे फ्रेमवर्क द्वारा समर्थित किया जाता है और BF16 या FP16 परिशुद्धता में चलने के लिए लगभग 55 GB GPU रैम की आवश्यकता होती है।
डेवलपर्स के लिए जो एप्लिकेशन करना चाहते हैं या सेवा करना चाहते हैं, सिस्टम प्रॉम्प्ट और अनुमान उदाहरण एक मॉडल रिपॉजिटरी में प्रदान किए जाते हैं।
जबकि Mistral Small 3.1 पहले से ही Google क्लाउड वर्टेक्स AI जैसे प्लेटफ़ॉर्म में एकीकृत है और इसे NVIDIA NIM और Micros .ft Azure पर तैनाती के लिए निर्धारित किया गया है, छोटे 3.2 वर्तमान में चेहरे और प्रत्यक्ष तैनाती को गले लगाकर स्व-सेवा तक सीमित दिखाई देते हैं।
उनके उपयोग के मामलों के लिए छोटे छोटे 3.2 पर विचार करते समय उद्योग को क्या पता होना चाहिए
मिस्टेरल स्मॉल 2.1 प्रतिस्पर्धी स्थिति को एक खुले -वजन वाले मॉडल स्थान पर स्थानांतरित नहीं कर सकता है, लेकिन यह दोहराव वाले मॉडल शोधन के लिए एक रहस्य एआई की प्रतिबद्धता की प्रतिबद्धता का प्रतिनिधित्व करता है।
विश्वसनीयता और कार्य हैंडलिंग में महत्वपूर्ण सुधार के साथ – विशेष रूप से निर्देश परिशुद्धता और उपकरण उपयोग के आसपास – छोटा 2.5 मिस्टल इकोसिस्टम पर डेवलपर्स और उद्यमों के लिए क्लीनर उपयोगकर्ता अनुभव प्रदान करता है।
तथ्य यह है कि यह फ्रेंच स्टार्टअप द्वारा बनाया गया है और यूरोपीय संघ के नियमों और नियमों के साथ संगत है जैसे कि जीडीपीआर और यूरोपीय संघ अधिनियम, यह दुनिया के उस हिस्से में काम करने वाले उद्यमों के लिए भी आकर्षक बनाता है।
फिर भी, बेंचमार्क प्रदर्शनी में सबसे बड़ी कूद मांगों के लिए, सबसे छोटा 1.1 संदर्भ बिंदु है – विशेष रूप से कुछ मामलों में, जैसे कि MMLU, छोटा 2.5 अपने पूर्ववर्ती को स्थानांतरित नहीं करता है। यह उपयोग के मामले के आधार पर शुद्ध अपग्रेड के बजाय अपडेट के लिए एक स्थिरता-केंद्रित विकल्प बनाता है।
वीबी दैनिक के साथ पेशेवर उपयोग के मामलों पर दैनिक अंतर्दृष्टि
यदि आप अपने बॉस को प्रभावित करना चाहते हैं, तो वीबी ने आपको हर दिन कवर किया है। हम आपको एक स्कूप देते हैं कि विनियामक शिफ्ट से लेकर व्यावहारिक तैनाती तक की कंपनियां एआई उत्पन्न करने के साथ क्या कर रही हैं, इसलिए आप अधिकतम आरओआई के लिए अंतर्दृष्टि साझा कर सकते हैं।
हमारी गोपनीयता नीति पढ़ें
सदस्यता के लिए धन्यवाद। यहां और अधिक वीबी न्यूज़लेटर्स देखें।
एक त्रुटि पाई गई।
