चेन-टू-फ़िंकिंग (COT) प्रॉम्प्टिंग बड़े भाषा मॉडल (LLMS) को प्राकृतिक भाषा में चरण-दर-चरण चरणों की तार्किक कटौती करने में सक्षम बनाता है। जबकि यह विधि प्रभावी साबित हुई है, प्राकृतिक भाषा तर्क के लिए सबसे कुशल माध्यम नहीं हो सकती है। अध्ययनों से पता चलता है कि मानव गणितीय तर्क मुख्य रूप से भाषा प्रक्रिया पर निर्भर नहीं करता है, यह दर्शाता है कि वैकल्पिक दृष्टिकोण प्रभाव बढ़ा सकते हैं। शोधकर्ताओं का उद्देश्य यह सुधारना है कि एलएलएमएस कैसे तर्क को संसाधित करते हैं, गणना दक्षता के साथ संतुलित सटीकता को संसाधित करते हैं।
एलएलएम में तर्क की चुनौती स्पष्ट खाट पर उनकी निर्भरता से उत्पन्न होती है, जिसे अंतिम उत्तर तक पहुंचने से पहले विस्तृत स्पष्टीकरण का उत्पादन करने की आवश्यकता होती है। यह दृष्टिकोण गणना के ओवरहेड को बढ़ाता है और अनुमान को धीमा कर देता है। बेहतर सीओटी विधियां स्पष्ट तर्क टोकन का उत्पादन किए बिना तर्क को आंतरिक करने का प्रयास करती हैं, लेकिन इन विधियों को स्पष्ट सीओटी की तुलना में चिकित्सकीय रूप से कम कर दिया गया है। एक प्रमुख बाधा मॉडल डेलो की रचना में निहित हैं जो सटीकता को बनाए रखते हुए आंतरिक रूप से तर्क को संसाधित कर सकते हैं। समाधान जो एलएलएम में तर्क क्षमताओं को बढ़ाने के लिए प्रभाव का त्याग किए बिना अत्यधिक गणना भार को हटा देता है।
पिछले निहित सीओटी विधियां मुख्य रूप से पाठ्यक्रम सीखने की रणनीति पर निर्भर करती हैं, जो धीरे -धीरे आंतरिक रूप से तर्क उपायों को आंतरिक बनाती है। ऐसी एक विधि, नारियल, धीरे -धीरे मॉडलिंग भाषा के उद्देश्य को बनाए रखते हुए निरंतर अभ्यावेदन के साथ स्पष्ट कोट टोकन को बदल देती है। हालांकि, इस दृष्टिकोण की सीमाएं हैं, जिसमें प्रशिक्षण के दौरान त्रुटि और भूलने की गलती है। नतीजतन, नारियल, बेसलाइन मॉडल में सुधार के बावजूद, अभी भी एक महत्वपूर्ण अवधि से स्पष्ट खाट विधियों के पीछे है। बेहतर सीओटी दृष्टिकोण एक स्पष्ट रूप से उत्पादित सीओटी के तर्क प्रदर्शन से मेल खाने में लगातार विफल रहे हैं।
किंग्स सी कॉलेज लंदन और एलन ट्यूरिंग इंस्टीट्यूट के शोधकर्ताओं ने इन सीमाओं को दूर करने के लिए एक उपन्यास संरचना के रूप में कोडी (निरंतर श्रृंखला-मैन-रिमोवल द्वारा) को पेश किया। कोडी ने लगातार अंतरिक्ष में स्पष्ट सीओटी तर्क को डिस्टर्ब कर दिया, जिससे एलएलएम स्पष्ट कोट टोकन का उत्पादन किए बिना आंतरिक रूप से तार्किक कटौती करने की अनुमति देते हैं। यह विधि आत्म-दूरी को नियोजित करती है, जहां एक एकल मॉडल एक शिक्षक और छात्र दोनों के रूप में कार्य करता है, जो एक कॉम्पैक्ट निष्क्रिय स्थान में तर्क को एनकोड करने के लिए उनके छिपे हुए सक्रियण की व्यवस्था करता है। इस तकनीक का लाभ देकर, कोडी प्रभावी रूप से प्रभाव का त्याग किए बिना तर्क को संपीड़ित करता है।
कोडी में दो प्रमुख सीखने की क्रियाएं शामिल हैं: स्पष्ट खाट पीढ़ी और निरंतर खाट तर्क। शिक्षक का मॉडल DAL प्राकृतिक भाषा चरण-दर-चरण तर्क को संसाधित करके और स्पष्ट खाट अनुक्रमों का उत्पादन करके मानक COT सीखने का अनुसरण करता है। छात्र मॉडल, इसके विपरीत, एक कॉम्पैक्ट निष्क्रिय प्रस्तुति में आंतरिक तर्क को सीखता है। सही जे ज्ञान हस्तांतरण सुनिश्चित करने के लिए, कोडी एल 1 दूरी एक दूरी हानि फ़ंक्शन का उपयोग करके इन दो प्रक्रियाओं के बीच कॉन्फ़िगरेशन को लागू करती है। पिछले दृष्टिकोणों के विपरीत, कोडी सीधे मॉडल के छिपे हुए राज्यों में तर्क निरीक्षण को इंजेक्ट करता है, अधिक कुशल प्रशिक्षण के लिए अनुमति देता है। कई प्रशिक्षण चरणों पर भरोसा करने के बजाय, CODI एक एकल-चरण आसवन दृष्टिकोण को लागू करता है, यह सुनिश्चित करता है कि सूचना का नुकसान और पाठ्यक्रम के पाठ्यक्रम को भुला दिया जाता है। इस प्रक्रिया में एक निश्चित छिपे हुए टोकन को चुनना शामिल है जो महत्वपूर्ण तर्क जानकारी को एनकोड करता है, जो स्पष्ट टोकन के बिना निरंतर तर्क उपायों को उत्पन्न करने के लिए एक मॉडल प्रदान करता है।
प्रायोगिक परिणाम बताते हैं कि CODI पिछले निहित COT विधियों की ओर ले जाता है और गणितीय तर्क कार्यों में स्पष्ट COT की सटीकता से मेल खाने वाला पहला है। GSM8K डेटासेट पर, कोडी एक स्पष्ट खाट के साथ तुलनात्मक संचालन बनाए रखते हुए एक 3.1 × संपीड़न अनुपात प्राप्त करता है। यह सटीकता में नारियल के 28.2% से अधिक है। अगला, कोडी विभिन्न सीओटी डेटासेट के लिए स्केलेबल और स्वीकार्य है, जिससे यह अधिक जटिल तर्क समस्याओं के लिए उपयुक्त है। प्रदर्शन बेंचमार्क बताते हैं कि कोडी GPT-2 मॉडल के साथ GPT-2 मॉडल के साथ GSM 8K पर 43.7% का तर्क प्राप्त करता है, नारियल की तुलना में 34.1% है। जब लालमा 3.2-1 बी जैसे बड़े मॉडलों पर परीक्षण किया जाता है, तो कोडी 55.6% सटीकता प्राप्त करता है, जिससे इसकी क्षमता प्रभावी रूप से बढ़ जाती है। दक्षता के बारे में, कोडी पारंपरिक कॉट की तुलना में 2.7 गुना तेजी से और अधिक वर्बोज़ लॉजिक करता है जब डेटासेट 5.9 गुना तेजी से लॉजिक प्रक्रिया पर लागू होता है। इसका मजबूत डिज़ाइन इसे एसवीएएमपी और मल्टी रिथ जैसे डेटासेट पर खाट-स्फी को सामान्य करने की अनुमति देता है, ताकि आउट-ऑफ-डाउमन बेंचमार्क को सामान्य किया जा सके।
कोडी एलएलएम लॉजिक में महत्वपूर्ण सुधार दिखाता है, प्रभावी रूप से स्पष्ट सीओटी और गणना दक्षता के बीच की दूरी को समाप्त करता है। आत्म-मतभेद और निरंतर अभ्यावेदन का लाभ एआई लॉजिक के लिए एक स्केलेबल दृष्टिकोण का परिचय देता है। मॉडल व्याख्या को बनाए रखता है, क्योंकि इसके निरंतर विचारों को संरचनात्मक तर्क में डिकोड किया जा सकता है, निर्णय की प्रक्रिया में पारदर्शिता प्रदान करता है। भविष्य के अनुसंधान अधिक जटिल मल्टीमॉडल लॉजिक कार्यों में कोडी के आवेदन का पता लगा सकते हैं, जिससे गणितीय समस्याओं से इसके लाभ हो सकते हैं। यह संरचना एक परिकलित वैकल्पिक और उन्नत एआई सिस्टम में तर्क चुनौतियों के लिए एक उपयुक्त उपाय के रूप में एक निहित खाट स्थापित करती है।
जाँच करना कागज़। इस शोध के लिए सभी श्रेय इस परियोजना के शोधकर्ताओं को जाते हैं। इसके अलावा, हमें फॉलो करने के लिए स्वतंत्र महसूस करें ट्विटर और हमसे जुड़ने के लिए मत भूलना 80K+ एमएल सबमिटेड।
। MEET PALLANT: व्यवहार दिशानिर्देशों और रनटाइम मॉनिटरिंग का उपयोग करके, अपने AI ग्राहक सेवा एजेंटों पर आवश्यक नियंत्रण और सटीकता प्रदान करने के लिए AI फ्रेमवर्क डेवलपर्स को प्रदान करने के लिए एक LLM-FIRST वार्तालाप किया गया है। 🔧 🔧 🎛 इसका उपयोग करना आसान है। और पायथन और टाइपस्क्रिप्ट में मूल ग्राहक एसडीके का उपयोग करके संचालित है।

निखिल मार्केटकपोस्ट में एक इंटर्न कंसल्टेंट है। वह खड़गपुर में भारतीय संगठन की प्रौद्योगिकी में सामग्री में दोहरी डिग्री प्राप्त कर रहा है। निखिल एआई/एमएल उत्साही है जो हमेशा बायोमेट्रियल और बायोमेडिकल विगल्स जैसे क्षेत्रों में आवेदन पर शोध करता है। भौतिक अभिव्यक्ति में एक मजबूत पृष्ठभूमि के साथ, वह नई प्रगति और योगदान की संभावना की तलाश कर रहा है।
पार्लेंट: LLMS (B ED) के साथ एक विश्वसनीय AI ग्राहक का सामना करना