Большие языковые модели (LLM) значительно продвинулись в обработке естественного языка, однако рассуждения остаются постоянной проблемой. В то время как такие задачи, как математическое решение проблем и генерация кода, получают выгоду от структурированных учебных данных, более широкие аргументированные задачи-такие как логическое вычет, научный вывод и символические рассуждения-отдают от разреженных и фрагментированных данных. Традиционные подходы, такие как постоянная предварительная подготовка кода, часто встраивают сигналы рассуждений косвенно, что затрудняет обобщение моделей. Даже методы генерации текста-код остаются ограниченными с помощью синтаксического обучения, ограничивая их применимость за пределами задач, связанных с программированием. Для предоставления LLMS для фундаментальных моделей рассуждений необходим более структурированный подход при сохранении логической строгости.
DeepSeek AI Research Presents Codei/oподход, который преобразует рассуждения на основе кода в естественный язык. Преобразуя необработанный код в формат прогнозирования ввода-вывода и выражая шаги рассуждения через Цепочка мыслей (COT) RationalesCodei/o позволяет LLMS усвоить основные процессы рассуждений, такие как Планирование логического потока, обход дерева решений и модульное разложениеПолем В отличие от традиционных методов, Codei/O отделяет рассуждения от синтаксиса кода, что обеспечивает более широкую применимость при сохранении логической структуры.
Технический обзор и преимущества
Codei/o следует за структурированным конвейером обработки данных:
- Сбор файлов кода RAW: Более 450 тыс. Функций было собрано из нескольких источников, включая репозитории алгоритма и наборы данных образовательных программ.
- Стандартизация данных: Собранное код был уточнен с использованием DeepSeek-V2.5, обеспечивая ясность и совместимость с выполнением.
- Создание пар ввода-вывода: Функции выполнялись с различными входными данными для создания структурированных примеров обучения в разных задачах рассуждения.
- Генерирующие рассуждения о цепочке мыслей: Используя такие модели, как DeepSeek-V2.5, были получены объяснения естественного языка для обеспечения структурированных рассуждений.
- Проверка и уточнение: Прогнозы были подтверждены путем выполнения, при этом неверные ответы пересмотрели итеративно для повышения точности рассуждения.
Ключевые функции codei/o:
- Преобразующее обучение: Преобразует разнообразные шаблоны кода в Природные языковые рациональные рациональныеделая рассуждения, передаваемые за пределы контекста программирования.
- Синтаксическое обучение: Отделяет логические рассуждения от Синтаксис кодаулучшение адаптивности в разных задачах.
- Улучшение с несколькими задачами: Повышает производительность через Символические, научные, логические, математические и здравые домены рассужденияПолем
- Проверка: Прогнозы могут быть подтверждены через кэшированное сопоставление или повторное выполнение заземленияПолем
- Итеративное уточнение: Уточненная версия, Codei/O ++, использует Редакция с несколькими поворотами Чтобы повысить точность рассуждения.

Эмпирические результаты и производительность
Влияние Codei/O было проверено через Четыре базовые модели (в диапазоне от 7b до 30b параметры) на 14 Образуемых тестов охватывание логики, символического вывода, математики, научных выводов и обоснований.
Выводы:
- Последовательные улучшения: Обучение codei/o привело к Более высокие результаты по рассуждениям по сравнению с традиционными методами предварительного подготовки.
- Обобщение по задачам: В отличие от существующих подходов, которые улучшают определенные задачи, но снижают производительность в других местах, Codei/O показал сбалансированные улучшения.
- Сравнение с базовыми показателями: Codei/o превзошли наборы данных, таких как OpenMathinStruct2, Opencoder-Sft-Stage1 и WebInstructПолем
- Эффективность уточнения с несколькими поворотами: Codei/O ++ дополнительно улучшил результаты за счет итеративного усовершенствования неправильных ответов, используя обратную связь с выполнением для лучшего качества рассуждений.
Например, в логических и символических критериях рассуждения, таких как BBH и CRUXEVALCodei/O привел к заметному росту производительности. В Математические рассуждения (GSM8K, Math и MMLU-Stem)это продемонстрировало улучшения по сравнению с существующими базовыми показателями. Даже в Общее рассуждениегде методы, основанные на коде, обычно борются, Codei/O поддерживал надежные результаты.

Заключение
Codei/O представляет структурированный способ улучшения рассуждений LLMS, используя преобразования ввода-вывода из реального кода. Вместо того, чтобы сосредоточиться на изолированных задачах рассуждения, он извлекает универсальные паттерны рассуждения и переводит их в Естественный язык объясненияПолем Этот структурированный подход к обучению гарантирует, что модели приобретают надежные навыки рассуждения в разных областях.
Введение Редакция с несколькими поворотами (codei/o ++) Далее уточняет точность рассуждения, демонстрируя, что итеративное обучение от обратной связи выполнения повышает надежность модели. Делая прогнозы проверяемыйCodei/O предоставляет масштабируемый и надежный метод для улучшения рассуждений LLM.
С помощью соединения Рассуждение на основе кода и естественного языкаCodei/O предлагает многообещающее направление для улучшения когнитивных способностей LLMS помимо задач, связанных с программированием.
Проверить бумага и страница GitHub. Весь кредит на это исследование направлено на исследователей этого проекта. Кроме того, не стесняйтесь следить за нами Twitter И не забудьте присоединиться к нашему 75K+ ML SubredditПолем
🚨 Рекомендуемая платформа для ИИ с открытым исходным кодом: «Intellagent-это многоагентная среда с открытым исходным кодом для оценки сложной разговорной системы ИИ‘ (Продвигается)

ASIF Razzaq является генеральным директором Marktechpost Media Inc. как дальновидного предпринимателя и инженера, ASIF стремится использовать потенциал искусственного интеллекта для социального блага. Его последнее усилие-запуск медиа-платформы искусственного интеллекта, Marktechpost, которая выделяется благодаря глубокому освещению машинного обучения и новостей о глубоком обучении, которое является технически обоснованным и легко понятным для широкой аудитории. Платформа может похвастаться более чем 2 миллионами ежемесячных просмотров, иллюстрируя свою популярность среди зрителей.
✅ (рекомендуется) присоединиться к нашему каналу Telegram