Недавно сформированный автомобильный институт выявил «Карл», первую систему ИИ, создавая академические исследовательские работы, для прохождения строгого процесса обзора с двойным слепым.
Исследовательские статьи Карла были приняты на трассе крошечных документов на Международной конференции по обучению (ICLR). Критически, эти поставки были получены с минимальным участием человека, объявив о новой эре для научного открытия, управляемой ИИ.
Познакомьтесь с Карлом: «Auto Explorer»
Карл представляет скачок вперед в роли ИИ как не только инструмента, но и активного участника в академических исследованиях. Описанный как «автоматический исследователь», Карл применяет модели естественного языка к идеям, гипотезу и определяет академическую работу.
Буквально, Карл может читать и понимать опубликованные статьи за секунды. В отличие от человеческих исследователей, он работает непрерывно, тем самым ускоряя исследовательские циклы и снижая экспериментальные затраты.
Согласно Autoscience, Карл успешно «идеи« новые научные гипотезы, разработанные и провели эксперименты, и написал несколько академических статей, которые прошли рецензирование на семинарах ».
Это подчеркивает потенциал ИИ, чтобы не только завершить человеческие исследования, но и во многих отношениях преодолевать его в скорости и эффективности.
Карл – скрупулезный работник, но вовлечение человека все еще необходимо
Способность Карла генерировать высококачественную академическую работу построена на трехэтапном процессе:
- Идея и гипотетическая формация: Используя существующие исследования, CARL определяет потенциальные направления исследования и генерирует гипотезы. Его глубокое понимание связанной литературы позволяет сформулировать новые идеи в области ИИ.
- Эксперименты: Карл записывает код, проверяет гипотезы и может быть замечен полученными данными с подробными цифрами. Его неутомимая операция сокращает время итерации и уменьшает избыточные задачи.
- Презентация: Наконец, Карл собирает свои выводы в полированные академические статьи – в комплекте с изображениями данных и четкими выводами статьи.
Хотя способности Карла делают его в значительной степени независимым, в его рабочем месте есть моменты, где все еще нужно участие человека, чтобы присоединиться к вычислительным, форматированию и этическим стандартам:
- Исследовательские этапы зеленого освещения: Чтобы избежать траты вычислительных ресурсов, человеческие рецензенты предоставляют сигналы «продолжать» или «остановить» на определенных этапах процесса Карла. Это руководство направляет Карла через проекты более эффективно, но не влияет на особенности самого исследования.
- Цитаты и форматирование: Автомобильная команда гарантирует, что все ссылки правильно упоминаются и отформатированы для соответствия академическим стандартам. В настоящее время это ручный шаг, но гарантирует, что исследование соответствует ожиданиям его места публикации.
- Помогите с моделями Pre-API: Карл иногда зависит от новых моделей OpenAI и глубоких исследований, в которых отсутствуют автоматически доступные API. В таких случаях ручные вмешательства-как, например, авторские права выходят из этих недостатков. Autoscience ожидает, что эти задачи будут полностью автоматизированы в будущем, когда API станут доступны.
Для дебютной статьи Карла человеческая команда также помогла написать раздел «Связанные работы» и усовершенствовать язык. Эти задачи, однако, были ненужными после обновлений, применяемых до последующих поставки.
Строгий процесс подтверждения академической целостности
Перед проведением каких -либо исследований команда автомобилей предприняла строгий процесс контроля, чтобы гарантировать, что работа Карла завершила самые высокие стандарты академической целостности:
- Воспроизводимость: Каждая строка кода Карла была пересмотрена, и были возобновлены эксперименты, чтобы подтвердить воспроизводимость. Это гарантировало, что выводы являются научно обоснованными и не случайными аномалиями.
- Оригинальные элементы управления: Автомобиль сделал обширные новые оценки, чтобы гарантировать, что идеи Карла были новым вкладом в эту область, а не почитали версии существующих публикаций.
- Внешняя проверка: Хакатон с участием исследователей из ведущих академических учреждений, таких как MIT, Стэнфордский университет и Калифорнийский университет в Беркли, независимо наблюдал за исследованиями Карла. Дальнейшие плагиат и цитируемые контроли были сделаны для обеспечения соответствия академическим стандартам.
Невыразимый потенциал, но поднимает большие вопросы
Получение принятия на рабочем месте, столь же уважаемом, как ICLR, является важной вехой, но Autoscience признает больший разговор, который может возникнуть эта веха. Успех Карла поднимает большие философские и материально -технические вопросы о роли ИИ в академических условиях.
«Мы считаем, что законные результаты должны быть добавлены на основу общественного знания, независимо от того, откуда они возникли», – объяснил Auto Science. «Если исследования соответствуют научным стандартам, установленным академическим сообществом, то это – или что -то, созданное, не должно привести к автоматической дисквалификации».
«Мы также считаем, однако, что соответствующая атрибуция необходима для прозрачной науки, и работы, которые просто генерируются системами искусственного интеллекта, должны рассматриваться из того, что производится людьми».
Учитывая новизну автономных исследователей ИИ, таких как Карл, организаторам конференции может потребоваться время для создания новых руководящих принципов, которые отвечают за эту новую парадигму, особенно для обеспечения справедливой оценки и интеллектуальных стандартов атрибутов. Чтобы предотвратить ненужные противоречия на данный момент, Autoscience отказалась от документов Карла из ICLR -атеров, пока эти рамки разработаны.
Вперед, Auto Science стремится внести свой вклад в формирование этих развивающихся стандартов. Компания намерена предложить специальную семинар в Neurips 2025, чтобы официально приспособить исследовательские поставки автономных систем исследований.
Поскольку развивается рассказывание историй вокруг исследований, сгенерированных AI, становится ясно, что такие системы, как Carl,-это не просто инструменты, а сотрудники для поиска знаний. Но поскольку эти системы выходят за рамки типичных границ, академическое сообщество должно адаптироваться, чтобы полностью принять эту новую парадигму при сохранении целостности, прозрачности и соответствующего распределения.
(Фото Рохит Тандон)
Смотрите также: You.com ARI: Агент по изучению ИИ профессионального класса для бизнеса
Вы хотите узнать больше об искусственном интеллекте и больших данных промышленными лидерами? Посмотреть AI & Big Data Expo, проходящую в Амстердаме, Калифорнии и Лондоне. Комплексное мероприятие связано с другими основными событиями, включая Smart Automatic Conference, Blockx, неделю цифровой трансформации и кибербезопасность и Cloud Expo.
Исследуйте другие предстоящие корпоративные технологические мероприятия и веб -страницы, управляемые Techforge здесь.