Аи-сгенерированная наука о наводнениях академических журналов

Аи-сгенерированная наука о наводнениях академических журналов

Наука, сгенерированная AI, наводит академические журналы, создавая кризис доверия в исследовательском сообществе. Поскольку издатели сталкиваются с растущим притоком научных работ, сгенерированных ИИ, многие кажутся обманчиво аутентичными, целостность академической публикации ставится под сомнение. Эти машинные рукописи часто обходят традиционные проверки рецензирования, вызывая опасения среди редакторов и ученых. Благодаря генеративным моделям искусственного интеллекта, такими как CHATGPT, быстро продвигаясь, лидеры отрасли работают над внедрением гарантий, инструментов обнаружения и политических реформ для сокращения распространения фальшивых наук в журналах.

Ключевые выводы

  • Академические журналы сообщают о резком увеличении сгенерированных AI документов с минимальным или отсутствием человеческого авторства.
  • Существующее программное обеспечение для обнаружения пытается идти в ногу с быстро развивающимися инструментами ИИ, оставляя пробелы в проверке целостности исследований.
  • Издатели пересматривают редакционные политики и определяют более четкие руководящие принципы, касающиеся участия ИИ и стандартов рецензирования.
  • Неразрешенные этические проблемы включают вопросы подотчетности, раскрытия и авторства, связанных с контентом, сгенерированным AI, в академической работе.

Также прочитайте: Изображения Испании неправильно поняли как создания AI

Тревожный всплеск представлений, сгенерированных AI

С конца 2022 года академические издатели наблюдают заметное увеличение рукописей, разработанных с крупными языковыми моделями, такими как CHATGPT. Согласно Nature, редакторы начали встречаться с автоматизированными рефератами и вымышленной терминологией исследований в очередях подчинения. Эти статьи часто имитируют тон и стиль законных исследовательских работ, что затрудняет отказа без подробного изучения.

Хотя цифры различаются в разных дисциплинах, крупные издатели, такие как Elsevier и Springer Nature, признали, что внутренне отмечают тысячи сомнительных представлений между 2022 и 2024 годами. В некоторых областях, такие как информатика и биомедицина, видели нерегулярности подчинения более чем на 30 процентов.

Почему наука, сгенерированная AI, создает проблему

Основной проблемой с помощью AI-сгенерированных работ является отсутствие реальной научной методологии, достоверных данных и подлинных участников. Многие примеры содержат убедительные тезисы, поддельные ссылки и изобретенные результаты исследований. Оценки рецензентов имеют ограниченное время и часто доверяют, что проверки целостности проводились авторами или редакционным персоналом до рассмотрения.

В сообщениях Science.org подчеркиваются, что такие статьи ослабляют доверие к академической записи. После публикации эти сфабрикованные исследования могут цитироваться будущими подлинными исследованиями, искажающими доказательствами, используемыми учеными, отраслями и лицами, принимающими решения.

Также прочитайте: революционный Google AI упрощает исследовательские работы

Дилемма обнаружения: отставая от ИИ

Большинство издателей полагаются на программное обеспечение, такое как Gptzero, детектор по написанию искусственного интеллекта Turnitin и инструменты классификации Openai. Они не гарантируют идентифицировать все синтетические содержания. Гибридные представления, объединяющие написанный человеком и сгенерированный AI текст, дополнительно оспаривает системы обнаружения.

Генеративный ИИ в настоящее время очень способен воспроизвести человеческие рассуждения, словарный запас и технический тон. Особенно при настройке литературы, специфичной для дисциплины, эти модели становятся все более убедительными. Даже опытные рецензенты иногда изо всех сил пытаются рассказать аутентичным исследованиям, кроме синтетической работы. Это ослабляет традиционную рецензию, которая действует в соответствии с предположениями о человеческом авторском и этическом подчинении.

Обновления политики от ведущих издателей

В ответ на растущий объем сомнительных работ несколько издателей формализовали новые политики. Эти обновления уточняют приемлемое использование инструментов ИИ, ограничений авторства и требований раскрытия. В таблице ниже приведены недавние политики от ведущих академических издателей.

ИздательАвторство AI разрешено?Требуется раскрытие?Используются инструменты обнаружения
ElsevierНетДаДетектор Turnitin AI, человеческий обзор
Спрингер ПриродаНетДа, если ИИ используется в составленииВнутренние инструменты, Gptzero
IEEEНесанкционированный контент ИИ запрещенОбязательный раздел раскрытия для использования ИИДетектор вывода GPT-2, ручные проверки
УайлиНетДаПроверка сходства CrossRef, детекторы GPT

Этика ИИ в академической публикации

Использование ИИ в исследованиях вызывает сложные вопросы, касающиеся вклада, ответственности и признания. Инструменты ИИ не могут соответствовать критериям для академического авторства. Комитет по этике публикации (COPE) утверждает, что авторы должны принять подотчетность, обеспечить целостность данных и оставаться доступными для переписки после публикации. Инструменты ИИ не могут выполнять эти роли.

Несмотря на это, различия остаются неясными. Некоторые исследователи используют инструменты искусственного интеллекта для редактирования текста, организации аргументов или перефразированных цитат. Эти использования часто рассматриваются как приемлемые, если правильно раскрываются. Если ИИ генерирует результаты исследований или синтезирует данные, это использование вызывает юридические, этические и авторские проблемы.

Также прочитайте: 5 лучших документов машинного обучения по изменению игры 2024

Региональная дивергенция в ответах издателей

Ответы издателя варьируются в зависимости от региона. В Соединенных Штатах учреждения способствуют образованию исследователей и поощряют соответствие рекомендациям COPE. Во всем Европейском Союзе некоторые журналы в настоящее время требуют представления журналов использования ИИ или бывшей истории для поддержания прозрачности в соответствии с законами о цифровой ответственности.

Несколько журналов в Азии приняли сбалансированную модель, что позволило получить некоторую помощь в области искусственного интеллекта при внедрении инструментов обнаружения в платформы отправки. Это предотвращает запреты при поддержке усилий по обнаружению, принимая во внимание различия в инфраструктуре и редакционной подготовке в разных странах.

Лучшие практики для редакционных советов и рецензентов

Сокращение синтетического содержания в научной литературе требует совместных действий от редакторов, рецензентов и издателей. Эксперты предлагают следующие меры:

  • Обязательное раскрытие ИИ: Авторы должны четко указать, использовались ли какие -либо инструменты для ИИ в процессе рукописи.
  • Обучение рецензента: Предоставьте рецензентам критерии и инструменты для определения AI-сгенерированных моделей письма.
  • Случайные аудиты: Проведите селективные обзоры после вступления для проверки подлинности бумаги.
  • Интеграция инструмента: Внедряют функции обнаружения AI в рабочие процессы редакционных и сверстников.
  • Ясность политики: Определите приемлемое использование ИИ и включите четкое руководство по подчинению в инструкции автора.

Также прочитайте: журнал – приложение для приложения для приема с питанием от ИИ

Часто задаваемые вопросы по исследованиям и авторству, сгенерированным AI

  • Можно ли указать AI в качестве автора в научной статье?
    Нет. Основные издатели не принимают нечеловеческие организации в качестве авторов.
  • Как рецензенты могут обнаружить сгенерированный AI контент?
    Инструменты обнаружения помогают, но рецензенты также должны искать нечетную формулировку, неглубокую методологию или ненадлежащие цитаты.
  • Что произойдет, если опубликованная статья подтверждена как сгенерированная AI?
    Бумага может быть втянута. Авторы могут подвергаться черному списку или получать дисциплинарные меры от своих учреждений.
  • Приемлемо ли использовать ИИ для улучшения грамматики или суммирования контента?
    Да, если использование раскрывается в разделе подтверждения или методов рукописи. Прозрачность необходима.

Заключение

Вскоре в научном контенте, сгенерированном AI, ставит достоверность и надежность научной публикации риска. Поскольку генеративные инструменты искусственного интеллекта продолжают развиваться, академические издатели должны действовать быстро, подтягивая стандарты, укрепляя обнаружение и вспомогательные рецензенты. Неспособность обеспечить соблюдение этих границ может привести к длительному ущербу в доверительном доверии между исследовательскими сообществами.

Ссылки

Source link

Scroll to Top