Jamillah Knowles / Data People / Licensed By CC-BY 4.0
Грейс Стэнли
Исследователи из Cornell Tech выпустили набор данных, извлеченный из более чем 300 000 общественных сообществ Reddit, и в отчете подробно описывается, как сообщества Reddit меняют свои политики для решения всплеска контента, сгенерированного AI.
Команда собрала правила метаданных и сообщества от онлайн -сообществ, известных как субреддиты, в течение двух периодов в июле 2023 года и ноябре 2024 года. Исследователи представит документ с выводами в Ассоциации CHI Companty Machinery по человеческим факторам в вычислительных системах, проведенных с 26 по 1 мая в Йокогаме, Япония.
Одним из наиболее поразительных открытий исследователей является быстрое увеличение субреддитов с правилами, регулирующими использование ИИ. Согласно исследованию, количество подредит с ИИ Правила более чем удвоилось за 16 месяцев, с июля 2023 года по ноябрь 2024 года.
«Это важно, потому что это демонстрирует, что в этих сообществах распространяется забота ИИ. Это поднимает вопрос о том, есть ли у сообществ инструменты, необходимые им для эффективного и справедливого обеспечения этой политики», – сказал Трэвис Ллойд, докторский студент из Cornell Tech и один из исследователей, которые инициировали проект в 2023 году.
Исследование показало, что правила искусственного интеллекта наиболее распространены в субреддитах, ориентированных на искусство и темы знаменитостей. Эти сообщества часто делятся визуальным контентом, и их правила часто решают проблемы с качеством и подлинностью изображений, сгенерированных AI, аудио и видео. Крупные субреддиты также значительно чаще имели эти правила, отражая растущую обеспокоенность по поводу искусственного интеллекта среди сообществ с более крупными базами пользователей.
«В этом документе используются правила сообщества, чтобы обеспечить первое представление о том, как борются наши онлайн-сообщества с потенциальным широко распространенным нарушением, которое вызвано генеративным ИИ»,-сказал соавтор Мор Нааман, профессор Института вычислений и информационной науки Jacobs Технион-Корнелл. «Рассмотрение действий модераторов и изменений правил дало нам уникальный способ подумать о том, как влияют различные субреддиты и сопротивляются или нет, использование ИИ в их сообществах».
По мере развития генеративного ИИ исследователи призывают дизайнеров платформы расставлять приоритеты сообщества о качествах и подлинности, обнаруженных в данных. В исследовании также подчеркивается важность «чувствительного к контексту» выбора дизайна платформ, который учитывает, как различные типы сообществ используют различные подходы к регулированию использования ИИ.
Например, исследование показывает, что более крупные сообщества могут быть более склонны к использованию формальных, явных правил для поддержания качества контента и управления использованием ИИ. Напротив, более сплоченные, больше личных сообществ могут полагаться на неформальные методы, такие как социальные нормы и ожидания.
«Наиболее успешными платформами будут те, которые позволят сообществам разрабатывать и обеспечивать соблюдение своих собственных контекстов-чувствительных норм об использовании ИИ. Самое главное, что платформы не используют нисходящий подход, который заставляет одну политику ИИ для всех сообществ»,-сказал Ллойд. «Сообщества должны быть в состоянии выбирать для себя, хотят ли они разрешить новую технологию, а дизайнеры платформ должны изучить новые инструменты модерации, которые могут помочь сообществам обнаружить использование ИИ».
Обладая их набором данных, исследователи стремятся обеспечить будущие исследования, которые могут дополнительно изучить самоуправление онлайн-сообществом и влияние ИИ на онлайн-взаимодействия.
Корнелльский университет