Дэвид Пул, Университет Британской Колумбии
В 1948 году основатель теории информации, Клод Шеннон, предложил язык моделирования с точки зрения вероятности следующего слова в предложении, учитывая предыдущие слова. Эти типы вероятностных языковых моделей были в значительной степени высмеченными, наиболее известными лингвистом Ноамом Хомски: «понятие« вероятности предложения »является совершенно бесполезным».
В 2022 году, через 74 года после предложения Шеннона, появился Чатгпт, что привлекло внимание общественности, и некоторые даже предполагают, что это были ворота в Super-Human Intelligence. Переход от предложения Шеннона в CHATGPT занял так много времени, потому что объем используемых данных и времени вычислений был невообразимым даже несколько лет назад.
CHATGPT – это большая языковая модель (LLM), изученная из огромного корпуса текста из Интернета. Он предсказывает вероятность следующего слова, учитывая контекст: подсказка и ранее сгенерированные слова.
Chatgpt использует эту модель для генерации языка, выбирая следующее слово в соответствии с вероятностным прогнозом. Подумайте о том, чтобы рисовать слова из шляпы, где, по прогнозам, есть более высокая вероятность, имеют больше копий в шляпе. CHATGPT производит текст, который кажется интеллектуальным.
Существует много споров о том, как эти инструменты могут помочь или препятствовать обучению и практике творческого письма. Как профессор компьютерной науки, который создал сотни работ по искусственному интеллекту (ИИ), включая учебники по искусственному искусству, которые охватывают социальное воздействие крупных языковых моделей, я думаю, что понимание того, как работают модели, могут помочь писателям и преподавателям рассмотреть ограничения и потенциальное использование ИИ для того, что можно назвать «творческим» письмом.
В качестве попугаев или плагиатов
Важно различать «творчество» от LLM и творчества человеком. Для людей, у которых были низкие ожидания от того, что мог генерировать компьютер, было легко назначить творчество на компьютер. Другие были более скептически настроены. Ученый-когнитивный ученый Дуглас Хофштадтер увидел «ошеломляющую, скрытую, скрытую прямо под ее яркой поверхностью».
Лингвистка Эмили Бендер и его коллеги описали языковые модели как стохастических попугаев, что означает, что они повторяют то, что в данных, на которых они обучались со случайностью. Чтобы понять это, подумайте, почему было создано конкретное слово. Это потому, что он имеет относительно высокую вероятность, и имеет высокую вероятность, потому что большой текст в учебном корпусе использовал это слово в аналогичном контексте.
Выбор слова в соответствии с распределением вероятностей похоже на выбор текста с аналогичным контекстом и использованием его следующего слова. Создание текста из LLM можно рассматривать как плагиат, по одному слову за раз.
Творчество человека
Рассмотрим творчество человека, у которого есть идеи, которые они хотят передать. С генеративным ИИ они помещают свои идеи в подсказку, и ИИ будет создавать текст (или изображения или звуки). Если кому -то все равно, что генерируется, не имеет значения, что он использует в качестве подсказки. Но что, если они заботятся о том, что генерируется?
LLM пытается генерировать то, что производит случайный человек, который написал предыдущий текст. Большинство творческих писателей не хотят, чтобы напишет случайный человек. Они хотят использовать свое творчество и могут захотеть инструмент для создания того, что они писали бы, если бы у них было время для его создания.
У LLM обычно нет большого корпуса того, что конкретный автор написал, чтобы учиться. Автор, несомненно, захочет произвести что -то другое. Если вывод, как ожидается, будет более подробным, чем вход, LLM должен составить подробную информацию. Это может или не может быть тем, что задумал писатель.
Некоторое позитивное использование LLM для творческого письма
Письмо похоже на разработку программного обеспечения: учитывая идею о том, что нужны, разработчики программного обеспечения производят код (текст на компьютерном языке) аналогично тому, как авторы производят текст на естественном языке. LLMS относится к написанию кода и написанию текста естественного языка одинаково; Корпус каждый LLM обучен, содержит как естественный язык, так и код. То, что производится, зависит от контекста.
Писатели могут учиться на опыте разработчиков программного обеспечения. LLM хороши для небольших проектов, которые были выполнены ранее многими другими людьми, такими как запросы базы данных или написание стандартных букв. Они также полезны для частей более крупных проектов, таких как всплывающее окно в графическом интерфейсе пользователя.
Если программисты хотят использовать их для более крупных проектов, они должны быть готовы к созданию нескольких выходов и отредактировали тот, который ближе всего к тому, что предназначено. Проблема в разработке программного обеспечения всегда определяла, что именно нужно; Кодирование – это легкая часть.
Генерируя хорошие подсказки
Как генерировать хорошие подсказки, было выступает в качестве формы искусства под названием «Основная инженерия». Сторонники быстрого инженера предложили несколько методов, которые улучшают выходные данные LLM, такие как запрос на контур, а затем просят текст на основе исходной подсказки, дополненной контуром.
Другой-попросить LLM показать свои шаги рассуждения, как в так называемой цепочке мышления. Выходы LLM не просто ответ на вопрос, но объясняет шаги, которые можно предпринять, чтобы ответить на него. LLM использует эти шаги как часть своей подсказки, чтобы получить окончательный ответ.
Такой совет обязательно будет эфемерным. Если какая-то техника быстрого инженерия работает, она будет включена в будущее выпуск LLM, так что эффект происходит без необходимости явного использования этой техники. Недавние модели, которые утверждают разума, включили такие пошаговые подсказки.
Люди хотят верить
Компьютерный ученый Джозеф Вайзенбаум, описывающий свою программу Элизы, написанную в 1964–66 годах, сказал: «Я был поражен, увидев, как быстро и как очень глубоко люди, разговаривающие с (программой), стали эмоционально связаны с компьютером, и как однозначно они антропоморфизировали ее». Инструменты изменились, но люди все еще хотят верить.
В этот век дезинформации, для каждого важно иметь способ судить о часто корыстной ажиотаже.
В генеративном ИИ нет магии, но есть много данных, из которых можно предсказать, что кто -то может написать. Я надеюсь, что творчество больше, чем извергает то, что написали другие.
Дэвид Пул, почетный профессор компьютерных наук, Университет Британской Колумбии
Эта статья переиздана из разговора по лицензии Creative Commons. Прочитайте оригинальную статью.
Разговор является независимым источником новостей и мнений, полученных от академического и исследовательского сообщества и предоставлена прямо для общественности.
Разговор является независимым источником новостей и мнений, полученных от академического и исследовательского сообщества и предоставлена прямо для общественности.