Google AI создает вымышленные народные высказывания

Google AI создает вымышленные народные высказывания

Google AI создает вымышленные народные высказывания Фраза, которая когда -то могла звучать как научная фантастика, теперь укоренилась в реальности, и она привлекает много внимания. Мы наблюдаем за ростом мудрости машины или просто сбомистыми развлечениями, завернутыми в ностальгию? Поскольку Google выпускает свою новую функцию обзора ИИ, многие пользователи обнаруживают свою способность изготовить убедительные, но полностью фальшивые идиомы. Если вам интересно, как искусственный интеллект формирует наш язык и потенциально вводит в заблуждение любого, кто доверяет его ответам, читается.

Также читайте: Полностью автоматизированный склад

Понимание функции обзора ИИ Google

Обзор ИИ Google были представлены как часть его эволюции в направлении генеративного поиска. В этой функции используется модель Gemini Gemini AI для предоставления обобщенных ответов в верхней части результатов поиска, стремясь сэкономить время пользователям, пропустив неактуальные веб -страницы. Вместо того, чтобы отображать список таких ссылок, как традиционный поиск, обзор ИИ разводит информацию в разговорные ответы, используя данные, соскобавшие различные уголки Интернета.

Удобство приходит за счет. Через несколько дней после более широкого развертывания в мае 2024 года пользователи начали замечать некоторые необычные результаты. Один из вирусных примеров включал ответ, посоветующий людям добавить клей в соус для пиццы, чтобы сделать его лучше, явно не совет от любого авторитетного кулинарного источника. Инциденты подняли вопросы: что происходит, когда ИИ не знает ответа? И что он генерирует, когда он пытается «звучать человека» без реальной человеческой проницательности?

Изобретение мудрости: народные высказывания из ниоткуда

Стремясь выглядеть более привлекательным и разговорным, ИИ Google начал вводить ответы с поддельными идиомами, которые звучат как традиционная мудрость. Например, когда его попросили объяснить, почему кошки мурлыкают, она ответила фразой, утверждающей: «Как гласит старая поговорка, кошка мурлыка – счастливая кошка». Нет никаких документированных доказательств, которые когда -либо существовали, прежде чем ИИ напечатал его, но он кажется знакомым, почти реальным.

Эта конкретная проблема стала настолько заметной, что эксперты начали прочесываться через ИИ-сгенерированные идиомы, используемые в различных контекстах. Некоторые звучали как пюре между фактическими цитатами и мудростью в южном стиле, в то время как другие были явной чепухи, ставшей вкусной из-за знакомых лингвистических узоров. Google попытался сделать ИИ более человеческим, имитируя неформальный язык, но при этом он мог случайно создать фольклорную машину, которая создает убедительную ложь.

Также прочитайте: Обзор AI Тенденции показывают понимание стабилизации

Почему фальшивые идиомы вызывают большую обеспокоенность, чем шутки пошли не так

С первого взгляда, может показаться безвредным, может быть, даже юмористического, что ИИ генерирует высказывания из воздуха. Тем не менее, после того, как ложная идиома повторяется авторитетной системой, такой как Google, она приобретает внезапную достоверность. Кто -то, незнакомый с темой, может взять эту информацию за чистую монету, предполагая, что это широко принятое культурное высказывание или истина. Эта дезинформация затем распространяется либо из уст в уста, либо в репозиции в социальных сетях.

Лингвисты предупреждают, что идиомы и народная мудрость глубоко связаны с культурой и опытом. Когда машина генерирует искусственные идиомы, она подрывает эту традицию, вставляя ложный контекст в повествование. Со временем это рискует сдвигать язык и неправильно обрабатывать пользователей, особенно молодые поколения, которые могли бы начать использовать эти фразы, как будто они были частью реального наследия.

Доверие к информации зависит от подлинности. Когда ИИ составляет фразу, которая «звучит правильно», люди не могут сделать паузу, чтобы проверить его происхождение. Именно здесь заключается решающее отличие: шутки и ошибки можно смеяться, но фраза, прошедшая как древняя истина, решает знание более коварно.

Также прочитайте: японская легенда управления восстановлена ​​как AI Avatar

Технические корни галлюцинации ИИ

Феномен, генерирующего ложного, но правдоподобного содержания, известно как «галлюцинация». Это часто случается, когда система имеет ограниченные высококачественные данные по конкретному вопросу или попытки заполнить пробелы, творчески объединив фрагментированную информацию. Gemini, флагманская модель Foundation Google, специально обучена создавать человеческий текст, что делает его особенно восприимчивым к изготовлению деталей убедительным тоном.

Модели машинного обучения, такие как Близнецы, работают, прогнозируя наиболее вероятное следующее слово в предложении. Это делается путем анализа массовых наборов данных, в основном полученных из книг, веб -сайтов и статей. Если в этих данных не хватает примеров или содержит редкие закономерности, модель пытается преодолеть разрыв с собственной экстраполяцией. Когда подсказки просят систему быть дружелюбной или «говорить как человек», вероятность изобретенных идиомов увеличивается.

В структурированных средах данных алгоритм обычно работает хорошо. Но язык, в отличие от чисел или кода, является жидким и богатым контекстом. Без понимания культурного значения или исторического происхождения ИИ в конечном итоге создает ответы, которые кажутся правильными, но технически и фактически неверны.

Как Google отвечает на критику

После потопа негативной реакции Google признал проблемы с обзором ИИ и начал удалять особенно вопиющие примеры. Инженеры, как сообщается, затягивают фильтры содержимого и настраивают инструкции, используемые для получения результатов. Исправления развертываются постепенно, и Google предупреждает, что, хотя улучшения идут, ни одна модель ИИ не является надежной.

Представитель заявил, что компания по-прежнему привержена высококачественной информации и будет продолжать инвестировать в предотвращение вводящего в заблуждение контента. В то же время технический гигант призывает пользователей предоставить обратную связь, когда они сталкиваются с неточностями. Эти исправления помогают тонко настроить выходы и усилить более строгие стандарты в результате поиска.

Несмотря на исправления, инцидент подчеркивает более глубокую задачу: ИИ отлично звучит уверенно, но не имеет внутренней меры для истины. Ему не хватает заземления в реальности, если только человеческий, проверенный входные поезда, это иначе. Это поднимает важную проблему для будущих систем ИИ, которые стремятся свободно взаимодействовать с людьми с точностью, уравновешивая личность.

Также прочитайте: новый инструмент AI от Google улучшает опыт обучения

Влияние на SEO, создатели контента и цифровые маркетологи

Для тех, кто работает в создании SEO и цифрового контента, функция обзора ИИ представляет как осложнения, так и возможности. С одной стороны, если резюме ИИ доминируют в внимании пользователя, веб-сайты могут страдать от снижения скорости кликов. Люди, ищущие быструю информацию, могут полагаться только на сгенерированные AI-размытия, обходя более глубокое содержание, размещенное на реальных сайтах.

С другой стороны, неточные обзоры открывают дверь для доверенных поставщиков контента, которые подчеркивают точность и контекст. Создавая хорошо изученные, правильно цитируемые произведения, цифровые издатели могут позиционировать себя как авторитетные голоса, когда информация искусственного интеллекта не удается. Google утверждает, что обзор AI вытягивает из надежных источников, поэтому улучшение вашего домена и профиля обратной ссылки становится более важным, чем когда -либо.

Создатели контента также должны наблюдать, как сгенерированные AI фразы сдвигают поведение поиска. Если люди повторяют или ищут недавно созданные идиомы, это может создать новые тенденции SEO. Мониторинг этих неожиданных лингвистических сдвигов предлагает конкурентное преимущество для блогов и предприятий, которые быстро адаптируются к новым шаблонам ключевых слов.

Что это говорит нам о языке и технологиях

В основе этого противоречия лежит более широкий философский вопрос: должны ли машины создавать язык за пределами человеческого опыта? Язык – это не просто инструмент, это живой отчет о коллективной истории. Искусственный интеллект, независимо от того, насколько продвинулся, не хватает культурного контекста. Это не знает, каково это сидеть на крыльце со старейшинами, рассказывающими истории. И все же теперь это мощный рассказчик.

Слияние лингвистического творчества и вычислительной логики делает роль ИИ в формировании понимания пользователя более мощным, чем когда -либо. Хотя вымышленные высказывания могут показаться незначительными, они служат предупреждениями о более глубоких системных проблемах. Дезинформация не всегда распространяется, так как ложь часто одевается как мудрость.

Чтобы ИИ стал ответственным участником языка, он должен придерживаться строгих стандартов правдивости, цитирования и прозрачности. И пользователи должны поддерживать здоровый уровень скептицизма, независимо от того, насколько «народная» фраза может звучать от крупнейшей технологической компании в мире.

Также прочитайте: новый инструмент AI от Google улучшает опыт обучения

Ссылки

Джордан, Майкл и др. Искусственный интеллект: руководство по мышлению людейПолем Penguin Books, 2019.

Рассел, Стюарт и Питер Норвиг. Искусственный интеллект: современный подходПолем Пирсон, 2020.

Коупленд, Майкл. Искусственный интеллект: что нужно знать всеПолем Издательство Оксфордского университета, 2019.

Герон, Аурелиен. Практическое машинное обучение с Scikit-Learn, Keras и TensorflowПолем O’Reilly Media, 2022.

Source link

Scroll to Top