Скарлетт Йоханссон сражается с ИИ за права

Скарлетт Йоханссон сражается с ИИ за права

Растущий спор Скарлетт Йоханссон сражается с ИИ за права Основные ключевые проблемы на пересечении знаменитости, искусственного интеллекта и цифровой этики. Голливудская икона Скарлетт Йоханссон бросает вызов Openai по поводу того, что, по ее словам, является несанкционированным использованием голоса в помощнике CHATGPT, который очень похож на ее собственное. Ее решение высказываться поднимает более широкие вопросы о сходстве знаменитостей, согласии на генеративный ИИ и юридические и этические стандарты, необходимые для сегодняшнего быстро развивающегося технологического ландшафта. Стенд Йоханссона выходит за рамки ее личного имиджа, сигнализируя о повышении требований к ответственности в развитии искусственного интеллекта.

Ключевые выводы

  • Скарлетт Йоханссон утверждал, что Openai воспроизводил голос, похожий на ее, без разрешения.
  • Этот инцидент привлекает внимание к растущей обеспокоенности по поводу клонирования голоса ИИ и защиты идентичности знаменитостей.
  • Текущие юридические и этические системы не полностью оснащены для управления способностью ИИ воспроизводить человеческое сходство и голоса.
  • Эта ситуация может влиять на новые стандарты согласия и защиту в будущих приложениях ИИ.

Также читайте: Ким Кардашьян обнимает приключения робота -общения

Что произошло между Скарлетт Йоханссон и Openai?

Ситуация возникла, когда Openai представила голосового помощника для Chatgpt, который включал в себя голосовой вариант под названием «Sky». Наблюдатели отметили, что голос звучит поразительно как Скарлетт Йоханссон. Йоханссон заявила, что она отказалась от предыдущего предложения от Openai для работы над такой функцией. За несколько дней до запуска голосового помощника генеральный директор Openai Сэм Альтман снова связался с ней с аналогичным предложением, которое она также отказалась. Два дня спустя продукт прошел с «Sky». Йоханссон утверждает, что голос звучал настолько похожим, что многие полагали, что она была вовлечена.

Ее юридическая команда запросила ясность и подотчетность от Openai. В ответ Openai остановил функцию голоса «неба» и пояснил, что Йоханссон не был частью проекта. Компания сказала, что голос пришел от другого профессионального актера. Тем не менее, этот вопрос поднял важные вопросы о репликации голоса и личных правах в эпоху ИИ.

Также прочитайте: ИИ повторяет вашу личность за 2 часа

Новая граница: права знаменитостей в эпоху ИИ

Развитие искусственного интеллекта приносит новые проблемы для того, как общество понимает владение и согласие на личную идентичность. Знаменитости особенно уязвимы из -за их широко признанных голосов и выступлений. Эта видимость делает их основными кандидатами на несанкционированную репликацию через технологии искусственного интеллекта.

Прошлые проблемы были сосредоточены на глубоких видеороликах и синтетическом контенте в Интернете. Дело Йоханссона выделяется, потому что он включает в себя основной продукт, запущенный известной технологической компанией. Этот факт приводит к срочности дискуссии о коммерческих и этических пределах. У экспертов юристов растет растущее убеждение в том, что нынешняя защита, такая как рекламные права, устарели и недостаточны для обработки имитации, управляемой ИИ.

Как работает голосовой клонинг и почему это важно

Голосовое клонирование использует алгоритмы машинного обучения, обученные образцам аудио для создания новой речи, которая имитирует конкретного человека. Эти системы теперь могут имитировать такие качества, как высота, эмоции, время и манера разговора. Хотя есть положительное использование для голосового клонирования, например, улучшение доступности или поддержка тех, кто потерял свои голоса, использование его без разрешения рискует значительным вредом.

Некоторые люди дали согласие на клонирование голоса. Джеймс Эрл Джонс предоставил разрешение на то, чтобы его голос был в цифровом виде для будущего изображения Дарта Вейдера. Актер Валь Килмер одобрил аналогичную технологию после проблем со здоровьем. Напротив, Йоханссон утверждает, что она не предоставила никакого одобрения, которое, по ее мнению, делает ее ситуацию принципиально иной и этически проблематичной.

Способность ИИ повторять голоса убедительно увеличивает риски. Без явной маркировки или прозрачности пользователи могут не осознавать, когда они слушают синтетический голос. Эта проблема может поощрять дезинформацию, несправедливое олицетворение и использование чьей -либо личности без надлежащего подтверждения или компенсации.

Также прочитайте: цифровая идентичность: ключ к победе кибербезопасности

Прецеденты формируют будущее: временная шкала столкновений с аи-обращением

Этот случай соответствует более широкой графике ИИ, сталкивающегося с общественными правами на имидж. Несколько инцидентов продемонстрировали растущую потребность в регулировании и информированном согласии в контенте, сгенерированном AI:

  • 2019: Видео с глубокимфакциями с участием знаменитостей, в том числе Тома Круза, начинают широко распространены, создавая раннюю тревогу вокруг неправильного использования ИИ.
  • 2022: Джеймс Эрл Джонс лицензирует использование своего голоса для будущих проектов «Звездных войн» с использованием инструментов ИИ.
  • 2023: Том Хэнкс предупреждает аудиторию о цифровой рекламе, используя несанкционированную версию Ай, сгенерированную AI, его сходства.
  • 2024: Скарлетт Йоханссон обвиняет Openai в выпуске голосовой функции, которая напоминает ее без официального сотрудничества.

Эти события демонстрируют расширение разрыва между существующей правовой защитой и сложностью генеративных технологий. По мере того, как компании все чаще используют ИИ в коммерческих целях, важность согласия, справедливости и прозрачности становится сильнее.

В Соединенных Штатах некоторые штаты, такие как Калифорния и Нью -Йорк, приняли законы, касающиеся «права на рекламу». Тем не менее, эти законы не были предназначены для обработки цифровой мимики, ставшей возможной благодаря ИИ. Регулирование на федеральном уровне отсутствует, в результате чего знаменитости и простых людей с неравномерным уровнем защиты в зависимости от того, где они живут.

Юридические эксперты поддерживают более сильные и более четкие требования согласия для использования чьего -либо сходства или голоса в приложениях искусственного интеллекта. Растут для моделей политики, которые работают аналогично лицензированию интеллектуальной собственности. Это потребовало бы, чтобы люди предоставили явное письменное разрешение и получили соответствующую компенсацию, когда их личность воспроизводится искусственными средствами.

Развлекательные профсоюзы, включая Sag-Aftra, начали выражать обеспокоенность по поводу того, как такие технологии могут повлиять на права исполнителей. Эти организации в настоящее время выступают за то, чтобы защищаемая защита, чтобы поддержать достоинство, экономические средства к существованию и личное агентство тех, чья личность может быть скопирована в цифровом виде для получения прибыли или другого использования.

Также прочитайте: защита вашей семьи от угроз искусственного интеллекта

Использовал ли Openai голос Скарлетт Йоханссон?

Openai заявил, что он не использовал голос Йоханссона и что голос, используемый для «Sky», был записан другим профессиональным актером. Йоханссон утверждает, что сходство может ввести в заблуждение общественности и считает, что она пересекает линию даже без прямого отбора проб.

Может ли AI юридически повторить голоса знаменитостей?

В некоторых регионах закон защищает коммерческое использование изображения или голоса знаменитости. Без согласия такая репликация может быть оспорена в суде. Тем не менее, правила отличаются от штата к штату, а глобальные стандарты остаются ограниченными или непоследовательными.

Почему Скарлетт Йоханссон имеет значительный случай?

Этот спор может установить юридический и этический стандарт для использования голосового контента, сгенерированного AI. Он оказывает давление на компании искусственного интеллекта на создание лучших систем для точности, сбора согласия и прозрачности пользователей, прежде чем выпустить функции, которые имитируют реальных людей.

Какие права имеют люди на подражание ИИ?

Юридическая защита в основном касается прямого подражания за мошенничество или коммерческую эксплуатацию. Большинство правил конфиденциальности не были разработаны с учетом искусственного моделирования. Предлагаются новые законы, которые будут включать в себя права голоса и имиджа в рамках защиты цифровой личности.

Заключение: к гуманному и этическому ИИ

Оппозиция Скарлетт Йоханссон с голосовым помощником Openai отмечает больше, чем споры, основанные на знаменитостях. Он представляет собой поворотный момент в глобальном разговоре об этике, творчестве и личной автономии в цифровую эпоху. Поскольку технология получает способность воспроизвести человеческие характеристики с повышенной точностью, вопросы о согласии, идентичности и подотчетности становятся срочными.

Чтобы ИИ с уважением и справедливо обслуживал пользователей, разработчики, законодатели и защитники прав должны работать вместе. Чистые ограничения и защитная политика необходимы для руководства, как мы используем цифровые представления людей. Использование ИИ в средствах массовой информации расширяется, и решения, принятые в этом случае, могут формировать будущее для поколений создателей, исполнителей и общественности.

Ссылки

Source link

Scroll to Top