ФБР предупреждает о мошенничестве с голосом ИИ

ФБР предупреждает о мошенничестве с голосом ИИ

ФБР предупреждает о мошенничестве с AI, пугающим предупреждением, которое подчеркивает, как искусственный интеллект используется для эксплуатации доверия и манипулирования эмоциями. В своем последнем консультации ФБР выразило растущую обеспокоенность по поводу преступников, использующих генеративный ИИ, чтобы создать убедительные голосовые клоны любимых, руководителей или коллег. Эти голоса часто побуждают жертв сдавать деньги или конфиденциальные данные. Это отражает серьезные изменения в угрозах социальной инженерии, поскольку синтетические средства массовой информации, такие как DeepFake Audio, делают мошенничество более персонализированными и эффективными. С появлением тактики обмана, работающего на двигателе, отдельные лица и организации должны научиться определять предупреждающие знаки и реализовать защитные стратегии.

Ключевые выводы

  • Преступники используют инструменты, управляемые ИИ, для клонирования голосов и выполнения убедительных мошенничества.
  • ФБР выпустило публичное предупреждение и призывает к крайней осторожности при получении неотложных голосовых запросов.
  • Эти голосовые клонирующие мошенничества часто вызывают финансовые действия или передачу данных под ложными предложениями.
  • Растущая доступность инструментов искусственного интеллекта повышает уровень угрозы как для частных лиц, так и для бизнеса.

Также прочитайте: защита вашей семьи от угроз искусственного интеллекта

Как работают мошенничество с голосом ИИ

В мошенничестве с AI включают использование генеративного искусственного интеллекта для синтеза и воспроизведения голоса человека на основе коротких образцов звука. Злоумышленники могут собирать голосовые клипы из социальных сетей, подкастов или приветствий голосовой почты. После получения этих образцов мошенники загружают клипы в программное обеспечение для голосового клонирования, которое часто является недорогим и простым в доступе.

Эти клонированные голоса могут отражать тонус, акцент, каденцию и эмоциональный перегиб. Мошенники используют их, чтобы выдать себя за членов семьи, руководителей компании или коллег. Клонированные голоса, как правило, передают чувство срочности, запрашивая проводные переводы, чувствительные учетные данные или немедленные действия.

Общие цели и сценарии

  • Родитель получает голосовое сообщение от кого -то, кто звучит как их ребенок, говоря, что он в опасности и срочно нуждаются в деньгах.
  • Сотрудник персонала получает голосовую почту от «генерального директора», разрешающей внезапную сделку за заработную плату.
  • Сотрудник по обслуживанию клиентов банка получает голосовой запрос на сброс доступа к учетной записи с помощью мошеннического голоса.

Эмоциональное давление в этих сообщениях заставляет жертв быстро реагировать, а не думать критически. Этот эмоциональный ответ лежит в основе эффективной тактики социальной инженерии.

Также читайте: ИИ улучшает рост сложных фишинговых мошенничеств

Что говорит ФБР

Центр жалоб ФБР в интернет -преступлениях (IC3) определил рост синтетического мошенничества в СМИ, включая мошенничество с AI Voice. По данным агентства, многочисленные инциденты показывают, что технология голосового клонирования уже используется для обмана жертв в передачу денег или предоставление личной информации. Жертвы сообщают о получении телефонных звонков или голосовой почты, которые звучат весьма реалистично и знакомы, обходят нормальные процедуры проверки.

ФБР призывает всех оставаться скептическими при получении незапрошенных звонков, которые запрашивают деньги или полномочия, даже когда голос кажется заслуживающим доверия или узнаваемым.

Вспомогательные данные: мошенничество с искусственным технологиями увеличивается

В отчете ФБР IC3 на 2023 год говорится, что убытки от фишинга и мошенничества с олицетворянием в Соединенных Штатах превышали 1,1 миллиарда долларов. На этом рисунке показано резкое увеличение по сравнению с 2021 год. В то время как мошенничество, сгенерированные AI, представляют собой подмножество этих данных, повышенное использование синтетических среда явно способствует более частым инцидентам.

В отчете «Статиста» в 2024 году указывается, что более 30 процентов кибератак с участием ИИ теперь используют некоторую форму генерации голоса, видео или изображений. В прошлом году правоохранительные органы в США получили почти 20 000 сообщений о синтетических голосовых манипуляциях. Эксперты считают, что истинное число может быть намного выше из -за ограниченной отчетности.

Также читайте: AI Granny перехитривает мошенников в веселом изюминке

Программное обеспечение для голосового клонирования больше не ограничивается расширенными исследовательскими лабораториями. Многие платформы теперь предлагают инструменты синтеза голоса для общего использования в развлечениях, образовании или производстве СМИ. К сожалению, те же инструменты могут быть использованы для мошеннической деятельности. Во многих случаях для создания высококачественного клона необходимы только 10-30 секунд звука.

Исследователь кибербезопасности из Университета Торонто отметил в интервью, что в 2018 году голосовое клонирование было ограничено командами в крупных технических фирмах. К 2024 году подросток с типичным ноутбуком и приложением для смартфона может провести тот же процесс в течение часа.

Громкие инциденты и график эволюции

Вот обзор того, как в последние годы развивались мошенничество с AI Voice:

  • 2019: Британская энергетическая фирма потеряла более 200 000 долларов после того, как преступник выдавал себя за немецкого руководителя.
  • 2021: Случаи появились в Индии и Соединенных Штатах, где мошенники использовали клоны родителей или сестры, чтобы обмануть подростков.
  • 2022: FTC начал документировать мошенничество с голосом DeepFake в своих официальных данных жалобы.
  • 2023: Клонированные голоса знаменитостей начали появляться в фишинговых сообщениях. Это вызвало оповещения ФБР.
  • 2024: В настоящее время наблюдаются мошенничество с голосовым клонированием в различных отраслях, включая банковское дело, здравоохранение и общественные услуги.

Экспертные понимания: социальная инженерия на новом уровне

Социальная инженерия всегда зависела от психологической манипуляции. Мошенничество с голосом ИИ повышает эту стратегию на новый уровень, объединяя правдоподобность с срочностью. По словам эксперта по кибербезопасности д -ра Лены Майклз, сочетание реалистичного голосового клонирования с такой тактикой, как подражание руководителям, делает некоторые мошенничества очень трудно обнаружить без специализированного обучения.

Криминолог Хорхе Петрос, который изучает цифровой обман, отмечает, что более старым методам, таким как идентификатор вызывающего абонента или знакомство с голосом, больше нельзя доверять. По его словам, эмоциональное воздействие знакомого голоса может переопределить логическое мышление.

Эксперты предлагают объединить как технические решения (такие как биометрические проверки или двухфакторную аутентификацию), так и структурированные внутренние контроли (такие как обязательные процедуры обратного вызовов или пошаговая проверка для финансовых действий).

Также прочитайте: подрывать доверие с ИИ: Навигация по минному полю глубоких подделок

Профилактические шаги, которые нужно предпринять прямо сейчас

ФБР рекомендует следующие оборонительные шаги как для людей, так и для организаций:

  • Всегда проверяйте запросы через другой канал, особенно когда задействованы деньги или конфиденциальные данные.
  • Создайте семейные или кодовые слова на рабочем месте, которые можно использовать для аварийной проверки голоса.
  • Обеспечить обучение по сгенерированным AI угрозам и регулярно проверить процедуры безопасности.
  • Ограничьте объем записанного голосового контента, который станет общедоступным онлайн или на профессиональных платформах.
  • Подпишитесь на предупреждения об угрозах со стороны официальных учреждений, таких как ФБР и FTC, чтобы оставаться в курсе.

FAQ: Что знать о мошенничестве с AI Voice

Что такое мошенничество с AI Voice и как они работают?

Эти мошенничества включают клонирование чьего -либо голоса с использованием искусственного интеллекта. Затем клонированный голос используется для доставки поддельного сообщения, которое, по -видимому, исходит от доверенного лица, обычно требующего денег или доступа.

Может ли ИИ действительно клонировать голос человека?

Да. ИИ может имитировать голос человека с короткой записи. Это может воспроизвести эмоциональный язык, тон, время и даже уникальные речевые модели.

ФБР советует людям быть осторожными при получении неожиданных голосовых звонков, которые просят срочные действия. Всегда подтверждайте запрос, используя другой метод связи.

Как я могу защитить себя от мошенничества с голосом?

Создайте частные пассажиры или вопросы, известные только для близкой семьи или коллег. Уменьшите количество общественных образцов голоса, доступных в Интернете, и повысить осведомленность об угрозе в вашем сообществе или на рабочем месте.

Заключение

Мошенничество с AI Voice в корне изменяют ландшафт угроз кибербезопасности. Поскольку инструменты клонирования становятся дешевле и более доступными, мошенничество с синтетическим медиа быстро растет. Предупреждение ФБР ясно, призывая всех людей и организации проверить голоса и не полагаться исключительно на то, что слышно. Защита будет зависеть от осведомленности, сильных внутренних систем и использования безопасной практики проверки.

Ссылки

  • Годовой отчет FBI IC3 2023 – IC3.gov
  • Winder, D. (2024). «ФБР выпускает предупреждение, когда мошенничество с голосом ИИ становятся более правдоподобными». Forbes – Forbes.com
  • Сотрудники CBS News. (2024). «ФБР предупреждает о мошенничестве с голосом AI». CBS News – CBSNews.com

Source link

Scroll to Top