Эксплойт AIS-Assistant Zero Click
Эксплойт AIS Assistant Zero Click вызвал интенсивную обеспокоенность по всему ландшафту кибербезопасности. Он раскрывает критический недостаток, который позволяет удаленным злоумышленникам захватывать управление устройствами, не требуя любого ввода пользователя. Эта серьезная уязвимость, возникающая в результате обработки запросов на обработку естественного языка (NLP), влияет на помощников искусственного интеллекта, используемых в миллионах персональных устройств, систем интеллектуальных домов и корпоративных приложений. В то время как ведущие поставщики выпустили патчи, противоречивые обновления оставляют многие системы выставленными, подчеркивая необходимость быстрого и комплексного смягчения угроз в развивающейся области рисков ИИ.
Ключевые выводы
- Недостаток нулевого клика в AI Ass Assistants разрешает выполнение удаленного кода (RCE) без взаимодействия с пользователем.
- Уязвимость обусловлена неправильным анализом в модулях NLP, что ставит под угрозу широко распространенные типы систем.
- Организации, в том числе CISA и АНБ, отреагировали на консультации, а крупные поставщики выпустили патчи.
- Эксперты описывают угрозу как сопоставительную по серьезности с Пегасом и Log4shell.
Понимание эксплойтов с нулевым кликом в системах ИИ
Эксплойт с нулевым кликом относится к компромиссу системы, не требуя, чтобы пользователь нажимал, нажимает или взаимодействует с каким-либо контентом. В системах, основанных на AI, эти атаки нацелены на голосовые платформы или автоматизированные двигатели запросов. Эксплойт функционирует путем подачи обработанных данных в НЛП заднюю часть этих помощников. Это происходит молча. Поскольку не требуется согласие или взаимодействие пользователя, обнаружение значительно сложнее, а атака может произойти быстрее, чем в типичных моделях эксплойтов.
В отличие от традиционных векторов атаки, они зависят исключительно от неверных интерпретаций. В этом случае злонамеренные актеры нарушают систему через узолотые языковые запросы. В то время как NLP обычно рассматривается как более безопасный уровень взаимодействия, неправильное использование семантической обработки обнаруживает новые и очень тонкие уязвимости.
Технический разрыв: недостаток анализа НЛП
Основная проблема заключается в том, как двигатель Assistant Assistant обрабатывает вложенные и уродливые текстовые структуры. Исследователи из Mandiant и команды Miter CVE обнаружили, что в определенных условиях система не может правильно дезинфицировать входы строк. Затем буферы можно манипулировать непосредственно, отправив эти поврежденные запросы, создавая опасные условия памяти, которые обеспечивают удаленное выполнение произвольного кода.
Это не эскалация привилегий, происходящая из стандартных бинарных уязвимостей. Вместо этого это логический недостаток. Ошибки анализа внутри семантического слоя помощника позволяют создавать строки полностью обходить фильтры. После того, как одно устройство будет скомпрометировано, подключенная сеть или экосистема также могут быть скомпрометированы, вводя обширный боковой риск движения.
Этот шаблон повторяет предыдущие методы атаки. Например, инцидент Spyware Pegasus использовал методы с нулевым кликом в Imessage. Как и это событие, этот эксплойт достигает глубокого управления устройствами без предупреждения, в результате чего пользователи не знают о атаке в процессе. Такие случаи, как это усиливает, как уязвимости в системах ИИ пересекаются с более крупными проблемами кибербезопасности. Подробнее об этом объясняется в нашей статье, обсуждающих угрозы искусственного интеллекта и кибербезопасности.
Временная шкала открытия и ответа
- Февраль 2024: Оценки красной команды обнаруживают странные результаты НЛП в предпринимательских речевых API.
- Март 2024 г.: Эксплуат-подтверждение концепции, подтвержденное на трех ведущих платформах ИИ.
- 1 апреля 2024 года: Исследователи представляют скоординированное раскрытие уязвимости поставщикам и MITER.
- 12 апреля 2024 года: CVE-2024-28873 обнародован. CISA выдает консультативное предупреждение AA24-102A о критическом уровне угрозы.
- 14–20 апреля 2024 года: Google, Amazon и Microsoft публикуют исправления двигателя NLP.
- Май 2024: Crowdstrike и Mandiant подтверждают живую эксплуатацию в этой области. Принятие патчей колеблется ниже 65 процентов.
Область воздействия между устройствами и сетями
Этот эксплойт влияет на гораздо больше, чем потребительские умные помощники. Устройства здравоохранения, системы конференц -залов, чат -боты финансового обслуживания и интеллектуальные приборы, которые включают модули ИИ, одинаково раскрыты. Глобальные оценки указывают на более чем 80 миллионов уязвимых развертываний.
Поскольку уязвимость не требует действия пользователя для активации, начальный доступ может быть достигнут молча. Оттуда злоумышленники могут погрузиться в боковое исследование подключенных систем. Доверие API во внутренних условиях позволяет этим нарушениям быстро обостриться. Многие в настоящее время пересматривают допущения безопасности вокруг интеллектуальных устройств и AI-зависимых рабочих процессов, особенно в конфиденциальных областях, таких как медицинская диагностика и национальная безопасность.
Реакция правительства и промышленности
Агентство по безопасности кибербезопасности и инфраструктуры (CISA) и Агентство национальной безопасности (АНБ) быстро действовали для повышения осведомленности. CISA выпустила руководство, призывая всех организаций с платформами с поддержкой голоса без промедления. Неспособность применять участки значительно увеличивает воздействие как на цепочки потребительских, так и военных поставок.
Выдержка из бюллетеня CISA гласит:
«Организации должны немедленно обновить затронутые платформы голосового помощника, чтобы смягчить риск RCE с нулевым кликом, особенно в средах с высокой безопасности. Задержки в развертывании патчей увеличивают вероятность компромисса».
Miter зарегистрировала недостаток как CVE-2024-28873 и набрал его 9,8 по шкале CVSS. АНБ подчеркнуло стратегическое значение исправления государственных систем, которые часто полагаются на коммерческих интеллектуальных помощников, внутренне развернутых для ограниченных операций. Согласно недавнему прогнозу кибербезопасности на 2025 год, угрозы, связанные с эксплуатацией ИИ и автоматизацией, могут определить следующее поколение векторов атаки.
Сравнение с предыдущими громкими эксплойтами
Эксперты проводят сравнение между этим эксплойтом ИИ и уязвимостью Pegasus Spyware и Log4shell. Пегас использовал аналогичные методы для компромисса устройств через imessage молча. Log4shell показал, как базовая текстовая команда может открыть полный удаленный доступ. Эта новая проблема включает в себя аспекты обоих.
Основное отличие заключается в слое эксплуатации. Атака на логику анализа НЛП использует то, как машины извлекают значение из ввода человека. Это вводит измерение риска в отличие от типичных уязвимостей. Речь идет о том, чтобы нарушить понимание модели, а не только использование пробела в коде. Для получения дополнительной информации посмотрите, как Google использует ИИ, чтобы раскрыть критические уязвимости.
Контрольный список смягчения риска и рекомендации
Организации и частные лица могут предпринять следующие действия, чтобы уменьшить воздействие этой угрозы:
- Провести аудит из всех систем с AI и определите, являются ли модули NLP открыто.
- Реализуйте непосредственные патчи от всех поставщиков, включая ОС, прошивку, двигатели NLP и зависимости.
- Блок ненужных интернет-интернетовособенно более старые реализации умных помощников.
- Контролировать внутренний трафик Для аномалий, которые могут указывать на боковое движение движения.
- Добавить дополнительную проверку ввода НЛП В рамках приложений, которые подключаются к помощникам платформ.
Настоятельно рекомендуется четкое общение с поставщиками. Оставайтесь в курсе консультаций по безопасности и убедитесь, что программное обеспечение как предложения Service (SAAS) также правильно исправлено. Неспособность устранения уязвимостей на уровне логики приложений может предложить долгосрочные угрозы. Недавнее обсуждение генерального директора «Угрожатели» проливает свет на текущие проблемы кибербезопасности, связанные с плохо обслуживаемыми интеграциями ИИ.
FAQ: AI Zero Click Exploit
Что такое эксплойт с нулевым кликом?
Это уязвимость безопасности, которая позволяет выполнять код без какого -либо взаимодействия с пользователем. Эти угрозы обычно используют внутренние недостатки программного обеспечения, которые активируются, когда система автоматически обрабатывает вредоносный вход.
Как запускается этот конкретный эксплойт?
Отправляя необработанные команды в двигатель NLP помощника AI. Эти команды обходят фильтры и создают условия, которые позволяют дистанционному коду запускать молча.
Атаки происходят в реальном мире?
Да. Crowdstrike и Mandiant сообщают об инциденте, доказательства живой эксплуатации. Несмотря на то, что в настоящее время эта тенденция ограничивается, эта тенденция растет и в частности, влияет на корпоративные сети.
Где пользователи могут найти патчи?
Патчи предоставляются крупными поставщиками с помощью автоматических обновлений. Пользователи Google Assistant, Amazon Alexa, Microsoft Cortana и других платформ должны ссылаться на официальные бюллетени по безопасности от каждого поставщика для поиска конкретных обновлений.
Заключение
Эксплойт AI Zero Click 2024 года раскрывает новый класс уязвимостей. Атакуя то, как системы ИИ интерпретируют естественный язык, субъекты угроз получают невидимый доступ, который обходит общую защиту. Логические слои, основанные на ИИ, являются мощными, но также вводят уникальные риски. Обратные обновления, тщательный аудит и надежный мониторинг имеют решающее значение для снижения потенциального повреждения. Поскольку ИИ продолжает размножаться, стандарты безопасности должны развиваться одинаково быстро, чтобы защитить от все более сложных атак.
Ссылки
Ссылки
Бриньольфссон, Эрик и Эндрю Макафи. Второй машинный возраст: работа, прогресс и процветание во время блестящих технологийПолем WW Norton & Company, 2016.
Маркус, Гэри и Эрнест Дэвис. Перезагрузка ИИ: создание искусственного интеллекта, которому мы можем доверятьПолем Винтаж, 2019.
Рассел, Стюарт. Совместимый с человеком: искусственный интеллект и проблема контроляПолем Викинг, 2019.
Уэбб, Эми. Большая девять: как Tech Titans и их мыслительные машины могли деформировать человечествоПолем Publicaffairs, 2019.
Рассказывание, Даниэль. ИИ: бурная история поиска искусственного интеллектаПолем Основные книги, 1993.