Endor Labs: Прозрачность ИИ против «открытой стирки»

Поскольку индустрия искусственного интеллекта фокусируется на прозрачности и безопасности, дебаты о истинном значении «открытости» усиливаются. Эксперты из компании Security Labs Endor Labs взвесили эти проблемы с давлением.

Эндрю Стифель, старший менеджер рынка продуктов в Endor Labs, подчеркнул важность применения уроков, извлеченных из безопасности программного обеспечения для систем искусственного интеллекта.

«Исполнительное распоряжение правительства США 2021 по улучшению кибербезопасности США включает в себя предложение, требующие от организаций производить счет материалов программного обеспечения (SBOM) для каждого продукта, проданного федеральным правительственным учреждениям».

SBOM, по сути, является инвентаризацией, подробно описывающим компоненты с открытым исходным кодом в продукте, помогая обнаружить уязвимости. Стифель утверждал, что «применение этих же принципов к системам искусственного интеллекта является логичным следующим шагом».

«Предоставление лучшей прозрачности гражданам и государственным служащим не только повышает безопасность, – объяснил он, – но также дает видимость в базах данных, обучении, весах и других предметах модели».

Что означает AI -модель быть «открытой»?

Жюльен Собриер, старший менеджер по продуктам в Endor Labs, добавил важный контекст к продолжающемуся обсуждению AI -TRAP и «открытости». Sobrier уничтожил сложность, присущую категоризации систем ИИ как действительно открытых.

«Модель ИИ сделана из многих компонентов: обучающего набора, весов и программ для обучения и тестирования модели и т. Д. Важно сделать всю строку доступной в качестве открытого исходного кода для названия модели« открытой ». Это Огромное определение на данный момент.

Sobrier отметил отсутствие последствий среди крупных игроков, что вызвало путаницу по поводу термина.

«Среди основных игроков проблемы определения« Open »начались с OpenAI, и Meta сейчас в новостях для их хромой модели, хотя это« более открыто ». Нам нужно общее понимание того, что означает открытая модель. Мы хотим обратить внимание на любую «открытую стирку», как мы видели его с бесплатным программным обеспечением с открытым исходным кодом.

Одна из возможных каналов, подчеркиваемой Sobrier, – это все более распространенная практика «открытой стирки», где организации претендуют на прозрачность при наложении ограничений.

«Поскольку облачные провайдеры предлагают платную версию проектов с открытым исходным кодом (например, базы данных) без вклад, мы увидели изменение во многих проектах с открытым исходным кодом: исходный код все еще открыт, но они добавили много бизнес -ограничений».

«Мета и другие» поставщики LLM могут пойти по этому пути, чтобы сохранить их конкурентное преимущество: больше открытия на моделях, но не позволяют конкурентам использовать их », – предупредил Собриер.

DeepSeek стремится увеличить AI -Trap

Deepseek, один из спорных игроков растущего квартиры в индустрии искусственного интеллекта, предпринял шаги по решению некоторых из этих проблем, создавая части своих моделей и кода с открытым исходным кодом. Движение было высоко оценено за продвижение прозрачности, обеспечивая представление о безопасности.

«Deepseek уже выпустил модели и их веса в качестве открытого исходного кода», – сказал Эндрю Стифель. «Этот следующий шаг обеспечит большую прозрачность в их размещенные услуги и даст видимость того, как они устанавливают и организуют эти модели в производстве».

Такая прозрачность имеет важные преимущества, заметил Stiefel. «Это поможет сообществу контролировать свои системы для рисков безопасности, а также для отдельных лиц и организаций управлять собственными версиями DeepSeek в производстве».

Помимо безопасности, DeepSeek также предлагает дорожную страницу о том, как управлять шкалой инфраструктуры ИИ.

«С прозрачной стороны мы увидим, как DeepSeek управляет их размещенными услугами. Это поможет справиться с проблемами безопасности, которые появились после того, как они обнаружили, что они оставили некоторые из своих баз данных сплетен небезопасными».

Стифель подчеркнул, что практика Deepseek с такими инструментами, как Docker, Kubernetes (K8S) и другие настройки инфраструктуры как код (IAC), могут позволить стартапам и любителям создавать аналогичные примеры.

ИИ с открытым исходным кодом сейчас горячий

Прозрачные инициативы DeepSeek соответствуют более широкой тенденции к ИИ с открытым исходным кодом. Отчет IDC показывает, что 60% организаций выбирают модели ИИ с открытым исходным кодом по сравнению с коммерческими альтернативами для своих генеративных проектов искусственного интеллекта (Genai).

Исследование Endor Labs также указывает на то, что организации используют в среднем от семи до двадцати одной модели с открытым исходным кодом на приложение. Рассуждения ясны: использование лучшей модели для конкретных задач и проверки затрат API.

«7 февраля Endor Labs обнаружил, что более 3500 дополнительных моделей были обучены или дистиллировали оригинальной моделью DeepSeek R1», – сказал Стифель. «Это показывает как энергию в сообществе моделей ИИ с открытым исходным кодом, так и почему команды безопасности должны понимать как линию модели, так и ее возможные риски».

Для Sobrier растущее принятие моделей ИИ с открытым исходным кодом усиливает необходимость оценки их зависимостей.

«Нам нужно рассматривать модели ИИ как важные зависимости, от которых зависит наше программное обеспечение. Компании должны убедиться, что им разрешено юридически использовать эти модели, но также и то, что они безопасны для использования в отношении операционных рисков и рисков цепочки поставок, как а также библиотеки с открытым исходным кодом.

Он подчеркнул, что некоторые риски могут распространяться на данные обучения: «Они должны быть уверены, что базы данных, используемые для обучения LLM, не были отравлены или имеют конфиденциальную личную информацию».

Создайте системный доступ к риску модели искусственного интеллекта

Поскольку ускорение усыновления ИИ с открытым исходным кодом ускоряется, управление риском становится все более критическим. Stiefel изложил систематический подход, сосредоточенный на трех ключевых шагах:

  1. Открытие: Обнаружение моделей ИИ, которую в настоящее время использует ваша организация.
  2. Рейтинг: Просмотрите эти модели на предмет потенциальных рисков, включая проблемы безопасности и оперативных вопросов.
  3. Отвечать: Настройте и заставляйте охранников, чтобы обеспечить безопасное и безопасное внедрение модели.

«Ключ заключается в том, чтобы найти правильный баланс между включением инноваций и управления рисками», – сказал Стифель. «Мы должны дать командам разработки программного обеспечения широты для экспериментов, но должны сделать это с полной видимостью. Группе безопасности нуждаются в линии и понимании, чтобы действовать».

Sobrier далее утверждал, что сообщество должно разработать лучшие практики для безопасного строительства и принятия моделей ИИ. Общая методология необходима для оценки моделей ИИ в таких параметрах, как безопасность, качество, операционные риски и открытость.

Помимо прозрачности: меры для ответственного ИИ -БЕЗ

Чтобы обеспечить ответственный рост ИИ, отрасль должна принять контроль, которые работают через несколько векторов:

  • SaaS Models: Сохранение занятого использования размещенных моделей.
  • API -Integrations: Разработчики вставляют сторонние API, такие как DeepSeek в приложения, которые с помощью таких инструментов, как интеграция OpenAI, могут изменить развертывание только с двумя строками кода.
  • Модели с открытым исходным кодом: Разработчики используют модели сообщества или создают свои собственные модели существующих фондов, хранящихся такими компаниями, как DeepSeek.

Sobrier предупредил о сострадании перед быстрым прогрессом ИИ. «Сообщество должно создать лучшие практики для разработки безопасных и открытых моделей искусственного интеллекта, – посоветовал он, – и методология для оценки их в области безопасности, качества, операционных рисков и открытости».

Как кратко резюмировал Stiefel: «Подумайте о безопасности через несколько векторов и реализуйте соответствующие элементы управления для всех».

Смотрите также: ИИ в 2025 году: предполагаемые модели, человеческая интеграция и многое другое

Вы хотите узнать больше об искусственном интеллекте и больших данных промышленными лидерами? Посмотреть AI & Big Data Expo, проходящую в Амстердаме, Калифорнии и Лондоне. Комплексное мероприятие связано с другими основными событиями, включая Smart Automatic Conference, Blockx, неделю цифровой трансформации и кибербезопасность и Cloud Expo.

Исследуйте другие предстоящие корпоративные технологические мероприятия и веб -страницы, управляемые Techforge здесь.

Source link

Scroll to Top