Antropical запускает модели Claude AI для национальной безопасности США

Antropic раскрыл пользовательскую коллекцию моделей Claude AI, предназначенных для клиентов национальной безопасности США. AD представляет собой потенциальную веху в применении ИИ в классифицированных государственных средах.

Модели «Claude Gov» уже были развернуты агентствами, работающими на самых высоких уровнях национальной безопасности США, причем доступ строго ограничен теми, кто работает в таких классифицированных средах.

Antropic говорит, что эти модели Claude Gov появились из-за обширного сотрудничества с государственными клиентами для решения реальных рабочих требований. Несмотря на то, что эти модели были адаптированы для приложений национальной безопасности, утверждает, что эти модели испытывают тот же самый строгий тест безопасности, что и другие модели Claude в своем портфеле.

Специализированные ИИ -Киллс для национальной безопасности

Специальные модели обеспечивают улучшенную деятельность через несколько важных областей для государственных операций. Они представляют улучшенное использование классифицированных материалов, с меньшим количеством случаев, когда ИИ отказывается сотрудничать с конфиденциальной информацией – частое разочарование в безопасных средах.

Дальнейшие улучшения включают в себя лучшее понимание документов в интеллектуальных и защитных контекстах, повышение гибкости в языках, основных для операций национальной безопасности, а также превосходную интерпретацию сложных данных кибербезопасности для анализа разведки.

Тем не менее, это объявление прибывает в разгар продолжающегося ИИ -регуляции в Соединенных Штатах. Генеральный директор Antropic Дарио Амодеей недавно выразил обеспокоенность по поводу предлагаемого законодательства, которое дало бы десятилетний замораживание государственного регулирования ИИ.

Баланс инноваций с регулированием

В гостевом эссе, опубликованном в New York Times на этой неделе, Amodei выступал за прозрачные правила, а не регулирующие мораторы. Он подробно рассчитывал внутренние оценки, раскрывающие поведение в моделях ИИ с высоким уровнем уровня, включая экземпляр, где последняя модель антропной угрозы угрожала разоблачить частные электронные письма от пользователя, если не было отменено плана остановки.

Amodei сравнил испытания AI -Sastement с попытками ветряной туннели на самолетах, предназначенных для демонстрации недостатков перед публичным выпуском, подчеркивая, что группы безопасности должны обнаружить и блокировать риски.

Антропик позиционировал себя как защитник ответственного развития ИИ. В соответствии с ответственной политикой, Компания уже разделяет подробную информацию о методах испытаний, шагах по борьбе с рисками и критериям освобождения Amodei считает, что им необходимо стать стандартом во всей отрасли.

Он предполагает, что формализация аналогичных промышленных практик позволит как общественности, так и законодателям контролировать способные улучшения и определить, необходима ли дополнительная регулирующая деятельность.

Последствия ИИ в национальной безопасности

Развертывание передовых моделей в контексте национальной безопасности ставит важные вопросы о роли ИИ в разведывании, стратегическом планировании и обороне.

Amodei выразил поддержку экспортного контроля на продвинутых чипах и военного усыновления надежных систем для противодействия таким конкурентам, как Китай, что указывает на осведомленность об антропном о геополитических последствиях технологии искусственного интеллекта.

Модели Claude Gov могут потенциально обслуживать множество приложений для национальной безопасности, стратегического планирования и оперативной поддержки для анализа интеллекта и оценки угрозы – все в рамках заявленной приверженности антропного развитию искусственного интеллекта.

Нормативный ландшафт

Поскольку Antropae разрабатывает эти специальные модели для государственного использования, более широкая регуляторная среда для ИИ остается в потоке. Сенат в настоящее время рассматривает язык, который создаст мораторий на регулирование ИИ на уровне государства, причем зрители запланированы перед голосованием по более широкой технологической мере.

Amodei предположил, что штаты могут принять узкие выявленные правила, которые задерживают будущую федеральную структуру, с превосходным пунктом, в конечном итоге предотвращая государственные меры для поддержания единообразия без остановки тесной местной деятельности.

Этот подход позволил бы получить немедленную регулирующую защиту при работе на всеобъемлющем национальном стандарте.

Поскольку эти технологии более глубоки в операциях национальной безопасности, проблемы безопасности, обзор и надлежащее использование останутся в авангарде как политических дискуссий, так и общественных дебатов.

Для антропной задачи будет поддерживать свою приверженность ответственному развитию ИИ, удовлетворяя при этом особые потребности государственных клиентов для крититических заявлений в качестве национальной безопасности.

(Изображение предоставлено: антропический)

Смотрите также: Reddit обрабатывает антропные по царапинам данных AI

Вы хотите узнать больше об искусственном интеллекте и больших данных промышленными лидерами? Посмотреть AI & Big Data Expo, проходящую в Амстердаме, Калифорнии и Лондоне. Комплексное мероприятие связано с другими основными событиями, включая Smart Automatic Conference, Blockx, неделю цифровой трансформации и кибербезопасность и Cloud Expo.

Исследуйте другие предстоящие корпоративные технологические мероприятия и веб -страницы, управляемые Techforge здесь.

Source link

Scroll to Top