Закон сенатора RIE потребует от разработчиков ИИ перечислять данные обучения, методы оценки против «безопасного порта» процессов


Присоединяйтесь к событию, надежно со стороны корпоративных лидеров в течение почти двух десятилетий. VB Transform собирает людей, строящих настоящую корпоративную стратегию ИИ. Узнать больше


В разгар все более стрессовой и дестабилизирующей недели для международных новостей ей не нужно избегать каких-либо технических лиц, принимающих решения, которые некоторые законодатели на Конгрессе США все еще прогрессируют с новыми предлагаемыми правилами ИИ, которые могут переформулировать отрасль мощными способами и пытаются продолжить ее вперед.

Иногда вчера, Сенатор -республиканец США Синтия Ламмис из Вайоминга Ввел закон ответственных инноваций и безопасный опыт 2025 года (RISE), Первый автономный законопроект, который сочетает в себе условный пассивный щит для разработчиков ИИ с прозрачным мандатом О модельном обучении и спецификациях.

Как и все новое предложенное законодательство, как Сенат, так и палата США должны будут проголосовать в большинстве, чтобы принять законопроект, и президент США Дональд Дж. Трамп должен был бы подписать его, прежде чем он станет законом, процесс, который, вероятно, будет длиться месяцами ранее.

«Внизу: если мы хотим, чтобы Соединенные Штаты возглавляли и процветали в ИИ, мы не можем позволить лабораториям написать правила в тени», – написал Lummis в своем отчете о X, когда вы объявили новый законопроект. Нам нужны общественные, совершенные стандарты, которые с уверенностью уравновешивают инновации. Вот что обеспечивает акт RISE. Давай сделаем это. ”

Это также поддерживает традиционные несправедливые стандарты для врачей, адвокатов, инженеров и других «ученых специалистов».

Если это написано, мера вступит в силу 1 декабря 2025 года и применяется только к лидерству, что происходит после этой даты.

Почему Lummis говорит, что новое законодательство AI необходимо

Раздел о выводах законопроекта рисует ландшафт быстрого усыновления ИИ, столкнувшегося с участком ответственных правил, которые пугают инвестиции и оставляют профессионалов, не уверенные, где лежит ответственность.

Lummis считает свой ответ как простую взаимность: разработчики должны быть прозрачными, профессионалы должны выносить суждение, и обе стороны должны быть наказаны за честные ошибки после выполнения обеих обязанностей.

В своем заявлении на своем веб -сайте Ламмис называет меру «предсказуемыми стандартами, которые поощряют более безопасное развитие ИИ, поддержав профессиональную автономию».

С двусторонним уходом за непрозрачными системами ИИ, RISE дает Конгрессу конкретный шаблон: прозрачность как цена ограниченной ответственности. Промышленные лоббисты могут настаивать на более широких редакционных правах, в то время как группы общественных интересов могут продвинуть более короткие открытые окна или более строгие пределы выбора. Тем временем профессиональные ассоциации будут рассмотрены, как могут быть установлены новые документы для существующих стандартов медицинской помощи.

В какой бы форме принял окончательный закон, один принцип сейчас твердо на столе: в профессиональных профессиях ИИ не может оставаться черным ящиком. И если Lummis – законопроект станет законом, разработчикам, которые хотят законного мира, придется открыть эту коробку – по крайней мере, достаточно для людей, которые используют свои инструменты, чтобы увидеть, что внутри.

В качестве нового поставки «безопасного порта» для разработчиков искусственного интеллекта придерживаются их от судебных процессов.

Rise предлагает иммунитет гражданских процессов только тогда, когда разработчик соответствует четким правилам раскрытия:

  • Модель карта – Общественное техническое резюме, в котором представлены данные обучения, методы оценки, метрики эффективности, предполагаемое использование и ограничения.
  • Спецификация модели -Полный системный продукт и другие инструкции, которые формируют поведение модели, с любыми бизнес-секретными редакциями, оправданными в письменной форме.

Разработчик также должен публиковать известные неудачные режимы, поддерживать все текущие документации и обновлять обновления в течение 30 дней после изменения версии или вновь обнаруженного урона. Пропустите крайний срок – или действует безумно – и щит исчезает.

Профессионалы, такие как врачи, адвокаты в конечном итоге ответственны за использование ИИ в своей практике

Законопроект не меняет существующих обязанностей по уходу.

Доктор, который неправильно прочитал АИ-сгенерированный план здравоохранения или адвокат, который подает шорт, написанный в АИ, не проверяя, остается из-за клиентов.

Безопасной порт недоступен для непрофессионального использования, мошенничества или знаний о искажении и выражает выражение любых других иммунитетов, уже в книгах.

Ай реакция 2027 проект

Даниэль Рустер, руководитель политики в некоммерческом проекте Futures AI и соавтор широко распространенного сценария, планируя документ AI 2027, взял свою учетную запись X, обнаружив, что его команда посоветовала офис Lummis по редактированию и «временно одобрить (The)» результат. Он аплодирует за счет прозрачности для снятия прозрачности, но мерцает три резерва:

  1. Приемлемый разрыв. Компания может просто взять на себя ответственность и сохранить свою специфику в секрете, ограничивая прозрачные выгоды в самых рискованных сценах.
  2. Позднее окно. Тридцать дней между выпуском и необходимым раскрытием могут быть слишком длинными во время кризиса.
  3. Редактирование риска. Компании могут переоценить под предлогом защиты интеллектуальной собственности; Кокотия предлагает заставлять компании объяснить, почему каждое прекращение действительно отвечает общественным интересам.

Взгляды на ИИ-тестирование поднимаются как шаг вперед, но не последнее слово об открытости ИИ.

Что это значит для разработчиков и лиц, принимающих корпоративные технические решения

Обмен прозрачностью за растущий Закон о росте будет вытекать из Конгресса непосредственно в повседневную рутину четырех перекрывающихся рабочих семей, которые поддерживают корпоративную функциональность ИИ. Начните с основных инженеров ИИ – людей, которые владеют жизненным циклом модели. Поскольку законопроект делает юридическую защиту в общедоступной модельной картах и ​​полнометражных характеристиках, эти инженеры получают новый, не подлежащий обсуждению контрольный список: подтвердите, что каждый продавец вверх или внутренний исследовательский состав в зале выпустил необходимую документацию перед системой вживую. Любой пробел может оставить группу развертывания на крючке, если впоследствии врач, адвокат или финансовый консультант утверждают, что модель нанесла ущерб.

Затем идут старшие инженеры, которые организуют и автоматизируют модельные трубопроводы. Они уже жонглируют версиями, ролевыми планами и интеграционными тестами; Rise добавляет тяжелый срок. После того, как модель или ее конкретные изменения, обновленные раскрытия должны проходить в производство в течение тридцати дней. CI/CD трубопроводам понадобятся новые ворота, которые снимаются, когда модельная карта отсутствует, устарела или переоценена, что приводит к повторной оценке перед кодовыми кораблями.

Инженерные проводники данных также не находятся за пределами крючка. Они будут унаследовать увеличенное бремя метаданных: захватить спуск данных обучения, метрики с рейтингом журнала и сохранить любые оправдания реакции бизнес-секрета таким образом, как могут подвергать сомнению аудиторы. Более сильная каста сделана больше, чем лучшая практика; Это становится доказательством того, что компания выполнила свою обязанность по уходу, когда регуляторы – или несправедливые адвокаты – приходят в жизнь.

Наконец, директора своей безопасности сталкиваются с классическим прозрачным парадоксом. Общественное распространение основных обещаний и известных неудачных режимов помогает профессионалам безопасно использовать эту систему, но также дает противникам более богатую целевую карту. Группам безопасности придется укрепить конечные точки против быстрого инъекционного атаки, обращать внимание на эксплуатацию, которые связываются с недавно раскрытыми неудавшимися режимами, и пресс -продукт оборудование, чтобы доказать, что отредактированный текст скрывает аутентичную интеллектуальную собственность без уязвимостей.

Присоединившись, эти требования меняют прозрачность благодаря юридическим требованиям с зубами. Для тех, кто строит, разворачивается, безопасно или организует системы ИИ, нацеленные на регулируемые профессионалы, Закон о праве вплетает новые контрольно-пропускные пункты в противоречивые двойные формы, CI/CD Gates и случайные соответствующие игровые книги сразу после декабря 2025 года.


Source link
Scroll to Top