New York Burbs AI в тюрьмах
Нью -Йорк принял новаторский закон для регулирования искусственного интеллекта в тюрьмах. Это законодательство предназначено для снижения смещения, обеспечения прозрачности и установления этических рекомендаций, связанных с использованием ИИ в настройках коррекции. Это изменяет, как ИИ помогает в области наблюдения, дисциплины и условно -досрочного освобождения. Сторонники считают, что это жизненно важный шаг в защите надлежащей процедуры и гражданских свобод. Несовершеннолетия беспокоятся, что ограничения могут снизить безопасность и эффективность тюремных операций. Как первая государственная мера своего масштаба в стране, закон может влиять на аналогичные действия по всей стране и изменить политику ИИ в области уголовного правосудия.
Ключевые выводы
- Нью -Йорк принял закон о использовании ИИ в государственных тюрьмах с акцентом на этику и прозрачность.
- Законопроект реагирует на растущую обеспокоенность по поводу алгоритмической дискриминации и непрозрачных инструментов принятия решений.
- Адвокаты утверждают, что это укрепляет гражданские права. Критики предупреждают, что это может помешать пособиям по безопасности и автоматизации в тюрьмах.
- Законодательство может служить моделью, влияющим на будущее управление ИИ в уголовном правосудии по всей территории США.
Почему Нью -Йорк ограничивает ИИ в тюрьмах
Искусственный интеллект играет расширяющуюся роль в исправительных системах по всей территории США, от наблюдения до условно -досрочного освобождения. В нью -йоркских учреждениях, такие технологии, как инструменты распознавания лиц и определение поведения, использовались для классификации заключенных и руководства по решениям по ограничению или раннему выпуску. В то время как ИИ может обрабатывать информацию со скоростью, ее результаты зависят от качества данных, используемых во время разработки. Если эти наборы данных отражают прошлые неравенства, связанные с расой или доходом, ИИ, вероятно, даст предвзятые результаты. Закон направлен на то, чтобы приостановить неконтролируемое использование таких инструментов в очень чувствительных решениях.
Что покрывает новый закон
В этом законодательстве подробно описываются новые требования к тому, как системы ИИ могут быть введены и использованы в исправительных учреждениях Нью -Йорка. Ключевые элементы включают:
- Мораторий на новом наблюдении, классификации и дисциплинарных технологиях на основе ИИ в ожидании справедливости.
- Требование для сторонних аудитов и публичных отчетов о прозрачности от агентств и разработчиков, использующих инструменты искусственного интеллекта в тюрьмах.
- Требования к документации, охватывающие источники данных, процессы принятия решений и ставки ошибок любого алгоритма, влияющего на свободу или наказания.
- Создание независимого комитета по надзору для управления входом и пересмотром исправительных систем ИИ.
Цель состоит в том, чтобы предотвратить неверные автоматизированные решения, которые могут несправедливо изменить доступ человека к условно -досрочному освобождению или свободе от дисциплинарных мер.
Предвзятость ИИ в системах исправительных учреждений: задокументированная проблема
Многие системы ИИ, используемые в условиях правосудия, обучаются историческим данным, которые уже могут содержать глубокое расовое или социально-экономическое неравенство. Исследователи обнаружили, что прогнозирующие модели, построенные на криминальных данных США, могут назначать более высокие риски рецидивизма для чернокожих, чем белые люди с аналогичными профилями. Хорошо известным примером является инструмент оценки риска, который, как было показано, демонстрирует расовые различия в его оценке.
В 2021 году департамент коррекции Нью-Йорка использовал систему анализа языка, которая назвала доброкачественную связь с заключенными как связанные с бандами. Эти ложные флаги привели к более строгим заключению или дисциплинарным мерам. Жалобы на загадку, лежащую в основе таких результатов, заставили законодателей принимать политику надзора, которая уменьшает потенциальное влияние некорректных алгоритмов.
Реакции заинтересованных сторон: защитники против оппозиции
Поддержка законопроекта была получена от пропагандистских групп, таких как проект по надзору за технологиями наблюдения. Они предупредили, что неконтролируемое использование ИИ в тюрьмах может привести к несправедливым решениям, особенно когда вовлечены права и свободы. Эти группы призывали к мерам по обеспечению рассмотрения человека и подотчетности на каждом этапе использования технологии.
Оппозиция была получена от исправительных союзов и заинтересованных сторон правоохранительных органов, которые подчеркнули преимущества ИИ в рамках оптимизации наблюдения, выявления угроз и повышения осведомленности об общении. Они выразили обеспокоенность по поводу нехватки персонала и повышенной нагрузки, которое может привести к тому, что инструменты искусственного интеллекта будут сокращены. Тем не менее, законодатели решили расставить приоритеты в защите гражданских лиц и защиты надлежащей процедуры по поводу эксплуатационного удобства.
Мнения экспертов: управление ИИ означает доверие и подотчетность
Эксперты в области технологий и юридической этики высоко оценили закон как положительный пример измеренного регулирования ИИ. Доктор Рашида Кларк из Центра технологий и справедливости Нью -Йоркского университета назвал его «основополагающим шагом» для отраслей, где ИИ имеет значительные последствия. Она подчеркнула, что общественное доверие к технологиям начинается с четких процедур и прозрачности.
Брайсон Ли из инициативы «Этическая ИИ» добавил, что во многих алгоритмах, основанных на справедливости, не хватает тестирования в широком спектре социальных условий. Он подчеркнул, как требование независимой валидации может не только правильно исправить недостатки, но и восстановить веру в эти технологии. Профессионалы в этой области согласны с тем, что структуры надзора необходимы для средств, где институциональные решения влияют на жизнь и свободы.
Как Нью -Йорк сравнивается с федеральной и международной политикой ИИ
Федеральная политика ИИ все еще формируется. Недавние исполнительные приказы и мягкие руководящие принципы по этическому ИИ из Белого дома отражают ранние стадии национального регулирования. Напротив, закон Нью -Йорка представляет прямые, подлежащие исполнению действия на государственном уровне. Для сравнения, Калифорния предложила только доски на ранней стадии для рассмотрения правоохранительных систем с использованием ИИ. Точно так же другие государства еще не приняли сопоставимые стандарты.
На международном уровне Европейский союз продвигается вперед со своим актом ИИ, который накладывает ограничения на использование инструментов ИИ с высоким риском в чувствительных секторах. Движение Нью-Йорка отражает это направление, классифицируя ИИ в тюрьмах как приложение высокого риска, подлежащее строгому надзору. Для читателей, изучающих международные дела, наша статья об этике и законах ИИ предлагает более глубокое понимание глобальных тенденций.
Технологии, потенциально затронутые законом
Закон не устраняет все использование искусственного интеллекта. Он предназначен для конкретных приложений, которые влияют на процессы принятия решений. Инструменты, которые могут столкнуться с новыми обзорами, включают:
- Программное обеспечение для распознавания лиц, используемое для мониторинга или выявления людей в исправительных учреждениях.
- Поведенческие модели прогнозирования или автоматизированные дисциплинированные двигатели на основе наблюдаемого поведения.
- Инструменты классификации рисков, такие как Compas, которые помогают оценить право на условно -досрочное освобождение или вероятность повторного воздействия.
- Системы обработки естественного языка применяются к телефонным звонкам, текстам или электронным письмам для управления или наблюдения.
Операционные инструменты искусственного интеллекта, которые управляют логистикой учреждений или планированием персонала, не подлежат тому же тщательному контролю, поскольку они не влияют на юридический статус или личную свободу.
Следующие шаги: реализация, надзор и более широкая реформа
С завершением законодательного одобрения закон теперь ожидает подписи губернатора. В случае подписания Департамент исправительных учреждений должен немедленно приостановить расширение любого использования ИИ, в котором отсутствует проверка. Агентство также должно создать контрольную комиссию и начать собирать раскрытия от поставщиков технических технологий. Соответствие включает не только производительность системы, но и ясность вокруг входов и результатов алгоритма.
Это законодательство поддается более широкой разработке политики. Это также может формировать более широкие реформы в том, как ИИ пересекается с полицейской деятельностью и заключением. Читатели, заинтересованные в этой более широкой теме, могут изучить роль ИИ в правоохранительных органах США в том, чтобы понять, как эти инструменты функционируют по всей системе правосудия.
Часто задаваемые вопросы (FAQ)
- Что такое Нью -Йоркский счет об использовании ИИ в тюрьмах?
Это ограничивает то, как ИИ применяется в основных тюремных решениях, таких как наблюдение, классификация и условно -досрочное освобождение, чтобы уменьшить ошибки и способствовать справедливости. - Почему ИИ используется в тюрьмах США?
ИИ поддерживает эффективность путем автоматизации наблюдения, помещения возможных угроз и оценки рисков рецидивизма. Это часто помогает в распределении ресурсов и мониторинге безопасности. - Каковы риски использования ИИ в уголовном правосудии?
Системы ИИ могут укрепить существующие предубеждения, работать без ясности и делать неправильные предположения, которые влияют на права человека или свободу. - Какое -либо государство запрещало ИИ в тюрьмах раньше?
Ни одно государство не приняло правила, которые ясно определены, как Нью -Йорк. В некоторых штатах рассматриваются обзоры и этические доски, но еще никаких других общесистемных ограничений еще не на месте.
Заключение: ключевой момент для этических технологий в справедливости
Решение Нью -Йорка регулировать искусственный интеллект в исправительных учреждениях знаменует ключевой сдвиг в государственной политике. Он подчеркивает растущую осведомленность о цифровом предвзятости и спрос на ответственность человека в определении результатов, которые влияют на свободу. Поскольку ИИ становится более распространенным в системах правосудия, эти средства контроля гарантируют, что права остаются защищенными, в то же время позволяя инновациям. Вскоре могут последовать другие штаты, разработав проверки, которые набирают баланс между современными инструментами и основополагающими юридическими принципами.