Поскольку компании больше полагаются на автоматические системы, этика стала ключевой уходом. Алгоритмы все чаще формируют решения, которые ранее принимались людьми, и эти системы оказывают влияние на рабочие места, кредитные, медицинские и юридические результаты. Эта власть требует ответственности. Без четких правил и этических стандартов автоматизация может укрепить несправедливость и причинить вред.
Игнорировать этику влияет на реальных людей по -настоящему, а не только изменяя степень общественного доверия. Системы смещения могут отрицать кредиты, рабочие места или здравоохранение, а автоматизация может увеличить скорость плохих решений, если не существует охраны. Когда системы делают неправильный вызов, часто трудно апеллировать или даже понять, почему, и отсутствие прозрачности превращает небольшие ошибки в более серьезные проблемы.
Понять предвзятость в системах ИИ
Предвзятость в автоматизации часто происходит от данных. Если исторические данные включают в себя дискриминацию, системы, обученные им, могут повторить эти шаблоны. Например, AI -ILO, используемый для просмотра кандидатов на работу, может приостановить кандидатов на основе пола, расы или возраста, если его данные обучения отражают эти прошлые сгибания. Предвзятость также входит через дизайн, в котором варианты о том, что измерить, что приводит к предпочтению, и как пометить данные, может создать грубые результаты.
Есть много видов предубеждений. Образец смещения возникают, когда база данных не представляет всех групп, в то время как смещения маркировки могут исходить из субъективного человеческого ввода. Даже технические варианты, такие как цели оптимизации или алгоритмический тип, могут набрать результаты.
Вещи не только теоретические. Amazon отбросила свое использование инструмента рекрутинга в 2018 году после того, как он предпочитал кандидатов -мужчин, и было обнаружено, что некоторые системы распознавания лиц неправильно идентифицируют цветных людей с более высокими показателями, чем Кавказ. Такие проблемы наносят ущерб веру и повышают правовые и социальные проблемы.
Еще одна реальная забота – сгибание доверенности. Даже когда защищенные функции, такие как раса, не используются напрямую, другие функции, такие как почтовой кодекс или уровень образования, могут действовать как стандарты, а это означает, что система все еще может различать, даже если ввод кажется нейтральным, например, на основе более богатых или более бедных областей. Прокси -биасо трудно обнаружить без тщательного тестирования. Рост инцидентов AI -BIAS является признаком того, что требуется больше внимания в системном проекте.
Выполнив важные стандарты
Законы захватывают. Закон AI ЕС, принятый в 2024 году, оценивает системы ИИ с риском. Системы высокого риска, такие как те, которые используются в занятости или кредитном оценке, должны соответствовать строгим требованиям, включая прозрачность, контроль человека и проверки смещения. В Соединенных Штатах нет единого закона об ИИ, но регуляторы активны. Комиссия по возможностям равенства (EEOC) предупреждает работодателей о рисках инструментов занятости, основанных на ИИ, и Федеральная торговая комиссия (FTC) также дала сигнал о том, что системы смещения могут нарушать антидискриминационные законы.
Белый дом выпустил план по вопросам прав, предлагая руководство по безопасному и этическому использованию. Хотя это и не закон, он устанавливает ожидания, охватывая пять ключевых областей: безопасные системы, алгоритмическая защита дискриминации, конфиденциальность данных, уведомление и объяснение и человеческие альтернативы.
Компании также должны наблюдать за законами штата США. Калифорния переехала для регулирования алгоритмического принятия решений, и Иллинойс требует, чтобы компании сообщали рабочие места, если они используются в видео интервью. Неспособность выполнить может принести штрафы и процессы.
Регуляторы в Нью -Йорке теперь требуют аудиторов для систем ИИ, используемых в занятости. Аудиторы должны показать, дает ли система справедливые результаты для сексуальных и гоночных групп, и работодателям также необходимо уведомлять кандидатов при использовании автоматизации.
Выполнение – это больше, чем просто избегать наказаний – это также о установлении веры. Компании, которые могут показать, что их системы являются справедливыми и ответственными, более склонны получить поддержку от пользователей и регуляторов.
Как построить более справедливые системы
Этика в автоматизации не происходит случайно. Это требует планирования, правильных инструментов и длительного внимания. Предвзятость и справедливость должны быть построены в процессе с самого начала, а не закреплены позже. Это приводит к установлению целей, выберите правильные данные и включает правильные голоса за таблицей.
Чтобы сделать это хорошо, значит следовать нескольким ключевым стратегиям:
Оценка предвзятости
Первый шаг, чтобы превзойти предвзятость – найти его. Оценки оценок должны быть сделаны на ранних стадиях и часто, от разработки до развертывания, чтобы гарантировать, что системы не дают несправедливых результатов. Метрики могут включать показатели ошибок в группах или решениях, которые оказывают большее влияние на одну группу, чем другие.
Предвзятость -Аудитаторы должны быть сделаны из третьих лиц, когда это возможно. Внутренние обзоры могут не иметь ключевых вопросов или не иметь независимости, а прозрачность в процессах объективного аудита приобретает общественное доверие.
Реализация различных наборов данных
Различные учебные данные помогают снизить гибкость, включая образцы всех групп пользователей, особенно те, которые часто исключаются. Голосовой помощник, обученный в основном по мужским голосам, будет плохо работать для женщин, а модель оценки кредита, в которой отсутствуют данные о пользователях с низким доходом, может неправильно их оценить.
Разнообразие данных также помогает моделям, адаптирующимся к реальному использованию. Пользователи приходят из разных фонов, и системы должны отражать это. Географический, культурный и языковый сорт.
Различные данные недостаточно для себя, они также должны быть точными и хорошо обозначенными. Мусор, мусор все еще действителен, поэтому командам необходимо контролировать ошибки и недостатки и исправить их.
Содействие включению в дизайн
Инклюзивный дизайн включает в себя пострадавших людей. Разработчики должны проконсультироваться с пользователями, особенно с риском повреждения (или тех, кто мог бы, используя ИИ, причинить вред), так как это помогает обнаружить слепые пятна. Это может означать включение рекомендуемых групп, экспертов по гражданским правам или местных сообществ в обзорах продуктов. Это означает, что прослушивание перед систем ведут, а не после того, как жалобы на бросок.
Инклюзивный дизайн также означает междисциплинарное оборудование. Чтобы привлечь голоса этики, правозащитник и социальные науки могут улучшить принятие решений, так как эти команды более склонны задавать разные вопросы и заметить риски.
Команды также должны быть разнообразными. Люди с различным жизненным опытом замечают разные вещи, и система, построенная гомогенной группой, может упустить из виду риски, которые другие поймали.
Что за компании делают именно
Некоторые компании и агентства предпринимают шаги, чтобы справиться с ИИ -биасо и улучшить соответствие.
В период с 2005 по 2019 год голландское налоговое и таможенное управление неправильно обвинило в 26 000 мошеннических семей, требующих пособия по уходу за ребенком. Алгоритм, используемый в мошеннической системе обнаружения, непропорционально нацелен на семьи с двойной национальности и низким доходом. Падение вызвало общественный крик и отставку правительства Голландии в 2021 году.
LinkedIn столкнулся с проверкой из -за сексуальных предубеждений в своей работе, рекомендуемых алгоритмами. Исследования MIT и другие источники обнаружили, что мужчины с большей вероятностью соответствуют более высоким платежным лидерству, отчасти из -за поведенческих шаблонов о том, как пользователи запросили работу. В ответ LinkedIn внедрил вторичную систему ИИ для обеспечения более репрезентативной массы кандидатов.
Другим примером является закон Нью -Йорка, инструмент автоматического занятости (AEDT), который вступил в силу 1 января 2023 года, при этом правоприменение начнется 5 июля 2023 года. Закон требует, чтобы работодатели и агентства по трудоустройству использовали автоматизированные инструменты для найма или продвижения по службе для осуществления независимых предвзятости. Один год использования публично раскрывает краткое изложение результатов и уведомила кандидатов, по крайней мере, за 10 рабочих дней, правила, направленные на то, чтобы сделать работу, управляемые ИИ, более прозрачным и справедливым.
Aetna, страховщик здравоохранения, начал внутренний обзор своих алгоритмов утверждения претензий и обнаружила, что некоторые модели привели к более длительным задержкам для пациентов с меньшим доходом. Компания изменилась, так как данные были взвешены и добавили больше надзора, чтобы уменьшить этот разрыв.
Примеры показывают, что с искусственным искусством можно относиться, но необходимы усилия, четкие цели и сильная ответственность.
Куда мы идем отсюда
Автоматизация здесь, чтобы остаться, но доверие к системам зависит от справедливости результатов и четких правил. Предвзятость в системах ИИ может нанести ущерб и юридический риск, а соответствие не является ящиком для проверки – это часть правильных дел.
Этическая автоматизация начинается с сознания. Это требует сильных данных, регулярного тестирования и инклюзивного проекта. Законы могут помочь, но реальные изменения также зависит от -культуры компании и лидерства.
(Фото Pixabay)
См. Также: Почему Ближний Восток является теплым местом для глобальных инвестиций в технологии
Вы хотите узнать больше об искусственном интеллекте и больших данных промышленными лидерами? Посмотреть AI & Big Data Expo, проходящую в Амстердаме, Калифорнии и Лондоне. Комплексное мероприятие связано с другими основными событиями, включая Smart Automatic Conference, Blockx, неделю цифровой трансформации и кибербезопасность и Cloud Expo.
Исследуйте другие предстоящие корпоративные технологические мероприятия и веб -страницы, управляемые Techforge здесь.