Что такое справедливость искусственного интеллекта (AI Fairness), в одной статье

Ответы ИИОпубликовано 3 недели назад Круг обмена ИИ
7.2K 00
堆友AI

Справедливость искусственного интеллекта: определение и основные понятия

Справедливость ИИ - это междисциплинарная область обеспечения справедливого и непредвзятого отношения систем ИИ ко всем людям и группам людей на протяжении всего жизненного цикла их проектирования, разработки, развертывания и эксплуатации. Основная цель - не допустить, чтобы системы ИИ генерировали дискриминационные или предвзятые решения и результаты для определенных групп людей на основе таких чувствительных характеристик, как раса, пол, возраст, религиозные убеждения и социально-экономический статус. Это не только технический показатель, но и социальное обязательство и этическое требование.

Представьте себе инструмент искусственного интеллекта для отбора резюме, учебные данные которого в основном получены из исторических записей о приеме на работу представителей одного пола, - скорее всего, он непреднамеренно научится обесценивать резюме соискателей другого пола, что приведет к несправедливому результату приема на работу. Справедливость ИИ заключается в выявлении, количественной оценке и устранении таких проблем.

Справедливость ИИ требует от нас выйти за рамки кода и алгоритмов и глубже взглянуть на исторические предубеждения, которые могут быть заложены в самих данных, и на то, как алгоритмические модели могут усиливать эти предубеждения. Справедливость ИИ направлена на создание технологического видения систем ИИ, которые служат разнообразию общества и способствуют равенству возможностей, а не укореняют или усугубляют существующее социальное неравенство. Понимание справедливости ИИ - важнейший первый шаг к пониманию того, как ответственно подходить к созданию и использованию технологий будущего.

人工智能公平性(AI Fairness)是什么,一文看懂

Справедливость искусственного интеллекта: основные понятия и многомерное понимание

Справедливость ИИ очень богата и может быть понята в терминах множества взаимосвязанных и слегка дифференцированных измерений, которые вместе образуют трехмерную структуру для оценки справедливости систем ИИ.

  • Справедливость в группе:это наиболее интуитивное понятие справедливости. Групповая справедливость требует, чтобы система ИИ одинаково относилась к различным защищенным группам (например, мужчины против женщин, различные расовые группы). Статистически это выражается в сбалансированном распределении ключевых показателей между группами, например, в том, что скорость одобрения кредитов, точность распознавания лиц или количество ошибок при прогнозировании риска преступлений остаются примерно одинаковыми для всех групп.
  • Индивидуальная справедливость:Подчеркивается, что в глазах ИИ к одинаковым людям должно быть одинаковое отношение. Индивидуальная справедливость касается справедливости на микроуровне. Например, два соискателя с почти одинаковой квалификацией, опытом и биографией должны одинаково оцениваться в системе найма ИИ, независимо от пола или расы. Индивидуальная справедливость требует, чтобы алгоритмы научились игнорировать чувствительные характеристики, которые не имеют значения.
  • Антиклассификация (Антиклассификация):это более строгий стандарт, который требует, чтобы модели ИИ полностью воздерживались от использования чувствительных характеристик (например, расы, пола) в процессе принятия решений. Идея заключается в том, чтобы пресечь возможность дискриминации на корню и гарантировать, что решения не будут зависеть от этих характеристик.
  • Равные возможности:Это более тонкая и практичная концепция справедливости. Равенство возможностей требует не идентичных результатов, а скорее равных "шансов". Например, при подборе персонала требуется, чтобы из всех действительно квалифицированных кандидатов доля тех, кого успешно отобрал ИИ, была одинаковой для разных групп. Это означает, что способность модели выявлять "настоящие таланты" одинаково точна для разных групп.
  • Контрфактическая справедливость:Антипричинная дискриминация - это более современная концепция, которая опирается на причинно-следственные рассуждения, чтобы думать о справедливости. Вопрос заключается в следующем: если чувствительная характеристика (например, пол) человека меняется, а все остальное остается неизменным, меняется ли решение ИИ? Если решение меняется вместе с ним, значит, имеет место каузальная дискриминация по этому признаку. Такой способ мышления помогает выявить больше скрытых предубеждений.
  • Процедурная справедливость:Сосредоточьтесь на справедливости процесса принятия решений, а не только результата. Процедурная справедливость требует, чтобы процесс принятия решений системой ИИ был прозрачным, объяснимым и открытым для оспаривания и обжалования. Даже если результаты кажутся статистически справедливыми, трудно доверять справедливости процесса, если он представляет собой непонятный "черный ящик".

Справедливость искусственного интеллекта: неотложная социальная значимость

Продвижение и реализация справедливости в ИИ - это отнюдь не бумажная работа технаря, но имеет далеко идущее и неотложное социальное значение, связанное с корнями технологического развития - доверием и справедливостью.

  • Предотвратить автоматизацию и усиление исторической предвзятости:Во многих сферах жизни общества исторически сложилось неравенство, которое зафиксировано в виде данных. Если ИИ будет некритично учиться на этих данных, он автоматически унаследует и усилит предубеждения, что позволит дискриминации повторяться более эффективно и коварно, создавая порочный круг "мусор внутрь, мусор наружу".
  • Защита основных прав человека и социальной справедливости:Справедливое отношение - одно из основных прав каждого человека. Использование предвзятых систем искусственного интеллекта в таких областях, как здравоохранение, правосудие, кредитование, трудоустройство и другие важные жизненные решения, может нанести прямой ущерб жизненным интересам конкретных групп, лишить их возможностей, которых они заслуживают, и усугубить социальные расколы и антагонизмы.
  • Укрепление общественного доверия к ИИ:Доверие - краеугольный камень для широкого признания технологий обществом. Если системы ИИ будут постоянно подвергаться дискриминации, общественность начнет опасаться и сопротивляться им, что в конечном итоге будет препятствовать инновациям и применению в этой области в целом. Справедливость необходима, чтобы завоевать доверие общества.
  • Повышение эффективности бизнеса и ценности бренда:Справедливая система искусственного интеллекта помогает организациям принимать более качественные и комплексные решения, привлекать более широкий круг талантов и клиентов, а также избегать ущерба для имиджа бренда в результате дискриминационных скандалов. Справедливая этика - это устойчивая бизнес-стратегия в долгосрочной перспективе.
  • Продвижение технологии во благо (TFG):Искусственный интеллект называют главной движущей силой четвертой промышленной революции. Обеспечение его справедливости гарантирует, что результаты этой революции будут всеобъемлющими и действительно могут быть использованы для преодоления социальных различий и повышения благосостояния людей, а не для создания новых привилегированных классов и угнетенных групп.

Справедливость искусственного интеллекта: серьезный вызов реальности

Воплощение идеала справедливости в реальность сталкивается со сложным и переплетенным набором проблем, многие из которых коренятся в серых зонах на пересечении технологий и общества.

  • Плюрализм и конфликт в определении справедливости:Не существует единственного "правильного" математического определения справедливости. Как уже говорилось, такие критерии, как справедливость группы и справедливость индивидуума, антиклассификация и уравнивание возможностей, часто противоречат друг другу. Удовлетворение одного критерия может обязательно нарушить другой, что вынуждает разработчиков идти на сложные ценностные компромиссы, основанные на конкретных сценариях.
  • Ловушки исторической предвзятости в данных:Данные - пища для искусственного интеллекта, но исторические данные часто отражают историческую несправедливость. Например, в прошлом в технологической отрасли доминировали мужчины, в результате чего в резюме было гораздо больше мужчин, чем женщин. Если обучить модель на этих данных, она будет считать, что мужчины чаще всего являются "хорошими программистами", и оценит резюме женщин менее благоприятно. Очистка и коррекция данных от предвзятости представляет собой огромную проблему.
  • Эффект усиления самого алгоритма:Даже если предвзятость не очевидна в данных, сложные алгоритмические модели могут обнаружить и усилить некоторые ложные закономерности, связанные с чувствительными признаками (Proxy Features) в процессе обучения и обобщения, что приведет к неожиданным дискриминационным результатам.
  • Компромисс между справедливостью и производительностью (Trade-off):Во многих случаях наложение ограничений на модель, чтобы она соответствовала определенным параметрам справедливости, может в определенной степени снизить ее общую точность прогнозирования. Например, чтобы увеличить количество одобренных кредитов для меньшинств, может потребоваться смягчение критериев, что повысит общий риск невозврата кредитов. Баланс между "справедливостью" и "эффективностью" - это классическая дилемма при принятии решений.
  • Интерсекциональность (пересекаемость) нескольких чувствительных признаков:В действительности человек может одновременно принадлежать к нескольким неблагополучным группам (например, афроамериканка с низким уровнем дохода). На "перекрестке" этих идентичностей предрассудки имеют усугубляющий эффект, который становится более сложным и трудноизмеримым. Меры справедливости, оптимизированные для одной группы, могут не учитывать межсекторальную дискриминацию.
  • Дефицит интерпретации и подотчетности:Многие современные модели ИИ (например, глубокие нейронные сети) представляют собой сложные "черные ящики", внутреннюю логику принятия решений которых сложно интерпретировать. Когда возникают несправедливые результаты, трудно отследить первопричину проблемы до данных, алгоритма или какого-то момента в развертывании модели, что крайне затрудняет ответственность и исправление ситуации.

Справедливость искусственного интеллекта: методы реализации и технические практики

Несмотря на масштабность проблемы, исследователи и инженеры разработали ряд технических средств, позволяющих учитывать соображения справедливости в процессе машинного обучения (Pipeline).

  • Метод предварительной обработки (Pre-processing):Обработка данных до того, как они попадут в модель. Сюда входят: выявление и коррекция предвзятости обучающих данных; повторная выборка данных из недопредставленных групп населения; очистка данных от ассоциаций с чувствительными характеристиками при сохранении максимально возможного количества другой полезной информации с помощью методов преобразования данных.
  • В процессе обработки:Это прямая интеграция ограничений на справедливость в сам алгоритм обучения модели. При разработке целевой функции разработчики не только требуют точного прогнозирования, но и включают справедливость в число целей оптимизации, чтобы модель могла активно "учиться" справедливости в процессе обучения.
  • Метод постобработки (Постобработка):После обучения модели ее выходные данные корректируются. Например, для разных групп устанавливаются разные пороги принятия решения (Threshold). В сценарии кредитования порог одобрения может быть соответствующим образом снижен для исторически неблагополучных групп, чтобы обеспечить равные возможности. Преимущество такого подхода заключается в том, что нет необходимости заново обучать модель.
  • Регулярные аудиты и постоянный контроль:Справедливость - это не "раз и готово". Как только модель начинает работать, необходимо создать систему постоянного мониторинга с регулярной проверкой справедливости ее результатов с использованием последних реальных данных, чтобы убедиться, что ее эффективность не ухудшилась и не появились новые предубеждения с течением времени.
  • Используйте инструментарий и рамки справедливости:В отрасли появилось несколько наборов инструментов с открытым исходным кодом, помогающих добиться справедливости, например, AIF360 от IBM, FairLearn от Microsoft и What-If Tool от Google. Эти инструменты предоставляют унифицированные метрики и алгоритмы смягчения последствий, которые значительно снижают барьеры на практике.
  • Поощряйте разнообразную командную работу:Технические решения невозможно отделить от человеческого фактора. Сбор команд разработчиков, более разнообразных по полу, этнической принадлежности, культуре и профессиональному опыту, может помочь выявить потенциальные "слепые пятна" предвзятости в начале процесса разработки и предотвратить проблемы справедливости на начальном этапе.

Справедливость искусственного интеллекта: широкий спектр сценариев применения и примеров

Проблема справедливости ИИ - это далеко не теоретическая мечта; она появилась буквально во всех уголках нашей жизни, и каждый случай предупреждает о ее важности.

  • Рекрутинг и управление человеческими ресурсами:Компания Amazon разработала собственный инструмент проверки резюме с помощью искусственного интеллекта, который научился отсеивать кандидатов, чьи резюме содержали слово "женский" (например, "капитан женского шахматного клуба"), поскольку обучающие данные были получены в основном из мужских резюме, что привело к систематической дискриминации в отношении Это привело к систематической дискриминации соискателей-женщин. В итоге компания отказалась от программы.
  • Уголовное правосудие и оценка рисков:Системы оценки риска рецидивизма, такие как COMPAS, используемые некоторыми судами в США, в ходе расследований, проведенных такими СМИ, как ProPublica, были признаны систематически завышающими риск рецидивизма для чернокожих обвиняемых и, как правило, занижающими риск для белых обвиняемых, что вызвало серьезную глобальную дискуссию об алгоритмическом правосудии.
  • Финансовые услуги и одобрение кредитов:Кредитные модели искусственного интеллекта, которые обучаются в первую очередь на исторических данных о кредитах и которые исторически "ограничивают" определенные почтовые индексы (часто районы проживания меньшинств) от отказа в обслуживании финансовыми учреждениями, научатся ассоциировать эти почтовые индексы с "высоким риском" и отклонять заявки на кредит жителей этих районов, создавая таким образом "ограничение" в цифровую эпоху. Затем модель научится ассоциировать эти почтовые индексы с "высоким риском" и отклонять заявки на кредит от жителей этих районов, создавая тем самым "редлайнинг" в цифровую эпоху.
  • Оздоровительные и диагностические средства:Если данные изображений, используемые для обучения ИИ для диагностики рака кожи, в подавляющем большинстве содержат светлокожее население, диагностическая точность модели для темнокожих пациентов значительно снижается, что может привести к ошибочному диагнозу или задержкам в лечении, а также к серьезному неравенству в здравоохранении.
  • Распознавание лиц и технология наблюдения:Академические исследования и проект MIT Gender Shades показали, что многие коммерческие системы распознавания лиц имеют значительно более высокий процент ошибок при идентификации темнокожих женщин, чем светлокожих мужчин. Неправильное использование этой технологии правоохранительными органами может привести к ошибочным идентификациям и серьезным последствиям.
  • Рекомендация контента и информационный кокон:Хотя алгоритмы социальных сетей и новостных каналов не принимают "решений" напрямую, их рекомендательный механизм, основанный на вовлеченности пользователей, может отдавать предпочтение предвзятому, ложному, но привлекающему внимание контенту, создавая тем самым информационный кокон, усиливающий предвзятое отношение к группам с разными политическими позициями и культурными корнями и влияющий на формирование социального консенсуса. На формирование социального консенсуса влияют.

Справедливость искусственного интеллекта: неотъемлемое этическое и социальное измерение

Справедливость ИИ - это, по сути, проблема социотехнической системы, в основе которой лежит этический выбор, оказывающий глубокое влияние на социальную структуру.

  • Проектирование с учетом ценностей (VSD):Требуйте от разработчиков технологий, чтобы человеческие ценности (например, справедливость, неприкосновенность частной жизни, автономия) были основополагающими соображениями при разработке на самом раннем этапе концептуального развития, а не после. Технология не является ценностно-нейтральной; в ней с самого начала заложены выбор и предпочтения разработчика.
  • Алгоритмическая подотчетность (АП):Должна существовать четкая цепочка ответственности, когда системы ИИ принимают несправедливые решения. Должно быть ясно, кто несет ответственность - разработчик, внедритель, компания или регулирующий орган? Установление ответственности - это ключевой механизм, заставляющий соответствующие стороны сосредоточиться на справедливости.
  • Цифровой разрыв и расширение прав и возможностей:Неравенство проявляется не только в алгоритмах, но и в доступе к технологиям и их использовании. Обеспечение того, чтобы все группы населения, независимо от социально-экономического положения, имели доступ к технологиям ИИ, понимали их и получали от них пользу, - это тема справедливости на более макроуровне.
  • Участие общественности и демократическое обсуждение:Обсуждение вопроса "что справедливо" не должно ограничиваться инженерами и компаниями, в нем должны принимать участие философы, социологи, юристы и представители общественности в сообществах, которые могут быть затронуты. Это общественный вопрос, который требует демократического обсуждения всем обществом.
  • Технологии для хорошей деловой этики:Вместо того чтобы просто "не делать зла", компании должны активно применять позитивную этику "Технологии во благо". Постановка этических принципов, таких как справедливость, выше краткосрочной прибыли - это путь для технологических компаний к завоеванию долгосрочного доверия и социального одобрения.
  • Глобальные и культурные перспективы:Определение справедливости культурно относительно. То, что считается справедливым в одной культуре, может быть неприемлемо в другой. Системы ИИ, разрабатывающие глобальные приложения, должны учитывать это разнообразие и избегать техноколониализма.

Справедливость в искусственном интеллекте: прогрессивные правовые и политические рамки

Законодатели и регулирующие органы по всему миру быстро пытаются провести "красные линии" и создать систему управления для справедливого развития ИИ.

  • Закон ЕС об искусственном интеллекте (AI Act):Это новаторское законодательство использует подход к регулированию, основанный на оценке рисков, классифицируя системы ИИ по различным уровням риска. Он запрещает использование систем ИИ, представляющих "неприемлемый риск" для безопасности, средств к существованию и прав человека (например, социальный скоринг), и налагает строгие обязательства на системы ИИ "высокого риска" (для найма на работу, критической инфраструктуры и т. д.), включая управление данными, прозрачность, надзор со стороны людей и строгую оценку соответствия, включая требования справедливости.
  • Законодательная и исполнительная власть в США:В настоящее время в США нет всеобъемлющего федерального закона об ИИ, однако справедливость в отношении ИИ поддерживается ведомственными нормативными актами (например, правоприменительными актами Федеральной торговой комиссии FTC), законодательством штатов (например, законом Иллинойса о видеоинтервью с использованием искусственного интеллекта) и распоряжениями президента (Исполнительный указ о безопасном, надежном и доверительном развитии и использовании искусственного интеллекта) с акцентом на защиту прав граждан на свободу от алгоритмической дискриминации.
  • Алгоритмическое управление и регулирование в Китае:Положения об управлении алгоритмическими рекомендациями для информационных интернет-услуг и Временные меры по управлению генеративными услугами искусственного интеллекта, изданные Государственным управлением интернет-информации Китая и другими ведомствами, прямо требуют, чтобы поставщики услуг алгоритмических рекомендаций придерживались принципов справедливости, равенства, открытости и прозрачности, запрещали ценовую дискриминацию и другие необоснованные обращения на основе характеристик пользователя, а также создавали и совершенствовали механизмы, используемые для выявления и исправления предвзятости и дискриминации.
  • Обязательная оценка воздействия:По аналогии с оценкой воздействия на окружающую среду, многие регулятивные тенденции требуют проведения оценки воздействия на основные права или оценки воздействия алгоритмов для систем ИИ с высокой степенью риска, заставляя компании систематически оценивать потенциальное воздействие своих систем ИИ на справедливость, неприкосновенность частной жизни и другие права, а также предоставлять результаты в открытый доступ.
  • "Безопасные гавани" и механизмы "песочницы":Некоторые политические системы обеспечивают баланс между инновациями и регулированием, предусматривая положения о "безопасной гавани" для компаний, которые активно внедряют передовые методы обеспечения соответствия и активно проводят самотестирование и оценку, или позволяя им тестировать инновационные продукты в "песочнице" регулирования.

Справедливость искусственного интеллекта: будущие направления исследований и тенденции

Область справедливости ИИ продолжает развиваться быстрыми темпами, а исследователи ищут более глубокие и эффективные решения будущих задач.

  • Углубление искусственного интеллекта (XAI) можно объяснить:Продвигайте модели, которые больше не являются "черными ящиками", а могут предоставить четкое и понятное обоснование решений. Когда решения объяснимы, аудиторам и компаниям легче выявить и исправить конкретные пути, ведущие к несправедливости.
  • Пограничные исследования причинно-следственной справедливости:Система оценки справедливости, основанная на причинно-следственных связях (CI), является актуальным направлением исследований. Она пытается выйти за рамки статистической корреляции и понять причинно-следственную связь между чувствительными характеристиками и результатами решений, чтобы разработать более научную и фундаментальную стратегию де-биасинга.
  • Аудит справедливости больших языковых моделей (LLM):С ростом популярности генеративных ИИ, таких как ChatGPT, проверка социальной предвзятости в этих бегемотах стала совершенно новой задачей. Изучение того, как обнаружить и смягчить гендерные стереотипы, культурные предубеждения и вредный контент, который LLM могут создавать в своей выдаче, является чрезвычайно актуальным.
  • Динамика и долгосрочный капитал:Решения, принимаемые системами искусственного интеллекта, изменяют будущее состояние пользователя, что, в свою очередь, влияет на последующие данные о принятых решениях. Изучение влияния систем искусственного интеллекта на справедливость в долгосрочных многораундовых взаимодействиях и способов избежать "эффекта Мэтью" - сложное направление будущего.
  • Равенство в федеральном обучении:В сценариях совместного обучения, где данные не являются локальными, а совместное обучение осуществляется путем обмена параметрами модели, обеспечение справедливости итоговой глобальной модели при сохранении конфиденциальности каждого источника данных представляет собой сложную техническую задачу.
  • Стандартизация и межсекторное сотрудничество:Содействовать стандартизации показателей, процессов и инструментов оценки справедливости ИИ, чтобы можно было проводить сравнения между различными системами и отраслями. В то же время укреплять углубленное перекрестное сотрудничество между областями информатики, юриспруденции, этики и социологии для совместного решения этой важной задачи.
© заявление об авторских правах

Похожие статьи

Нет комментариев

Вы должны войти в систему, чтобы участвовать в комментариях!
Войти сейчас
нет
Нет комментариев...