Что такое управление искусственным интеллектом (AI Governance), в одной статье

Ответы ИИОпубликовано 5 дней назад Круг обмена ИИ
3.3K 00
堆友AI

Определение и основные понятия управления ИИ

Управление ИИ - это комплексная система, охватывающая технологии, этику, право и общество, которая эффективно направляет, управляет и контролирует весь жизненный цикл систем ИИ - от проектирования, разработки, развертывания и конечного использования. Основная цель - не препятствовать технологическим инновациям, а обеспечить, чтобы развитие и применение технологий ИИ всегда шло в направлении, которое является безопасным, надежным, ответственным и соответствует ценностям всего человечества. Понимаемое как "правила дорожного движения" и "конституция" мира ИИ, управление ИИ должно не только обеспечивать жизнеспособность и инновационность этого нового мира (позволяя автомобилям двигаться на высоких скоростях), но и гарантировать его упорядоченное и справедливое функционирование без катастрофических аварий (устанавливая светофоры и ограничения скорости). ограничения скорости). Управление ИИ включает в себя множество аспектов: с технологической точки зрения оно требует прозрачности, интерпретируемости и надежности систем; с этической - справедливости, непредвзятости, защиты частной жизни и человеческого контроля; с юридической - четких механизмов определения ответственности и стандартов соответствия; с социальной - широкого участия общественности и глобального сотрудничества. В конечном итоге управление ИИ отвечает на фундаментальный вопрос: как нам использовать силу, которая может быть умнее и мощнее нас, чтобы она стала инструментом, служащим благополучию человека, а не угрозой, выходящей из-под контроля? Это вопрос не только для крупных корпораций и правительств; его решение касается будущего каждого из нас.

人工智能治理(AI Governance)是什么,一文看懂

Основные компоненты управления ИИ

Управление ИИ - это не пустая концепция, а прочная система, состоящая из нескольких взаимодополняющих основных элементов, которые работают вместе, чтобы обеспечить регулирование и организацию деятельности в области ИИ.

  • Этические принципы превыше всегоЭтика - краеугольный камень управления. Набор всемирно признанных этических принципов для ИИ обычно включает: справедливость (избежание дискриминации алгоритмов), прозрачность и интерпретируемость (процессы принятия решений могут быть понятны), защиту конфиденциальности и управление данными (надлежащее обращение с пользовательскими данными), непричинение вреда (безопасность и надежность, отсутствие вреда), ответственность (кто-то несет ответственность за проблемы), а также человеческий надзор и контроль (окончательное решение остается за человеком). Эти принципы служат ценностным ориентиром для разработки конкретных технологий и принятия нормативных актов.
  • Нормативно-правовая базаМягкие этические принципы нуждаются в жестких законах и правилах. Системы регулирования ИИ создаются ускоренными темпами по всему миру. Например, Закон об искусственном интеллекте ЕС классифицирует приложения ИИ по степени риска, запрещает неприемлемо рискованные приложения (например, социальный скоринг) и устанавливает жесткие требования к доступу и постоянному регулированию приложений с высоким уровнем риска (например, ИИ для медицинской диагностики). Законодательная база уточняет юридическую ответственность разработчиков и внедренцев и устанавливает "красные линии" и "нижние границы".
  • Прозрачность и интерпретируемостьЭто ключ к созданию доверия. Модель ИИ в виде "черного ящика", даже если она принимает правильные решения, вряд ли может вызывать доверие. Управление требует, чтобы ИИ был как можно более прозрачным, чтобы логика принятия решений была тщательно проанализирована и понятна людям. Когда ИИ отклоняет заявку на кредит или рекомендует медицинское лечение, он должен иметь возможность предоставить четкие и понятные причины для этого, а не "алгоритмическое решение", которое невозможно оспорить.
  • Управление рисками на протяжении всего жизненного циклаУправление требует управления рисками систем ИИ на всех этапах. На этапе проектирования проводится оценка воздействия для прогнозирования возможных социальных, этических и правовых рисков; на этапе разработки принимаются концепции безопасного проектирования; до и после развертывания проводятся тщательные испытания и валидация; на этапе эксплуатации осуществляется непрерывный мониторинг для своевременного обнаружения и устранения снижения производительности модели или появления новых предубеждений.
  • Четкость механизмов подотчетности: Должна существовать четкая цепочка ответственности, когда системы ИИ наносят ущерб. Кто именно несет ответственность? Инженеры, разрабатывающие алгоритм, компания, собирающая данные, руководители, принимающие решение о внедрении системы, или конечные пользователи, использующие ее? Система управления должна заранее определять эти обязанности, чтобы жертвы могли обратиться за возмещением ущерба, а нарушители были привлечены к ответственности, что подтолкнет всех участников к большей осмотрительности.
  • Поддержка технических средств и стандартовДля управления требуются специальные технологические инструменты. Например, использование инструментов "объяснимого ИИ" (XAI) для интерпретации сложных моделей; применение таких методов, как "федеративное обучение", для защиты конфиденциальности данных при обучении ИИ; разработка наборов инструментов оценки справедливости для количественной оценки и выявления предвзятости алгоритмов. В то же время необходимо разработать единые технические стандарты для обеспечения совместимости различных систем и согласованности оценок безопасности.

Многоуровневая система реализации для управления ИИ

Перевод концепции управления с бумаги на бумагу требует согласованных усилий в рамках многоуровневой системы, которая охватывает все сферы - от внутренней до внешней и от микро до макро.

  • Макроуправление на национальном и глобальном уровняхНациональные правительства играют роль "судьи", принимая законы и создавая регулирующие органы (например, национальные ведомства по ИИ), формулируя национальные стратегии в области ИИ и участвуя в глобальном нормотворчестве. Международные организации (например, ООН, ОЭСР, G20) стремятся содействовать созданию глобальных руководящих принципов управления ИИ и механизмов сотрудничества, чтобы избежать "фрагментации правил" и порочной конкуренции, а также совместно решать глобальные проблемы, порождаемые ИИ.
  • Мезоуправление на уровне отрасли и сектора: Различные отрасли объединяют свои особенности для разработки рекомендаций и лучших практик применения ИИ в своих отраслях. Например, финансовая отрасль уделяет особое внимание справедливости применения ИИ в сфере кредитования и борьбе с мошенничеством, здравоохранение - надежности диагностических инструментов ИИ, защите конфиденциальности и определению ответственности врача, а автомобильная промышленность совместно разрабатывает стандарты тестирования безопасности автономного вождения. Саморегулирование отрасли и первые стандарты являются важной частью эффективного управления.
  • Микроуправление на организационном и корпоративном уровне: Предприятия являются наиболее важной единицей реализации управления. Ответственные технологические компании создадут внутренние комитеты по этике ИИ, сформулируют корпоративные принципы развития ИИ, проведут тренинги по этике для сотрудников и создадут такие должности, как главные специалисты по этике ИИ. Предприятиям необходимо интегрировать требования к управлению в каждый процесс управления продуктом - от сбора данных и обучения моделей до запуска продукта и обновления итераций.
  • Встроенное управление на техническом уровнеТребования к управлению должны быть встроены непосредственно в системы ИИ, что называется "управлением по проекту". Ограничения справедливости, расчеты конфиденциальности и протоколирование встраиваются в код по мере его написания, делая соблюдение требований и этики неотъемлемой частью технологии, а не "заплаткой" на последок.
  • Постоянный мониторинг и аудиторская оценкаРазвертывание систем ИИ - это не конец пути. Система управления требует создания независимого стороннего механизма аудита для проведения регулярных "проверок" систем ИИ, находящихся в эксплуатации, на предмет того, соответствуют ли они требованиям справедливости, безопасности и соответствия. Необходимо создать эффективные каналы обратной связи и отчетности, чтобы пользователи и внутренние сотрудники могли сообщать о выявленных проблемах, формируя замкнутый цикл надзора.
  • Механизмы реагирования на чрезвычайные ситуации и выхода из нихДаже самое лучшее управление должно быть способно справиться с непредвиденными обстоятельствами. Необходимо заранее разработать планы действий на случай непредвиденных обстоятельств, чтобы обеспечить быстрое вмешательство, смягчение последствий или даже отключение системы ИИ в случае серьезного сбоя или злонамеренного использования системы, так называемый "выключатель". Уточните варианты обращения с данными после отказа или вывода системы из эксплуатации.

Реальные проблемы управления ИИ

Идеализированные системы управления сталкиваются с многочисленными практическими проблемами на техническом, социальном и международном уровнях сотрудничества.

  • Развитие технологий значительно опережает обновление системы управленияЦиклы итераций технологий ИИ измеряются месяцами или даже неделями, в то время как законодательные и нормативные процессы часто занимают годы. Такой "дисбаланс скоростей" приводит к тому, что управление часто отстает от новейших технологических приложений и нормативных пробелов.
  • Глобальный консенсус ускользает от нас: Между разными странами существуют значительные различия с точки зрения культурных ценностей, правовых систем и путей развития. Такие понятия, как неприкосновенность частной жизни, свобода и безопасность, имеют разный вес, что крайне затрудняет выработку единых правил управления ИИ на глобальном уровне. Геополитическое соперничество еще больше усугубляет эти различия, и, скорее всего, возникнет "фрагментированная" ситуация, в которой будут сосуществовать несколько наборов правил.
  • Сложность определения подотчетности: Процесс принятия решений системой искусственного интеллекта включает в себя множество субъектов в длинной и сложной цепочке. Когда самодвижущийся автомобиль, управляемый алгоритмами глубокого обучения, попадает в аварию, ответственность трудно четко определить - кто виноват: поставщик датчиков, инженер алгоритмов, производитель автомобиля, владелец автомобиля или разработчик обновлений программного обеспечения? Существующая правовая система не справляется с этой сложной задачей.
  • Техническая сложность аудита и мониторинга: В самых современных крупномасштабных генеративных моделях ИИ количество параметров исчисляется триллионами, а их внутренние механизмы работы настолько сложны, что даже разработчики не могут полностью понять все их поведение. Эффективный аудит и мониторинг этого "черного ящика" внутри "черного ящика" представляет собой огромную техническую проблему.
  • Огромные пробелы в талантах и знанияхМеждисциплинарные специалисты с глубоким пониманием технологий ИИ, этики, права и государственной политики крайне дефицитны. Политики могут не понимать технологию, а технические специалисты могут не иметь этических и правовых взглядов, и существуют препятствия для эффективного диалога между двумя сторонами, что влияет на качество и возможность реализации политики управления.

Глубокое значение управления ИИ для общества

Несмотря на трудности, создание надежной системы управления ИИ имеет незаменимую далеко идущую ценность и значение для всего общества.

  • Укрепление доверия для внедрения технологийДоверие - это социальный фундамент, на котором все технологии могут применяться в широких масштабах. Если продемонстрировать обществу с помощью управления, что ИИ безопасен, надежен и ответственен, это поможет устранить страхи и сомнения людей, ускорить внедрение технологий ИИ в таких ключевых областях, как здравоохранение, образование и транспорт, и по-настоящему раскрыть его потенциал для улучшения жизни.
  • Предотвращение системных рисков и обеспечение социальной безопасностиЗлоупотребление ИИ может привести к беспрецедентным рискам, таким как выход автоматизированного оружия из-под контроля, масштабные кибератаки и социальный обман, основанный на глубокой фальсификации. Система управления подобна Базельскому соглашению в финансовом секторе, не позволяя отдельным событиям вызвать цепную реакцию, которая может привести к глобальной катастрофе, путем установки защитных ограждений.
  • Формирование равных условий и обеспечение здорового развития рынкаЧеткие правила устанавливают справедливую стартовую линию конкуренции для всех участников рынка. Управление пресекает поведение, направленное на получение нечестных конкурентных преимуществ за счет злоупотребления данными, вторжения в частную жизнь или использования предвзятых алгоритмов, и поощряет компании конкурировать за счет подлинных технологических инноваций и качественного обслуживания, способствуя здоровому и устойчивому развитию рынка.
  • Защита основных прав и достоинства человекаОдна из основных задач управления ИИ - обеспечить, чтобы технологический прогресс не приводил к нарушению основных прав человека. Защитите человеческое достоинство в цифровую эпоху, предотвратив чрезмерное цифровое наблюдение с помощью строгих правил защиты данных, защитив права социально незащищенных групп с помощью требований справедливости и обеспечив, чтобы конечный контроль находился в руках человека с помощью человеческого надзора.
  • Собираем глобальную мудрость для решения общих проблемТема управления ИИ побудила правительства, бизнес, научные круги и гражданское общество собраться вместе, чтобы обсудить, как решить глобальные проблемы, такие как изменение климата, здравоохранение, бедность и т. д. Управление ИИ может стать новым узлом для глобального сотрудничества, что приведет к использованию мощных технологий ИИ для решения самых насущных проблем человечества.
  • Ответственность перед будущими поколениями за устойчивое развитие: Сегодняшние управленческие решения будут оказывать глубокое влияние на формирование общества в будущем. Ответственное управление означает, что мы должны учитывать не только краткосрочные экономические выгоды ИИ, но и его долгосрочные социальные, экологические и этические последствия, чтобы развитие технологий отвечало интересам будущих поколений и обеспечивало действительно устойчивое развитие.

Глобальный ландшафт и сравнение систем управления искусственным интеллектом

Крупнейшие страны и регионы мира осваивают различные пути управления ИИ, исходя из собственных концепций и национальных условий, формируя пеструю глобальную картину.

  • Модель регулирования Европейского союза, основанная на правах человека: ЕС взял на себя инициативу по созданию самой строгой и всеобъемлющей в мире нормативной базы для ИИ. Основная идея заключается в классификации приложений ИИ по степени риска и внедрении регулирования по принципу "пирамиды". В модели ЕС большое внимание уделяется защите основных прав и принципу предосторожности, а также стремлению стать "де-факто" мировым законодателем цифровых правил, устанавливая чрезвычайно высокие стандарты соответствия для технологических компаний с помощью таких строгих нормативных актов, как Закон об искусственном интеллекте и Закон о цифровых услугах.
  • Американская модель гибкого управления "инновации превыше всего": США предпочитают опираться на подсекторальное регулирование со стороны существующих регулирующих органов (например, FTC, FDA), делая упор на саморегулирование отрасли и технологические решения. Эта стратегия более гибкая и направлена на то, чтобы избежать чрезмерно жесткого регулирования, которое подавляет инновационную активность Кремниевой долины. Правительство США обеспечивает мягкое руководство путем издания указов и инвестиционных рекомендаций, поощряя выявление проблем и решений в процессе разработки, а национальная мощь больше инвестирует в НИОКР в области ИИ и передовые исследования в области военного применения.
  • Китайская модель "безопасного и контролируемого" и всеобъемлющего развития: Китайское управление искусственным интеллектом делает акцент на "безопасном и контролируемом" и "ориентированном на человека", поощряя технологическое развитие и придавая большое значение национальной безопасности и социальной стабильности. Китай выпустил ряд нормативных актов, в том числе Временные меры по управлению генеративными услугами искусственного интеллекта, которые требуют, чтобы контент, создаваемый ИИ, соответствовал основным социалистическим ценностям, и подчеркивают основную ответственность предприятий в плане безопасности, конфиденциальности и предвзятости. Китайская модель управления отражает более сильные оттенки государственного руководства и целостного планирования.
  • Исследование и адаптация в других регионахВеликобритания выдвинула идею "контекстуального управления", которая предполагает отказ от создания специального регулирующего органа и полагается на существующие ведомства, которые могут гибко корректировать свои стратегии регулирования в зависимости от конкретных ситуаций. Сингапур, Объединенные Арабские Эмираты и другие малые развитые страны стремятся создать "песочницу ИИ" для привлечения глобальных компаний и талантов в области ИИ с помощью слабого регулирования и превосходной инфраструктуры, а также сыграть роль "испытательного полигона".
  • Роль координаторов в международных организацияхОрганизация экономического сотрудничества и развития (ОЭСР) предложила принципы ИИ, которые были одобрены большим количеством стран. Организация Объединенных Наций выступает за создание глобального органа управления ИИ, аналогичного Международному агентству по атомной энергии (МАГАТЭ). Эти международные организации представляют собой редкую платформу для диалога между странами, находящимися в разных лагерях, и стремятся к достижению глобального консенсуса на самом низком уровне, чтобы избежать наихудших сценариев.
  • Транснациональное влияние и саморегулирование технологических гигантов: Крупные технологические компании, такие как Google, Microsoft, Meta, OpenAI и другие, обладают ресурсами и влиянием в области ИИ, которые выходят за пределы даже многих стран. Этические кодексы и практика управления, разработанные в этих компаниях, представляют собой еще одну глобальную систему "частного" управления. Между ними и "публичными" системами управления суверенных государств существует как сотрудничество, так и напряженность.

Обязательное участие общественности в управлении ИИ

Управление ИИ не может быть просто закрытой встречей правительственных чиновников, руководителей предприятий и технологов, оно не может быть эффективным и легитимным без активного участия широкой общественности.

  • Государственное образование - краеугольный камень участияПродвижение грамотности в области ИИ и просвещение общественности об основах, возможностях, ограничениях и потенциальных рисках ИИ через различные формы СМИ, школы и публичные лекции. Общественность, имеющая базовое представление об ИИ, сможет принять участие в содержательном обсуждении и контроле, а не оставаться в фантастическом страхе или слепом оптимизме.
  • Создание диверсифицированных каналов для сбора мнений: При разработке нормативных актов, связанных с ИИ, законодательные и регулирующие органы должны проявлять инициативу по проведению слушаний и выпуску проектов экспозиции, а также широко учитывать мнения различных социальных групп, таких как организации потребителей, трудовые коллективы, общины этнических меньшинств и организации по защите прав инвалидов, с тем чтобы политика управления отражала плюралистические интересы и ценности.
  • Поощрение гражданского обсуждения и консенсусных конференций: Организуйте совещательные группы из случайно выбранных обычных граждан для проведения углубленного обсуждения конкретных этических дилемм ИИ (например, границ общественного использования системы распознавания лиц) и подготовки отчета с рекомендациями, основанными на нейтральной информации, предоставленной экспертами. Такой формат позволяет лицам, принимающим решения, опираться на взвешенное общественное мнение.
  • Наблюдательная роль СМИ и журналистские расследования: Средства массовой информации - важное окно в проблемы ИИ для общественности. Журналистские расследования, подробно освещающие случаи предвзятости алгоритмов (например, разоблачение ProPublica расовой предвзятости в системе оценки рецидивизма COMPAS), могут эффективно превратить технические вопросы в общественные, вызывая широкое внимание и обсуждение, а также создавая сильное давление на общественность.
  • Поддержка независимых исследовательских и аудиторских организаций: Общественность может поддерживать и доверять независимым от правительств и корпораций исследовательским институтам, аудиторским организациям и этическим лабораториям. Эти организации могут публиковать объективные исследовательские отчеты, проводить независимую оценку коммерческих систем ИИ, предоставлять общественности авторитетную и достоверную информацию и разрушать информационную монополию технологических компаний.
  • Предоставление пользователям индивидуальных прав и возможностей выбораСистема управления должна гарантировать права индивидуальных пользователей, такие как право на информирование (быть информированным о том, что с ним взаимодействует ИИ), право на выбор (иметь возможность выбрать человеческую услугу), право на интерпретацию (получить объяснение того, как ИИ принимает решения) и право на отказ (отказаться от важного решения, принятого только ИИ). Благодаря этим правам люди становятся не пассивными получателями, а активными участниками, которые могут реализовать свои права.

Ключевые технологические инструменты, лежащие в основе управления ИИ

Эффективное управление - это не просто разговоры, оно должно подкрепляться рядом мощных технических инструментов, которые воплощают принципы управления в коде и функциональности системы.

  • Набор инструментов интерпретируемого искусственного интеллекта (XAI): XAI - это ключ к разгадке "черного ящика" ИИ. Он включает в себя ряд методов, таких как LIME, SHAP и т. д., которые могут объяснить предсказания сложных моделей в понятной для человека форме (например, путем выделения ключевых входных характеристик, влияющих на принятие решений). Без интерпретируемости невозможны прозрачность, подотчетность и честный аудит.
  • Инструментарий для оценки равенства и смягчения последствийТакие наборы инструментов с открытым исходным кодом, как AIF360 от IBM и FairLearn от Microsoft, предоставляют десятки проверенных метрик справедливости (например, справедливость в группе, равные возможности) и алгоритмов, помогающих разработчикам быстро обнаружить, оценить и смягчить предвзятость алгоритмов до и после обучения модели, а также разработать этические принципы.
  • Технологии, повышающие конфиденциальность (PET): Такие методы могут технически гарантировать конфиденциальность данных, выполняя вычисления и анализ без доступа к исходным данным. К ним относятся: федеративное обучение (когда данные всех сторон не локализованы и обмениваются только параметрами модели), дифференциальная конфиденциальность (когда к результатам запроса данных добавляется точно откалиброванный шум) и гомоморфное шифрование (когда вычисляются зашифрованные данные). Они лежат в основе достижения "невидимости для пользователя" данных.
  • Платформа для мониторинга и эксплуатации моделейПлатформа MLOps непрерывно отслеживает эффективность прогнозирования, качество распределения данных и показатели справедливости моделей искусственного интеллекта после их запуска в эксплуатацию, рассылая предупреждения и инициируя вмешательство человека или итерации модели при обнаружении аномальных отклонений, чтобы обеспечить постоянное соответствие системы требованиям.
  • Средства обнаружения атак и проверки устойчивости к нимЭти инструменты имитируют злоумышленников, подавая тщательно сконструированные "образцы противника" (например, возмущенную картинку, неразличимую для человеческого глаза) в модель ИИ, чтобы проверить ее устойчивость и безопасность перед лицом помех. Заранее выявив уязвимые места, можно укрепить модели, чтобы предотвратить их злонамеренную подделку или эксплуатацию.
  • Блокчейн для отслеживания аудита: Защищенную от взлома технологию блокчейн можно использовать для записи журналов ключевых решений, хэшей обучающих данных и истории изменений версий моделей ИИ. Это создает надежный аудиторский след, обеспечивая железную запись данных, когда требуется откат назад для расследования ошибок в принятии решений ИИ, значительно упрощая процесс отчетности.
© заявление об авторских правах

Похожие посты

Нет комментариев

Вы должны войти в систему, чтобы участвовать в комментариях!
Войти сейчас
нет
Нет комментариев...