Qu'est-ce que la gouvernance de l'intelligence artificielle (IA), en un article

堆友AI

Définition et principales connotations de la gouvernance de l'IA

La gouvernance de l'IA est un cadre global englobant la technologie, l'éthique, le droit et la société, qui guide, gère et supervise efficacement l'ensemble du cycle de vie des systèmes d'IA, de la conception à l'utilisation finale, en passant par le développement et le déploiement. L'objectif principal n'est pas d'entraver l'innovation technologique, mais de veiller à ce que le développement et l'application de la technologie de l'IA aillent toujours dans le sens de la sécurité, de la fiabilité, de la responsabilité et de la cohérence avec les valeurs de l'humanité dans son ensemble. Considérée comme le "code de la route" et la "constitution" du monde de l'IA, la gouvernance de l'IA doit non seulement préserver la vitalité et l'innovation de ce nouveau monde (en permettant aux véhicules de circuler à grande vitesse), mais aussi veiller à ce qu'il fonctionne de manière ordonnée et équitable, sans accidents catastrophiques (en mettant en place des feux de circulation et des limitations de vitesse). des limites de vitesse). La gouvernance de l'IA comporte de multiples dimensions : sur le plan technologique, elle exige que les systèmes soient transparents, interprétables et robustes ; sur le plan éthique, elle met l'accent sur l'équité, l'impartialité, la protection de la vie privée et la surveillance humaine ; sur le plan juridique, elle exige des mécanismes clairs pour identifier les responsabilités et les normes de conformité ; et sur le plan social, elle appelle à une large participation du public et à une collaboration mondiale. En fin de compte, la gouvernance de l'IA répond à une question fondamentale : comment maîtriser une force qui pourrait être plus intelligente et plus puissante que nous, afin qu'elle devienne un outil au service du bien-être humain plutôt qu'une menace incontrôlable ? Il ne s'agit pas seulement d'une question à laquelle les grandes entreprises et les gouvernements doivent réfléchir ; sa construction concerne l'avenir de chacun d'entre nous.

人工智能治理(AI Governance)是什么,一文看懂

Principaux éléments de la gouvernance de l'IA

La gouvernance de l'IA n'est pas un concept vide, mais un système solide composé de plusieurs éléments fondamentaux qui se soutiennent mutuellement et qui fonctionnent ensemble pour garantir que les activités d'IA sont réglementées et organisées.

  • Les lignes directrices éthiques d'abordL'éthique est une pierre angulaire de la gouvernance. Un ensemble de principes éthiques mondialement reconnus pour l'IA comprend généralement : l'équité (éviter la discrimination algorithmique), la transparence et l'interprétabilité (les processus de prise de décision peuvent être compris), la protection de la vie privée et la gouvernance des données (traiter les données des utilisateurs de manière appropriée), la non-malfaisance (être sûr et ne pas causer de préjudice), la responsabilité (quelqu'un est responsable des problèmes), et la surveillance et le contrôle humains (la décision finale revient à l'homme). Ces principes fournissent des orientations précieuses pour le développement de technologies spécifiques et l'élaboration de réglementations.
  • Cadre juridique et réglementaireLes lignes directrices éthiques souples nécessitent des lois et des réglementations strictes pour être mises en œuvre. Par exemple, la loi européenne sur l'intelligence artificielle classe les applications d'IA en fonction du niveau de risque, interdit les applications présentant un risque inacceptable (par exemple, l'évaluation sociale) et impose un accès rigoureux et une réglementation permanente pour les applications à haut risque (par exemple, l'IA de diagnostic médical). Le cadre juridique clarifie les responsabilités juridiques des développeurs et des déployeurs et établit des lignes rouges et des lignes de fond.
  • Transparence et interprétabilitéC'est la clé de l'instauration de la confiance. Un modèle d'IA "boîte noire", même s'il prend les bonnes décisions, n'est guère digne de confiance. La gouvernance exige que l'IA soit aussi transparente que possible, afin que la logique de décision puisse être examinée et comprise par les humains. Lorsque l'IA rejette une demande de prêt ou recommande un traitement médical, elle doit être en mesure de fournir des raisons claires et compréhensibles, plutôt qu'une "décision algorithmique" qui ne peut être contestée.
  • Gestion des risques sur l'ensemble du cycle de vieLa gouvernance exige une gestion des risques des systèmes d'IA tout au long du processus. Des évaluations d'impact sont réalisées au cours de la phase de conception afin d'anticiper les éventuels risques sociaux, éthiques et juridiques ; des concepts de conception sécurisés sont adoptés au cours de la phase de développement ; des tests et une validation rigoureux sont effectués avant et après le déploiement ; et un contrôle continu est effectué au cours de la phase opérationnelle afin de détecter et de corriger la dégradation des performances du modèle ou l'émergence de nouveaux biais en temps opportun.
  • Clarté des mécanismes de responsabilitéLa responsabilité des systèmes d'intelligence artificielle : Il doit y avoir une chaîne de responsabilité claire lorsque les systèmes d'intelligence artificielle causent des dommages. Qui est exactement responsable ? S'agit-il des ingénieurs qui conçoivent l'algorithme, de l'entreprise qui collecte les données, des dirigeants qui décident de le déployer ou des utilisateurs finaux qui s'en servent ? Les cadres de gouvernance doivent définir ces responsabilités à l'avance afin de garantir que les victimes puissent demander réparation et que les malfaiteurs soient tenus pour responsables, ce qui incitera toutes les parties concernées à être plus prudentes.
  • Outils techniques et soutien aux normesLa gouvernance nécessite des outils technologiques spécifiques. Par exemple, l'utilisation d'outils d'"IA explicable" (XAI) pour interpréter des modèles complexes ; l'utilisation de techniques telles que l'"apprentissage fédéré" pour protéger la confidentialité des données tout en formant l'IA ; et le développement d'outils d'évaluation de l'équité pour quantifier et détecter les biais algorithmiques. Parallèlement, des normes techniques unifiées devraient être établies pour garantir l'interopérabilité entre les différents systèmes et la cohérence des évaluations de sécurité.

Cadre de mise en œuvre à plusieurs niveaux pour la gouvernance de l'IA

Traduire le concept de gouvernance du papier à la réalité nécessite un effort concerté dans un cadre à plusieurs niveaux qui s'étend de l'interne à l'externe et du micro au macro.

  • Macro-gouvernance aux niveaux national et mondialLes gouvernements nationaux jouent le rôle d'"arbitre" en légiférant et en créant des organismes de réglementation (par exemple, des offices nationaux de l'IA), en formulant des stratégies nationales en matière d'IA et en participant à l'élaboration de règles au niveau mondial. Les organisations internationales (par exemple l'ONU, l'OCDE, le G20) se sont engagées à promouvoir l'établissement de lignes directrices mondiales en matière de gouvernance de l'IA et de mécanismes de coopération afin d'éviter la "fragmentation des règles" et la concurrence déloyale, et de relever ensemble les défis mondiaux posés par l'IA.
  • Mésogouvernance au niveau de l'industrie et du secteurL'industrie de l'IA : Différents secteurs combinent leurs propres caractéristiques pour élaborer des lignes directrices et des meilleures pratiques pour les applications de l'IA dans leur propre secteur. Par exemple, l'industrie financière se concentre sur l'équité de l'IA en matière de crédit et de conformité anti-fraude ; l'industrie de la santé se concentre sur la fiabilité des outils de diagnostic de l'IA, la protection de la vie privée et la définition de la responsabilité clinique ; et l'industrie automobile travaille ensemble pour formuler des normes d'essai de sécurité pour la conduite autonome. L'autorégulation du secteur et les premières normes constituent un élément important d'une gouvernance efficace.
  • Micro-gouvernance au niveau de l'organisation et de l'entrepriseLes entreprises sont l'unité de mise en œuvre la plus importante de la gouvernance. Les entreprises technologiques responsables mettront en place des comités internes d'éthique de l'IA, formuleront des principes de développement de l'IA au niveau de l'entreprise, proposeront une formation à l'éthique à leurs employés et créeront des postes tels que des responsables de l'éthique de l'IA. Les entreprises doivent intégrer les exigences de gouvernance dans chaque processus de gestion des produits, depuis la collecte des données et la formation des modèles jusqu'au lancement du produit et aux itérations de mise à jour.
  • Gouvernance intégrée au niveau techniqueLes exigences en matière de gouvernance doivent être intégrées directement dans les systèmes d'IA par "conception", ce que l'on appelle la "gouvernance par conception". Les contraintes d'équité, les calculs de protection de la vie privée et les fonctions de journalisation sont intégrés dans le code dès son écriture, ce qui fait de la conformité et de l'éthique des éléments intrinsèques de la technologie plutôt que des correctifs apportés après coup.
  • Contrôle continu et évaluation des auditsLe cadre de gouvernance prévoit la mise en place d'un mécanisme d'audit par une tierce partie indépendante. Le cadre de gouvernance exige la mise en place d'un mécanisme d'audit par une tierce partie indépendante pour effectuer des "contrôles" réguliers des systèmes d'IA en service afin d'évaluer s'ils répondent toujours aux exigences d'équité, de sécurité et de conformité. Des canaux efficaces de retour d'information et de signalement doivent être mis en place pour permettre aux utilisateurs et au personnel interne de signaler les problèmes identifiés, formant ainsi une boucle fermée de surveillance.
  • Mécanismes d'intervention et de sortie en cas d'urgenceMême la meilleure gouvernance doit pouvoir faire face à des circonstances imprévues. Des plans d'urgence doivent être élaborés à l'avance pour permettre une intervention rapide, une atténuation ou même l'arrêt du système d'IA en cas de défaillance grave ou d'utilisation malveillante du système, ce que l'on appelle le "kill switch" (interrupteur d'arrêt). Clarifier les options de traitement des données en cas de défaillance ou de mise hors service du système.

Les défis du monde réel pour la gouvernance de l'IA

Les cadres de gouvernance idéalisés se heurtent à de nombreux défis pratiques aux niveaux technique, social et de la coopération internationale.

  • Le développement technologique dépasse de loin les mises à jour de la gouvernanceLes cycles d'itération de la technologie de l'IA se mesurent en mois, voire en semaines, alors que la législation et les processus de normalisation prennent souvent des années. Ce "déséquilibre de vitesse" fait que la gouvernance est souvent à la traîne par rapport aux dernières applications technologiques et aux lacunes réglementaires.
  • Le consensus mondial nous échappeLa gouvernance de l'IA : Il existe des différences significatives entre les pays en termes de valeurs culturelles, de systèmes juridiques et de voies de développement. Des concepts tels que la vie privée, la liberté et la sécurité sont pondérés différemment, ce qui rend extrêmement difficile l'élaboration de règles uniformes au niveau mondial pour la gouvernance de l'IA. Les rivalités géopolitiques exacerbent encore ces différences, et une situation "fragmentée" dans laquelle de multiples ensembles de règles coexistent est susceptible d'émerger.
  • Complexité de la détermination de l'obligation de rendre compteLe processus de prise de décision d'un système d'IA implique de multiples sujets dans une chaîne longue et complexe. Lorsqu'une voiture autonome alimentée par des algorithmes d'apprentissage profond est impliquée dans un accident, la responsabilité est difficile à définir clairement - est-ce le fournisseur du capteur, l'ingénieur de l'algorithme, le fabricant de la voiture, le propriétaire de la voiture ou l'auteur de la mise à jour du logiciel ? Le système juridique existant est dépassé par cette complexité.
  • Difficulté technique de l'audit et du contrôlePour les modèles d'IA générative à grande échelle les plus avancés, la taille des paramètres se compte en billions et leurs mécanismes de fonctionnement internes sont si complexes que même les développeurs ne peuvent pas comprendre l'ensemble de leurs comportements. L'audit et le contrôle efficaces de cette "boîte noire" au sein d'une "boîte noire" constituent un énorme défi technique.
  • D'énormes lacunes en matière de talents et de connaissancesLes talents interdisciplinaires dotés d'une connaissance approfondie de la technologie de l'IA, de l'éthique, du droit et des politiques publiques sont extrêmement rares. Les décideurs politiques peuvent ne pas comprendre la technologie, tandis que les techniciens peuvent manquer de perspectives éthiques et juridiques, et il existe des obstacles à un dialogue efficace entre les deux parties, ce qui affecte la qualité et l'applicabilité des politiques de gouvernance.

La valeur profonde de la gouvernance de l'IA pour la société

Malgré les difficultés, la mise en place d'un système solide de gouvernance de l'IA présente une valeur et une importance irremplaçables pour la société dans son ensemble.

  • Instaurer la confiance pour l'adoption des technologiesLa confiance est le fondement social sur lequel toutes les technologies peuvent être appliquées à grande échelle. En démontrant au public, par le biais de la gouvernance, que l'IA est sûre, fiable et responsable, on peut dissiper les craintes et les doutes des gens, accélérer la mise en œuvre de la technologie de l'IA dans des domaines clés tels que les soins de santé, l'éducation et les transports, et véritablement libérer son potentiel d'amélioration de la vie.
  • Prévenir les risques systémiques et préserver la sécurité socialeL'utilisation abusive de l'IA pourrait entraîner des risques sans précédent, tels que des armes automatisées incontrôlables, des cyberattaques à grande échelle et une tromperie sociale fondée sur une falsification profonde. Le système de gouvernance est comparable à l'accord de Bâle dans le secteur financier, qui empêche les événements individuels de déclencher une réaction en chaîne susceptible de conduire à une catastrophe mondiale en mettant en place des garde-fous.
  • Créer des conditions de concurrence équitables et guider le développement sain du marchéLa gouvernance : Des règles claires fixent une ligne de départ équitable pour la concurrence entre tous les acteurs du marché. La gouvernance limite les comportements visant à obtenir un avantage concurrentiel déloyal par l'utilisation abusive de données, la violation de la vie privée ou l'utilisation d'algorithmes biaisés, et encourage les entreprises à rivaliser par une véritable innovation technologique et un service de qualité, promouvant ainsi un développement sain et durable du marché.
  • Protection des droits fondamentaux et de la dignité humaineL'une des missions essentielles de la gouvernance de l'IA est de veiller à ce que les progrès technologiques n'érodent pas les droits fondamentaux des êtres humains. Protéger la dignité humaine à l'ère numérique en empêchant les excès de la surveillance numérique grâce à des réglementations strictes en matière de protection des données, en sauvegardant les droits et les intérêts des groupes socialement défavorisés grâce à des exigences d'équité, et en veillant à ce que le contrôle final reste entre les mains de l'homme grâce à une surveillance humaine.
  • Rassembler la sagesse mondiale pour relever des défis communsLa gouvernance de l'IA peut constituer un nouveau pôle de coopération mondiale, permettant d'utiliser les puissantes technologies de l'IA pour résoudre les problèmes les plus urgents de l'humanité.
  • Responsabilité des générations futures en matière de développement durableLes décisions prises aujourd'hui en matière de gouvernance auront une incidence profonde sur la forme que prendra la société à l'avenir. Une gouvernance responsable signifie que nous prenons en compte non seulement les avantages économiques à court terme de l'IA, mais aussi ses impacts sociaux, environnementaux et éthiques à long terme, afin de garantir que le développement de la technologie se fait dans l'intérêt des générations futures et de parvenir à un développement véritablement durable.

Paysage mondial et comparaison de la gouvernance de l'intelligence artificielle

Les principaux pays et régions du monde explorent différentes voies de gouvernance de l'IA en fonction de leurs propres concepts et conditions nationales, formant ainsi un modèle mondial coloré.

  • Le modèle réglementaire "fondé sur les droits" de l'Union européenneL'UE a pris l'initiative d'établir le cadre réglementaire le plus strict et le plus complet au monde pour l'IA. L'idée de base est de classer les applications de l'IA en fonction des risques et de mettre en œuvre une réglementation "pyramidale". Le modèle de l'UE met l'accent sur la protection des droits fondamentaux et le principe de précaution, et cherche à devenir de facto le législateur mondial en matière de numérique en fixant des normes de conformité extrêmement strictes pour les entreprises technologiques par le biais de réglementations rigoureuses telles que la loi sur l'intelligence artificielle et la loi sur les services numériques.
  • Le modèle américain de gouvernance flexible "l'innovation d'abord".Les États-Unis préfèrent s'appuyer sur une réglementation sous-sectorielle par les autorités réglementaires existantes (par exemple, la FTC, la FDA), en mettant l'accent sur l'autoréglementation de l'industrie et les solutions technologiques. Leur stratégie est plus souple et vise à éviter qu'une réglementation trop stricte n'étouffe le dynamisme de la Silicon Valley en matière d'innovation. Le gouvernement américain fournit une orientation souple par la publication de décrets et de lignes directrices en matière d'investissement, encourageant l'identification des problèmes et des solutions en cours de développement, et la puissance nationale est davantage investie dans la R&D en matière d'IA et dans l'exploration de pointe des applications militaires.
  • Le modèle de développement global et "sûr et contrôlable" de la ChineLa gouvernance de l'IA en Chine met l'accent sur les notions de "sécurité et contrôle" et de "centrage sur la personne", encourageant le développement technologique tout en attachant une grande importance à la sécurité nationale et à la stabilité sociale. La Chine a publié une série de règlements, notamment les mesures provisoires pour l'administration des services d'intelligence artificielle générative, qui exigent que le contenu généré par l'IA soit conforme aux valeurs fondamentales du socialisme et soulignent les principales responsabilités des entreprises en termes de sécurité, de respect de la vie privée et de partialité. Le modèle de gouvernance de la Chine reflète des couleurs plus fortes de planification holistique et dirigée par l'État.
  • Exploration et adaptation dans d'autres régionsLe Royaume-Uni a avancé l'idée d'une "gouvernance contextualisée", qui préconise de ne pas créer de régulateur spécial et de s'appuyer sur les services existants pour ajuster de manière flexible leurs stratégies réglementaires en fonction de situations spécifiques. Singapour, les Émirats arabes unis et d'autres petits pays développés se sont engagés à créer des environnements de "bac à sable de l'IA" pour attirer les entreprises et les talents mondiaux de l'IA avec une réglementation souple et une infrastructure supérieure, et à jouer le rôle de "terrain d'essai".
  • Le rôle des coordinateurs dans les organisations internationalesL'Organisation de coopération et de développement économiques (OCDE) a proposé des principes en matière d'IA qui ont été approuvés par un grand nombre de pays. Les Nations unies encouragent la création d'un organe mondial de gouvernance de l'IA, similaire à l'Agence internationale de l'énergie atomique (AIEA). Ces organisations internationales constituent une rare plateforme de dialogue entre des pays de camps différents, qui s'efforcent de dégager un consensus mondial au niveau le plus bas afin d'éviter les pires scénarios.
  • Influence transnationale et autorégulation des géants de la technologieLes grandes entreprises technologiques telles que Google, Microsoft, Meta, OpenAI et d'autres disposent de ressources et d'une influence en matière d'IA qui s'étendent même au-delà de nombreux pays. Les codes éthiques et les pratiques de gouvernance développés au sein de ces entreprises constituent un autre système mondial de gouvernance "privée". Il existe à la fois une coopération et une tension entre eux et les systèmes de gouvernance "publics" des États souverains.

Participation indispensable du public à la gouvernance de l'IA

Loin d'être une simple réunion à huis clos de fonctionnaires, de dirigeants d'entreprises et de technologues, la gouvernance de l'IA ne peut être efficace et légitime sans la participation active du grand public.

  • L'éducation publique est la pierre angulaire de la participationPromouvoir la connaissance de l'IA et éduquer le public sur les fondements, les capacités, les limites et les risques potentiels de l'IA par le biais de diverses formes de médias, d'écoles et de conférences publiques. Une communauté publique ayant une compréhension de base de l'IA sera en mesure de s'engager dans une discussion et une surveillance significatives, plutôt que de rester dans la peur de la science-fiction ou l'optimisme aveugle.
  • Mise en place de canaux diversifiés pour solliciter des avisLes organismes législatifs et réglementaires devraient prendre l'initiative d'organiser des auditions et de publier des exposés-sondages, et intégrer largement les voix des différents groupes sociaux, tels que les organisations de consommateurs, les syndicats, les communautés ethniques minoritaires et les organisations de protection des droits des personnes handicapées, afin de garantir que les politiques de gouvernance reflètent des intérêts et des valeurs pluralistes.
  • Encourager la délibération citoyenne et les conférences de consensusOrganiser des panels délibératifs de citoyens ordinaires sélectionnés au hasard pour tenir des discussions approfondies sur des dilemmes éthiques spécifiques à l'IA (par exemple, les limites de l'utilisation publique de la reconnaissance faciale) et produire un rapport de recommandations basé sur des informations neutres fournies par des experts. Ce format permet aux décideurs d'être informés par une opinion publique réfléchie.
  • Le rôle de chien de garde des médias et le journalisme d'investigationLes médias sont une fenêtre importante pour le public sur les questions liées à l'IA. La couverture approfondie par des journalistes d'investigation d'incidents liés à des biais algorithmiques (par exemple, la révélation par ProPublica de biais raciaux dans le système d'évaluation de la récidive COMPAS) peut effectivement transformer des questions techniques en questions publiques, en déclenchant une attention et une discussion étendues, et en créant une forte pression pour un contrôle public.
  • Soutien aux organismes de recherche et d'audit indépendantsLe public peut soutenir et faire confiance à des instituts de recherche, des organismes d'audit et des laboratoires d'éthique indépendants des gouvernements et des entreprises. Ces organisations peuvent publier des rapports de recherche objectifs, mener des évaluations indépendantes des systèmes d'IA commerciaux, fournir au public des informations crédibles et faisant autorité, et briser le monopole de l'information des entreprises technologiques.
  • Responsabiliser les utilisateurs en leur donnant des droits et des choix individuelsLe cadre de gouvernance devrait garantir les droits des utilisateurs individuels, tels que le droit d'être informé (être informé qu'une IA est en train d'interagir), le droit de choisir (pouvoir sélectionner un service humain), le droit à l'interprétation (recevoir une explication de la prise de décision de l'IA), et le droit de refuser (refuser une décision importante prise uniquement par l'IA). Ces droits font du public non pas un destinataire passif, mais un participant actif qui peut exercer ses droits.

Principaux outils technologiques sous-tendant la gouvernance de l'IA

Une gouvernance efficace n'est pas qu'un simple discours, elle doit être étayée par une série d'outils techniques puissants qui traduisent les principes de gouvernance en code et en fonctionnalité du système.

  • Boîte à outils pour l'IA interprétable (XAI)XAI est la clé qui permet d'ouvrir la "boîte noire" de l'IA. Elle comprend une série de techniques, telles que LIME, SHAP, etc., qui peuvent expliquer les prédictions de modèles complexes d'une manière compréhensible pour l'homme (par exemple, en mettant en évidence les caractéristiques d'entrée clés qui influencent les décisions). Sans interprétabilité, la transparence, la responsabilité et l'audit équitable sont impossibles.
  • Boîte à outils pour l'évaluation et l'atténuation de l'équitéLes outils open source tels que AIF360 d'IBM et FairLearn de Microsoft fournissent des dizaines de mesures d'équité éprouvées (par exemple, équité de groupe, égalité des chances) et des algorithmes pour aider les développeurs à détecter, évaluer et atténuer rapidement les biais algorithmiques avant et après la formation au modèle, les principes éthiques de l'ingénierie.
  • Technologies renforçant la protection de la vie privée (PET)Ces techniques peuvent garantir techniquement la confidentialité des données en effectuant des calculs et des analyses sans toucher aux données d'origine. Elles comprennent : l'apprentissage fédéré (où les données de toutes les parties ne sont pas localisées et où seuls les paramètres du modèle sont échangés), la confidentialité différentielle (où un bruit précisément calibré est ajouté aux résultats de l'interrogation des données) et le cryptage homomorphique (où des données cryptées sont calculées). Ces techniques sont essentielles pour rendre les données "invisibles à l'utilisateur".
  • Plate-forme de suivi et d'exploitation du modèleLa plateforme MLOps surveille en permanence les performances prédictives, la distribution de la qualité des données et les mesures d'équité des modèles d'IA après leur mise en service, en envoyant des alertes et en déclenchant une intervention humaine ou des itérations de modèle lorsque des écarts anormaux sont détectés, afin de garantir la conformité continue du système.
  • Outils de détection des attaques adverses et de test de robustesseCes outils simulent des attaquants malveillants en fournissant au modèle d'IA des "échantillons contradictoires" soigneusement construits (par exemple, une image perturbée impossible à distinguer pour l'œil humain) afin de tester sa robustesse et sa sécurité face aux perturbations. En identifiant les vulnérabilités à l'avance, les modèles peuvent être renforcés afin d'éviter qu'ils ne soient malicieusement usurpés ou exploités.
  • La blockchain au service de la traçabilité des auditsLa blockchain : La nature inviolable de la technologie blockchain peut être utilisée pour enregistrer les journaux des décisions clés, les hachages des données d'entraînement et l'historique des changements de version des modèles d'IA. Cela crée une piste d'audit crédible, fournissant un enregistrement infaillible des données lorsqu'un retour en arrière est nécessaire pour enquêter sur les erreurs de prise de décision de l'IA, ce qui simplifie grandement le processus de responsabilisation.
© déclaration de droits d'auteur

Postes connexes

Pas de commentaires

Vous devez être connecté pour participer aux commentaires !
S'inscrire maintenant
aucun
Pas de commentaires...