Une ou plusieurs éthiques ?
Si tout le monde ou presque s’accorde sur la nécessité d’une éthique pour l’IA, les principes mêmes de l’éthique proposée différent sensiblement au gré des chartes et propositions de réglementation.

Quelques critères potentiels
Chartes et réglementations privilégient, suivant le cas, différents critères, mettant plus ou moins l’accent sur la protection des droits, celle de la vie privée, la transparence des algorithmes ou la responsabilité en cas de décisions automatisées. Y aurait-il plusieurs éthiques envisageables pour l’IA ? En tout cas, il y a plusieurs projets, reflétant des sensibilités différentes. Nous vous en présentons les principaux, ci-après, au risque d’en oublier certains…
Réglementations et chartes IA
Au Niveau international
Plusieurs organismes internationaux élaborent normes et réglementations pour l’IA depuis de nombreuses années. La liste ci-après est classée par ordre alphabétique, pour ne froisser personne.
G7
Le G7 (Allemagne, Canada, États-Unis, France, Italie, Japon et Royaume-Uni) réfléchirait à une réglementation fondée sur le risque.
IEEE
L’IEEE (Institute of Electrical and Electronics Engineers) a produit un document intitulé Ethically Aligned Design (EAD), (Conception éthique alignée) qui présente sa vision sur la manière dont les technologies intelligentes et autonomes peuvent être alignées sur les valeurs morales et ses recommandations pour que les principes éthiques donnent la priorité au bien-être humain.
Les principes généraux proposés par l’IEEE s’appliquent à l’IA et plus généralement à l’ensemble des systèmes d’information (SI) créés par l’homme. Ils couvrent les aspects suivants :
1. Droits de l’homme – Les SI doivent être créés et exploités de manière à respecter, promouvoir et protéger les droits de l’homme internationalement reconnus.
2. Bien-être – Les créateurs de SI doivent faire de l’amélioration du bien-être humain le premier critère de réussite du développement.
3. Gestion des données – Les créateurs de SI donnent aux individus la possibilité d’accéder à leurs données et de les partager en toute sécurité, afin de préserver la capacité des personnes à contrôler leur identité.
4. Efficacité – Les créateurs et les opérateurs de SI doivent fournir des preuves de l’efficacité et de l’aptitude à l’emploi des SI.
5. Transparence – La motivation d’une décision particulière doit toujours pouvoir être connue.
6. Responsabilité – Les SI sont créés et exploités de manière à justifier sans ambiguïté toutes les décisions prises.
7. Prévention des abus – Les créateurs d’un SI doivent se prémunir contre tous les abus et risques potentiels liés à l’utilisation d’un SI.
8. Compétence – Les créateurs de SI doivent spécifier les connaissances et les compétences requises pour un fonctionnement sûr et efficace.
ISO
L’Organisation internationale de normalisation (ISO) a anticipé la réglementation à venir en élaborant des normes sur la manière dont les entreprises devraient procéder à la gestion des risques et aux évaluations d’impact et gérer le développement de l’IA. Notons l’existence de 16 normes publiées, sur le thème de l’IA, à destination des entreprises et organisations. Ces normes sont d’application volontaire et non gratuites comme la plupart des normes ISO. Elles sont destinées à aider les entreprises à respecter les futures réglementations qui devraient être mises en place dans les différents pays.
OCDE
En 2019, les pays membres de l’Organisation de coopération et de développement économiques (OCDE) ont décidé d’adopter une série de principes non contraignants énonçant certaines valeurs qui devraient sous-tendre le développement de l’IA. Les systèmes d’IA devraient être transparents et explicables, fonctionner de manière robuste, sûre et sécurisée, disposer de mécanismes de responsabilisation et être conçus dans le respect de l’État de droit, des droits de l’homme, des valeurs démocratiques et de la diversité. Les principes précisent également que l’IA doit contribuer à la croissance économique.
Même si le mandat de l’OCDE n’est pas d’élaborer des règlementations, mais de stimuler la croissance économique, ces principes influencent directement les différents projets de loi en cours d’élaboration en Europe et dans le monde.
OMS
Compte tenu de l’importance croissante de l’IA dans le domaine de la santé, l’OMS (Organisation Mondiale de la Santé) se devait de fournir des recommandations sur son utilisation. Six principes ont été énoncés pour que, dans tous les pays, l’IA œuvre dans l’intérêt public :
- Protéger l’autonomie de l’être humain.
- Promouvoir le bien-être et la sécurité des personnes ainsi que l’intérêt public.
- Garantir la transparence, la clarté et l’intelligibilité.
- Encourager la responsabilité et l’obligation de rendre des comptes.
- Garantir l’inclusion et l’équité.
- Promouvoir une IA réactive et durable.
Unesco
En novembre 2021, les 193 États membres de l’UNESCO, qui est, rappelons-le, une agence de l’ONU, ont adopté la Recommandation sur l’éthique de l’intelligence artificielle, tout premier instrument normatif mondial sur le sujet.
L’application de ce texte devrait « permettre, non seulement de protéger, mais aussi de promouvoir les droits humains et la dignité humaine, et constituer une boussole éthique et un socle normatif mondial permettant d’instaurer un solide respect de l’État de droit dans le monde numérique. »
On peut cependant s’interroger sur la portée et l’application effective de ces principes, sachant que l’Unesco compte parmi ses membres des États tels que la Chine, l’Iran, l’Afghanistan ou encore la fédération de Russie, pays où la boussole éthique semble largement déréglée. États-Unis et Israël ne font par ailleurs plus partie de l’Unesco depuis 2019 (NDLD : les USA sont de nouveau membres depuis le 1 juillet 2023).
Du côté de la Chine
La Cyberspace Administration of China (CAC) vient tout juste de publier en avril 2013 un ensemble de règles s’appliquant aux modèles d’intelligence artificielle. Si l’IA n’échappe pas au contrôle de l’État chinois, les valeurs auxquelles il est fait référence sont les valeurs fondamentales du socialisme et ne doivent pas porter atteinte au pouvoir de l’État et à l’unité nationale. Les données générées par les modèles d’IA se doivent d’être « exactes et véridiques », non discriminatoires et respecter les droits de propriété intellectuelle. En cas de violation de ces règles, les entreprises se verront infliger une amende et leurs services seront suspendus. Référence : Comment les lois chinoises très strictes risquent de nuire à l’IA made in China.
Du côté des USA
Même si certains États ont mis en place des réglementations sur la protection des données, aucun cadre fédéral de régulation de l’IA n’existe aujourd’hui aux États-Unis. Conscients de la nécessité de la mise en place d’un cadre législatif dans ce domaine, les USA se limitent pour l’instant à une enquête d’opinion auprès de la population. L’Administration nationale des télécommunications et de l’information (NTIA) a lancé le 11 avril un appel à commentaires pour recueillir les avis de chacun. L’objectif est assez général : il s’agit de garantir que les systèmes d’intelligence artificielle (IA) fonctionnent comme prévu et sans causer de dommages. Les informations recueillies dans le cadre de ce RFC alimenteront les travaux en cours de l’administration Biden. Les aspects éthiques ne sont pas directement évoqués. L’approche retenue repose sur l’analyse des risques et opportunités.
Du côté de l’Europe
Conseil de l’Europe
Le traitement des risques liés au traitement automatisé des données à caractère personnel avait déjà fait l’objet dès 1981 de la signature d’une convention constituant un traité européen du Conseil de l’Europe. Les études ne manquent pas. Le Conseil de l’Europe (à ne pas confondre avec l’Union européenne) a publié, en 2017, une « étude sur les dimensions des droits humains dans les techniques de traitement automatisé des données (en particulier les algorithmes) et éventuelles implications réglementaires ». Les incidences potentielles citées sont multiples et touchent à tous les aspects des droits humains :
- droit à un procès équitable et garanties d’une procédure régulière ;
- vie privée et protection des données ;
- liberté d’expression ;
- liberté de réunion et d’association ;
- recours effectif ;
- interdiction de la discrimination ;
- droits sociaux et accès aux services publics ;
- droit à des élections libres.
Toujours au sein du conseil de l’Europe, la CEPEJ (Commission européenne pour l’efficacité de la justice) a publié en 2018, une Charte éthique européenne sur l’utilisation de l’IA dans les systèmes judiciaires et leur environnement. Cette charte vise à garantir que l’utilisation de l’IA dans les systèmes judiciaires respecte les principes fondamentaux de l’État de droit et les droits de l’homme, notamment le droit à un procès équitable et le droit à la vie privée. Notons que la fédération de Russie a été exclue du conseil de l’Europe en 2022.
Le Conseil de l’Europe finalise actuellement un traité juridiquement contraignant sur l’intelligence artificielle. Le traité exige des signataires qu’ils prennent des mesures pour s’assurer que l’IA est conçue, développée et appliquée de manière à protéger les droits de l’homme, la démocratie et l’État de droit. Ce traité pourrait inclure des moratoires sur les technologies qui présentent un risque pour les droits de l’homme, comme la reconnaissance faciale. La rédaction pourrait en être achevée fin novembre. Chaque pays devra ensuite ratifier individuellement le traité, puis le transposer en droit national, ce qui peut prendre des années…
Union européenne
Le projet AI Act
L’Union européenne se devait bien évidemment d’apporter sa pierre à la législation sur l’intelligence artificielle. Le projet AI Act, présenté en avril 2021, est issu de premières réflexions publiées en 2020 dans un livre blanc sur l’Intelligence artificielle. L’approche européenne se veut axée « sur l’excellence et la confiance ».
La Commission est résolue à favoriser les avancées scientifiques, à préserver l’avance technologique de l’UE et à faire en sorte que les nouvelles technologies soient au service de tous les Européens — c’est–à–dire qu’elles améliorent leur quotidien tout en respectant leurs droits.
Il serait mal venu d’arrêter les recherches sur l’IA et de se faire dépasser par les États qui y consacrent des montants gigantesques. Il s’agit donc d’accélérer les recherches tout en donnant confiance aux citoyens européens en leur garantissant le respect des droits et des libertés. La réglementation mise en place doit s’attaquer au déficit de confiance, combiné au manque d’investissement et de compétences. Le texte du projet AI Act (119 pages, plus 19 pages d’annexes) est consultable sur le site de l’UE. Il est très détaillé et présente de nombreuses mesures destinées à contrôler et à évaluer les IA et à les sanctionner en cas de non-conformité.
Serait-il déjà dépassé ?
🗣️ “Alors que ses créateurs voulaient un texte avant-gardiste, capable de démontrer un leadership technologique européen face aux Américains, il est aujourd’hui dépassé” ⤵️https://t.co/YaMBiCMcWg — L’Express (@LEXPRESS) April 16, 2023
L’approche retenue est une approche par les risques, consistant à classifier les IA en distinguant les « systèmes à haut risque » qui présentent un risque de « préjudice pour la santé et la sécurité » ou d’« incidence négative sur les droits fondamentaux ». Or, il s’avère aujourd’hui que les intelligences artificielles générales, telles que ChatGPT, qui ne sont pas monotâches et ont un champ d’application très large, ne peuvent de ce fait être classifiées a priori. Les audits imposés par le règlement risquent d’être difficiles à mener, voire quasiment irréalisables.
De nombreux éléments du projet de loi, tels que l’interdiction de la reconnaissance faciale et la réglementation de l’IA générative, sont ainsi très controversés, et l’UE devra faire face au lobbying des entreprises technologiques pour les édulcorer. Comme pour le RGPD, il faudra au moins deux ans avant que le projet de loi ne se fraye un chemin dans le système législatif de l’UE et n’entre en vigueur.
Le groupe de travail Open AI
Le lancement de ChatGPT a accéléré la prise de conscience européenne face au développement rapide de l’IA. Un groupe de travail dédié a été mis en place pour examiner la technologie Open AI et les risques induits en matière de protection des données personnelles.
En Europe, les débuts d’une politique commune pour encadrer l’utilisation des données par l’IA https://t.co/eisZNTfjgI — EUROPEAN EXPERTS @eeei_experts@social.legal (@EEEI_experts) April 14, 2023
Du côté de la France
Un progamme national
Lancé en janvier 2021 pour une durée de quatre ans, le programme Confiance.ai « rassemble un collectif d’acteurs académiques et industriels français majeurs des domaines de la défense, des transports, de l’industrie manufacturière et de l’énergie qui ont décidé de mutualiser leurs savoir-faire scientifiques et technologiques de pointe. » Ce programme ne propose pas lui-même une charte éthique, mais s’appuie sur la réglementation européenne. Il recommande, en particulier, d’augmenter la confiance dans l’IA générative plutôt que d’interrompre les recherches.
Un référentiel de certification
Le LNE (Laboratoire National de Métrologie et d’essais) a créé une certification de processus pour l’IA. Objectif : répondre aux enjeux de confiance et de conformité.
Chartes d’entreprise et think tanks en tout genre
Parmi les entreprises qui ont développé une charte éthique pour l’IA, citons Capgemini :
Chez Capgemini, nous pensons que les valeurs éthiques humaines ne doivent jamais être remises en cause par l’utilisation de l’IA par les entreprises. Nous voulons que les solutions d’IA soient centrées sur l’humain.
Référence : charte éthique IA
L’Institut Montaigne propose pour sa part un ensemble d’actions.
Objectif :
- « Faire de la France un leader mondial de la R & D dans la sûreté et la confiance des modèles d’IA à usage général ».
Référence : l’Europe potentielle pionnière d’intelligences artificielles éthiques
On notera également l’existence d’une « charte de Pôle Emploi pour une intelligence artificielle éthique » de 2022 où l’on retrouve les grands principes de l’humain au centre des préoccupations, équité et non discrimination, liberté de choix, transparence, sécurité et souci de l’impact environnemental…
À qui faire confiance ?
Les grandes déclarations vont bon train et n’hésitent pas à renchérir sur le yakafaukon… Mais, à qui faire vraiment confiance ? Question sans cesse reformulée. Réglementations, normes et certifications sont là pour assoir la confiance sur des bases vérifiables. À condition qu’elles soient applicables et appliquées. Certains soulignent à juste titre que l’application des lois et réglementations déjà existantes sur la protection des données personnelles et le droit d’auteur serait un premier pas à franchir, avant de rajouter de nouvelles obligations. En d’autres termes, faisons en sorte que l’IA respecte déjà les lois existantes avant d’en créer d’autres !
Vous trouverez plus d’infographies sur Statista
Jugeons sur les actes plutôt que sur les paroles.
Il faut apprendre à utiliser les systèmes d’intelligence artificielle avec plus de prudence plutôt que ralentir la recherche. La théorie critique de la raison algorithmique doit être développée parallèlement au développement technologique et en dialogue avec ses acteurs.
Autres références
Dans la Lettre d’ADELI
- L111Sp29-Intelligence artificielle, enjeux éthiques dans le domaine de la santé
- L108p40-Intelligence artificielle et éthique