Outils, IA et conscience
Comme pour tout outil, fût-ce le simple couteau de cuisine, l’utilisation de l’intelligence artificielle ne peut nullement être neutre. Jamais. Pourrait-elle nous dispenser de la responsabilité, pour chacune et chacun, de respecter des lois et une certaine morale ? Nous imaginons avoir de la morale et des lois une certaine vision universelle, bien que celles-ci puissent être relatives à une époque et une population déterminées. Dans son principe, tout le monde, ou presque, fait sienne la sentence rabelaisienne si connue : « Science sans conscience n’est que ruine de l’âme » …
Mais avant d’illustrer le sujet pour mieux comprendre les problèmes qu’il soulève, cherchons brièvement tout d’abord à mieux positionner les notions d’éthique et de morale au regard de notre vie quotidienne, des sciences, des lois…
Dans la vie, la question éthique anticipe la loi

La Liberté guidant le peuple. Eugène Delacroix, 1830 (Wikipédia.)
Nécessité d’en réfléchir et débattre
Comme sans doute dans la plupart des pays, on reconnaît en France la nécessité de débattre régulièrement des problématiques de morale, d’éthique. Ceci chaque fois que l’évolution de la vie en société ou des sciences et technologies pose des problèmes nouveaux au regard de nos normes, lois et règlements du moment.
Différentes visions et conceptions
Cependant, il existe différentes conceptions de l’éthique à travers le monde.
Dans les sociétés où l’État, au nom de la collectivité, se réclame d’une vision politique ou religieuse précise, alors la conception éthique officielle du moment est liée à la vision politique ou religieuse dudit État. Dans les sociétés où, au nom de la collectivité, l’État se revendique « pluraliste » ou « laïque », l’éthique officielle se veut alors plus dissociée des visions politiques ou religieuses du moment. Au-delà de ces deux extrêmes théoriques, beaucoup de sociétés oscillent cependant au gré du temps entre ces deux opposés.
Nul n’est censé ignorer la loi…
Concernant les lois, même si celles-ci peuvent évoluer, il semble évident pour chacun (à l’exception peut-être des frères Dalton ?) que chacun est censé respecter les lois en vigueur sur un territoire et à une époque déterminée. Sous peine de sanctions dans le cas contraire. Il s’agit de la « lettre » de la loi ou de son « esprit ». C’est une des raisons pour lesquelles il appartient d’abord à des juges, et non à des algorithmes, d’apprécier et de sanctionner le respect de la loi en vigueur.
Évolutions continues…
Concernant l’éthique, l’encyclopédie populaire Wikipédia énonce que les principes d’éthique et morale précèdent et anticipent, le plus souvent, les futures lois. On peut s’en convaincre actuellement, par exemple, en ce qui concerne l’évolution de nos notions sociétales de la souffrance animale et de la maltraitance, par exemple. Cela conduit peu à peu à une évolution de possible de notre vie et de nos lois. On peut l’illustrer aussi par notre conception des règles de santé et de nutrition quotidienne. Il en va de même, par exemple, de notre vision de la place des enfants, du patriarcat, comme du féminisme…
Morale et éthique
Nous pouvons intuitivement situer la notion de morale par rapport à notre familiarité émotive et culturelle avec les fables du grand La Fontaine (dont nous commémorions, en 2021, les 400 ans). Wikipédia précise que, si les notions et étymologies de morale et d’éthique sont très proches et familièrement utilisées l’une pour l’autre, cet usage familier serait néanmoins un certain abus de langage. Car de façon plus puriste, la notion d’éthique est celle de la science (et discipline de raisonnement) qui concerne la morale, et non cette dernière. Cette précision d’exactitude étant faite, cette distinction sera toutefois d’une importance mineure pour le sujet qui nous préoccupe à cette heure ici.
Illustrations et exemples de problématiques éthiques de l’IA
Pour aborder, dans cet article, quelques problèmes possibles d’éthique liés à l’IA, il nous est apparu plus simple de le faire au travers de quelques exemples concrets d’usages possibles de l’intelligence artificielle. Pouvant parler à chacune et chacun d’entre nous, ces exemples nous éviterons de nous perdre dans les méandres d’une théorie excessivement abstraite.
Guerres et armes létales autonomes
Le domaine militaire peut d’abord être un domaine particulièrement parlant pour chacun d’entre nous.
Convenons cependant d’abord que les problèmes de morale liés à la guerre n’ont pas attendu l’avènement de l’intelligence artificielle pour se poser. Ainsi, les bombes et missiles dirigés sur des populations civiles, dénués en principe de toute espèce d’intelligence artificielle (pour l’instant), posent pourtant déjà bien des problèmes moraux, tous les agents chimiques ou les mines anti-personnel sévissant de façon aveugle contre des populations non-militaires, y compris les enfants, des années plus tard… Des règlements internationaux et des lois sont mis en place concernant de tels phénomènes, mais ne sont pas forcément respectés, ni leurs violations efficacement sanctionnées.
L’exemple des drones volants et des robots destinés à tuer va pouvoir aujourd’hui plus particulièrement nous rapprocher, pour certains d’entre eux, des robots, des algorithmes et de possibilités d’utilisation d’intelligence artificielle. Si une partie des drones et des robots doit tout bêtement être pilotée à distance par des soldats ou officiers, de plus récents peuvent être programmés pour détruire certaines catégories de cibles de façon autonome, avec, peu à peu, le recours possible de l’intelligence artificielle.
Les technologies existent et continuent à se développer. Mais, comme pour les mines antipersonnel atteignant les enfants et les civils, quelles que soient les technologies utilisées, la question restera toujours celle de l’encadrement des conditions réglementaires et morales de mises en œuvre des techniques miliaires (comme de toute technique). N’est-il pas de notre responsabilité citoyenne et humaine fondamentale d’en décider, plutôt que de nous laisser soumettre à une loi de la jungle humaine, potentiellement moins respectueuse des lois que ne le sont les animaux, les plante et la nature en général ?
Reconnaissance faciale, auditive, reconnaissance algorithmique
L’intelligence artificielle permet à présent de mieux en mieux utiliser la reconnaissance faciale pour identifier un individu. La France et la Chine semblent particulièrement en pointe dans ce domaine, la Chine plus particulièrement pour son apprentissage massif et expérimentation…
On notera, tout d’abord, que ce n’est pas en soi la reconnaissance faciale qui peut vraiment poser problème, mais plutôt son utilisation, eu égard au respect de la vie privée et des libertés de chacun. Cette question est donc l’objet de débats intenses et nécessaires dans nos sociétés.
Concernant la reconnaissance auditive, la ville d’Orléans a, par exemple, accepté d’expérimenter pour une durée de trois ans, un système dotant chaque caméra de surveillance de la ville d’un boîtier contenant des micros dans le but de repérer, grâce à l’intelligence artificielle, des « bruits suspects » ou réputés tels. Il est à noter que, si une société privée fournit gratuitement à la ville les logiciels d’IA permettant d’analyser les sons de la ville, par contre, les données d’expérimentation et d’apprentissage du système accumulées pendant trois ans deviendront également propriétés de ladite société privée. Car c’est de cette accumulation d’expérience que pourra résulter une plus-value. Et cette expérimentation ne manque pas d’inquiéter une partie des associations et des élus…
Enfin, à l’occasion du grand rassemblement des Jeux Olympiques de 2024 à Paris, un système de « reconnaissance algorithmique des gestes suspects » sera expérimenté, avec mise en œuvre nécessaire de l’IA. Ce système, lié aux caméras de surveillance, n’a pas manqué d’alarmer de nombreux ONG et parlementaires, lesquels ont demandé son interdiction, ou au minimum le strict encadrement et la surveillance de son usage. Et, là encore, c’est moins la technologie en elle-même qui pose question que ses possibles utilisations…
Cybersurveillance, risques de dérives autoritaires et de « meilleur des mondes »…
Une partie des ONG, des associations citoyennes, syndicats et parlementaires sont « vent debout » contre une généralisation non encadrée de la mise en œuvre des nouvelles technologies et de l’intelligence artificielle à des fins de cybersurbeillance.
La littérature d’anticipation ou fiction n’a jamais manqué de nous montrer les risques potentiels de dérives menaçant le quotidien de nos sociétés. Et, avec ou sans technologies et sciences, l’étude de l’histoire, de l’anthropologie, de la sociologie et de la géographie peut nous montrer les possibles réalités de menaces contre les libertés.
Notons que la France et l’Europe ont fait ces dernières décennies de la question du respect de la vie privée, un sujet particulièrement sensible, débattu à l’échelle planétaire et objet de règlements croissants depuis quelques années, telles que le RGPD (protection des données privées, applicable théoriquement au minimum au sein de la Communauté européenne)…
Cependant, cette tendance à la protection de la vie privée semble partiellement battue en brèche par différents phénomènes et sous différents arguments :
La menace terroriste est, par exemple, utilisée pour justifier la mise en place de systèmes de surveillance électroniques très massifs. Selon certains journaux, différentes associations et chefs d’États, ces systèmes de surveillance sont susceptibles de violer les constitutions, lois et conventions internationales, comme cela avait été dénoncé par le fonctionnaire et informaticien américain Edward Snowden. Ce dernier n’ayant pas hésité à remettre en question son confort matériel et sa propre sécurité personnelle et familiale, pour pouvoir défendre à ses yeux la constitution de son pays.
L’assimilation au terrorisme de certaines formes de contestations écologiques et sociales peut être aussi utilisée pour étendre le champ de la surveillance généralisée au-delà des périmètres prévus au départ.
La sécurité sanitaire peut être également utilisée pour justifier la mise en place de visas de déplacements et autres systèmes d’identité et de surveillance, au départ strictement sanitaires, mais pouvant rapidement s’étendre à différents champs de la vie privée.
L’organisation d’événements sportifs, artistiques ou politiques nationaux ou internationaux peut être également avancée pour argumenter de la nécessité de la mise en place de tels systèmes de surveillance.
Certains détracteurs de ces systèmes de surveillance électroniques argumentent sur une certaine inefficacité de leur déploiement sans une importance primordiale accordée à la présence et au travail des êtres humains. Par exemple, un attentat à Nice d’un camion lancé contre les promeneurs sur la digue d’une plage n’aurait pas été déjoué, malgré une multitude de caméras et le fait que ledit camion était venu sur place les jours précédents pour repérer et vérifier les possibilités dudit attentat. Mais, aucun être humain n’avait alors contrôlé et signalé ces images. Selon d’autres détracteurs, alors qu’une majorité de télécommunications US auraient été enregistrées, les attentats du 11 septembre n’avaient pu être anticipés, faute de déploiement adéquat d’intelligence humaine…
Dans le même sens aussi, on pourrait aussi argumenter que, sous l’occupation, c’est le facteur humain qui conditionnait l’efficacité de la Résistance, tout comme celle de la Gestapo ou de la police vichyste de collaboration. Et non l’ordinateur et encore moins l’IA pour la simple raison que ces technologies n’étaient pas encore disponibles. Excepté certains systèmes mécanographiques utilisés pour le codage et le décodage de messages allemands décryptés par le Britannique Alan Turing.
Enfin, on assiste dans le monde à une certaine montée des régimes totalitaires, ainsi que des réglementations autoritaires dans des pays jusqu’ici réputés comme démocratiques.
Violation de propriété intellectuelle et artistique (textes, musiques, images, animations…)
La propriété intellectuelle et artistique est un vaste et important sujet de débat dans la société, traitée différemment selon les différents pays et continents et selon les époques. Cette propriété nous semble permettre de rémunérer équitablement le fruit du travail intellectuel et créateur. À l’opposé, la brevetabilité du vivant nous semble un vol perpétré à l’égard de la nature et de tous les biens communs.
D’ores et déjà, sans le recours à l’intelligence artificielle, cette propriété nous semble très largement menacée par les GAFAM, par exemple par la mise à disposition d’articles d’information et d’œuvres artistiques sans consentement ni rémunération équitable de leurs auteurs, pour ne donner que ces exemples.
Or l’utilisation inconsidérée de l’intelligence artificielle dans la création intellectuelle et artistique est bel et bien assez souvent à nos yeux un véritable pillage intellectuel ou artistique dont la loi devrait mieux établir les contours et réglementer les pratiques.
En effet, produire un tableau inspiré de Monet ou une œuvre musicale inspirée de Mozart, tout comme produire de l’information à partir d’articles déjà écrits ou de travaux intellectuels faits précédemment, devrait à notre sens être reconnu comme un emprunt aux auteurs ou aux artistes concernés… Et non pas reconnu, à notre sens, comme une œuvre pure attribuée à une « intelligence artificielle ».
Attribution de crédits financiers ou couvertures d’assurance
On a beaucoup parlé également des dérives possibles des règles d’attribution de crédits financiers (par exemple, par violation du secret médical) ou de garanties d’assurances parfois trop opaques sous de fallacieux prétextes d’informatique.
L’exigence de transparence est alors souvent revendiquée, alors que l’informatique peut jouer parfois ou souvent un rôle de paravent pour chercher à dissimuler ou justifier l’inavouable.
Alors que les règlements établissent des règles pour l’attribution de crédits et d’assurances afin de protéger le consommateur, l’argument de l’informatique et de l’intelligence artificielle peut être utilisé, tel un écran de fumée, pour dissimuler la vérité et pour utiliser des critères de détermination non autorisés par les règlements.
Circulation de véhicules autonomes
L’utilisation de l’IA pour piloter des véhicules, nommés pour cette raison « autonomes », autrement dit sans conducteur, pose bien naturellement les problèmes éthiques liés à la prévention des accidents et de leurs conséquences possibles.
De même, symétriquement et inversement, cet usage de l’IA pour piloter les véhicules est aussi parfois invoqué comme argument éthique pour la diminution des accidents pour défaillances humaines et pour la diminution de leur gravité…
Les deux aspects symétriques méritent donc études, débats et approfondissements.
Profilages sur réseaux commerçants ou numériques
L’utilisation de l’intelligence artificielle sur les moteurs de recherche, sur YouTube et les réseaux sociaux tels Facebook pour nous proposer des contenus commerciaux et publicités sans notre consentement est aussi une dérive possible de l’utilisation de l’IA.
L’IA permet de dresser de façon plus fine notre profil sur bien des réseaux. Chaque chaîne de magasin où nous sommes identifiés à notre nom comme un client, que ce soit les vendeurs par correspondance sur catalogue et internet les plus connus, ou bien les chaînes où vous acceptez une carte de fidélité pour bénéficier d’une réduction, peut ainsi étudier en détail nos profils de consommation pour ses besoins propres ou éventuellement pour le compte de tiers.
Si les études de profils sont individualisées, elles permettent alors de proposer des produits censés correspondre à ses goûts à chaque client, comme lorsque l’on navigue sur le site d’Amazon, de la Fnac ou de beaucoup de sites commerçants…
Cela sans aborder le sujet plus général des cookies numériques (micro-fichiers) déposés sur nos ordinateurs et autres assistants numériques pour mieux comprendre et tracer nos comportements. Ces cookies sont soumis en Europe à de nouvelles contraintes d’autorisation.
Les piratages (étatiques, industriels, individuels…)
Enfin, l’intelligence artificielle peut être aussi utilisée pour « pirater », autrement dit « voler » des données privées. Cela peut se faire par l’interception de messagerie et l’interprétation de nos messages, par exemple par les services de renseignement d’un pays.
Mais la façon la plus « intelligente » et « douce », encore, d’utiliser l’IA est d’étudier et de croiser des données offertes volontairement au public par les interlocuteurs eux-mêmes, que ceux-ci soient étatiques, institutionnels ou personnels. Comme, par exemple, sur différents annuaires spécialisés, des publications, des pages Facebook ou d’autres réseaux sociaux. Mais, peut-on alors dans ce cas parler de violation d’éthique, de morale, ou bien d’une exploitation adroite et licite de ce que nous avons bien voulu laisser voir au public, parfois avec de l’imprudence, de la négligence ?…
Conclusion : responsabilité des usagers et des usages de l’IA

Le robot assistant NAO (Wikipédia)
Pas d’irresponsabilité…
En conclusion de ce trop petit aperçu, nous dirons que chaque acteur, personne morale ou physique, est entièrement responsable des usages faits de quelque outil que ce soit comme de la permission donnée à d’autres acteurs de procéder à certains usages les concernant, et il ne saurait y avoir de quelconque exception au motif que l’IA serait supposée être un sujet opaque ou « à part ».
Responsabilité des individus et leurs groupements
Derrière chaque personne morale figurent des personnes physiques. Derrière chaque outil, chaque ordinateur, chaque programme, chaque système expert ou d’Intelligence Artificielle figurent des équipes et des individus nommément responsables et identifiables.
Et, malgré toutes les habitudes contraires, même les plus perverses, il nous paraît qu’aucun parapluie ne saurait pouvoir être ouvert, ni aucun prétexte invoqué, pour s’abriter derrière une supposée intelligence artificielle, un système informatique, voire réglementaire, pour justifier un usage donné contraire à l’éthique, à la morale (relatif au contexte d’espace et de temps concerné…)
Le devoir de protéger la veuve et l’orphelin
Parmi les règles éthiques et morales, il nous semble qu’il convient de respecter absolument en premier lieu l’esprit de la constitution, des lois et règlements en vigueur, et cela dans leur interprétation la plus protectrice possible du plus faible, ou réputé tel, vis-à-vis du plus fort, ou réputé ainsi…
Peut-être ces principes moraux seraient-ils pour certains considérés dépassés ? Si cela peut se discuter, pour nous, bien au contraire, ils conditionnent l’harmonie de nos civilisations, le devenir de l’être humain lui-même, de la nature, la planète, du vivre ensemble, sans lesquels la vie n’auraient plus selon nous aucun sens. Et c’est, de notre point de vue, ce souci du prochain et de l’intérêt commun qui peut nous rendre fiers, satisfaits et heureux de vivre…
Éléments bibliographiques
- Un rapport de l’ONU ravive les débats éthiques autour des drones de combat
- Systèmes de reconnaissance automatisée dans les espaces publics : le CEPD et l’EDPB demandent leur interdiction
- La Défenseure des droits alerte sur la banalisation de la reconnaissance faciale
- L’intelligence artificielle sous surveillance
- Dans la Lettre d’ADELI :
- Intelligence artificielle et éthique par Véronique Pelletier
- Intelligence artificielle, enjeux éthiques dans le domaine de la santé par Odile Thiéry
Propositions de normalisation et certification de l’IA
- IEEE
- ISO
- AFNOR : groupe miroir de l’ISO sur l’intelligence artificielle
- CEPEJ : Charte éthique européenne d’utilisation de l’intelligence artificielle dans les systèmes judiciaires
- Union européenne : Ethics guidelines for trustworthy AI
- Unesco : Avant-projet de recommandation sur l’éthique de l’intelligence artificielle