Confiance numérique des Français – Baromètre 2019

Conférence ACSEL sur la confiance numérique des Français

Initialement prévue le 10 décembre 2019, cette conférence a été reportée et s’est finalement tenue le 25 février 2020 juste à temps avant un report qui aurait cette fois été dû au coronavirus. Jacqueline Doljansky-Sidi y a assisté et nous en propose un compte-rendu.

Confiance numérique

Des vidéos de la conférence sont, par ailleurs, disponibles sur YouTube.

Key note : IA et Interaction Humain-Machine, les leviers de la confiance numérique

Laurence Devillers, Professeure en Intelligence Artificielle à la Sorbonne, membre du Copil Numérique et IA du Comité consultatif national d’éthique, auteure de 2 ouvrages « Intelligence artificielle : Enquête sur ces technologies qui changent nos vies » 2018 et « Les robots émotionnels » mars 2020.

Laurence Devillers s’intéresse en particulier à l’interaction vocale avec les machines : comment faire pour que les machines nous comprennent et comment créer des machines utiles pour tous ?

Dans l’imaginaire populaire, il va y avoir des robots qui vont détecter nos émotions dans nos voix et dans nos comportements… mais en laboratoire ce ne sont pas des sujets terminés car il n’existe pas de système assez robuste en qui il est possible de faire confiance. Malgré tout,  sur le marché arrivent des applications produites par des start-ups et, dans les journaux il est écrit que les robots comprennent ce que nous disons, qu’ils ont une conscience et des émotions.

Il y a des mythes qui vont se retourner contre nous : l’image du robot c’est Frankenstein, le Golem, des robots effrayants. Au Japon, les robots sont les amis de l’homme : ils vont sauver l’humanité.

Les robots qui ont des émotions existent dans la science-fiction, or la science-fiction précède la science.

Les réseaux neuronaux servent à l’évaluation des systèmes de dialogue. Laurence Devillers a développé de nombreuses applications, par exemple en médecine, pour la banque. Pour cela, elle s’appuie sur des données de terrain pour travailler sur les émotions, comme avec le SAMU. Elle refuse les émotions des laboratoires qui sont hors contexte.

L’IA, qui englobe un grand nombre de disciplines différentes ayant toutes pour objectif de simuler les capacités cognitives de l’homme, a connu un développement en plusieurs phases :

  1. à partir des années 1950 jusqu’en 1990, il y avait les systèmes experts : les règles étaient données par l’humain,
  2. ensuite il y a eu l’apprentissage statistique avec la collecte des données pour créer des modèles,
  3. puis c’est l’apprentissage à partir des données mais sans comprendre,
  4. dans la période actuelle, l’armée américaine est leader sur les thèmes de transparence, d’efficacité et de loyauté : l’éthique de ces machines.

Le « Deep learning » existe depuis 1992. Cela a permis de gagner en puissance de calcul mais pas sur les concepts fondateurs qui restent les mêmes et qui datent des années 1943, 1949, 1957, 1987.

Ce que la machine sait ou ne sait pas faire

Les Processus de pensée de l’humain incluent des aspects que la machine ne sait pas effectuer :

  • la déduction qui est impossible car l’univers est trop large ;
  • l’induction : on sait faire à partir d’exemple mais on ne comprend rien à ce qu’on fait, l’apprentissage statistique est une boite noire ;
  • l’intentionnalité pour appréhender des phénomènes : c’est ce qu’on appelle l’apprentissage par renforcement, par exemple le robot apprend en regardant son environnement ;
  • l’analogie : Google montre avec succès des textes intéressants sur des analogies ;
  • le raisonnement pas abduction : la machine ne sait pas inférer un fait probable à partir d’un fait observé ;
  • l’intuition, la compréhension, la créativité et l’imagination, la machine n’en a pas du tout :
    • La compréhension a besoin du sens commun, ce que la machine comprend est totalement différent de ce que nous comprenons,
    • la créativité et l’imagination : il existe des systèmes pour l’art. Il est possible de créer des choses nouvelles car la machine crée à l’infini, mais c’est à nous de trouver ce qui est intéressant dans ce qu’elle produit.

Un chat-box est un agent conversationnel : il capture du signal, analyse les informations et décide d’une réponse qu’il va générer. Il est facile de tromper les humains avec cela. Les premiers systèmes reprenaient vos mots : par exemple si vous dites «  Mon fils va bien », la réponse du robot était « Ah votre fils » et si le système ne comprenait rien et il répondait «  je vous ai compris ». Aujourd’hui on met plus de capteurs sur l’environnement mais le problème n’est pas résolu pour autant.

Le robot empathique est un sujet à la mode, il va permettre d’énormes progrès tant sur les valeurs économiques et de solidarité que sur les avancées sur la connaissance de l’humain. Mais cela comporte beaucoup de risques. L’« affective computing », est née en 1997 au MIT et Laurence Devillers y travaille depuis 2000.

Pour détecter les émotions dans le comportement des humains, générer un système de dialogue il faut chercher des signaux dans la modulation de la voix ou sur le fasciés. Mais il faut faire attention aux données : cela fonctionne bien en laboratoire mais dans les maisons de retraites cela ne fonctionne pas car les rides sont prises pour des sourires. Une expérience a été faite sur la définition du stress sur un groupe d’étudiants, le résultat a été que le meilleur indicateur de stress est la salive. C’est difficile de définir un standard, car chacun de nous est trop différent. Il faut prendre en compte le mélange des signaux faciaux, audio, gestuels, posturaux, physiologique… Pour créer un profil émotionnel et interactionnel et pour définir une stratégie du dialogue, il faut prendre en compte un domaine mitigé et complexe.

Les robots présentent un intérêt dans le domaine de la santé : on voit des chat-box et des robots qui servent à aider les enfants autistes, les personnes âgées. Mais il existe des risques : trop grande addiction, manipulation…

Nous sommes des animaux sociaux,  nous vivons grâce à une interaction avec les autres. Des chercheurs travaillent sur la recopie de l’humain : mettre de la douleur ou du plaisir dans le robot, démontrer de l’affection, avoir des intentions propres à la personne. En anthropomorphisant les machines autour de nous, surtout si elles nous ressemblent, nous risquons de nous y attacher ou de nous projeter sur ces machines, c’est dangereux, il faut faire très attention.

Ce sont les voix de femmes, les visages de femmes, les corps de femme qui ont la préférence. Mais il faut faire attention à la représentation de la femme.

La manipulation, c’est-à-dire inciter à faire des choses que l’humain n’aurait pas fait par lui-même, a toutefois des aspects positifs : une meilleure hygiène, un meilleur respect de l’autre. Mais attention à l’intention malveillante ou commerciale, par exemple, Google home commence à suggérer des choses, ou encore lors d’une recherche en ligne d’un hôtel, la  petite ligne rouge qui vous indique que 25 personnes regardent la même chambre vous incite à la réserver immédiatement. Cette manipulation est d’ailleurs illustrée dans la nouvelle primée en 2019 et éditée par ADELI : « L’amour tout un programme » par Cédric Teixeira.

Pour obtenir et conserver la confiance numérique des Français, il reste à trouver les meilleures façons d’utiliser les données et ces systèmes en développant des outils pour vérifier les comportements.

Eneric Lopez, Director artificial Intelligence & Developers, Microsoft France

Eneric Lopez a rappelé que Microsoft s’est engagé depuis 2018 dans une mobilisation collective, avec les acteurs de l’écosystème, pour contribuer à une IA au service de l’intérêt général :

  • stimuler, à travers des réflexions et des propositions concrètes, le développement d’une IA de confiance : neutralité des algorithmes, éthique dans la conception et le développement de l’IA, inclusion et diversité, sensibilisation et éducation au numérique…
  • identifier et soutenir la réalisation de projets innovants destinés à répondre aux grands enjeux sociétaux et à l’intérêt général dans des secteurs aussi variés que le transport, l’environnement, l’agroalimentaire ou encore la santé. Ces projets bénéficieront d’un soutien technologique et financier de la part des membres d’Impact AI.

Cédric O, Secrétaire d’État, chargé du Numérique

Cédric O a identifié trois priorités :

  1. Faire émerger les champions
    La Chine a le PABX, les États-Unis les  GAFA. L’Europe doit avoir ses propres champions numériques. Elle ne peut pas se contenter de la réglementation avec le RGPD.
  1. Réguler
    Il faut faire respecter le droit économique et l’État de droit de la protection des citoyens. Pour cela il faut mettre à jour nos cadres réglementaires et outils.
  1. Inclure tout le monde dans le numérique
    Un Français sur cinq, soit 13 millions de Français de tous âges, jeunes et vieux, se sentent mis de côté dans ce monde numérique. Il faut penser le service public multi canal : garder les lois physiques, réintroduire des numéros de téléphone. Il s’agit de la transformation numérique de l’État.
Print Friendly, PDF & Email
Partager cette page
Publié dans Intelligence artificielle & collective et marqué , .