L’intelligence artificielle (IA) est aujourd’hui omniprésente dans notre vie quotidienne. Et ce, de la reconnaissance vocale sur nos téléphones à la conduite autonome de nos voitures, en passant par la génération de contenus variés. Inutile de rappeler la rapide montée en puissance de ChatGPT et Midjourney, ou encore, l’engouement pour le deepfake. Cependant, l’IA n’est pas infaillible et suscite des craintes comme des questions quant à ses limites, au sens littéral et figuré. Peut-elle faire preuve de créativité ? Y a-t-il des limites éthiques à son utilisation ? Pour en savoir plus, nous explorons les défis actuels et futurs de cette technologie, aux côtés de Lionel Prevost et Manuel Clergue, tous les deux enseignants-chercheurs au Learning, Data & Robotics Lab de l’ESIEA.
Entretien avec Lionel Prevost et Manuel Clergue, enseignants-chercheurs au Learning, Data & Robotics Lab de l’ESIEA
JUPDLC : Aujourd’hui, l’intelligence artificielle est partout. Elle crée des tableaux, écrit des livres, assiste nos médecins, aide les enquêteurs et les magistrats américains à rendre des jugements. Assistons-nous à un tournant technologique comme sociétal ?
Lionel Prevost : Jusqu’à récemment, les algorithmes d’IA étaient essentiellement prédictifs, qu’il s’agisse de diagnostiquer une pathologie ou de décider d’accorder (ou non) un prêt bancaire. L’usage de l’IA était un peu invisibilisé en fait. Or, quand vous faites une requête sur un moteur de recherche, utilisez un assistant vocal ou cherchez une série sur Netflix, c’est un algorithme prédictif qui fait le job.
C’est l’apparition récente des IA dites génératrices qui modifie la donne. Elles portent ce nom car elles génèrent des contenus : du texte (ChatGPT), des images (MidJourney)… Et ont été adoptées à une vitesse folle par les utilisateurs. Il a fallu plus de 3 ans à Netflix pour atteindre le million d’utilisateurs et seulement 5 jours à ChatGPT !
Parmi ces utilisateurs, j’ai identifié trois profils :
- Les « testeurs », nombreux, parfois experts, qui poussent l’algorithme dans ses retranchements, pour trouver ses failles.
- Les « glandeurs », parfois étudiants, qui voient – à tort – dans l’algorithme un moyen de se décharger d’une partie de leurs tâches.
- Les « pros » (ex-testeurs !) qui ont compris qu’effectivement, ce dernier pouvait leur faire gagner un temps précieux.
JUPDLC : Quels sont les espoirs soulevés par l’IA ?
Manuel Clergue : Ils sont nombreux. Dans la médecine prédictive, par exemple, l’IA peut détecter dans une image médicale (scanner, IRM …) des détails ou des motifs d’une finesse invisible à l’œil humain. Ce qui permet de prévenir une pathologie à un stade beaucoup plus précoce, améliorant d’autant plus l’espoir de guérison.
Plus généralement, de la même façon que la mécanisation a permis d’effectuer des travaux physiques plus rapidement – voire de réaliser des tâches inaccessibles à l’Homme – l’IA permet déjà d’assister l’Homme dans des tâches intellectuelles.
JUPDLC : Quelles sont ses limites ?
Manuel Clergue : Pendant longtemps, le manque de données et la faible puissance de calcul des ordinateurs ont bridé les capacités des algorithmes. De nos jours, il est possible de déployer, via des serveurs de calcul, une puissance phénoménale. Mais le coût à moyen terme est extrêmement lourd. Des projections récentes montrent qu’en 2050, le numérique consommera la moitié de la production électrique mondiale, nous laissant comme seule alternative, en forçant le trait, de nous éclairer à la bougie ! Et le tout émettra une quantité phénoménale de carbone… Sale temps pour la planète !
JUPDLC : Cédric Villani, mathématicien et auteur du rapport « Donner un sens à l’intelligence artificielle » (2018), explique sur France Inter que l’IA « n’est pas de l’intelligence. Ça s’apparente plus à de la statistique ». Est-ce que c’est « juste » un algorithme ? Comment qualifiez-vous l’intelligence artificielle et comment fonctionne-t-elle ?
Lionel Prevost : Je nuancerai le propos de Mr Villani. L’IA est un algorithme capable de simuler ce qui est à l’origine de l’intelligence : la capacité d’apprentissage de l’Homme. Et comme nous, cet algorithme est capable d’apprendre à partir d’observations répétées et en corrigeant ses erreurs s’il est bien supervisé (encadré par un professeur). En revanche, contrairement à nous qui apprenons à partir de très peu d’observations (montrez quelques chats à un enfant et il identifiera tous les chats qu’il croisera dans la rue), l’algorithme a besoin d’une quantité phénoménale de données pour apprendre correctement.
JUPDLC : Derrière ces algorithmes, se cachent donc des hommes. Autrement dit, l’intelligence artificielle peut être biaisée. Quels sont les défis en termes d’éthique et de responsabilité ?
Manuel Clergue : Les biais sont avant tout présents dans les données. Si ces dernières sont en quantité réduite, elles risquent de ne pas reproduire la réalité. L’algorithme ne sera donc pas capable de traiter correctement toutes les situations qu’il peut rencontrer. À ce sujet, il a été démontré il y a quelques années que les performances des algorithmes de reconnaissance faciale de Facebook chutaient drastiquement quand le sujet était une femme afro-américaine. La faute aux données utilisées pour entraîner ces algorithmes qui ne contenaient pas assez de sujets de ce type. Mais l’humain, et ses préjugés, peut aussi générer des biais. On l’a constaté aux USA quand ont été utilisés des algorithmes de recrutement qui défavorisaient certains types de candidats, peu appréciés des recruteurs qui avaient collecté les données nécessaires à l’entraînement de l’algorithme.
JUPDLC : Comment l’ESIEA sensibilise-t-elle ses étudiants à ces sujets ?
Lionel Prevost : Nous organisons tous les ans un workshop d’une journée intitulé « AI for society » où les étudiants réalisent des exposés sur des sujets brûlants de l’IA et débattent en compagnie d’enseignants-chercheurs. Nous faisons aussi régulièrement intervenir des experts, académiques ou industriels, afin de les sensibiliser à ces questions. Enfin, mais ce n’est pas généralisé à l’ensemble des étudiants, nous dispensons des cours d’éthique, de gouvernance et de sécurisation des données.
JUPDLC : Comment les gouvernements et les entreprises peuvent-ils réglementer l’utilisation de l’intelligence artificielle ?
Lionel Prevost : Légiférer sur ou réglementer un secteur en évolution rapide est complexe. Le « temps juridique » est, par définition, long. La commission européenne planche depuis plusieurs années sur la question et n’a pas encore été capable de se mettre d’accord sur ce qu’était l’IA ! Néanmoins, la communauté scientifique mondiale est de plus en plus convaincue de la nécessité d’établir un certain nombre de principes éthiques avec éventuellement une institution destinée à veiller sur le respect de ces principes (comme la CNIL pour la collecte et l’enregistrement des données personnelles).
Manuel Clergue : Parmi ces principes, citons : la transparence (droit de savoir que c’est une IA qui traite la requête) et l’obligation de donner accès au code pour que des experts puissent l’analyser, droit à l’explication (comment a été produit ce contenu)… Se pose aussi la question des droits d’auteur : les algorithmes actuels se nourrissent de milliards de données produites par des humains sans que ceux-ci aient forcément donné leur accord.
JUPDLC : En parallèle de leur montée en puissance (ChatGPT en tête), un nouveau métier fait couler beaucoup d’encre : le Prompt Engineer. Savoir « murmurer » aux oreilles de ces technologies devient donc une compétence qui se monnaye, de plus en plus prisée sur le marché de l’emploi. Quel est votre avis sur cette profession ? Peut-on la qualifier de « métier d’avenir » ? De quoi s’agit-il exactement ?
Manuel Clergue : Un métier d’avenir jusqu’au prochain métier d’avenir ! Avant les moteurs de recherche « intelligents », écrire une requête de recherche d’information était déjà une compétence reconnue.
Plus que le « prompt engineering », ce qui va être recherché c’est le « result selecting » : parmi toutes les propositions générées par l’IA, choisir la plus juste, la meilleure, la plus cohérente avec ce qu’on cherche. De toute façon, autant sur le prompt que sur la sélection, cela demande des compétences fortes.
Par exemple pour la génération d’image, un artiste, avec une connaissance et une culture importante sera capable d’écrire le bon prompt, parce que les données à partir desquelles l’image sera générée appartiennent à la culture de l’humanité. De même il sera capable de sélectionner la bonne image, celle qui lui parle et celle dont il pense qu’elle véhicule son message.
JUPDLC : Comment l’ESIEA forme-t-elle ses étudiants à ce genre de débouchés ?
Lionel Prevost : En tant qu’école du numérique, nous formons des ingénieurs qui vont être confrontés à l’utilisation de ces outils dans le cadre de leur travail. Soyons honnêtes : cette dernière révolution est trop récente pour avoir le recul nécessaire. Mais nous réfléchissons actuellement à la meilleure manière de former à l’utilisation de ces outils sans compromettre l’acquisition des compétences de base, seule garante de leur usage rationnel.
Terminons par un point essentiel, presque vital : les humains doivent garder la maîtrise de leurs compétences et utiliser ces outils comme des outils ! Ils doivent surtout ne pas perdre leur capacité à raisonner. C’est une capacité qui s’apprend et qui s’entretient. De la même façon qu’un humain qui ne marche plus et n’utilise que sa voiture perd sa bonne condition physique, un humain qui n’utiliserait que des assistants perdra sa capacité à réfléchir, à ressentir, à raisonner, bref tout ce qui fait de lui un humain.
Manuel Clergue : On en revient au bon vieux « Mens sane in corpore sano » (« un esprit sain dans un corps sain ») énoncé par Juvenal au premier siècle de notre ère… Ce qui montre que le débat ne date pas d’aujourd’hui.
Pour en savoir plus sur l’ESIEA, rendez-vous sur sa page dédiée !