L’IA ou la nécessité d’un cadre
Professeur en IA et éthique à Sorbonne Université, Laurence Devillers est responsable de la chaire HUman-MAchine Affective Interaction & Ethics. Elle poursuit un travail de recherche en IA pour le LISN, Laboratoire Interdisciplinaire des Sciences Numériques à Saclay. Membre du Comité National Pilote d’Éthique et du Numérique (CNPEN) et autrice, elle porte un regard transversal sur les pratiques du numérique dont l’IA.
Quel est votre champ d’étude ?
Je travaille avec une équipe sur l’interaction humain/machine avec des objets capables de détecter nos émotions. L’idée est de déterminer ce qu’est le nudge digital.
Nudge digital ?
Le nudge issu des travaux de Cass Sustein et Richard Thaler repose sur l’idée que l’on peut orienter les intentions des gens, en prenant en compte leurs biais cognitifs. Cette technique très utilisée est aussi appelée soft manipulation. La publicité fait partie du nudge et le digital augmente ce phénomène. Grâce à des expériences menées avec des enfants et des adultes, pour comprendre l’influence de la machine sur l’humain, il est ressorti qu’en majorité, il change souvent d’avis face à elle. C’est une mauvaise nouvelle.
Quel impact sur l’IA ?
Les nouveaux systèmes permettent aux IA génératives d’apprendre par elles-mêmes, mais n’ont pas d’intention propre. C’est cette intention qu’il faut interroger afin d’évaluer l’ensemble. La coproduction homme/machine pose la question du droit d’auteur, de l’antériorité et de la légitimité du statut de l’artiste. Qui décide des paramètres à intégrer dans la machine ? Quelle est l’incidence d’une œuvre générée par IA ? Aujourd’hui, des recherches sont menées sur des modèles multitâches, multimodaux, multilingues, donc extrêmement puissants. C’est fabuleux, mais si on ne l’explique pas à l’utilisateur, c’est manipulateur.
« Il y aura toujours des biais : un système comme Chat GPT3.5, entraîné à 80 % sur du contenu en anglais, laisse moins de 5 % au contenu en français qui, de fait, peut se voir invisibiliser. C’est une discrimination. »
Comment déjouer les biais de l’IA ?
Il y aura toujours des biais. Un système comme Chat GPT3.5, entraîné à 80 % sur du contenu en anglais, laisse moins de 5 % au contenu en français qui, de fait, peut se voir invisibiliser. C’est une discrimination. Nous avons une histoire et une culture, tout comme les 27 pays d’Europe. Il s’agit de prendre conscience de cette richesse et de ne pas tout standardiser. Or, nous sommes tous discriminants, et une IA traite pixels, statistiques et algorithmes sans réfléchir, elle est le contenu de ce que l’on décide d’y mettre. L’humanité de l’IA vient de nos données. Peut-être que l’IA permettra de mieux faire comprendre la notion de biais cognitifs, ce serait déjà une étape.
J’ai lu que Microsoft s’engage à couvrir ses clients en cas de procès…
C’est inacceptable. Juste de le dire est irresponsable. Si on ne maîtrise pas l’outil que l’on met dans les mains de tout le monde, si l’on ne sait pas définir quand il est en émergence ou en hallucination, tout est possible, le pire comme le meilleur. À ceux qui réclament plus de liberté pour plus d’innovations, il est essentiel de fournir des explications aux utilisateurs pour offrir une meilleure compréhension des conséquences de ces outils. Ce que disent les chercheurs, c’est qu’il faut réguler. Ceux qui disent le contraire sont dans une logique de profit personnel.
Quid de l’IA Act * ?
Il a le mérite d’exister et propose une réglementation, peut-être imparfaite, mais qui énonce la nécessité de poser des contraintes. Nous n’en sommes qu’au début et avons deux ans avant sa mise en œuvre. Il sera aussi soumis au vote, et peut-être qu’il n’aboutira pas. Seule certitude, il faut un minimum de transparence et d’évaluation sans quoi on va droit dans le mur !
* Le 8 décembre 2023, les États membres de l’Union européenne (UE) et le Parlement européen se sont accordés en signant, l’« IA Act », sur une nouvelle législation concernant la régulation des IA, selon une approche fondée sur le risque.
Source du visuel principal : Laurence Devillers.