Estelle Hary, designer et co-fondatrice du studio Design Friction, doctorante au sein du RMIT University et affiliée au Centre de recherche en design, aborde plus spécifiquement l’IA générative, qui entre dans le champ de l’apprentissage automatique qu’elle définit comme « des algorithmes qui font ressortir des sortes de vérité statistique et les réappliquent à d’autres données ». Le secteur public s’intéresse aujourd’hui particulièrement aux LLM (Large Langage Model, en Français : grands modèles de modèles de langage) dont Estelle rappelle qu’ils produisent des résultats relevant du probable et non pas d’une vérité absolue (sur le modèle probabiliste et ses incidences, écoutez cet épisode du Code a changé !)
La mise en place d’IA générative dans l’action publique pose d’abord la question de l’accès et de l’exploitation des données (sans données, pas d’IA !), avec 4 situations possibles :
- Les données sont accessibles et exploitables (par exemple, pour entraîner le LLM Albert, la DINUM utilise les fiches de service-publics.fr qui sont en open data et dans un format facilement exploitable par des machines).
- Les données sont accessibles mais pas directement exploitables (telles que les informations disponibles sur les sites administratifs). Il faut alors faire un travail préalable de récupération et de qualification des informations afin de pouvoir les utiliser.
- Les données ne sont pas accessibles mais sont exploitables, par exemples celles détenues par d’autres administrations. Cela pose la question du partage de ces données entre administration, partage qui est censé être facilité avec la Loi 3DS adoptée en 2022 dont l’esprit est dans la lignée du dispositif « Dites-le nous une fois ».
- Les données n’existent pas, il faut les créer ou abandonner le projet d’IA.
Dans 3 cas sur 4, il faut donc mettre en place des nouveaux processus techniques et organisationnels et faire appel à des compétences spécifiques, par exemple des data scientists pour travailler les données et les modèles d’IA ou des juristes spécialisés dans le numérique pour s’assurer de la conformité du traitement de données. Des compétences dont ne disposent pas toujours les administrations.
Autre problématique importante liée aux données, celle de leur périmètre et leur maintenance, ayant un impact direct sur la pertinence des résultats produits par une IA générative. Albert, par exemple, qui est en expérimentation dans des Maisons France Services, n’a pas, à l’heure du webinaire, d’informations sur des dispositifs spécifiques à chaque territoire (régions, départements, etc.), car aucune données relatives à ceux-ci ne sont incluses dans le jeu d’entraînement du modèle, même si ces informations pourraient être utiles aux conseiller.e.s France Service. Se pose également la question de la maintenance et la mise à jour de ces données dans le temps, véritable défi technique et organisationnel tant la matière administrative et législative évolue vite. Faudra-t-il faire désapprendre aux LLM une connaissance au profit d’une autre à chaque fois qu’un dispositif évolue ? Et comment le faire en pratique ?
Estelle aborde également les effets de l’IA générative sur le travail, à travers l’exemple des conseiller.e.s des Maisons France Services, qui accompagnent les usagers dans l’accomplissement de diverses démarches administratives et sont ainsi amené.e.s à consulter, confronter et synthétiser différentes sources d’information. Avec Albert, le ou la conseiller.e pose directement une question à l’outil, puis transmet à l’usager.e la réponse générée. Ce changement de pratique induit plusieurs problématiques :
- l’apprentissage de l’outil LLM, qui ne fonctionne pas comme un moteur de recherche et suppose de formuler la bonne question (l’invite ou le prompt)*, cette formulation ayant un impact sur la qualité et la pertinence de la réponse (cet apprentissage devant être réitéré à chaque mise à jour du modèle) ;
- les enjeux de confiance et d’esprit critique à conserver face aux réponses générées par les LLM qui ne sont pas toujours fiables. Tout en étant vraisemblables, ces réponses peuvent comprendre des oublis ou des hallucinations (invention de faits ou d’informations)… Ainsi, dans le cadre de l’expérimentation, les conseiller.e.s France service sont invité.e.s à utiliser l’outil sur des tâches ou questions qu’ils ou elles maîtrisent pour pouvoir vérifier la véracité des réponses, mais que se passerait-il dans le cas contraire ? Un mécanisme de citation des « sources » (fiches service-public.fr) est notamment testé pour que la ou le conseiller.e puisse vérifier rapidement l’information. Parmi les autres pistes envisagées figure la mise en place d’un score de confiance sur la réponse ou la possibilité pour Albert de dire « je ne sais pas ».
- les nécessaires « feedbacks » (retours) sur la qualité des réponses fournies par Albert pour l’améliorer. En effet, l’amélioration des modèles de LLM repose en grande partie sur les retours faits par leurs utilisateurs (mécanisme d’apprentissage par renforcement à partir de rétroaction humaine – RLHF) ce qui équivaut à produire des données d’évaluation des réponses générées, via un retour de l’agent.e sur la qualité perçue de la réponse (en l’occurrence un clic + ou -). Cela constitue un nouvel exemple de déplacement du travail lié à l’IA. Parfois cette production de données nécessite même la création d’un service dédié, à l’image de celui mis en place par la Cour de Cassation pour vérifier la pseudonymisation de décisions de justice par un algorithme. Estelle invite ainsi les administrations qui souhaitent développer une IA à se demander quels impacts cela va voir sur les métiers existants, et quelles nouvelles tâches et nouveaux métiers cela va requérir … À titre d’exemple, l’IGN, qui s’est engagé dans un gros effort de reconnaissance d’images aériennes, pointe le risque de ne pas avoir formé suffisamment de personnes (et anticipé ce besoin de formation) pour reconnaître les arbres en télédétection et annoter les bonnes informations sur les images.
Elle conclut par une réflexion plus large, notamment sur les enjeux éthiques de l’utilisation de l’IA par les services publics : la logique probabiliste d’un LLM pouvant fournir des réponses différentes à des personnes différentes pour une même question pourrait porter atteinte au principe d’égalité devant le service public ou quid de la responsabilité des administrations de ce qui est généré par un LLM : car qui est responsable dans le cas d’un chatbot qui participerait à une décision administrative ou expliquerait à un usager comment contourner la loi ou ne pas payer des impôts (comme l’a fait récemment un chatbot de la Ville de New York) ? Sur ce dernier point, ne vit-on pas avec l’IA une inversion de la charge de la preuve, où il revient à l’administré.e de faire la preuve que l’administration se trompe, alors qu’avant, c’était à l’administration de justifier sa demande ?
*On vous recommande d’ailleurs cet article intéressant sur les manières de pirater les IA via ces fameux prompts.