Ce proche de Gabriel Attal ambitionne notamment de développer un outil, un chat GPT à la française, à destination des services de l’État pour accélérer les procédures et décharger les agents des tâches les plus rébarbatives, les moins valorisantes, leur débloquer du temps “pour être encore plus au contact du public”, défend son entourage.
Parmi les pistes, ses équipes imaginent très concrètement de faciliter le partage des dossiers médicaux entre plusieurs hôpitaux. Aujourd’hui des établissements utilisent encore le fax ! Autre idée : faciliter le dépôt de plainte auprès des forces de l’ordre, qui ne dépendent pas directement du ministère de la Fonction publique. Cette intelligence artificielle pourrait enregistrer notre témoignage pour le retranscrire bien plus rapidement que quand un policier est obligé de tout taper à la main. Dans la justice aussi, l’outil pourrait résumer en quelques minutes un dossier long comme le bras.
Le désastre total dont on parle est le résultat de décennies de détricotage des services publics. Dans la bouche du ministre de la Fonction Publique, la technique n’est qu’un cache-misère qui sert à justifier davantage encore de désengagement de l’État. Il entretient l’idée mensongère d’un solutionnisme technologique qui prétend résoudre tous nos maux à coups de techniques immatures et promues par des gens sans scrupules qui raisonnent en termes de ROI sur leurs investissements financiers.
On pouvait déjà permettre le dépôt de plainte sans passer par le commissariat avec les techniques existantes. Les LLM n’y changent rien et ce n’est pas ce dont parlent le ministre ou Xavier Niel. Leur propos est d’imaginer un gain de temps (et de productivité) si l’on transcrit automatiquement ce que disent les plaignants, au lieu de rédiger soi-même. Or les IA ne peuvent pas remplacer la nécessité d’accueillir les victimes, de les écouter, de les aider à exprimer et formuler ce qu’elles ont vécu et de les orienter dans la recherche d’une réparation. C’est d’ailleurs la promesse : être plus au contact du public. Ces gens qui se croient géniaux n’ont sans doute jamais conduits, transcrits ou analysés d’entretiens de leur vie : d’abord un entretien ne fonctionne pas sans un interlocuteur compétent ; ensuite les IA de transcription font beaucoup de coquilles, il faut repasser derrière ; enfin la parole orale est bien plus difficile à analyser et interpréter qu’une déclaration rédigée pour formaliser un témoignage.
Tant mieux si l’on équipe les fonctionnaires d’outils éprouvés pour comprendre une victime dans sa langue maternelle. On pourrait tout de même regretter que cela prenne la place des interprètes qui savent traduire bien au-delà des mots. Quoiqu’il en soit, cela ne dispensera pas de former à l’écoute et à la législation. Pour le reste, si le propos est d’accepter que les fonctionnaires de police puissent être analphabètes, ce n’est pas un progrès. Comme le développait récemment Morozov pour Le Monde Diplomatique, tant qu’on concevra l’IA comme un moyen d’augmenter des individus diminués, on passera complètement à côté. Ces techniques pourraient sans doute être conçues et mises en œuvre pour nous améliorer, mais ce n’est pas ce dont on nous parle ici.
Quant aux benchmark, effectivement on parle de taux d’erreur entre 1% et 3% dans le cas des RAG. Dans bien des applications, un tel taux reste trop important. Par ailleurs, tant que les utilisateurs ne comprendront pas le fonctionnement de ces outils et croiront dialoguer avec une entité intelligente, ils seront incapables d’évaluer la pertinence de la réponse à un prompt. Savoir que le LLM ne traite que le texte, ne sait pas forcément traiter des données tabulaires et encore moins des données présentées sous forme de graphique (format image) est indispensable. Quand bien même, sans expertise sur ce qu’on lui demande de produire, on se contente d’un rapport magique à la technique, on ne peut pas discerner les réponses correctes de celles qui ne sont que plausibles. Or avec l’expertise nécessaire, l’IA n’apporte pas forcément de gros gains de productivité… A supposer qu’être plus productif soit souhaitable si cela signifie s’épuiser en multipliant encore les tâches et la quantité d’information à traiter au quotidien.
Le choix c’est pas entre IA et police humaine parfaite, c’est entre IA et la police qu’on a, avec encore moins de budget.
L’expérience de ma compagne japonaise c’est que la place dont tu parles est généralement vide et remplie par un fonctionnaire qui s’en fout et qui ne parle même pas anglais.
Source?
Le problème des benchmarks, c’est qu’ils sont là pour tester des différences de performances entre modèles. Ils sont faits pour être durs plutôt que réalistes. Un benchmarks qui te donnerait 100% ou 99.99% de succès, on le jetterait à la poubelle car il ne permet plus d’évaluer les progrès, et on en assemblera un nouveau avec les 0.01% d’erreur.
Ce qu’on demande en l’occurrence, c’est d’avoir un taux d’erreur inférieur au taux humain. Ce qui me semble extrêmement atteignable vu le niveau des policiers.
La dernières newsletter de Benoit Raphael citait ce chiffre sans le sourcer. Mais peut être l’avait il obtenu par une IA qui l’aura trouvé plausible :-p
Il ne s’agit pas d’avoir une police parfaite, mais d’agir pour relever le niveau plutôt que dilapider l’argent public en surveillance vidéo algorithmique et équipements et formation de répression ultra-violente. L’état de la police française, tout comme celui de l’hôpital ou de l’école, on le doit aux politiques qui décennie après décennies ont discrédité les services publics pour justifier de leur retirer les moyens de travailler et l’autonomie d’action nécessaire.
Même pour éclairer les décisions, on glorifie (et on arrose) les cabinets de conseils plutôt que de s’appuyer sur l’expertise de nos chercheurs. Il faut dire qu’à l’Université, on est aujourd’hui trop occupés à répondre à des appels à projet afin de trouver l’argent nécessaire pour faire notre métier… Donc comme ailleurs, au final, des IA feraient sans doute aussi bien.
Il n’est écrit nulle part que cette voie soit la seule possible. Comment peut-on penser qu’il s’agirait aujourd’hui de choisir entre IA et notre police actuelle, comme s’il n’y avait pas d’autres possibilités ? Comme je l’écrivais il y a quelques mois, Présenter l’IA comme une évidence, c’est empêcher de réfléchir le numérique. Il est urgent de réaliser que la technique doit être débattue sur un plan politique, qu’elle ne va pas de soi et que nous n’avons pas à accepter benoitement les prophéties auto-réalisatrices des milliardaires technophiles qui fournissent les éléments de langages à nos dirigeants.
Mais on sait très bien que l’équipe actuelle a pas l’intention de mettre plus d’argent dans la fonction publique. Que l’efficacité du dépôt de plainte, ils s’en foutent, et qu’ils veulent moins de fonctionnaires. Qu’ils le fassent en remplaçant par un truc qui a une chance de faire le boulot mieux au lieu de simplement fermer totalement le service, ça me parait évidemment préférable.
C’est exactement la stratégie de ces dirigeants de pacotille depuis des décennies : détricoter le secteur public pour mieux justifier des rustines issues du secteur privé qui acquiert au passage un pouvoir croissant sur des décisions qui devraient relever de nos institutions démocratiques. Je ne me résigne pas à accepter qu’on laisse faire.
Note que le privé, c’est pas forcément des société capitalistes, ça peut être des assoces ou des coops. Perso je commence à voir la résistance de ce coté là aussi. C’est un peu l’histoire des mutuelles et des premières caisses de prévoyance.