Problèmes liés à l'automatisation IA
author: Thomas Mahier (Generation IA) date: 2025-06-30
Problèmes liés à l'automatisation IA
1
Qualité et Formats des données/documents en entrée (GIGO)
  • Les modèles d'IA lisent mal certains formats comme les PDF complexes, les formats binaires propriétaires (fichiers Excel avec macros, documents Word complexes, formats CAD, etc.), car ceux-ci nécessitent souvent des conversions qui peuvent introduire des erreurs. Les formats simples et structurés comme le texte brut, CSV, HTML, Markdown, XML ou JSON sont beaucoup plus fiables pour obtenir des réponses précises.
  • Avant de lancer une analyse de données, il est essentiel de vérifier que l'IA a correctement interprété les types de données (nombres vus comme nombres et non comme chaînes de caractères, dates reconnues comme dates, etc.), sinon les calculs ou résultats peuvent être complètement faussés. Pour l'analyse de données, privilégiez toujours le CSV au format Excel (.xls/.xlsx) pour éviter les problèmes de lecture.
  • Une grande partie des erreurs vient de documents mal formatés ou de données incompatibles. La qualité des données d'entrée ET leur accessibilité aux IA sont donc des éléments clés : si la qualité est mauvaise ou si le format est illisible, l'IA ne pourra pas produire de résultat utile, même avec les meilleures technologies. Privilégiez toujours les formats simples à lire par les IA (le plus simple reste le texte brut !).
2
Agents IA et autonomie
  • Un agent IA est un système qui interagit avec son environnement en utilisant des outils (pour percevoir/lire, agir/écrire, analyser, décider). La vraie autonomie d'un agent consiste à choisir de lui-même quel outil utiliser et quand. Aujourd'hui, la plupart des solutions appelées « agents » sont plutôt des workflows séquencés sans réelle autonomie.
  • Pour que les agents IA soient efficaces, il ne suffit pas de mettre plusieurs outils à disposition : il faut que le modèle sache quand et comment les utiliser, mais aussi dans quel ordre (orchestration, planification), ce qui reste une limite actuelle.
  • Plus un agent a d'outils à disposition, plus il doit se poser la question de quel outil choisir, et plus il a de risques de se tromper. Contre-intuitivement, mettre trop d'outils peut donc dégrader la performance globale du système/agent. (Un peu comme vous au rayon du supermarché face à 100 marques différentes d'un produit, incapable de vous rappeler laquelle votre conjoint·e vous a demandé de prendre !)
  • Idéalement, un modèle doit donc être spécifiquement entraîné à utiliser les outils à sa disposition, ce qui commence à être le cas avec des modèles/agents comme Claude Code.
🔹 RPA et IA : complémentarité et limites
  • Le RPA (Robotic Process Automation) automatise des tâches répétitives en suivant des règles fixes : cliquer ici, copier ce texte, le coller là. C'est rigide mais ça marche pour des processus stables.
  • On pourrait penser qu'une IA "agentique" ferait mieux car elle s'adapterait aux changements. L'IA apporte effectivement plus de souplesse (elle peut comprendre qu'un bouton "Valider" est devenu "Confirmer"). Mais le vrai problème reste le même : comment extraire des données fiables d'interfaces qui changent constamment (sites web redesignés, formulaires modifiés, etc.).
  • Que vous utilisiez RPA ou IA, si vous ne pouvez pas accéder proprement aux données source, votre automatisation sera fragile. Le problème n'est pas l'outil mais l'accès aux données.
L'effet boule de neige des erreurs
En automatisation, les erreurs s'accumulent de manière exponentielle. Avec 90% de réussite par étape (ce qui semble excellent !), après seulement 10 étapes enchaînées, votre taux de réussite global chute à environ 35% (0.9^10 ≈ 0.35). Et avec l'IA générative, on voit beaucoup de démos qui "marchent à 90%"...
Une petite erreur de lecture au début (un montant mal interprété, une date mal comprise) se propage et s'amplifie à chaque étape suivante. L'erreur initiale devient une avalanche.
C'est pourquoi il est crucial de valider les résultats intermédiaires et de prévoir des mécanismes de vérification, surtout dans les processus longs. Sans cela, même une automatisation "performante" peut devenir inutilisable en production.
Perspectives et outils futurs
Les outils actuels ont été conçus pour des humains : belles interfaces graphiques, boutons colorés, menus déroulants, animations... Tout ce qui rend l'expérience agréable pour nous mais complique la tâche aux IA. Cependant, on observe une tendance vers des interfaces pensées pour faciliter l'usage des IA (ex. HTML qui est du texte structuré, ou Figma qui expose des APIs et des formats structurés permettant aux IA de lire et modifier des designs programmatiquement).
À l'avenir, des outils mieux adaptés permettront de créer des processus plus fluides intégrant IA et automatisation, mais il faudra aussi inventer de nouveaux modes de travail qui tiennent compte des points forts et des limites de l'IA, au lieu d'essayer de calquer l'IA sur des processus 100% humains existants.
Illustration de l'effet boule de neige des erreurs : avec 90% de réussite par étape, le taux global chute rapidement avec le nombre d'étapes.