IA agentique : de réactive à proactive
Autonome. Un mot qui déclenche toutes les alarmes dans le contexte de l’IA : les robots prennent le pouvoir. L’IA agentique provoque la même réaction. Cette accélération technologique significative appelle deux nuances. Un : la majeure partie de ce qui est qualifié d’agentique ne répond pas, ou pas complètement, à ce terme. Deux : il est clair que ces innovations exigent un cadre (éthique) solide. (Wout Ectors)
L’automatisation par l’IA n’est donc pas encore de l’IA agentique. Pour mériter cette étiquette et ne pas l’arborer à de seules fins de marketing (l’agent washing est un problème, disent les experts, qui sape la confiance dans les véritables innovations), les systèmes doivent travailler de manière indépendante, proactive et adaptative. Les outils qui se bornent à suivre des scripts prémâchés ne répondent pas à ces critères.
Qu’est-ce que l’IA agentique (n’est pas) ?
Tom Vanderbauwhede, CEO du consultant Aigentel et professeur d’IA à la Haute École Karel de Grote, décrit l’IA agentique comme une collaboration entre plusieurs agents. « Chaque agent effectue une ou plusieurs tâches, puis transmet le résultat au suivant dans la liste, ou au précédent, si de nouvelles informations l’exigent. » Un exemple concret est la réservation d’un vol ou d’un hôtel. En s’appuyant sur l’agenda et les préférences de voyage d’une personne, un système peut rechercher les meilleures options et traiter ces opérations de manière autonome. « L’IA agentique permet d’automatiser entièrement des flux de travail complexes, mais dans un espace clairement délimité. »
Plusieurs applications apparaissent dans les entreprises : des processus administratifs autonomes aux agents de codage qui s’entraînent entre eux pour parvenir à la meilleure configuration possible. Les outils les plus concrets interviennent dans le support client où des systèmes intelligents remédient aux lacunes d’un chatbot traditionnel et apportent au client une assistance personnalisée. Mais Tom Vanderbauwhede nuance l’impact actuel de cette technologie : « Une grande partie de ce qui se fait aujourd’hui relève plus de l’automatisation classique que de l’IA agentique ». Dirk Van Rooy, professeur à l’Université d’Anvers où il est associé à l’Antwerp Center for Responsible AI (ACRAI), est du même avis. Il prévoit des progrès rapides et un fort potentiel disruptif, tout en soulignant que nous n’en sommes qu’aux premiers stades d’un large spectre. « Ce sont encore principalement des modèles de langage volumineux intégrés dans un script de workflow ou un pipeline logiciel. Ils sont plus intelligents que jamais, mais loin d’être des collaborateurs artificiels capables de compréhension et de responsabilité. »
Un humain dans la boucle
Plus les outils d’IA sont autonomes, plus les cadres opérationnels, mais aussi et surtout éthiques et juridiques, sont essentiels. Le strict respect du Règlement sur l’IA sera donc indispensable, souligne Dirk Van Rooy. « L’agentique sera soumise au niveau de risque le plus élevé, ce qui exige de privilégier la gestion des risques, la transparence et la supervision humaine. » Il plaide en faveur de ce qu’il appelle l’IA centrée sur l’humain. « Lors du développement de systèmes d’IA, il est essentiel d’intégrer des points de contrôle humains : au moment de valider les résultats et tout au long du processus. Une nécessité que démontrent également des scandales comme celui des allocations familiales aux Pays-Bas, causé en partie par des algorithmes discriminatoires. »
Tous les experts s’accordent à dire que les organisations doivent toujours garder un humain dans la boucle (modèle human in the loop). C’est aussi l’avis du chercheur en IA Thomas Van den Bossche (Odisee). « Il est important d’assumer son rôle et ses responsabilités dans ce domaine, et surtout, de les documenter. Cela contribue à garantir la qualité et la sécurité des systèmes. Et cela apporte également de la clarté dans l’organisation. » Il fait d’ailleurs immédiatement le lien avec les besoins en matière de gestion du changement. « Dans cette optique, il est aussi recommandé de disposer de cadres évolutifs, élaborés en concertation avec les collaborateurs, suffisamment concrets et adaptés aux évolutions technologiques. »
Résistance sur le terrain
Le flou qui entoure la définition exacte de l’IA agentique et l’insuffisance des mécanismes de contrôle sont précisément les raisons citées par le cabinet d’analyse Gartner pour prédire que, d’ici 2027, les entreprises abandonneront plus de 40% des projets qu’elles ont lancés. Ce chiffre en dit toutefois davantage sur l’importance d’une bonne approche que sur la valeur ajoutée réelle de la technologie. En effet, cette estimation est contrebalancée par la prévision que 33% des logiciels d’entreprise fonctionneront avec l’IA agentique en 2028.
« Plus que l’aspect éthique, c’est la résistance sur le terrain qui freine l’innovation », constate Tom Vanderbauwhede. « De nombreux travailleurs voient dans l’IA une menace pour leur emploi. » L’implication réelle des collaborateurs dans les trajets d’innovation est donc la base d’une bonne approche. « Demandez-leur (sans mentionner l’IA ou l’IA agentique à ce stade) quels sont les obstacles qu’ils rencontrent au quotidien et quelles mesures efficaces pourraient les soulager. Il sera ainsi possible de lancer les premiers projets et d’engranger de petits succès sur lesquels vous appuyer pour aller plus loin. » Thomas Van den Bossche adresse un conseil similaire aux entreprises : « N’essayez pas de courir avant de savoir marcher. Voyez où vous pouvez apporter des améliorations, avec ou sans les applications les plus avancées. » Au cours de ce processus, l’acceptation de l’IA (agentique) augmentera progressivement. « Du moins si vous travaillez à développer une culture de l’IA plus large, dans laquelle les collaborateurs reçoivent les formations adéquates et des possibilités d’expérimenter eux-mêmes les outils. »
Bac à sable pour l’IA
En résumé, les considérations éthiques, organisationnelles et donc techniques sont interconnectées. Dans cette perspective et sachant qu’il est également souhaitable d’expérimenter au niveau de l’entreprise, l’ACRAI mise fortement sur les bacs à sable pour l’IA. « Ces environnements permettent de tester de nouveaux systèmes en profondeur », explique Dirk Van Rooy. « Ce n’est que lorsqu’ils sont parfaitement au point, y compris sur la protection de la vie privée et toutes les autres questions éthiques, qu’ils sont déployés à l’échelle de l’organisation. »
Sur le plan technique, la qualité des données est le mot d’ordre, indique encore Thomas Van den Bossche. « Elles doivent être et rester extrêmement précises, surtout lorsque vous laissez des outils traiter eux-mêmes toutes sortes de données. Les entreprises ont parfois tendance à négliger cet aspect. » C’est peut-être ce qui a fait défaut chez Air Canada, récemment rappelée à l’ordre par la justice. La compagnie aérienne déclinait sa responsabilité concernant l’hallucination de son agent d’IA qui avait mal informé un voyageur. Le juge n’a pas été du même avis. « Les entreprises ont une grande responsabilité et risquent de nuire à leur réputation si elles ne l’assument pas. La règle d’or : associez l’innovation à une garantie de la qualité des données et à des cadres éthiques qui ne sont pas de la poudre aux yeux, mais une boussole d’intégrité. »