Les IA génératives hallucinent et ce sera toujours comme cela car l’IA générative est basée sur les probabilités. C’est la clarification très nette du panel d’experts réuni à l’occasion du salon Viva Tech 2025 sur le sujet des hallucinations des IA générative.
Aucune garantie d’une IA sans hallucination
On devrait réduire ces hallucinations par différents dispositifs mais il n’y a rien à l’horizon qui garantisse que l’on aura un jour une IA générative sans aucune hallucination. Ces risques d’hallucinations soulèvent des questions de responsabilités et de confiance dans les IA génératives. Ce sont à la fois des responsabilités commerciales pour les entreprises et des responsabilités juridiques, notamment dans le cadre de l’AI Act.
Il faut garder l’humain dans la boucle sans que cela soit un remède à toute épreuve
A plus court terme, cela amène l’arrêt par les entreprises de ces projets d’IA génératives qui ont produit des hallucinations. Il faut garder l’humain dans la boucle sans que cela soit un remède à toute épreuve car l’humain peut ne pas détecter une erreur. Le niveau de risque pris en adoptant les résultats de l’IA est alors à prendre en compte.
C’est ce que l’on retient des interventions de Sasha Rubel, responsable de la politique d’IA générative en Europe d’Amazon Web Services (AWS), de Giada Pistilli, spécialiste de l’éthique chez la plateforme d’IA Hugging Face et Amr Awadallah, DG de Vectara, société spécialisée en IA générative.
La rédaction vous propose par secteur d’activité :
L’IA repose sur un raisonnement probabiliste
Les IA auront toujours des hallucinations, et nous devons simplement l’accepter, c’est que confirme Sasha Rubel. « Les LLM sont-ils faillibles ? Oui. Et ont-ils des hallucinations ? Oui. Cela nous ramène à la nature même de l’IA en tant que technologie, qui repose sur un raisonnement probabiliste et statistique » rappelle-t-elle.
“Les hallucinations que tout le monde voit aujourd’hui seront toujours présentes”
« Les LLM auront toujours des hallucinations » affirme aussi Amr Awadallah. « La raison pour laquelle ils auront toujours des hallucinations est que les LLM sont, par nature, probabilistes. Il y a une probabilité, et dès qu’il y a une probabilité, il y a un risque d’erreur. C’est comme ça » résume-t-il. « Il est clair que les hallucinations que tout le monde voit aujourd’hui seront toujours présentes » ajoute-t-il.
Dès lors, la responsable d’AWS considère comme essentiel de travailler sur des technologies capables de combler les lacunes et de réduire les risques associés, et de les compléter par une supervision humaine. Mais il n’existe pas de solution technique. « Existe-t-il actuellement une technologie autonome capable d’atténuer les hallucinations ? Non » répond-elle
Associer les dispositifs techniques et la supervision humaine
« Est-il vraiment important de combiner différentes approches, telles que des garde-fous, le filtrage des résultats, le RAG (Retrieval Augmented Generation) et l’ancrage contextuel ou les vérificateurs de références ? Je trouve le filtrage particulièrement intéressant. Associées à la supervision humaine, ces mesures permettent d’atténuer les risques liés aux hallucinations » dit-elle.
“Nous devons veiller à ce que la supervision humaine reste un principe essentiel”
Elle veut croire que l’on arrivera un jour à stopper les hallucinations mais elle reconnaît qu’elle dit cela car elle est une éternelle optimiste, engagée en faveur d’une IA responsable et de la recherche collective et ouverte et de l’Open source. « Nous devons veiller à ce que la supervision humaine reste un principe essentiel dans la manière dont nous déployons ces technologies » prévient-elle.
« Le meilleur scénario est celui où les outils d’IA fonctionnent le mieux lorsqu’ils sont associés à des experts qui connaissent leur domaine et qui peuvent non seulement vérifier les faits, mais aussi les exploiter de manière plus efficace » considère quant à elle, Giada Pistilli de Hugging Face.
Articles similaires