Que ce soit sur ChatGPT, Grok, Google Gemini, ou encore Mistral, si vous utilisez une intelligence artificielle, vous avez très certainement reçu des réponses fantaisistes, originales, ou même… fausses.

Une étude explique les hallucinations de l’IA

Si les divagations des IA, que les spécialistes en intelligence artificielle appellent des « hallucinations », ne sont pas aussi fréquentes qu’au lancement de ChatGPT en 2022, elles étaient jusqu’à présent inexplicables pour le grand public. En 2024, une première étude de l’université de Stanford avait déjà démontré que les hallucinations concernent 10% des requêtes.

Attention aux questions courtes !

Parmi les éléments que cette étude révèle, ce sont d’abord les questions courtes qui sont pointées du doigt. Étant jugées trop imprécises, parfois ambiguës, et sans aucun contexte, elles peuvent complètement dérouter les intelligences artificielles.

Selon les chercheurs, cela reste d’autant plus problématique que l’on observe de plus en plus de réponses courtes sur certains modèles pour limiter les coûts.

Partagez cet article

Toute l'actualité ILDI