L’intelligence artificielle (IA) regroupe toutes les techniques informatiques complexes capables de simuler certains traits de l’intelligence humaine (calcul, raisonnement, reconnaissance d’objets…).

L’IA réussit à décoder certaines émotions, dans certaines conditions

Grâce à l’arrivée des techniques d’apprentissage profond (des algorithmes formés de plusieurs couches de neurones artificiels connectés en réseau, capables de sélectionner les informations pertinentes et donc d’apprendre de façon relativement autonome), les programmes actuels montrent d’excellents résultats dans le décodage des expressions faciales et des émotions (jusqu’à plus de 99 % de précision), quand ils sont entraînés et validés sur des images prises dans des conditions idéales.

L’IA peine à saisir la subtile et complexe alchimie des émotions

Les humains utilisent de façon assez instinctive un vaste ensemble d’informations pour exprimer ou décoder les émotions. En effet, pour paraphraser Lisa Feldman Barrett, professeur de psychologie à la Northeastern University, un visage n’apparaît jamais isolé comme celui du magicien d’Oz : les expressions faciales se manifestent toujours pour servir un but particulier dans un contexte donné, et c’est ce contexte qui déterminera l’interprétation correcte d’une expression.

L’IA (réellement) émotionnelle est-elle pour demain ?

L’un des principaux problèmes est que les algorithmes sont conçus pour utiliser les données et en tirer des conclusions fixes, ce qui les rend incapables de prendre en compte les situations spéciales et nouvelles. Or, l’émotion est un phénomène subtil et changeant, et ses changements dépendent de nombreux facteurs qui n’ont pas encore été entièrement définis par la théorie.

—————

Repéré depuis https://theconversation.com/lintelligence-artificielle-est-elle-prete-a-comprendre-les-emotions-humaines-151409

Partagez cet article