On en parle partout, tout le temps. Mais au fait, l’intelligence artificielle, c’est quoi ?

L’intelligence artificielle est sur toutes les lèvres. Avant elle, le big data faisait les gros titres de la presse généraliste et spécialisée. Mais où en est-on vraiment de ces révolutions annoncées ? Entre portée marketing, effets d’annonce et réelles avancées, l’IA reste une notion floue et un buzzword utilisé à toutes les sauces. Pour mieux cerner ce que l’on cache derrière cette tendance, nous avons interviewé Eglantine Schmitt, qui possède une double-compétence en product management et en big data. Elle nous livre son regard sur l’évolution de ce secteur.

 

Au-delà des mythes actuels sur le sujet, où en est-on exactement de l’IA actuellement ? A-t-on réellement progressé ces dernières années/décennies, et si oui à quels niveaux ?

Quand on parle d’IA, il peut s’agir de références à plusieurs choses. Il y a eu un retour en force du sujet qu’on peut schématiser comme suit : l’abondance de données et l’augmentation de la puissance de calcul a accéléré le développement des techniques d’analyse de données. Certaines de ces techniques, qui sont connues depuis plusieurs décennies dans le monde de la recherche, ont commencé à présenter des résultats satisfaisants pour des acteurs industriels, ce qui a permis de rentrer dans un cercle vertueux mais aussi dans une économie de la promesse où il a fallu se positionner rapidement d’un point de vue commercial. Il y a eu notamment un bond dans l’efficacité des approches par réseaux de neurones artificiels, qui existent depuis les années 1950, mais qui sont devenues accessibles pour un investissement faible : c’est le fameux « deep learning » qui est sur toutes les lèvres. Des chercheurs comme Yann Le Cun, qui étaient complètement inconnus du grand public, et longtemps considérés comme has been par leurs collègues, sont devenus les rois du pétrole, courtisés par tous les grands acteurs du numérique ; Yann Le Cun a notamment monté le centre de recherche en IA de Facebook, à Paris. Dès lors, il y a une multitude de tâches qui deviennent envisageables (organiser du texte, des images, des sons, prédire des valeurs…) et qui ont de très nombreuses applications concrètes.

Au-delà du deep learning, qui est une sous-branche du machine learning, qui est lui-même une façon d’analyser des données, d’autres thématiques sont revenues sur le devant de la scène : tout ce qui est agents conversationnels et interfaces vocales, mais aussi l’automatisation de processus, la robotique, la reconnaissance faciale… qui ne reposent pas forcément sur du deep learning. Dans ces domaines, il y a encore beaucoup de bricolage avec des systèmes qui apparaissent fluides et sans friction pour l’utilisateur, mais qui reposent en fait beaucoup sur des briques configurées voire actionnées à la main pour donner l’impression d’un raisonnement automatique.

Il y a de nombreux débats sur l’IA, notamment pour savoir qui en fait réellement ou non. A partir de quand peut-on parler d’intelligence artificielle pour un projet ?

Il n’y a pas vraiment de consensus sur ce qui est de l’IA ou ce qui n’en est pas. Au départ, l’IA est un projet de recherche qui vise à comprendre l’intelligence humaine par le biais d’artefacts qui imitent ou simulent cette intelligence. Parmi les pères de l’IA, Turing découpe déjà ce programme de recherche en sous-tâches spécifiques : le traitement de l’image, du son, de la parole, du langage, le raisonnement, le mouvement… qui sont chacune devenues des champs de recherche à part entière, avec des laboratoires, des financements, des applications industrielles. Aujourd’hui, les chercheurs qui travaillent depuis des années sur le traitement du signal ou la vision artificielle sont bien contents de pouvoir se présenter comme chercheurs en IA, mais ils faut garder à l’esprit que chacune de ces tâches induit une spécialisation, même s’il y a des techniques et des approches communes d’une branche à l’autre.

On a parfois l’impression que l’IA, tout comme le deep learning, est devenu un concept communicationnel plus qu’un ensemble de technologies…  Pourquoi tant de hype autour de ce concept d’après toi ? Quels sont les risques liés à l’hyper-utilisation d’un terme qui ne revêt pas de réalité concrète ?

Pour l’argent bien sûr ! Que ce soit dans la recherche ou dans le privé, il est beaucoup plus facile de trouver des financements ou de signer des contrats quand on emploie des termes à la mode. Pour celles et ceux qui sont dans l’univers de la donnée depuis un certain temps, c’est une bonne nouvelle car cela permet de continuer à travailler, à expérimenter, faire progresser la technologie et développer de nouveaux usages. Derrière la hype, il y a une réalité concrète des usages et des technologies, et encore beaucoup de produits et de services « à base d’IA » à imaginer. A titre individuel, je suis ravie que ma banque me prévienne quand elle soupçonne une fraude ou que mon client mail enlève les spams de ma boîte de réception. Le danger, c’est de faire de l’IA pour faire de l’IA, parce que quelqu’un de haut placé quelque part a décidé que l’entreprise où vous travaillez devait avoir une « stratégie IA », et qu’en face des acteurs cherchent à répondre à un besoin que vous n’avez pas. Mettre la technologie avant le besoin, c’est pour moi le vrai risque de ces effets de mode, qui engendrent des dépenses conséquentes alors qu’on pourrait utiliser ces ressources pour améliorer les produits et les offres, ou mieux payer les gens, par exemple !

—————

Repéré depuis https://www.blogdumoderateur.com/interview-intelligence-artificielle-mythes-realites/