On sait, de sources scientifiques, que notre perception et notre utilisation d’une technologie peuvent fortement dépendre des discours qui la promeuvent. Les chercheurs Kamal Munir et Nelson Phillips l’ont bien montré avec l’exemple de l’appareil photo à pellicule, qui s’est intégré dans nos habitudes entre le 19e et le 20e siècle, grâce aux discours mobilisés par la multinationale américaine Kodak.
Dans le cas de l’IAG, les discours sont particulièrement complexes, car ils ne font pas que promouvoir la technologie, ils la « moralisent ». Cela veut dire qu’ils recommandent des recettes de tous genres pour limiter les nombreux risques d’aberration et de biais éthiques associés à l’IA.
Une illusion de contrôle
Selon Ellen Langer, chercheuse en psychologie à l’Université Harvard, les individus peuvent surestimer leur capacité à contrôler les événements extérieurs, une tendance appelée « illusion de contrôle ».
Sous l’effet de cette illusion, nous croyons pouvoir éviter les mauvaises situations, juste en adoptant de bonnes pratiques. Le discours moral de l’IAG peut renforcer cette illusion en nous, notamment face aux risques qui y sont associés.
Passer de comment à quand utiliser l’IAG
Le discours moral de l’IAG et sa promesse de garantir une utilisation sécuritaire de la technologie peuvent être trompeurs et illusoires. Au lieu de nous concentrer uniquement sur la manière d’utiliser l’IAG, pourrions-nous d’abord déterminer quand l’utiliser ? Cela reviendrait à clarifier, dans les organisations ou en milieu éducatif, à quelles tâches, en quelles circonstances, pour quels objectifs l’utilisation d’un modèle d’IAG est appropriée ou ne l’est pas. Après tout, si les technologies intelligentes sont des armes, comme l’a si bien dit la célèbre Cathy O’Neil, il y a d’autant plus de sagesse à savoir quandappuyer sur la gâchette.