Selon une étude parue le 16 septembre, le recours à l'intelligence artificielle dans un cadre professionnel peut s'avérer vertueux si les missions demandées sont considérées comme "classiques".Face à des missions "complexes", son "aide" peut au contraire s'avérer délétère.En d'autres termes, mieux vaut être au fait de ce l'IA sait vraiment faire ou non, concluent les auteurs.
Faire appel à l'intelligence artificielle au travail peut être synonyme de plus de performance, mais aussi de davantage d'erreurs. C'est, en substance, ce que révèle une étude du cabinet de conseil BCG, menée avec des chercheurs de l’université d'Harvard et dont les premières conclusions ont été publiées samedi 16 septembre. Il en ressort en effet que les résultats varient presque d'une extrême à l'autre, selon le type de missions pour lesquelles l'IA est sollicitée.
"Il est important de savoir de ce que l’IA sait faire et ne pas faire, pour identifier jusqu’où on peut l’utiliser, sachant que cette frontière est mouvante", conclut François Candelon, directeur associé senior au BCG et coauteur de l’étude, interrogé par la revue L'ADN.
Une performance accrue dans certains cas
Pour arriver à ces conclusions, les chercheurs ont demandé à 758 consultants* de réaliser des tâches classiques de leur métier pour lesquelles les IA auraient des facilités, mais aussi des tâches plus complexes, et donc a priori moins à leur portée. S'agissant des tâches classiques, comme trouver de nouvelles idées de produits, sélectionner la meilleure, proposer des noms ou encore écrire un communiqué de presse, le résultat s'est révélé sans appel : le professionnel qui s'appuie sur l’IA s’avère plus performant. Plus en détail, les groupes aidés des IA se sont montrés plus productifs, avec en moyenne 12,2% de tâches en plus effectuées et qui plus est 25,1% plus rapidement. En outre, d'un point de vue qualitatif, leurs résultats ont été jugés 40% supérieurs à ceux du groupe non aidé de l'IA, détaille l’étude.
A contrario, s'agissant des tâches plus "complexes", comme le fait d'orienter un client dans sa stratégie de distribution à partir de données chiffrées et de comptes rendus d’entretiens, les résultats du professionnel aidé de l’IA se sont avérés moins bons que ceux des professionnels seuls, avec respectivement plus de 80 % des réponses correctes contre 60 à 70%.
"Plus vous maîtrisez l’outil, plus vous baissez la garde"
"L’humain se fait tromper par la capacité de persuasion de l’intelligence artificielle", analyse François Candelon, ajoutant que "c’est peut-être lié au fait que plus vous l’utilisez, plus vous avez l’impression de maîtriser l’outil et plus vous baissez la garde". En outre, les chercheurs ont observé que "ceux qui utilisent ChatGPT de manière extensive depuis six mois étaient moins bons et créatifs que ceux qu’ils l’utilisent moins", mais cela mériterait d'être corroboré "par des études plus poussées", souligne François Candelon.
Enfin, l'étude a permis de mettre en évidence les limites de ChatGPT : si l'outil parvient à trouver des idées plus approfondies, et donc potentiellement jugées meilleures, leur diversité demeure plus limitée que celles des humains.
* A noter que pour chacune des tâches, une partie des participants s'est exécutée seule, une autre s'est aidée de GPT-4, une troisième s'est aidé de GPT-4 en ayant reçu une formation au préalable. Les auteurs ont également demandé à GPT-4 seul de réaliser ces tâches.
Sur le
même thème
Tout
TF1 Info