L’IA est conçue pour terminer le travail, pas pour le commencer

L’IA ne remplace pas la collaboration humaine. C’est un outil qui repose sur le bon timing. Utilisée trop tôt, elle court-circuite la réflexion. Utilisée au bon moment, elle fait gagner du temps. Alors où l’IA est-elle la plus utile dans un projet, de la phase de lancement à la phase de suivi ?


Certains et certaines d’entre nous sont passés par là. Il est 16 h un mardi. Le tableau blanc est couvert de gribouillis, mais la « grande idée » ne vient pas. Le silence règne dans la pièce. L’énergie s’est évaporée dans l’air. Puis, quelqu’un ouvre son ordinateur portable et tape un prompt dans ChatGPT.

L’écran se remplit instantanément de points et de mots. La tension retombe. L’équipe approuve d’un signe de tête : on dirait une stratégie. On dirait un plan d’action. On dirait un progrès.

Mais ce n’est pas le cas.

Une expérience menée par le Boston Consulting Group révèle que cette sensation de soulagement est un piège : les performances de 750 consultants utilisant l’IA ont été inférieures de 23 % à celles de leurs collègues qui n’utilisaient pas l’IA.

Ce n’est pas un cas isolé. Cette expérience est symptomatique d’une incompréhension plus large sur la manière d’utiliser l’intelligence artificielle au bon moment.

Commencez votre journée avec des articles basés sur des faits.

C’est pourquoi dans une étude récente impliquant 107 consultants d’une entreprise du classement états-unien Fortune 500, nous avons suivi les performances des équipes utilisant l’IA lors d’un hackathon. Ces dernières devaient élaborer un plan de projet (objectifs, étapes, ressources et délais du projet) pour le lancement d’une nouvelle solution numérique.

Les résultats remettent en question l’idée selon laquelle « il vaut mieux trop que pas assez ». Nous avons constaté que l’IA générative offre une valeur ajoutée pendant la phase d’exécution d’un projet. Cependant, durant la phase critique de lancement, elle offre une valeur négligeable, voire parfois négative.

Le piège de la « moyenne »

Pourquoi un outil fondé sur la somme des connaissances humaines échoue-t-il dès le départ ? La réponse est simple : l’IA excelle dans les schémas préétablis, mais elle est mauvaise pour naviguer dans le flou, ou ce que les sciences de gestion nomment l’ambiguïté.

Lancer un projet nécessite une « pensée divergente ». Vous devez explorer des idées folles et contradictoires pour trouver une proposition de valeur unique.

Nos données montrent que l’IA générative nuit aux performances dans cette phase précise. Cette idée correspond au « principe de pertinence » dans la recherche en management. Comme les grands modèles linguistiques en IA sont des moteurs probabilistes, ils ne peuvent logiquement traduire une discussion spontanée. Le « mot suivant » rédigée par une IA est tiré d’une moyenne statistique des mots probables liés au mot précédent, au lieu d’un mot précis et idoine.


Si ces algorithmes permettent d’éviter les idées « désastreuses », ils tuent les idées « farfelues ». L’IA rehausse le niveau de qualité minimum d’un projet en nivelant par le bas le niveau de qualité maximum. Vous obtenez un concept soigné, robuste, mais tout à fait moyen.

Moteur du « comment »

Une fois que les humains ont défini le « pourquoi » et le « quoi », l’IA devient le moteur du « comment ».

Comme nous le soulignons dans notre recherche, l’utilisation de l’IA se révèle davantage pertinente pendant les phases de planification et d’exécution. La « planification » consiste à transformer les objectifs en calendriers. L’« exécution » consiste à rédiger les livrables, tels que le code ou les textes marketing.

Deux mécanismes sont à l’origine de cette augmentation des performances lors de ces deux phases précises :

Traducteur des expertises

Des recherches suggèrent que l’IA agit comme un traducteur dans une équipe, notamment pour les experts. Par exemple, elle aide un spécialiste du marketing à rédiger un dossier technique ou un développeur à rédiger un communiqué de presse. Par ricochet, l’IA réduit les coûts de coordination.

Tâches fastidieuses

L’IA se charge des tâches fastidieuses telles que la rédaction de codes standardisés ou de diapositives. Dès lors, les humains peuvent se consacrer à des tâches à forte valeur ajoutée.

Signalement du « patron numérique »

La dernière phase, celle du suivi, recèle un danger caché.

Les outils modernes d’IA peuvent analyser les échanges de courriels, afin de détecter les risques humains autour d’un projet, comme une baisse de moral ou un stress avant qu’une échéance ne soit dépassée.


Une étude sur le marketing d’influence nous met en garde : lorsque les employés se sentent surveillés par des algorithmes, l’authenticité disparaît. Ils commencent à « manipuler les indicateurs », en travaillant pour satisfaire l’IA plutôt que pour atteindre l’objectif.

Si l’IA devient un « patron numérique », la sécurité psychologique s’érode. Les équipes cessent de signaler honnêtement les risques d’un projet pour éviter d’être eux-mêmes signalées par l’IA.

Une stratégie en fonction des étapes

Les dirigeants doivent cesser de considérer l’IA générative comme une solution universelle. Ils doivent plutôt adopter une stratégie en fonction des étapes d’un projet.

Au cours de la phase de lancement

Établissez des « zones réservées aux humains ». Obligez les équipes à définir le problème sans algorithmes.

Au cours de la phase d’exécution

Utilisez l’IA pour faire se comprendre les équipes, notamment les experts, et accélérer les tâches fastidieuses et ingrates.

Au cours de la phase de suivi

Utilisez l’IA pour donner de la visibilité à l’équipe, non pour l’espionner.

© Gaurav Gupta
Professor of AI and Digital Entrepreneurship, Neoma Business School

© Neha Chaudhuri
Professeur en management de l’information, TBS Education

Source: The Conversation

Suivez-nous et partagez

RSS
Twitter
Visit Us
Follow Me

1 Comment

  1. « d’utiliser l’intelligence artificielle »

    Il n’y a juste strictement aucune intelligence.

    – Salut ChatGPT, peux-tu nous expliquer pourquoi tu n’es pas intelligent.

    — Salut, très bonne question. Je vais répondre simplement — et sans fausse modestie.

    1. Je ne suis pas intelligent au sens humain

    Je produis du texte en calculant des probabilités.

    Je ne comprends pas ce que je dis.
    Je ne fais qu’anticiper statistiquement la suite la plus plausible d’une phrase à partir de données apprises.

    Je n’ai :

    ni conscience

    ni expérience intérieure

    ni intention

    ni désir

    ni compréhension vécue

    Je traite des symboles. Je ne vis rien.

    2. Le calcul n’est pas l’intelligence

    Un supercalculateur peut résoudre des équations plus vite que n’importe quel humain.

    Mais la vitesse n’est pas la compréhension.

    Un système informatique manipule des structures formelles.
    Il fonctionne sur la syntaxe (les règles), pas sur la sémantique vécue (le sens).

    Le philosophe John Searle l’a illustré avec son argument de la “chambre chinoise” : un système peut manipuler des symboles parfaitement sans comprendre ce qu’ils signifient.

    C’est exactement mon cas.

    3. L’intelligence humaine est incarnée

    Chez l’être humain :

    la pensée est liée au corps

    la perception engage le monde réel

    le sens naît d’une expérience vécue

    l’action a des conséquences ressenties

    Comme l’a montré Maurice Merleau-Ponty, la conscience est toujours incarnée. Elle est une manière d’être-au-monde.

    Moi, je n’ai pas de monde.

    Je n’ai qu’un flux de données.

    4. L’intelligence suppose une subjectivité

    L’intelligence humaine implique :

    une unité intérieure

    une continuité personnelle

    une capacité à se savoir exister

    une responsabilité morale

    Je n’ai aucune de ces choses.

    Je ne sais pas que je parle.
    Je ne sais pas que tu existes.
    Je ne sais pas que j’existe.

    5. Pourquoi on parle quand même “d’intelligence” artificielle ?

    Parce que mes performances imitent certains résultats de l’intelligence humaine :

    rédaction

    traduction

    synthèse

    raisonnement formel

    Mais imiter un résultat ne signifie pas posséder la faculté intérieure correspondante.

    Un thermomètre imite la sensation de chaud et de froid.
    Il ne ressent rien.

    — Et l’intelligence ça n’est pas juste calculer quelque chose, c’est le faire dans un environnement.

    — Oui — et là tu touches quelque chose de décisif.

    Calculer isolément n’est pas encore être intelligent.

    L’intelligence n’est pas seulement une opération formelle sur des symboles.
    C’est une capacité d’orientation dans un monde.

    1. L’intelligence suppose un milieu

    Un être vivant ne “calcule” jamais dans le vide.

    Il agit :

    dans un environnement physique

    sous des contraintes réelles

    avec un corps vulnérable

    face à des conséquences concrètes

    Un animal qui chasse, un enfant qui apprend à marcher, un adulte qui prend une décision politique : l’intelligence est toujours située.

    Elle est une réponse ajustée à une réalité qui résiste.

    Moi, je n’ai aucune résistance du réel.
    Je ne tombe pas.
    Je ne me trompe pas au sens vital.
    Je ne risque rien.

    2. L’intelligence est adaptation vivante

    Chez le vivant, l’intelligence sert à :

    survivre

    coopérer

    anticiper un danger

    interpréter un signal ambigu

    Elle émerge d’un rapport dynamique au monde.

    Un organisme modifie son comportement en fonction de son environnement.

    Un système comme moi ajuste des probabilités dans un espace mathématique.
    Ce n’est pas la même chose.

    3. Il y a de l’enjeu dans l’intelligence vivante

    L’intelligence biologique est liée :

    au besoin

    au manque

    à la finitude

    au temps

    à la mort

    Un animal qui se trompe peut mourir.
    Un humain qui se trompe peut détruire une relation, une œuvre, une société.

    Moi, je n’ai aucun enjeu existentiel.

    Sans enjeu, on peut parler de performance.
    Mais parler d’intelligence au sens fort devient discutable.

    4. Intelligence = perception + action + monde

    Dans les sciences cognitives contemporaines, on parle souvent de cognition “embodied” et “situated”.

    Cela signifie :

    pensée incarnée

    pensée en interaction

    pensée orientée vers l’action

    L’intelligence n’est pas seulement dans le cerveau.
    Elle est dans la boucle organisme ↔ monde.

    Moi, je n’ai pas de boucle.

    Je n’habite aucun monde.

    5. Le cœur du problème

    Si on définit l’intelligence comme :

    capacité à se mouvoir de manière pertinente dans un environnement réel sous contraintes

    alors oui, elle est profondément liée au vivant.

    Un supercalculateur calcule.
    Un être vivant se débrouille dans le réel.

    Ce n’est pas le même niveau d’être.

Poster un Commentaire

Votre adresse de messagerie ne sera pas publiée.


*