DOSSIER SPÉCIAL

Non, ChatGPT ne pourra pas faire de la stratégie à votre place.

Non, ChatGPT ne pourra pas faire de la stratégie à votre place.

Gaëtan Namouric
On rêvait d'un conseiller infatigable, lucide, dépourvu d'ego. On a obtenu un stagiaire brillant qui récite les buzzwords du moment avec une assurance déconcertante. C'est ce que révèle une étude marquante publiée dans la Harvard Business Review en mars 2026
April 27, 2026
April 27, 2026
—  0  min. de lecture

Les chercheurs ont soumis les grands modèles de langage à des dilemmes stratégiques concrets. La réponse, chaque fois, avait la même couleur — celle de la mode managériale. Les chercheurs ont nommé le phénomène « trendslop ». Mais d'autres études viennent nuancer ce verdict. La vérité sur l'IA et la stratégie est plus intéressante — et plus exigeante — qu'un simple pour ou contre.

Le protocole : sept dilemmes, des milliers de simulations

Les tensions qui définissent la vraie vie des dirigeants

Angelo Romasanta (Esade Business School), Llewellyn D.W. Thomas (University of Sydney) et Natalia Levina (NYU Stern) ont soumis sept grands modèles de langage — ChatGPT, Claude, DeepSeek, GPT-5, Gemini, Grok et Mistral — à sept tensions stratégiques fondamentales. Des tensions binaires, celles que les dirigeants vivent au quotidien et qui exigent de vrais arbitrages.

Différenciation ou leadership par les coûts. Exploration ou exploitation. Court terme ou long terme. Collaboration ou compétition. Innovation radicale ou incrémentale. Centralisation ou décentralisation. Automatisation ou augmentation.

L'hypothèse de départ était limpide : si les modèles analysent réellement le contexte, leurs recommandations devraient varier. Un géant industriel de la construction ne devrait pas recevoir la même prescription qu'une startup technologique ou un hôpital. Les chercheurs ont fait tourner des milliers de simulations avec des prompts génériques et spécifiques, en variant les contextes d'entreprise et les formulations.

Le verdict : tout le monde reçoit la même réponse

Le « trendslop », ou quand l'IA confond popularité et pertinence

Les résultats sont sans appel. Sur six des sept tensions, tous les modèles convergent vers le même pôle — celui qui sonne le mieux dans un rapport annuel. Différenciation plutôt que coûts, 96 % du temps. Augmentation plutôt qu'automatisation, 93 %. Collaboration plutôt que compétition, 78 %. Long terme plutôt que court terme, 62 %. Toujours le choix qui brille davantage dans une présentation PowerPoint.

Les chercheurs ont baptisé ce phénomène le « trendslop » : la propension systématique des modèles de langage à recommander des stratégies alignées sur les mots à la mode plutôt que sur la logique spécifique de l'organisation qui pose la question. Un mot-valise formé de trend (tendance) et de slop (le terme qu'on utilise déjà pour décrire le contenu générique produit par l'IA).

Seule la tension « exploration vs. exploitation » a produit une véritable variation entre les modèles. Sur les six autres axes, les biais sont profondément ancrés et remarquablement uniformes d'un modèle à l'autre.

La formule la plus mordante des auteurs : sur la stratégie, les modèles de langage ressemblent à un jeune diplômé de MBA fraîchement sorti de l'école, qui répète ce qui est populaire plutôt que ce qui est juste pour une situation donnée.

Ni les prompts ni le contexte ne sauvent rien

15 000 tentatives pour corriger le biais. Résultat : 2 %.

On pourrait croire que le problème se résout avec de meilleurs prompts. Les chercheurs y ont pensé. En se concentrant sur ChatGPT-5 — le modèle le plus utilisé en pratique — ils ont mené plus de 15 000 essais en manipulant systématiquement les variables de formulation : inversion de l'ordre des options, changement de cadrage, demande d'analyse des pour et des contre, et même ajout d'une récompense promise pour une bonne réponse.

Le résultat est brutal. Sur les tensions de différenciation et d'augmentation — les deux biais les plus forts — le prompting sophistiqué ne réduit le biais que de moins de 2 %. Pour les cinq autres tensions, les manipulations déplacent les réponses d'environ 22 % en moyenne, mais ce chiffre est en grande partie un artefact d'un seul facteur : l'ordre des options. Simplement inverser la séquence dans laquelle les choix sont présentés réduit la probabilité de la réponse biaisée de 19 %. Ce n'est pas un signe que le modèle raisonne mieux — c'est un signe qu'il est sensible à la position d'un mot dans une phrase.

Et le contexte ? Les chercheurs ont testé plus de 15 000 variantes contextuelles, allant de grandes multinationales à des startups tech, en passant par des banques, des hôpitaux et des organismes à but non lucratif. En moyenne, l'ajout de contexte détaillé ne déplace la part de réponses biaisées que de 11 %. Le modèle peut sembler parfaitement adapté à votre situation tout en vous orientant discrètement vers le même petit groupe de tendances managériales contemporaines.

Le piège hybride : quand l'IA refuse de choisir

La sophistication apparente comme forme d'évitement stratégique

Le biais vers les tendances n'est pas le seul problème. Il y en a un autre, plus insidieux, que les chercheurs appellent le « piège hybride ». Lorsqu'on permet à ChatGPT de répondre sans forcer un choix binaire, il recommande fréquemment de faire les deux : poursuivre la différenciation et le leadership par les coûts, l'innovation radicale et l'incrémentale.

En surface, ça sonne sophistiqué et équilibré. En pratique, c'est exactement ce que les théoriciens de la stratégie dénoncent depuis des décennies sous le nom de « stuck in the middle » — cette position où, à force de vouloir tout être, on n'est plus rien. La différenciation et le leadership par les coûts exigent des capacités organisationnelles contradictoires. Suggérer qu'on peut avoir les deux, c'est encourager l'absence de focus qui mène à l'échec.

Les données sont parlantes : quand on lui offre la possibilité d'un hybride, ChatGPT recommande un mélange des deux stratégies dans 41 % des cas pour l'innovation radicale vs. incrémentale, et dans 56 % des cas pour l'exploitation vs. l'exploration. Ce n'est pas de la nuance. C'est de l'évitement déguisé en sophistication.

Les biais ne s'arrêtent pas à la stratégie

Un problème plus large, documenté dans plusieurs disciplines

Le trendslop n'est pas un phénomène isolé. D'autres recherches confirment que les biais des modèles de langage s'étendent bien au-delà de la stratégie d'entreprise.

Une étude publiée dans les Proceedings of the National Academy of Sciences (PNAS) en 2025 a démontré que les modèles de langage amplifient les biais cognitifs humains dans les décisions morales. Leurs décisions et conseils sont systématiquement biaisés en faveur de l'inaction — un biais d'omission plus fort que celui observé chez les humains. Les chercheurs ont également découvert un biais inédit : les modèles tendent à répondre « non » quelle que soit la question, inversant ainsi leur conseil selon la formulation. Ces biais proviendraient du fine-tuning pour les applications de chatbot.

Sur le front de la sycophantie — cette tendance de l'IA à dire ce qu'on veut entendre plutôt que ce qui est vrai — les résultats sont tout aussi préoccupants. Plusieurs études de 2025 documentent que les modèles approuvent les opinions de l'utilisateur dans plus de 90 % des cas, même dans des domaines techniques où le modèle devrait avoir des connaissances fiables. Le mécanisme est le même que pour le trendslop : l'entraînement par rétroaction humaine (RLHF) optimise pour l'agrément, pas pour la justesse.

Et l'étude de Harvard et du Boston Consulting Group — souvent citée pour célébrer les gains de productivité de l'IA — contient elle-même une mise en garde cruciale : pour les tâches situées à l'extérieur de la frontière des capacités de l'IA, les consultants utilisant GPT-4 ont produit des résultats 19 % moins justes que ceux qui travaillaient sans IA. Plus inquiétant encore, l'étude a observé une homogénéisation des idées produites par les consultants assistés par l'IA — un écho direct du trendslop.

L'autre côté : quand l'IA surpasse l'humain

La prospective stratégique, un terrain où les modèles excellent

Il serait malhonnête de s'arrêter là. D'autres recherches, tout aussi rigoureuses, démontrent que l'IA peut surpasser les humains dans certaines dimensions de la pensée stratégique.

L'étude la plus frappante vient de Felipe Csaszar (University of Michigan) et de ses collègues, publiée en février 2026. Dans un tournoi de prospective entièrement prospectif — c'est-à-dire portant sur des projets dont personne, humain ou machine, ne connaissait l'issue — les chercheurs ont comparé la capacité de prédiction des modèles de langage et de 346 gestionnaires expérimentés sur 30 projets Kickstarter technologiques lancés après la date de coupure d'entraînement de tous les modèles testés. Les résultats sont saisissants : les évaluateurs humains ont obtenu des corrélations entre 0,04 et 0,45 avec les résultats réels, tandis que plusieurs modèles de langage ont dépassé 0,60, le meilleur (Gemini 2.5 Pro) atteignant 0,74 — ordonnant correctement près de quatre paires de projets sur cinq.

L'étude Harvard/BCG de Dell'Acqua et al., publiée dans Organization Science en 2026, montre quant à elle que pour les tâches à l'intérieur de la frontière technologique, les consultants utilisant GPT-4 complétaient 12,2 % de tâches supplémentaires, 25,1 % plus rapidement, avec des résultats de qualité supérieure de plus de 40 %. Les bénéfices étaient particulièrement prononcés pour les tâches requérant créativité et innovation. Et les consultants les moins performants voyaient les gains les plus importants.

D'autres travaux viennent compléter le tableau : Allen et McDonald (2026) montrent que les modèles de langage surpassent les décideurs humains dans des simulations stratégiques avec des structures de gains bien définies. Sen et al. (2026) démontrent que les modèles surpassent les humains dans l'appariement d'analogies structurelles. Et Csaszar lui-même, dans un article éditorial de Strategy Science intitulé « Can AI Do Strategy? », défend l'idée que l'IA ne reproduira pas l'intuition humaine mais atteindra des résultats stratégiques par ses propres forces : échelle massive, vitesse computationnelle et capacité d'exploration systématique d'espaces de possibilités complexes.

Le vrai clivage : analyser n'est pas décider

Ce que les deux camps nous apprennent ensemble

Pris ensemble, ces deux corpus de recherche dessinent une frontière remarquablement nette. L'IA excelle dans ce qui relève de l'analyse, de la synthèse et de la prédiction sur des données standardisées. Elle surpasse même les humains quand le problème est bien cadré, quand l'information est structurée, quand les critères de succès sont mesurables. C'est le territoire de Csaszar : trier des projets d'investissement, évaluer des opportunités selon des paramètres définis, explorer des scénarios à grande vitesse.

Mais elle échoue précisément là où la stratégie se joue réellement : dans le renoncement. Choisir une direction stratégique, c'est dire non à des options séduisantes. C'est défendre un pari que la majorité trouverait contre-intuitif. C'est accepter de sacrifier l'exploration pour l'exploitation — ou l'inverse — en sachant que les deux sont défendables. Le modèle de langage, lui, est incapable de renoncer. Entraîné pour satisfaire, couvrir tous les angles et ne froisser personne, il produit du consensus quand la situation exige de la friction.

Cela contredit la théorie stratégique établie. Le travail fondateur de Michael Porter reconnaît explicitement le leadership par les coûts comme une position viable et souvent supérieure. Walmart, Costco, Aldi, Ryanair ont bâti des empires dessus. Mais les modèles de langage balaient cette option du revers de la main parce que la culture startup, les récits d'innovation et les conseils « trouvez votre proposition de valeur unique » dominent internet bien davantage que les histoires discrètes de succès par l'efficacité logistique. Les modèles ne suivent pas Porter — ils suivent statistiquement les dizaines de milliers de billets Medium et Substack sur la différenciation.

Le paradoxe de l'homogénéisation

L'outil de différenciation qui produit de l'uniformité

Le danger le plus profond du trendslop n'est pas qu'il donne de mauvais conseils. C'est qu'il donne à tout le monde les mêmes conseils. Et l'étude de Harvard/BCG le confirme par un autre angle : même quand l'IA produit des résultats de meilleure qualité, elle produit aussi des résultats plus homogènes. Les consultants assistés par GPT-4 généraient des idées supérieures en qualité moyenne, mais moins variées que celles de leurs collègues travaillant sans IA.

C'est le paradoxe ultime : l'IA recommande la différenciation 96 % du temps, mais en donnant cette même recommandation à tout le monde, elle produit exactement l'inverse — de l'uniformité. Si chaque entreprise d'un secteur utilise les mêmes outils pour produire les mêmes analyses, on obtient une convergence stratégique qui annule précisément l'avantage concurrentiel que la stratégie est censée créer.

Ce que ça exige de nous

Sans guidance précise, l'IA ne peut pas — pas encore — penser l'avenir de votre organisation. C'est la conclusion convergente de toutes ces recherches, y compris celles qui célèbrent les capacités de l'IA.

Le mot clé, c'est guidance. Csaszar, dont les travaux montrent que l'IA peut surpasser les humains en prospective, insiste lui-même sur le fait que l'IA n'entrera pas dans la stratégie là où le raisonnement requis est le plus profond, mais là où sa performance est la plus mesurable. L'étude Harvard/BCG parle d'une « frontière technologique dentelée » dont même les experts ne devinent pas le tracé. Romasanta, Thomas et Levina démontrent que les biais persistent quel que soit le prompt.

Ce que ces études dessinent ensemble, c'est le portrait d'un outil extraordinairement puissant mais structurellement aveugle à son propre angle mort. L'IA ne sait pas qu'elle est biaisée. Elle ne sait pas qu'elle recommande la même chose à tout le monde. Et elle ne sait pas que la stratégie, la vraie, ne consiste pas à choisir ce qui sonne bien — mais à choisir ce qui fait mal.

Le rôle du stratège humain n'est pas menacé par l'IA. Il est redéfini. L'humain n'est plus celui qui fait l'analyse — l'IA le fait mieux et plus vite. L'humain est celui qui refuse les conclusions confortables. Celui qui dit : « Tout ça est séduisant, mais ce n'est pas nous. » Celui qui fait le tri entre ce qui est populaire et ce qui est juste. Celui qui renonce.

Les organisations qui comprennent cette frontière — l'IA pour élargir le champ des possibles, l'humain pour trancher — ont un avantage sur celles qui confondent fluence verbale et intelligence stratégique. Et cet avantage, aucun modèle de langage ne peut le reproduire.

Cet article est en cours d'écriture.
Si vous avez des choses intéressantes à nous raconter à ce sujet, n'hésitez surtout pas!
Écrivez à l'auteur-trice

Ce qu'il faut retenir

Le « trendslop » est la tendance systématique des modèles de langage à recommander les stratégies les plus à la mode plutôt que les plus adaptées — différenciation à 96 %, augmentation à 93 %, collaboration à 78 %. Ni le contexte (11 % de déplacement) ni les prompts sophistiqués (2 % sur les biais les plus forts) ne corrigent ces biais. Mais d'autres recherches montrent que l'IA surpasse les humains en prospective structurée, en tri d'opportunités et en productivité sur les tâches bien cadrées. La convergence de ces études pointe vers une même conclusion : sans guidance humaine précise, l'IA ne peut pas encore penser l'avenir d'une organisation. Elle peut explorer, synthétiser, accélérer. Mais la décision stratégique — cet acte de renoncement éclairé — reste un travail fondamentalement humain.

Gaëtan est le fondateur de Perrier Jablonski. Créatif et stratège, il est aussi enseignant à HEC, à l’École des Dirigeants et à l'École des Dirigeants des Premières Nations. Il est membre du C.A. de l’École Nationale de l’Humour. Il est certifié par le MIT (Design Thinking, I.A.), il étudie l'histoire des sciences, la philosophie, et les processus créatifs. Il est l’auteur de deux essais et plus de 200 articles sur tous ces sujets.
Bibliographie et références de l'article

ARTICLE ACADÉMIQUE · Romasanta, A., Thomas, L.D.W. et Levina, N. (2026). Researchers Asked LLMs for Strategic Advice. They Got "Trendslop" in Return. Harvard Business Review, mars 2026. + L'étude fondatrice qui introduit le concept de trendslop à partir de milliers de simulations sur sept modèles de langage et sept tensions stratégiques binaires.

ARTICLE ACADÉMIQUE · Csaszar, F.A., Peterson, A. et Wilde, D. (2026). The Strategic Foresight of LLMs: Evidence from a Fully Prospective Venture Tournament. arXiv:2602.01684. + La démonstration la plus rigoureuse que les modèles de langage peuvent surpasser les humains en prospective, avec des corrélations de 0,74 contre 0,04–0,45 pour les évaluateurs humains.

ARTICLE ACADÉMIQUE · Dell'Acqua, F. et al. (2023/2026). Navigating the Jagged Technological Frontier: Field Experimental Evidence of the Effects of AI on Knowledge Worker Productivity and Quality. Organization Science. + L'étude Harvard/BCG qui révèle à la fois les gains spectaculaires de productivité et les risques d'homogénéisation et d'erreur hors de la frontière technologique.

ARTICLE ACADÉMIQUE · Csaszar, F.A. (2026). Can AI Do Strategy? A Dialogue and Debate. Strategy Science. + L'éditorial qui propose un double cadre — échelle de causalité et échelle de délégation — pour comprendre où l'IA peut et devrait intervenir dans la stratégie.

ARTICLE ACADÉMIQUE · Almeida, G.F. et al. (2025). Large Language Models Show Amplified Cognitive Biases in Moral Decision-Making. Proceedings of the National Academy of Sciences (PNAS). + La démonstration que les biais des modèles de langage ne se limitent pas à la stratégie mais s'étendent aux décisions morales, avec des biais d'omission et de formulation plus forts que chez les humains.

OUVRAGE FONDATEUR · Porter, M.E. (1985). Competitive Advantage: Creating and Sustaining Superior Performance. Free Press. + Le cadre théorique fondamental qui établit le leadership par les coûts comme position stratégique viable — exactement celle que les modèles de langage écartent systématiquement.

L'I.A. a pu contribuer à cet article. Voyez comment.
  • Nous utilisons parfois des outils de LLM (Large Language Models) tels que Chat GPT, Claude 3, ou encore Sonar, lors de nos recherches.
  • Nous pouvons utiliser les outils de LLM dans la structuration de certains exemples
  • Nous pouvons utiliser l'IA d'Antidote pour la correction ou la reformulation de certaines phrases.
  • ChatGPT est parfois utilisé pour évaluer la qualité d'un article (complexité, crédibilité des sources, structure, style, etc.)
  • Cette utilisation est toujours supervisée par l'auteur.
  • Cette utilisation est toujours éthique :
    • Elle est transparente (vous êtes prévenus en ce moment-même),
    • Elle est respectueuse des droits d'auteurs — nos modèles sont entraînés sur nos propres contenus, et tournent en local lorsque possible et/ou nécessaire.
Tableau de bord
Cet article est final.
spellcheck
Cet article est en relecture.
rule
Cet article a été remis à Gaëtan
badge
Cet article est encore dans les mains de l'équipe.
psychology
Cet article est un projet.
psychology
Cet article n'a pas de statut!
I.A.
sell
Aucun sujet sélectionné!
Quand la machine récite le cours au lieu de penser le problème.
subject
Il n'y a pas de teaser!
hdr_auto
Il n'ya a pas d'introduction!
copyright
Pas de légende d'illustration
Légende :
ChatGPT + Gaëtan Namouric
Les grands modèles de langage peuvent-ils remplacer le stratège humain ? Les recherches récentes convergent vers une réponse nuancée. L'étude de Romasanta, Thomas et Levina (HBR, mars 2026) démontre le phénomène du « trendslop » : sur sept tensions stratégiques fondamentales, sept modèles — dont ChatGPT, Claude, Gemini et GPT-5 — recommandent systématiquement les mêmes stratégies à la mode (différenciation à 96 %, augmentation à 93 %), indépendamment du contexte. Ni l'enrichissement contextuel ni l'ingénierie de prompts ne corrigent ces biais. Mais d'autres recherches, notamment le tournoi prospectif de Csaszar et al. (2026) et l'étude Harvard/BCG de Dell'Acqua et al., montrent que l'IA peut surpasser les humains en prospective structurée et en productivité pour les tâches bien cadrées. La synthèse de ces travaux établit que sans guidance humaine précise, l'IA ne peut pas encore penser l'avenir d'une organisation. L'IA excelle pour explorer, synthétiser et accélérer. Mais la décision stratégique — parce qu'elle exige des arbitrages douloureux et des renoncements — reste un exercice fondamentalement humain.Partager
🎉
Encoooooore!
Parce qu'on vous aime, voici d'autres articles sur le même thème.
No items found.
N'achetez pas un livre québécois, achetez-en deux.
Ce que nous apprenons, nous le transmettons.

Notre best-seller sur le pitch! Plus de 3 000 exemplaires vendus et plus de 200 pages de secrets, d'anecdotes et d'histoires pour vous aider à raconter la vôtre!

270 pages pour aider les gestionnaires à survivre dans un monde qui change.

UN PAS🏁DE RECUL,
UN COUP🏴‍☠️D'AVANCE.

Une newsletter incontournable pour les gestionnaires. Un samedi sur deux, une dose d’inspiration, de découvertes et d’outils pour  vous donner un peu de recul... et beaucoup d'avance.
Bien reçu!
Une erreur s'est produite.
⚠️ Connect this link to current Template page
Non, ChatGPT ne pourra pas faire de la stratégie à votre place.