L'IA n'est pas un outil, c'est un collègue
Pourquoi la posture managériale décide du ROI IA plus que la technologie elle-même, et trois déplacements que les comités de direction sérieux ont déjà opérés.
Ethan Mollick, professeur à la Wharton School de l'Université de Pennsylvanie, a tenu en 2024 une phrase qui devrait être lue dans tous les comités de direction français. Elle tient en six mots.
« Every company is full of secret cyborgs. »
Traduction : toutes vos entreprises sont déjà remplies de cyborgs secrets. Vos collaborateurs ont adopté l'intelligence artificielle. Ils l'utilisent quotidiennement, sur leurs téléphones personnels, sur leurs comptes privés, sur des outils que vous n'avez ni choisis ni validés. Ils en tirent un gain de productivité mesurable. Ils ne vous en parlent pas, parce qu'ils ne savent pas si vous allez les féliciter, leur supprimer du travail, ou les pénaliser pour avoir contourné une règle de gouvernance qui n'existe d'ailleurs pas formellement.
Ce phénomène n'est pas anecdotique. Le Microsoft Work Trend Index 2024 le quantifie sans ambiguïté : soixante-quinze pour cent des knowledge workers utilisent la GenAI au travail. Soixante-dix-huit pour cent apportent leur propre outil personnel. Cinquante-sept pour cent cachent cette utilisation à leur hiérarchie.
Pendant que vous discutez en COMEX si l'IA fait peur à vos équipes, vos équipes l'utilisent. Pendant que votre conseil arbitre s'il faut signer un budget pilote, votre patrimoine cognitif quitte déjà votre entreprise en flux libre vers des modèles publics. Pendant que vous attendez une transformation managériale, la transformation se fait sans vous, dans une économie informelle dont personne ne tient les comptes.
Si je vous écris cet essai aujourd'hui, c'est parce que cette réalité change tout ce que vous croyez savoir sur l'adoption de l'IA dans votre entreprise. Et parce que la posture qui débloque le ROI organisationnel n'est ni un outil ni une plateforme. C'est une décision managériale. Mollick l'a formulée mieux que personne. Je vais vous proposer trois déplacements stratégiques tirés directement de ses travaux, et adaptés à un comité de direction français en 2026.
Pourquoi votre déploiement IA ressemble à un fiasco silencieux
Avant les déplacements, posons le diagnostic.
La plupart des dirigeants que je rencontre traitent l'IA comme un outil. Un peu comme on traitait un nouveau logiciel de comptabilité en 1998. On choisit le fournisseur, on signe le contrat, on déploie l'outil, on forme les équipes, on mesure l'adoption. La grille mentale est connue. Elle a fait ses preuves pendant trente ans.
Cette grille mentale ne fonctionne pas pour l'IA.
Mollick le résume dans une phrase qui devrait être affichée dans toutes les salles de direction : « AI is a breakthrough technology for individual productivity, but not yet for organizations. » L'IA est une révolution individuelle. Elle ne devient organisationnelle que par décision managériale délibérée. Et cette décision ne ressemble à aucune décision technologique antérieure.
Trois raisons à cela.
La première, c'est que l'IA n'est pas un outil discret. Elle ne se cantonne pas à un usage spécifique. Un logiciel de comptabilité reste dans la comptabilité. L'IA traverse toutes les fonctions, toutes les tâches, tous les workflows. Elle se diffuse latéralement, en dehors de votre gouvernance, à la vitesse de la conversation entre collaborateurs.
La deuxième, c'est que l'IA ne s'utilise pas pareil par tous. Mollick et ses co-auteurs ont documenté, dans une étude conduite avec le Boston Consulting Group en 2023, que la même IA produit chez certains profils des gains de quarante pour cent et chez d'autres des destructions de valeur de dix-neuf points. La distribution n'est ni gaussienne ni prévisible. Elle suit une logique que Mollick appelle la frontière déchiquetée. Nous y revenons dans un instant.
La troisième, c'est que l'IA n'attend pas votre validation pour se déployer. Le Microsoft Work Trend Index 2024 mesure que la décision d'adoption a déjà eu lieu, sans vous, dans le silence des comptes personnels et des navigateurs privés. Vous ne pilotez pas un projet de déploiement. Vous pilotez la captation d'un usage qui existe déjà.
Je vais être très honnête avec vous. Le réflexe par défaut, face à cette réalité, est de chercher à reprendre le contrôle par la gouvernance. Interdire les outils personnels. Déployer un seul outil officiel. Limiter les accès. Mesurer les usages. Ce réflexe se solde dans la quasi-totalité des cas par un échec mesurable : les équipes continuent d'utiliser leurs outils, en plus de l'outil officiel, et la part de patrimoine cognitif qui fuit hors de votre entreprise augmente plutôt qu'elle ne diminue.
Mollick propose une posture inverse. Elle commence par renoncer à la métaphore de l'outil.
Premier déplacement : voir les cyborgs secrets que vous abritez
Tant que vous traitez l'IA comme un projet à lancer, vous restez aveugle à l'usage qui se déploie déjà en silence. Le premier déplacement managérial consiste à reconnaître officiellement, en comité de direction, que vos équipes utilisent l'IA aujourd'hui, à grande échelle, sans gouvernance.
Cette reconnaissance n'est pas une concession. C'est un acte stratégique.
Mollick écrit dans Detecting the Secret Cyborgs, publié sur son blog One Useful Thing en 2024 : « quand je donne des conférences, des personnes viennent me voir après pour me confesser qu'elles ont automatisé leur travail et qu'elles ne veulent en parler à personne. » Cette confession privée est devenue le mode dominant d'adoption de l'IA en entreprise occidentale. Les chiffres Microsoft le confirment.
Trois leviers concrets pour rendre visible ce qui est aujourd'hui invisible dans votre organisation.
Premier levier : créer un espace de déclaration sans pénalité. Le frein principal à la déclaration n'est pas technique. Il est managérial. Vos équipes craignent que la déclaration de leur usage IA déclenche soit une suppression de poste, soit une dévalorisation du travail produit, soit une obligation de partager les gains de temps. Tant que ces trois craintes ne sont pas adressées explicitement par votre direction, la déclaration ne se produira pas.
Deuxième levier : valoriser explicitement l'effort d'apprentissage IA. Mollick documente que les meilleurs usages individuels d'IA en entreprise reposent sur des dizaines ou des centaines d'heures d'expérimentation personnelle. Cet effort doit être reconnu, idéalement rémunéré, et capitalisé dans le patrimoine de l'organisation. Vos cyborgs secrets sont vos meilleurs formateurs. Mais ils ne formeront personne tant que leur compétence reste invisible.
Troisième levier : auditer les flux de données qui sortent de votre entreprise. Les usages cachés signifient que des informations sensibles circulent vers des modèles publics sans votre consentement. Audit. Identification de l'usage. Et pas pour interdire, mais pour offrir un cadre officiel qui protège les données tout en préservant la productivité individuelle.
Conséquence pour votre conseil : votre prochain budget IA doit financer la captation de l'usage existant avant de financer le déploiement d'un nouvel outil. Le ROI est dans la captation. Pas dans l'outil.
Deuxième déplacement : identifier votre frontière déchiquetée
En 2023, Fabrizio Dell'Acqua, Ethan Mollick et leurs co-auteurs publient une étude qui devrait restructurer la stratégie d'adoption IA de toute entreprise sérieuse. Navigating the Jagged Technological Frontier, Harvard Business School Working Paper 24-013, publié dans Organization Science en 2025. L'étude porte sur sept cent cinquante-huit consultants du Boston Consulting Group, soumis à des tâches expérimentales avec et sans assistance GenAI.
Le résultat est aussi spectaculaire que dérangeant.
Sur les tâches situées dans la frontière de capacité de GPT-4, les consultants assistés livrent un travail quarante pour cent meilleur que ceux qui travaillent sans. C'est un gain massif, supérieur à ce que les rapports consultants standard prévoyaient.
Sur les tâches situées juste à l'extérieur de cette frontière, les consultants assistés performent dix-neuf points de pourcentage moins bien que ceux qui travaillent sans IA. Le gain devient une destruction nette de valeur.
Mollick a donné un nom à ce phénomène : la jagged frontier, la frontière déchiquetée. L'IA n'est pas un outil dont la qualité varie linéairement. C'est un outil dont les capacités sont irrégulièrement distribuées, par endroits supérieures aux meilleurs humains, par endroits inférieures à un stagiaire. Et le tracé exact de cette frontière n'est ni intuitif ni visible. Vous ne savez pas où elle passe dans votre métier tant que vous ne l'avez pas testée.
Conséquence pratique : déployer l'IA à toute votre organisation sans avoir identifié votre frontière déchiquetée, c'est garantir des destructions de valeur invisibles, partout où la frontière coupe vos processus critiques.
Soit dit en passant, c'est exactement ce qui se passe dans la plupart des entreprises aujourd'hui. Vos collaborateurs utilisent l'IA pour tout, indistinctement, sans grille de qualification. Sur les tâches où l'IA performe, ils livrent un travail spectaculaire et vous le voyez. Sur les tâches où l'IA ne performe pas, ils livrent un travail dégradé qu'ils ajustent ensuite manuellement, et personne ne mesure le coût de cet ajustement. Le ROI réel est négatif sur la moitié des usages, sans que personne ne le sache.
Trois manières concrètes d'identifier votre frontière déchiquetée.
Première manière : tests d'usage encadrés par métier. Pour chaque métier critique (commerce, marketing, finance, support, opérations), conduire pendant six à douze semaines des tests structurés où une partie de l'équipe travaille avec IA et l'autre sans, sur des tâches comparables, avec mesure de la qualité par un évaluateur tiers. C'est l'équivalent industriel de l'étude BCG. À l'échelle de votre entreprise.
Deuxième manière : cellule de qualification continue. Désigner une équipe restreinte chargée de qualifier en continu les nouveaux cas d'usage IA selon trois critères : la frontière de capacité actuelle, le coût d'erreur acceptable, la facilité de détection des erreurs. Cette équipe produit une grille évolutive que vos métiers consultent avant tout déploiement.
Troisième manière : protocole d'apprentissage du non-usage. Identifier nommément les tâches que vos équipes ne devraient pas confier à l'IA, même si elles en sont techniquement capables. Le non-usage est aussi stratégique que l'usage. Il protège vos marges de qualité là où la frontière déchiquetée se referme.
Conséquence pour votre conseil : avant tout déploiement IA à l'échelle, exiger l'identification documentée de la frontière déchiquetée métier par métier. Sans cette identification, le déploiement produit autant de destruction que de création de valeur.
Troisième déplacement : installer les trois rôles Leadership, Lab et Crowd
Mollick a formalisé dans plusieurs articles de One Useful Thing et dans Co-Intelligence un modèle d'organisation pour transformer l'usage individuel en patrimoine organisationnel. Trois rôles complémentaires, qu'il appelle Leadership, Lab, Crowd. Ces rôles ne se confondent pas avec des fonctions traditionnelles. Ils décrivent trois temporalités managériales différentes, qui doivent coexister.
Le rôle Leadership porte la vision et les arbitrages. Il est tenu par la direction générale. Sa fonction est de répondre à trois questions que personne d'autre dans l'entreprise ne peut trancher. Quelle est la posture éthique de l'entreprise face à l'IA. Quelles tâches déléguons-nous, lesquelles gardons-nous résolument humaines. Comment partageons-nous les gains de productivité dégagés. Sans réponses claires à ces trois questions, aucun déploiement n'atteindra l'échelle.
Le rôle Lab teste, apprend et capitalise. Il est tenu par une équipe restreinte, autonome, outillée. Sa fonction est de qualifier en continu les nouveaux usages, mesurer les frontières déchiquetées, formaliser les protocoles, documenter les retours d'expérience. Le Lab n'est pas une cellule R&D classique. Sa cadence est hebdomadaire, ses livrables sont des fiches de protocole, son budget est modeste. Une à trois personnes suffisent pour une ETI.
Le rôle Crowd expérimente, contribue et améliore en continu. Il est tenu par l'ensemble des collaborateurs. Sa fonction est de remonter en permanence vers le Lab les usages, les frontières observées, les destructions de valeur détectées. Le Crowd transforme l'usage individuel en signal collectif. Sans Crowd actif, le Lab travaille à l'aveugle. Sans Lab structuré, le Crowd produit du bruit non capitalisable.
Mollick l'écrit explicitement : les trois rôles doivent exister simultanément. Aucun ne peut compenser l'absence des deux autres. Une direction qui pilote sans Lab produit des décisions abstraites. Un Lab qui travaille sans Crowd produit des protocoles déconnectés. Un Crowd qui expérimente sans Leadership produit une cacophonie d'usages clandestins, exactement la situation dans laquelle se trouvent la plupart des entreprises aujourd'hui.
Conséquence pour votre conseil : votre budget IA doit financer simultanément les trois rôles, dès la phase initiale. Pas le Leadership seul, pas le Lab seul, pas le Crowd seul. Les trois ensemble. C'est la condition minimale de l'adoption organisationnelle.
Pour conclure
L'IA n'est pas un outil. C'est un collègue qui s'est installé dans vos équipes sans contrat, sans onboarding, et sans que vous ayez choisi son profil. Vos cyborgs secrets travaillent déjà avec lui. La question n'est pas si vous le reconnaissez. La question est si vous l'organisez.
Trois déplacements managériaux permettent d'opérer cette organisation.
Premier déplacement, voir les cyborgs secrets : reconnaître publiquement l'usage caché de l'IA dans vos équipes, créer un espace de déclaration sans pénalité, capter le patrimoine cognitif avant qu'il ne quitte votre entreprise.
Deuxième déplacement, identifier votre frontière déchiquetée : tester métier par métier où l'IA produit de la valeur et où elle en détruit. Le tracé n'est ni intuitif ni visible. Sans tests structurés, vos déploiements détruisent autant qu'ils créent.
Troisième déplacement, installer Leadership, Lab et Crowd : trois rôles complémentaires, trois temporalités managériales, à financer simultanément dès la phase initiale. C'est le seul protocole d'adoption qui transforme l'usage individuel en avantage organisationnel mesurable.
« L'IA est un breakthrough pour la productivité individuelle, pas encore pour les organisations. » Ethan Mollick, Co-Intelligence, Portfolio, avril 2024
Mollick a formulé en 2024 le diagnostic le plus juste de l'adoption IA dans les comités de direction occidentaux. Le breakthrough individuel a eu lieu. Le breakthrough organisationnel n'attend pas une nouvelle génération de modèles. Il attend une nouvelle génération de dirigeants, capables de traiter l'IA comme ils traiteraient un collègue brillant et imprévisible : avec curiosité, avec exigence, avec un cadre clair sur ce qu'on lui délègue et ce qu'on garde.
Ce cadre vous appartient. Et il commence le jour où vous arrêtez de chercher l'outil parfait, pour commencer à organiser le collègue déjà là.
Sources principales
- Fabrizio Dell'Acqua, Edward McFowland III, Ethan Mollick et al., Navigating the Jagged Technological Frontier: Field Experimental Evidence of the Effects of AI on Knowledge Worker Productivity and Quality, Harvard Business School Working Paper 24-013, septembre 2023 (publié Organization Science, 2025) — +40 % dans la frontière, -19 points hors frontière.
- Ethan Mollick, Co-Intelligence: Living and Working with AI, Portfolio, avril 2024 — l'IA comme breakthrough individuel qui ne devient organisationnel que par décision managériale ; protocole Leadership / Lab / Crowd.
- Microsoft & LinkedIn, 2024 Work Trend Index Annual Report, mai 2024 — 75 % des knowledge workers utilisent la GenAI au travail, 78 % apportent leur propre outil, 57 % cachent l'usage.
Citations littéraires complémentaires : Ethan Mollick, Detecting the Secret Cyborgs, blog One Useful Thing, 2024.