




C’est en 2016 que Perrier Jablonski a embauché sa première ethnographe. Sabrina Tremblay, d’abord venue observer « L’émergence d’une nouvelle organisation créative » chez nous (le nom de son mémoire de maîtrise) pour HEC. Mais Sabrina avait été envoyée chez nous par Jean-Sébastien Marcoux, le plus grand anthropologue de la consommation au Québec. Il allait devenir (sans le savoir), le parrain influent et bienveillant de notre jeune firme.
Une expérience si bouleversante pour nous qu’elle allait changer le cours de notre jeune histoire, et réorganiser le travail en équipes-trios : ethnographe, stratège, chargée de projets. C’est encore le modèle que nous utilisons aujourd’hui.
Pour chaque projet, on sélectionnait un groupe de participants, on menait des entrevues d’une heure, puis on transcrivait à la main. Pour une heure d’entrevue, il fallait compter une heure et demie de transcription. Donc… 2h30 par entrevue. C’était cher et laborieux, mais la qualité des observations que nous faisions comblait largement l’investissement.
Il fallait cependant avouer qu’au fil des projets qui grandissaient, ce temps de traitement devenait colossal. À l’époque, nous avions cherché des outils commerciaux de transcription. Les plus fiables — les mêmes utilisés par les tribunaux — coûtaient des milliers de dollars par licence. Hors de portée pour notre usage. Puis est arrivé… Whisper.
En septembre 2022, OpenAI publie Whisper — un modèle de transcription automatique entraîné sur 680 000 heures d’audio multilingue. Open source, sous licence MIT : gratuit, modifiable, installable localement sur n’importe quel ordinateur. Quiconque voulait transcrire un fichier audio sans l’envoyer dans le cloud, pouvait le faire gratuitement.
Pour Perrier Jablonski, ç’a été un basculement. Les heures passées à transcrire mécaniquement ont pu être réparties dans ce qui compte vraiment : plus d’entrevues, plus d’analyse, plus de livrables. L’ethnographie que nous pratiquions de façon presque artisanale s'est largement professionalisée… Et nos projets se sont multipliés. Le plus beau? Cette automatisation a permis à Perrier Jablonski de démocratiser l’anthropologie. Elle est devenue accessible à des organisations qui n’en n’auraient jamais eu les moyens auparavant. Les PME, les OBNL, les équipes à petit budget pouvaient enfin s’offrir du vrai terrain, de vraies observations, de vrais insights.
Une vraie révolution, je vous dis ! Mais...
Pendant plus de trois ans, nous avons utilisé le modèle Whisper via l’application MacWhisper. Un bon outil. Fiable, local, économique, rapide. Mais au fil des projets, ses limites sont devenues évidentes pour notre usage.
D’abord, la précision dans le temps. MacWhisper place les mots dans des blocs de quelques secondes. Pour lire une transcription, c’est suffisant. Pour analyser une entrevue précisément, il faut savoir où chaque mot commence et finit… à la milliseconde.
Ensuite, il ne sait pas qui parle. Deux voix pendant 45 minutes produisent un seul bloc de texte. La diarisation — séparer les voix — est arrivée en bêta fin 2025, tard et encore imparfaite. Dans une entrevue qualitative, savoir qui dit quoi est la condition minimale.
Enfin, les voix séparées restent étiquetées « Speaker 1 / Speaker 2 ». Des numéros anonymes. Pour une firme qui conduit des centaines d’entrevues par année, avec les mêmes ethnographes, renommer à la main chaque fichier est un travail que la machine devrait faire seule.
Ça, c’est sans parler des bugs importants qui nous forçaient à repasser à travers chaque entrevue méticuleusement. Nous avions besoin d’un meilleur outil, alors nous l’avons construit.
La première version de Boris était donc un outil de transcription. Nous sommes partis d’un modèle plus récent que Whisper, WhisperX, développé par l’équipe Visual Geometry Group d’Oxford (Bain et al., 2023), dont nous avons utilisé les nouvelles fonctionnalités à fond, avant de lui adjoindre des fonctionnalités-maison.
D’abord, la diarisation : séparer les voix avant même de transcrire. Un modèle analyse le signal pour repérer qui parle quand, en comparant les empreintes acoustiques au fil de l’enregistrement — sans comprendre les mots. Résultat : un bloc de texte par personne, au lieu d’un monologue mélangé.
Ensuite, l’alignement forcé. Whisper transcrit par phrases de quelques secondes ; Boris ajoute une deuxième passe qui recale chaque mot à la milliseconde exacte d’apparition dans l’audio. On peut alors retrouver, dans le signal brut, le moment précis où un mot a été prononcé — et tout ce qui l’entoure : intonation, pause, hésitation.
Enfin, l’identification nominative. Les voix des ethnographes de Perrier Jablonski sont stockées une fois dans l’application. À chaque nouvelle entrevue, Boris reconnaît leur empreinte et les étiquette par leur nom réel — puis filtre leurs interventions, parce que ce qui nous intéresse, c’est les propos du participant, pas ceux de l’intervieweur.
Et toutes ces opérations sont effectuées en local, sur nos Mac, sans jamais se promener sur le réseau — pour une confidentialité absolue. Si on devait le commercialiser, Boris battrait déjà tous les outils du commerce :
Nous n’allions pas nous arrêter en si bon chemin. En développant la transcription de Boris, nous avons réalisé qu’on pouvait synchroniser chaque mot avec le signal audio brut. Cela ouvrait deux portes : analyser ce que les gens disent avec une précision inédite, et analyser comment ils le disent — c’est-à-dire leur voix elle-même.
Nous avions construit le meilleur moteur de transcription disponible sur le marché… Mais venions d’ouvrir la voie à un tout nouveau type d’analyse…
Quand on termine 20 entrevues sur le même sujet, on a besoin d’un outil visuel pour illustrer ce que les participants nous ont dit. Un outil que vous connaissez bien : le nuage de mots. Les mots les plus fréquents apparaissent en gros, les plus rares en petit. En un regard, on voit le territoire lexical du groupe. Mais pour qu’un nuage de mots soit lisible — et utile — il faut toujours faire un peu de ménage.

Le premier geste, c’est d’écarter les mots qui n’apportent rien : « de », « que », « est », « avoir », « chose ». Les linguistes les appellent des stopwords — des mots vides. Ils sont partout, ils noient tout. Les retirer, c’est déjà voir plus clair.
Le deuxième geste, c’est la lemmatisation : ramener chaque mot à sa racine. « Méritaient », « méritera », « méritent », « mériterait » deviennent tous « mériter ». Sans ça, chaque variante compte pour un mot distinct et le signal s’éparpille. Après ce nettoyage, une entrevue de 45 minutes qui contenait 3 800 mots bruts en contient environ 1 700 analysables. Sur un projet de 20 entrevues, on passe de 76 000 à 34 000.
Le nuage de mots obtenu est un portrait lexical du groupe : ce qui habite leurs pensées, ce qui revient dans leurs bouches, ce qui tient le terrain mental.
Mais un nuage seul ne dit pas tout. Les mots qui reviennent le plus souvent sont souvent les plus attendus — « mission », « culture », « équipe » dans un mandat organisationnel. Pour aller plus loin, il fallait chercher ailleurs : d’abord identifier le champ lexical vraiment spécifique à chaque participant, et ensuite… les mots qu’on aurait attendus mais qu’on n’a pas entendus…
Analyser les mots à ce niveau de précision est totalement inédit. Pour un client, c’est comme passer du 720P au 8K d’un seul coup. Cerise sur le sundae, à ce stade de l’analyse, aucune donnée n’a quitté nos machines, tout se fait 100 % en local, tout 100 % confidentiel.
Pendant une entrevue, la voix d’un participant transporte bien plus que des mots. Elle accélère quand un sujet devient sensible. Elle baisse d’un ton quand la confiance s’installe. Elle tremble imperceptiblement quand une émotion remonte. Admettons que ces signaux soient identifiables, peut-on réellement les interpréter?
L’étude de ces signaux s’appelle la prosodie. Jusqu’ici, elle appartenait à d’autres mondes : les phonéticiens qui décrivent les langues, les cliniciens qui diagnostiquent la dépression par le timbre de la voix, les ingénieurs qui entraînent des assistants vocaux. En 2023, Van Rijn et Larrouy-Maestri ont publié dans Nature Human Behaviour une analyse portant sur plus de 3 000 minutes d’enregistrements issus de corpus mondiaux. Leur conclusion : sept facteurs acoustiques — qualité vocale, intensité, hauteur, rythme, fluctuations rapides et aléatoires (shimmer), variation du pitch et spectre fréquentiel — expliquent à eux seuls 57 % de la variance émotionnelle dans la voix humaine. Sept facteurs mesurables? Parfait! C’était notre nouveau brief!
C’est la deuxième révolution proposée par Boris. L’application échantillonne chacun de ces signaux toutes les 500 millisecondes, en continu, sur toute la durée de l’entrevue. Le résultat : 7 signaux mesurés toutes les 0.5 secondes, pendant 45 minutes — plus de 37 800 points de données signaux potentiels par entrevue. Une véritable mine d’informations !
Chaque mesure est comparée à la ligne de base propre au locuteur — ses propres moyennes de débit, d’intensité, de hauteur. Boris ne confond pas quelqu’un qui parle naturellement fort avec quelqu’un qui s’emballe en parlant fort tout à coup. Un signal n’est pertinent que s’il est inhabituel pour cette personne en particulier.
Un raclement de gorge avant de répondre à une question sur la direction ? Un chuchotement au moment où le participant mentionne un collègue ? Un soupir presque inaudible quand l’ethnographe aborde le sujet de la gouvernance ? Ces événements, qui ne sont ni des mots, ni de la prosodie… Mais sont aussi des données précieuses pour un ethnographe.
Alors nous avons implémenté la détection de 18 types d’événements paralinguistiques : plusieurs niveaux de rire, les soupirs, les sanglots, les applaudissements, les exclamations, les chuchotements — c’est un système semblable à celui d’Apple, qui détecte les sons environnants pour les personnes malentendantes (réglages > accessibilité). Nous avons simplement utilisé le modèle de Google YAMNet, entraîné sur plus de 2 millions de clips audio. Il contient 521 classes sonores, mais nous n’avons choisi que les 18 qui étaient pertinentes pour Boris.
Chaque événement est horodaté, scoré, filtré et intégré à l’analyse comme signal à part entière.
Cette analyse ultra fine se fait au même rythme que l’analyse prosodique, toutes les 500 millisecondes.

La mémoire de travail humaine traite entre 5 et 9 éléments à la fois — psychologie cognitive (Miller, 1956). Un ethnographe qui conduit une entrevue, doit maintenir le lien avec le participant, formuler des hypothèses, réorienter ses questions ou son enquête, prendre des notes… il a déjà beaucoup de travail et il ne peut pas traiter 139 000 signaux. Maintenant… il peut.
En d’autres termes, Boris analyse 25 types d’événements (7 signaux prosodiques et 18 sons) deux fois par seconde. Ces 139 000 points de données par entrevue représentent plus de 2 700 000 mesures traitées, comparées entre elles, et interprétées pour un projet de 20 entrevues chez Perrier Jablonski.
Souvenons-nous que dans le passé (hum… il y a 3 ans), un ethnographe avait besoin de 1h30 pour transcrire 1h d’entrevue. Non seulement, ce temps est désormais réduit à néant, mais en plus, il offre une précision d’analyse totalement inédite dans notre milieu.
Chez Perrier Jablonski, nous avons toujours séparé les observations ethnographiques et les observations éditoriales, faites par le stratège. L’un écoute et analyse. L’autre propose des pistes réflexions, identifie des tensions à dénouer, formule… L’un est un radiologue qui scanne, l’autre est un médecin de famille qui interprète.
Mais avec Boris, nous avons inventé une troisième voie. Un nouveau genre d’observations que nous avons appelées synthétiques, qui consiste en une analyse croisée des couches sémantiques, prosodiques et sonores.
Ces croisements permettent des observations impossibles jusque-là, qui s’ajoutent aux précédentes :
L’arc émotionnel. Boris agrège les signaux prosodiques et les événements sonores par fenêtres de deux minutes, et trace la courbe d’intensité de la conversation. L’ethnographe voit d’un coup d’œil où l’entrevue a basculé. En superposant les 20 courbes d’un projet, on voit si un même moment du guide fait réagir tout le monde.
Les contradictions internes. Boris repère les moments où un participant dit une chose en début d’entrevue et son contraire en fin. Il met les deux énoncés côte à côte, avec leur signature prosodique, et on identifie quel énoncé porte la charge émotionnelle la plus forte (travaux de Festinger sur la dissonance cognitive, 1957).
Le non-répondu. Boris croise le guide d’entrevue avec les verbatims pour repérer les questions esquivées, contournées, ou restées sans réponse. Une matrice montre, d’un coup d’œil, quelles questions ont été évitées par quels participants. La prosodie autour du moment d’esquive — silence, raclement de gorge, accélération du débit — enrichit le diagnostic.
Les verbatims marquants. Boris sélectionne les 15 à 20 citations les plus puissantes du corpus en combinant trois critères : la richesse sémantique du segment, l’intensité prosodique par rapport à la baseline du participant, et la présence d’un événement sonore. Les citations sortent prêtes pour une présentation client, avec leur contexte et leur score.
Le miroir linguistique. Boris mesure si un participant commence à utiliser les mots de l’ethnographe au fil de l’entrevue — un indicateur classique d’accommodation linguistique (Niederhoffer et Pennebaker, 2002). Il trace la convergence lexicale dans le temps et signale les entrevues où le participant semble s’aligner sur le langage de l’intervieweur plutôt que de parler avec ses propres mots. C’est un outil d’auto-critique : l’ethnographe voit son propre effet sur le participant et peut disqualifier une entrevue (mais ce n’est jamais arrivé encore).
Si Boris mesure tout, il ne signale pas tout. Cela représenterait un volume d’information délirant, contreproductif pour l’équipe. Alors il filtre. Seuls les signaux qui dépassent un seuil de significativité — une variation suffisamment inhabituelle pour ne pas être attribuable au hasard — sont retenus et présentés à l’ethnographe.
Une observation synthétique est une observation que seule la machine peut détecter, mais que seul un humain peut interpréter. C’est le mariage parfait humain-machine.
Boris croise les données prosodiques, sémantiques et paralinguistiques de chaque participant pour le positionner sur une matrice comportementale. Les axes de cette matrice naissent d’une conversation entre l’ethnographe et la machine.
Parfois, c’est l’ethnographe qui initie. Après avoir conduit les entrevues, après avoir senti le terrain, il formule une hypothèse : « Je crois que ce groupe se divise entre ceux qui résistent par loyauté et ceux qui résistent par épuisement. » Boris va chercher dans ses données les marqueurs qui correspondent, et positionne chaque participant.
Parfois, c’est Boris qui propose. À partir de l’ensemble des données qu’il a analysées — prosodie, sémantique, événements sonores — il formule une hypothèse sur les deux variables fondamentales qui structurent le groupe. L’ethnographe examine, ajuste, affine.
Dans les deux cas, le profil émerge de cette conversation — ni purement intuitif, ni purement algorithmique. L’ethnographe ressent. La machine détecte.

Pour la couche d’analyse en langage naturel, nous avons choisi Claude, d’Anthropic (après de nombreux tests). Mais un modèle de langage, aussi performant soit-il, reste généraliste. Livré à lui-même, il identifie admirablement, il organise parfaitement, il synthétise merveilleusement, il rédige efficacement… mais il ne pense ni comme un ethnographe, ni comme un stratège…
C’est pourquoi nous avons entraîné Boris sur notre propre corpus de connaissances. Plus de 200 articles et des centaines de références bibliographiques que Perrier Jablonski a accumulés au fil des dix dernières années sur les sujets qui préoccupent nos clients. Le modèle a appris comment nous formulions une observation, comment nous structurions une tension, comment nous nommions un paradoxe.
J’ai déjà insisté sur l’importance des corpus de connaissances des organisations. J’en parle dans mon deuxième bouquin (Les défis) publié en 2024, mais aussi dans l’article « Corpus, cursus, campus, caucus. Apprendre, fois quatre. »… Maintenant, vous comprenez pourquoi un corpus bien organisé a une valeur inestimable quand on se lance dans un projet technologique…
Pour poursuivre métaphore de la radiologie, Boris est un peu comme un IRM. Une machine d’une précision redoutable, capable de voir ce que l’œil nu ne voit pas. Mais un IRM ne pose pas de diagnostic. Il faut un radiologue pour lire les images, un médecin pour interpréter les résultats, et un patient qui a été orienté par les bonnes questions cliniques. Sans ça, l’IRM produit des images, mais pas des réponses.
C’est la même chose avec Boris. Si vous menez une entrevue sans méthode, que vous ne savez pas formuler une question ouverte, si vous orientez les réponses ou que vous ne savez pas créer un climat de confiance — Boris va quand même nous sortir une analyse. Il va produire des chiffres, des courbes, des observations. Mais elles ne vaudront rien.
C’est pourquoi nous avons décidé de ne pas commercialiser Boris, et de le garder pour nous… pour l’instant.
Il restait un dernier détail — et non des moindres — à régler. On l’a vu plus haut, la plupart des logiciels de transcription envoient vos fichiers audio sur des serveurs distants — c’est-à-dire sur internet, sur des ordinateurs qui appartiennent à d’autres entreprises, souvent aux États-Unis. Pour nous, impossible d’accepter une telle entorse à l’éthique et à la confidentialité qui nous chérissons tant chez Perrier Jablonski. Il fallait régler ça.
Avec Boris tout le traitement se fait directement sur notre ordinateur, dans nos bureaux… à une limite près : l’envoi des données à Claude. Nous avions besoin de contourner cet obstacle, alors nous avons inventé une méthode que nous avons appelé l’anonymisation de bout en bout.
Avant chaque envoi — sans exception — tous les noms de personnes, d’entreprises, de lieux, les montants et les coordonnées sont automatiquement remplacés par des codes incompréhensibles. Ainsi, tout ce qui est envoyé sur le réseau est crypté. Le modèle reçoit « P-x7k2m9 travaille chez O-m4r7x2 depuis T-w8k3 ans » au lieu de « Marie travaille chez Bombardier depuis 12 ans ». Claude analyse donc les bonnes situations, mais sans savoir de qui il s’agit. Quand il nous renvoie ses conclusions, notre moteur remplace les codes par les bonnes entités, et le tour est joué!
Aucun autre outil d’analyse qualitative sur le marché ne propose ce niveau de protection.
Grâce à Boris, des organisations qui n’avaient pas les moyens de financer une ethnographie complète peuvent maintenant y accéder. Boris traite une entrevue en deux fois moins de temps qu’elle n’a duré, avec une précision d’analyse totalement inédite. Des signaux faibles — ceux qui se cachent dans les silences, dans les tremblements, dans les mots qu’on ne prononce pas — deviennent visibles, mesurables, actionnables. Et pour nos clients, ça veut dire des projets plus ambitieux, plus accessibles, et des résultats d’une profondeur qui n’existait tout simplement pas avant.

On aurait pu se payer un trip techno, et faire de Boris notre joujou à nous — mais à chaque étape de sa conception nous nous sommes posé la question de l’utilité pour vous, pour nos clients.
Pendant une entrevue, un ethnographe écoute les mots. Mais il ne peut pas — physiquement — entendre les 139 000 signaux que contient une conversation de 45 minutes : les micro-variations de la voix, les soupirs à peine perceptibles, les accélérations de débit au moment précis où un sujet devient sensible. Boris, l'application développée par Perrier Jablonski, entend tout ça. Il transcrit chaque mot à la milliseconde, sépare et identifie les voix, analyse la prosodie sur sept paramètres continus, détecte 18 types de sons révélateurs, puis croise toutes ces couches pour produire des observations qu'aucun humain ne pourrait formuler seul — des contradictions inconscientes, des questions esquivées, des émotions qui contredisent le discours. Sur un projet de 20 entrevues, Boris croise près de 3 millions de mesures. Pour nos clients, ça change tout : des projets plus rapides, des corpus plus ambitieux (60, 80, 100 entrevues), des budgets plus accessibles, et surtout des recommandations stratégiques fondées sur une profondeur d'analyse qui n'existait pas avant Boris. Avec Boris, Perrier Jablonski concrétise son positionnement "Ethno, sapio, techno", mais surtout, propose une longueur d'avance à tous ses clients.
ARTICLE SCIENTIFIQUE · van Rijn, P. et Larrouy-Maestri, P. (2023). Modelling Individual and Cross-Cultural Variation in the Mapping of Emotions to Speech Prosody. Nature Human Behaviour, 7, 386–396. Étude menée au Max Planck Institute for Empirical Aesthetics (Francfort). À partir de modèles bayésiens appliqués à plus de 3 000 minutes d'enregistrements multilingues, les auteurs identifient sept facteurs acoustiques — qualité vocale (12 %), intensité (11 %), hauteur et formants (10 %), rythme et tempo (10 %), shimmer (6 %), variation du pitch (4 %) et MFCC 3 (4 %) — qui expliquent 57 % de la variance émotionnelle dans la prosodie. C'est l'étude qui a inspiré les sept signaux prosodiques de Boris.
ARTICLE SCIENTIFIQUE · Miller, G. A. (1956). The Magical Number Seven, Plus or Minus Two: Some Limits on Our Capacity for Processing Information. Psychological Review, 63(2), 81–97. L'un des articles les plus cités de l'histoire de la psychologie. Miller démontre que la mémoire de travail humaine ne peut traiter simultanément qu'entre 5 et 9 éléments d'information — la raison pour laquelle un ethnographe ne peut pas, seul, traiter les 139 000 signaux que Boris génère par entrevue.
OUVRAGE · Festinger, L. (1957). A Theory of Cognitive Dissonance. Stanford University Press. Cadre théorique fondateur de la dissonance cognitive : la tension psychologique créée par des croyances ou des énoncés contradictoires. Boris l'applique en repérant les moments où un participant dit une chose en début d'entrevue et son contraire à la fin, puis en comparant la charge prosodique des deux énoncés.
ARTICLE SCIENTIFIQUE · Niederhoffer, K. G. et Pennebaker, J. W. (2002). Linguistic Style Matching in Social Interaction. Journal of Language and Social Psychology, 21(4), 337–360. Trois expériences — dont l'analyse des transcriptions du Watergate — démontrent que les interlocuteurs coordonnent inconsciemment leur usage des mots au fil d'une conversation. Les auteurs proposent une hypothèse de coordination-engagement plutôt que de rapport. Boris utilise cette mesure pour détecter la convergence lexicale : quand un participant adopte progressivement le vocabulaire de l'ethnographe, cela peut signaler une forme d'accommodation plutôt qu'une expression authentique.
ARTICLE SCIENTIFIQUE · Bain, M., Huh, J., Han, T. et Zisserman, A. (2023). WhisperX: Time-Accurate Speech Transcription of Long-Form Audio. Interspeech 2023. Développé par le Visual Geometry Group de l'Université d'Oxford, WhisperX ajoute à Whisper un alignement forcé au mot et une diarisation par empreinte vocale. C'est le moteur de transcription sur lequel Boris est construit.
MODÈLE · Gemmeke, J. F., Ellis, D. P. W., Freedman, D., Jansen, A., Lawrence, W., Moore, R. C., Plakal, M. et Ritter, M. (2017). Audio Set: An Ontology and Human-Labeled Dataset for Audio Events. IEEE ICASSP, 776–780. Le jeu de données de référence en classification audio : plus de 2 millions de clips de 10 secondes, 521 classes sonores, étiquetés par des humains. YAMNet (Yet Another Mobile Network), le modèle de Google entraîné sur AudioSet, est utilisé par Boris pour la détection des 18 classes d'événements paralinguistiques.
OUVRAGE · Brinkmann, S. et Kvale, S. (2015). InterViews: Learning the Craft of Qualitative Research Interviewing (3e éd.). Sage. L'ouvrage de référence mondiale en méthodologie d'entrevue qualitative. Brinkmann et Kvale y documentent les dynamiques de l'entrevue semi-structurée, les biais de l'intervieweur, et les stratégies d'évitement thématique — le cadre méthodologique dans lequel Boris opère.
NOTE DE CALCUL · Chiffres Boris (entrevue de 45 min). 7 signaux prosodiques + 18 classes d'événements sonores = 25 mesures échantillonnées toutes les 0,5 seconde sur 2 700 secondes = 5 400 fenêtres × 25 = 135 000 points par entrevue. Sur 20 entrevues : ≈ 2 700 000 mesures croisées et interprétées.
On met quelques personnes dans une salle avec une vitre sans tain. On leur fait goûter un yogourt, on les fait parler de leur voiture, de ce qu’ils pensent de la publicité que l’on vient de montrer ou de la nouvelle texture d’un shampoing. On leur donne 50 $ en bon d’achat chez Jean Coutu pour le dérangement... Et l’affaire est faite ! Certains participants sont debout, à marteler leur opinion, d’autres se taisent pendant une heure. Certains avis sont flous, alors on demande des précisions.
Peu importe, tout ce qui est dit est noté, enregistré et vendu à grand prix. On a tous vu des dizaines et des douzaines et des centaines de focus groups rassembler des hordes de consommateurs anonymes, dans l’espoir affiché de leur tirer les vers du nez. Or, un focus group, ça n’a jamais été cela. En fait, pas avant que le marketing s’en mêle.
Nous sommes au début de la Deuxième Guerre mondiale, dans un contexte historique qui voit l’émergence des médias de masse, et qui favorise aussi la désinformation institutionnalisée. Les sociologues d’alors se penchent sur le sujet des dynamiques de groupe. Deux d’entre eux, l’Américain Robert Merton et l’Autrichien Paul Lazarsfeld, vont s’intéresser plus précisément à la question suivante : comment les attitudes et les opinions se forment-elles dans l’esprit des auditeurs d’émissions radiophoniques ?
Il faut s’arrêter quelques minutes sur cette époque. Nous sommes en 1932 et Lazarsfeld part pour les États-Unis muni d’une bourse Rockefeller qu’il avait obtenue grâce à son étude sur les chômeurs de Marienthal, en Autriche. Une fois sa mission terminée, il revient en Autriche. Dans le même temps, Hitler est élu dans l’Allemagne voisine (1933). En 1934, le Parti socialiste d’Autriche est déclaré illégal. La plupart des membres de sa famille sont arrêtés. Lazarsfeld perd son poste dans l’enseignement secondaire. Il ne conserve qu’une vague charge de cours à l’université de Vienne. Ramassant tout son courage — et ses derniers dollars —, il achète un billet de troisième classe pour les États-Unis. Grâce à la protection de Robert Lynd, l’auteur de Middletown — une étude sur la sociologie américaine —, il réussit à importer à Newark puis à New York le projet qu’il avait commencé à réaliser à Vienne : créer un institut de recherche où la psychologie serait appliquée à des problèmes économiques et sociaux.
C’est ici qu’il va pouvoir contribuer à la propagande antinazie auprès de la population américaine. Cela nous paraît évident aujourd’hui, mais cela l’était beaucoup moins à l’époque. Dans les années 1930, le sentiment antisémite régnait aux États-Unis. La Grande Dépression avait fait des ravages profonds dans l’économie et la société, et on se cherchait des boucs émissaires faciles. L’arrivée massive d’immigrants fuyant l’Europe, dans une conjoncture économique déjà difficile, n’a pas été très favorable à des conditions d’accueil optimales — et c’est un euphémisme. Dans l’Amérique d’alors, les Juifs étaient exclus de certains clubs, de certaines universités prestigieuses (Ivy League), de certaines fraternités étudiantes, de certains hôtels, ou encore de certaines plages. Il faudra attendre 1941 et la révélation des atrocités nazies pour que le regard de la société change. Voilà dans quel contexte Paul Lazarsfeld va pouvoir développer des outils d’observation sociologique puissants, dont nous avons (partiellement) hérité.
Leur première rencontre naît sous le signe de la passion. Monsieur et madame Lazarsfeld invitent monsieur et madame Merton à souper un soir de novembre 1941. Paul Lazarsfeld est le sociologue de la politique et des médias ; Robert Merton est le sociologue de l’entrevue individuelle. Les conversations vont bon train jusqu’à ce que Lazarsfeld fasse mention d’une recherche qui a lieu le soir même avec un groupe d’auditeurs de radio à propos du sentiment d’adhésion à l’armée américaine. N’y tenant plus, les deux sociologues quittent alors la table et partent rejoindre le groupe de recherche enfermé dans un studio radiophonique proche.
Plusieurs participants sont installés et un animateur dirige les échanges. Merton est fasciné par cette approche, mais, intérieurement, a de nombreux reproches à formuler à l’animateur. Il propose alors à Lazarsfeld de mener lui-même le prochain groupe avec ses propres méthodes d’entrevue individuelle.
Ce faisant, les deux intellectuels vont inventer non pas un, mais deux outils inséparables : le focus group et l’entretien individuel, ou focused interview. D’abord une discussion de groupe, ensuite des entretiens individuels pour chacun des participants. La discussion de groupe a pour objectif d’observer les interactions des gens entre eux. Les entrevues individuelles visent à laisser parler les interlocuteurs et leur demander un retour sur leur expérience. Et c’est le mariage de ces deux méthodes qui donne un résultat efficace. Voyons-les en détail.
Comme on le voit, on est loin des focus groups généralement admis en marketing, qui n’ont PAS LA FONCTION de recueillir le sentiment des participants devant leurs congénères, et qui n’ont AUCUNE UTILITÉ s’ils ne sont pas couplés avec des entretiens individuels de qualité, menés par des professionnels.
Je répète : un focus group n’a PAS LA VOCATION de faire « cracher le morceau » à des individus invités à un groupe de parole où chacun va raconter son petit truc. Le contexte social (parler devant des gens) biaise absolument TOUS les témoignages qui auront lieu dans ce contexte. Il a pour but d’observer les interactions des gens ENTRE EUX, sur un sujet défini.
Le rôle de l’entrevue individuelle — focused interview — est de recueillir les propos de CHAQUE participant, seul à seul, dans des conditions propices aux partages et à l’écoute.
Désolé pour les majuscules. C’est parce que d’habitude, je crie en parlant de tout ça. 😆
Quelques années plus tard, un autre mouvement — le béhaviorisme — va favoriser les aspects mécaniques du comportement humain et délaisser la sociologie de Lazarsfeld et Merton. Il faudra attendre plusieurs décennies pour redécouvrir les focus groups. Malheureusement, l’histoire va se charger de déformer la théorie d’origine, de la réduire à une simplification dommageable, et de changer son nom.
Fait cocasse, c’est justement Merton qui a théorisé cet effet de transmission du savoir par un phénomène qu’il a baptisé l’oblitération par incorporation : l’ancrage d’un savoir scientifique est indissociable de l’oubli de sa genèse. En clair, pour qu’un savoir se transmette, l’oubli de sa véritable origine est inévitable.
Depuis les années 1990, les chercheurs renouent avec cette interprétation originale et de nombreuses études ont été menées dans les règles de l’art pour faire la lumière sur des sujets sociologiques importants : le sida, la violence sexuelle, la biotechnologie, etc. Un véritable focus group veut donc observer les interactions des gens sur un sujet, et pas le sujet en lui-même. Par exemple : ce sujet crée un blocage chez les participants, celui-là crée des tensions de telle nature et des échanges vifs, cet autre sujet encore voit naître une influence manifeste de certains leaders d’opinion sur le groupe. Un focus group, c’est ça. Ça et rien d’autre.
Les sociologues insistent sur les problèmes éthiques d’un focus group mal mené, notamment pour des aspects psychologiques chez les participants (pensez à des sujets ultrasensibles qui pousseraient les participants dans leurs retranchements — violence, sexualité, tabous), ou d’ordre moral (pensez à un participant qui ferait de la désinformation : le groupe de discussion servirait alors de propagateur).
L’expérience et la rigueur de l’animateur sont donc fondamentales. C’est à lui ou à elle de s’assurer de la qualité méthodologique, de la composition du groupe, de la création d’un contexte favorable aux échanges, etc. Observer les participants, noter les silences, les doutes, les changements de comportement... tout cela va lui permettre d’en déduire des liens et des conclusions.
Recherches : Alex Vendetti et Margaux Francazal
Il existe trois types d’empathie et chacun de ces types agit sur une partie différente du cerveau. Il faut bien se comprendre, ici: les types d’empathie ne sont pas interdépendants et chaque personne a un degré d’habilité différent par rapport à ceux-ci.
C’est l’empathie que l’on connait tous: le fait de comprendre et de reconnaitre ce que l’autre personne ressent. Quand ton meilleur ami t’appelle pour te dire qu’il a décroché son emploi de rêve et que tu lui dis : « Wow, je suis tellement content pour toi ! » (et que vous êtes sincère), c’est ce qu’on appelle de l’empathie cognitive.
On l'appelle aussi l'empathie contagieuse. Avec ce type d’empathie, nous ressentons physiologiquement et physiquement ce que l’autre ressent grâce à des signaux verbaux et non verbaux. Ici, on parle ni plus ni moins de faire l’expérience des sentiments de l’autre. Oui, c’est celle-ci qui nous permet de ressentir un bon vieux malaise lors de nos vidéoconférences.
Cette empathie peut être définie comme une réponse émotionnelle de compassion et/ou d'inquiétude provoquée par le fait de ressentir que quelqu'un d’autre est dans le besoin. En d’autres mots, c’est l’empathie qui fait agir, c’est grâce à celle-ci que les gens passent à l’action pour remédier aux problèmes des autres. Sur le plan anthropologique, il a déjà été suggéré que l’empathie compassionnelle ferait partie du mécanisme évolutif qui permettrait à l’humain de posséder la grande motivation d'aider ses enfants en cas de besoin. Si les humains n'étaient pas si intéressés à aider leurs rejetons, notre espèce ne serait pas allée très loin…
Avoir une grande habileté par rapport aux types d’empathies cognitives permet de voir le monde à travers un oeil différent et de comprendre plus simplement un point de vue. En d’autres mots, quand on reconnait que notre interlocuteur a des émotions, nous pouvons mieux communiquer avec lui, car nous avons l’habileté de comprendre sa perspective des choses. C’est ça, la beauté de l’empathie: la capacité de « voir » le cadre de pensée des autres. Selon le Center of Creative Leadership, plus notre capacité à comprendre différents cadres de pensées est grande, plus notre performance au travail sera grande. Tout ça, grâce à la communication !
Tout comme nos muscles nécessitent un entraînement régulier afin de se développer et de devenir plus forts, l'empathie se perfectionne par des exercices assidus. En effet, bien que nous ayons tous des degrés différents d’empathies selon nos expériences de vie et notre environnement socioculturel, il est possible de pratiquer nos « muscles empathiques ». Pour ce faire, plusieurs psychologues proposent la pratique de l’écoute profonde (deep listening), ce qui consiste à écouter les gens de manière sincère et authentique. Mais qu’est-ce que ça veut dire ? Les expériences démontrent que plus nous écoutons les propos de l’autre sans préparer notre réponse, plus ils ''s'ancreront'' dans la partie de notre système cognitif responsable du traitement de l'information, et plus notre cerveau s’habituera à recevoir de l’information nouvelle et étonnante de manière détendue, réceptive et calme.
Chaque type d’empathie a un bénéfice différent selon les situations. Prenons l'exemple d'un travailleur social. Celui-ci n'a pas avantage à avoir une empathie émotionnelle grandement développée (comme pleurer quand un individu pleure). Cependant, une bonne empathie compassionnelle (celle qui fait agir) est une habileté qui caractérise un bon travailleur social, car celui-ci ne doit pas seulement comprendre les émotions d'autrui, il doit aussi avoir le désir profond d'aider les gens.
Oui, l'empathie est utile dans votre vie professionnelle, mais pas n'importe laquelle dans n'importe quelles circonstances: vous devez être précis par rapport au type d'empathie que vous voulez développer.
Nous devons comprendre que... nous ne comprenons pas. L’empathie ne nous permet pas de jouer les psychologues, elle ne nous permet pas non plus de reconnaître les intentions ni même les motivations des gens face à leurs émotions. Ainsi, nous pouvons ressentir une émotion, mais cela ne veut pas dire que nous savons pourquoi la personne ressent cette émotion. En fait, plus nous comprenons nos propres émotions, plus nous pouvons comprendre leur complexité. Aussi, il peut être risqué de déduire à partir des émotions d'autrui des intentions précises, car nous pouvons nous tromper complètement, et cela affectera grandement la communication. L’écart empathique est un bel exemple de ce risque !
Dans des cas de résolution de problème, les gens iront instinctivement discuter avec la personne qui a des expériences similaires. Ce choix est basé sur le réflexe empathique. Étonnamment, selon les recherches du Harvard Business Review, ceux qui ont subi des défis dans le passé étaient moins susceptibles de faire preuve d'empathie pour quelqu'un confrontée aux mêmes défis. C’est ce qu’on appelle l'écart d’empathie. Comprendre ce phénomène est d’une importance capitale pour notre communication avec autrui, surtout en situation de résolution de problème. L’écart empathique est un phénomène psychologique qui tend à diminuer le souvenir de la gravité de certaines situations passées.
L'ethnographie est une méthode de recherche qualitative qui vise à explorer et comprendre les comportements humains, les interactions sociales, et les contextes culturels. Ses origines sont enracinées dans l'anthropologie et l'ethnologie, mais elle s'applique aujourd'hui à une variété de domaines, y compris les sciences sociales, le marketing, et la gestion. Chez Perrier Jablonski, l'approche ethnographique prend une dimension spécifique, s'inscrivant dans un cadre qui valorise les interactions humaines et les dynamiques sociales complexes.
Le terme ethnographie provient du grec, signifiant littéralement "écrire sur les gens". En termes simples, il s'agit de décrire et d'analyser les comportements humains et leurs significations dans des contextes spécifiques. Clifford Geertz, une figure majeure de l'anthropologie, résume bien l'ethnographie en affirmant que les découvertes ethnographiques ne sont pas nécessairement exceptionnelles, mais qu'elles sont particulières et ancrées dans des réalités contextuelles.
L'ethnographie est particulièrement utile pour comprendre l'humain derrière les données. Dans un monde où les organisations sont de plus en plus perçues comme des micro-sociétés, elle permet de saisir les dynamiques sociales et culturelles qui échappent souvent aux analyses quantitatives. Son approche centrée sur les individus aide à explorer non seulement ce qui est observable, mais aussi les motivations, valeurs et besoins latents des personnes.
La récolte des données repose sur plusieurs méthodes qualitatives complémentaires :
L'entrevue ethnographique est une interaction "anormale" où l'objectif est de creuser profondément pour comprendre les réalités subjectives des participants. Il peut être structuré, semi-structuré ou non structuré, selon les besoins de l'étude. L'élaboration d'un guide d'entretien clair, comportant des thèmes organisés et des questions ouvertes, est essentielle pour structurer la collecte de données tout en restant flexible.
L'observation peut être directe (non participative) ou participante, où le chercheur s'immerge dans la vie de ses sujets. Le choix du terrain, qu'il soit public ou privé, dépend des objectifs de recherche. Une observation réussie est exhaustive, objective, et mesurable, même si l'objectivité parfaite reste illusoire.
L'analyse ethnographique est un processus subtil qui nécessite une attention particulière aux biais cognitifs :
L'objectif est de chercher la vérité tout en acceptant que l'interprétation sera toujours influencée par la subjectivité du chercheur.
Chez Perrier Jablonski, l'ethnographie occupe une place centrale dans l'exploration des comportements humains et des dynamiques sociales. L'agence adopte une approche ethnographique pour offrir des insights profonds et contextuels à ses clients, en mettant l'accent sur une compréhension fine des micro-sociétés et des individus.
Avec cette approche, nous avons su démontrer au fil des ans que l'ethnographie n'est pas seulement une méthode de recherche universitaire. Elle est un levier stratégique pour innover et transformer les pratiques organisationnelles.
Réaliser de bonnes entrevues, c'est la clé d'une enquête réussie. Nos ethnographes vous ouvrent leurs livres pour vous aider à bâtir votre propre guide pour réaliser des entrevues, faciliter des groupes de discussion ou animer des rencontres d’équipe. Mais avant tout, pourquoi un guide?
Rappelez-vous que le guide est un support. Il vous sert de cadre de référence, mais ne devrait pas être utilisé de manière rigide: vous poserez certainement des questions qui n’y apparaissent pas ou dans un ordre quelque peu différent en fonction de la dynamique de l’entrevue. Finalement, faites attention de ne pas vous préoccuper davantage de votre guide que de la personne interviewée.
Les ethnographes de Perrier Jablonski suivent un cadre en 10 étapes pour la création d’un guide d’entrevues.
D’abord, il vous faut choisir le phénomène, le comportement ou la problématique que vous souhaitez comprendre. Vous pourrez donc effectuer quelques recherches préliminaires sur le sujet (juste un peu, mais pas trop) et définir les objectifs de votre recherche.
→ Quel phénomène voulez-vous comprendre? Quels sont les objectifs visés par la recherche?
Seul ou en groupe, effectuez un remue-méninges à propos de tout ce que vous aimeriez apprendre sur le phénomène choisi. Dans un cahier, sur un ordinateur ou des post-its, notez tout ce qui vous passe par la tête: idées, concepts, questions, théories, etc.
→ Que cherchez-vous à comprendre? Que voulez-vous apprendre?
Par la suite, faites le tri parmi vos idées issues du brainstorm. Regroupez les idées similaires et éliminez les doublons.
→ Quelles idées voulez-vous garder? Lesquelles voulez-vous abandonner?
Ici, vous transformez vos idées en questions.
→ Vos questions sont-elles ouvertes, neutres, pertinentes et faciles à comprendre?
Maintenant, vous devez catégoriser vos questions par thématiques. L’ordre des questions est aussi important. Veillez à les poser du général au particulier, du simple au complexe.
→ Qu’ont certaines questions en commun? Des questions sont-elles connectées entre elles?
Vous êtes à mi-chemin. Avant d‘aller plus loin, prenez un moment pour explorer d’autres pistes d’analyse, puis ajuster vos questions et catégories en fonction de celles-ci.
→ Y a-t-il des éléments manquants ou de nouveaux éléments à aborder?
Vous y êtes presque. Pour chacune des questions ou celles que vous jugerez plus critiques, préciser les informations que vous souhaitez en tirer. Ces précisions vous serviront de rappel pour vous assurer d’avoir toutes les informations nécessaires suite à l’entrevue.
→ Que souhaitez-vous apprendre grâce à cette question? Quelles informations souhaitez-vous tirer en posant celle-ci? Qu’attendez-vous comme réponse à celle-là?
Enfin, vous pouvez mettre au propre votre guide d’entrevues. En plus d’y écrire les thématiques et les questions que vous aurez développées, vous pourrez y joindre tous les éléments à mentionner avant de commencer l’entrevue.
→ Est-ce que votre guide comprend un rappel de vos objectifs de recherche, du contexte de la recherche, des éléments techniques relatifs à l’entrevue (confidentialité et anonymat, enregistrement, etc.), de la raison de la participation à la recherche, de vos thématiques et vos questions?
Avant de vous lancer, testez votre guide auprès de quelques personnes puis ajustez-le au besoin.
→ Certaines questions ont-elles été mal comprises, mal interprétées, peu informatives? L’ordre des questions est-il adéquat? La structure du guide permet-elle d’obtenir les informations désirées?
Au fil de vos entrevues, les personnes interviewées vous apprendront de nouveaux éléments qui vous permettront d’améliorer le guide. Ajustez-le au fil des entrevues.
→ Les personnes interviewées soulèvent-elles des enjeux auxquels vous n’aviez pas pensé? Y a-t-il, au fil des entrevues, des informations récurrentes qui nécessitent d’approfondir certaines thématiques?
La quête de la productivité ne date pas d’hier. Au tournant du 20e siècle, des monuments de la recherche en management tels que Fred Taylor et Henri Fayol se penchaient déjà sur la question. Henri Ford a lui-même inventé la recette de la productivité manufacturière, qui a profondément marqué le monde industriel du 20e siècle. Mais une série d’études en particulier, menées par l’équipe d’Elton Mayo, révèle que l’écoute est l’élément clé de la productivité.
Bâtie en 1905, Hawthorne Works, une immense usine située en Illinois, a souvent servi de laboratoire aux scientifiques voulant étudier les comportements des travailleurs. Et avec raison : à son apogée, près de 45 000 employés y travaillaient, ce qui représentait un échantillon très intéressant pour les chercheurs.
Au cours de trois études conduites entre 1924 et 1927, l’équipe de Mayo a tenté d’observer les facteurs qui influençaient la productivité, de la disposition des espaces de travail aux incitatifs monétaires. Mais l’exemple qui a marqué l’imaginaire est celui de l’éclairage. Les chercheurs ont voulu évaluer l’impact de l’augmentation de l’éclairage sur la productivité, et ont constaté que plus ils augmentaient l’éclairage, plus la productivité augmentait! La satisfaction d’avoir découvert un filon intéressant fut cependant de courte durée : lorsqu’ils ont réduit l’éclairage à un niveau normal, ils ont observé la même augmentation de productivité.
Plusieurs études ont depuis révélé que l’effet du changement des conditions de travail, et plus spécifiquement de l’éclairage, ne peut être démontré scientifiquement en raison du trop grand nombre de variables à contrôler. Toutefois, un facteur précis semble avoir eu un effet réel sur la productivité des employés.
Plusieurs chercheurs ayant revisité les études de l’équipe de Mayo ont noté un fait intéressant. Alors que les équipes étudiées travaillaient auparavant sous le contrôle serré de leurs gestionnaires, les chercheurs ont pris le relais pour la durée du projet de recherche. Ces derniers avaient donc comme mandat de dialoguer et d’écouter les besoins des employés. Selon Mayo, « le plus grand changement s’est produit lorsque les responsables de l’étude ont cherché à obtenir la coopération des travailleurs en comprenant leurs besoins humains ».
L’un des plus grands défis que traversent les entreprises est de parvenir à maintenir un haut niveau de productivité avec une demande plus qu’incertaine, des effectifs réduits et les difficultés liées au télétravail. Il n’existe pas de solution miracle, et nous devrons tous développer la capacité de s’adapter à cette nouvelle réalité.
Cependant, une chose est certaine. Les entreprises ne doivent pas tomber dans la « trappe de la disponibilité infinie » : puisque les employés sont théoriquement toujours disponibles, leur agenda se remplit à une vitesse vertigineuse. Impossible de dire que l’on doit être ailleurs, ou que l’on a un autre rendez-vous, simplement parce que nous sommes tous confinés. Il n’y a pas d’échappatoires. Si on laisse cette pression s’accumuler, nous fonçons tous vers le surmenage.
Un employé productif n’est pas un employé qui a un agenda rempli. Un employé productif est un employé qui produit. Point. Et comme le démontrent les expériences réalisées à Hawthorne il y a près de 100 ans, la productivité survient généralement lorsqu’on écoute plus et que l’on demande moins.