Tester avec 5 personnes suffit-il vraiment ? đŸ€”

France Wang
October 4, 2022

“Quelle est la taille de l’échantillon que je dois prendre pour ma recherche utilisateur ?” - c’est probablement la question que l’on pose le plus, surtout quand on dĂ©bute.

Elle se pose particuliĂšrement pour les Ă©tudes qualitatives, oĂč on a toujours peur que les retours obtenus ne soient pas suffisamment nombreux pour prendre les bonnes dĂ©cisions. Et c’est lĂ  qu’un chiffre en particulier ne cesse de remonter : le fameux chiffre 5 !

5 utilisateurs suffiraient pour apprendre tout ce dont on a besoin d’apprendre đŸ€”

Pourtant ce n’est pas aussi simple : 5 n’est pas un chiffre magique que l’on peut sortir Ă  toutes les sauces et en toutes conditions, tous les experts s’accordent lĂ  dessus. Mais ce mythe a la peau dure, et la communautĂ© a du mal Ă  s’en dĂ©faire.

Aujourd’hui, dĂ©mĂȘlons le vrai du faux, pour essayer de trouver une rĂ©ponse satisfaisante Ă  notre question ! Il faudra pour cela aller jusque dans les fondements mathĂ©matiques de la thĂ©orie - si vous ĂȘtes allergique aux mathĂ©matiques, pas de panique, sautez directement au segment “Pour rĂ©sumer” ;)

Quelque soit le nombre et le profil d'utilisateurs que vous cherchez, vous pouvez les trouver sur Tandemz !

Aux origines du mythes

En 1993, Jakob Nielsen (co-fondateur du célÚbre Nielsen Norman Group) et Thomas Landauer publient A mathematical model of the finding of usability problems.

Ce papier de recherche est rĂ©sumĂ© en 2000 dans l’article de blog Why You Only Need to Test with 5 Users qui fera le tour du monde - et est, Ă  bien des Ă©gards, considĂ©rĂ© comme Ă©tant Ă  l’origine du mythe !

La conclusion de son article : 5 utilisateurs permettent de dĂ©couvrir 85% des problĂšmes d’une interface.

Jakob Nielsen dans une de ses vidéos sur ce sujet

Comprendre le papier d’origine

Comme tout texte scientifique, pour bien en comprendre la conclusion il faut avoir en tĂȘte les hypothĂšses et le contexte sur lequel le texte se fonde.

Cadre et définitions

Dans leur papier, Nielsen et Landauer s’intĂ©ressent uniquement aux tests utilisateurs et aux Ă©valuations heuristiques, dont l’objectif est selon eux de dresser une liste la plus exhaustive possible de problĂšmes d’utilisabilitĂ© survenant sur une interface.

Un nouveau problÚme remonté = un élément ajouté à la liste.

Il n’est jamais question ni de gravitĂ©, ni de frĂ©quence, ni d’impact sur le besoin utilisateur.

D’ailleurs, ces deux mĂ©thodes sont catĂ©gorisĂ©es comme des mĂ©thodes de debugging.

Objectif

Les auteurs cherchent Ă  trouver une façon d’optimiser les coĂ»ts d’une Ă©tude d’utilisabilitĂ©, en optimisant le ratio nombre de problĂšmes remontĂ©s / nombre de tests faits.

Cet aspect financier est trĂšs important : ils y dĂ©dient 2 pages sur 7 de leur papier. En effet, Nielsen milite depuis 1989 pour la Discount Usability, une approche de la recherche utilisateur itĂ©rative et “quick and dirty”, Ă  une Ă©poque oĂč les mĂ©thodes de recherches sont trĂšs gĂ©nĂ©ralement soumises Ă  des notions de rigueurs statistiques hĂ©ritĂ©es de la recherche acadĂ©mique. Selon lui, la perte en fiabilitĂ© des donnĂ©es rĂ©coltĂ©es est largement compensĂ©e par la flexibilitĂ© qu’un format plus court et plus itĂ©ratif apporte - une notion peu acceptĂ©e de ses pairs en 1993.

Constat

Nielsen et Landauer se basent sur la loi des rendements dĂ©croissants. L’idĂ©e est la suivante : si vous testez avec deux personnes, il est probable qu’une partie des problĂšmes qu’ils remontent soient les mĂȘmes. Si vous testez avec une troisiĂšme personne, idem, elle remontra sĂ»rement des problĂšmes dĂ©jĂ  en partie Ă©tĂ© dĂ©tectĂ©s soit par le testeur 1, soit par le testeur 2, soit par les deux.

Par conséquent, plus on a de testeurs, plus on tombe souvent sur des problÚmes déjà rencontrés, et moins on découvre des problÚmes nouveaux.

Ils vont donc chercher Ă  dĂ©terminer Ă  partir de combien de tests est-ce qu’il n’est plus rentable de continuer d’en faire, car le nombre de problĂšmes remontĂ©s sera trop faible par rapport Ă  l’investissement (tant financier qu’en temps humain) que demande un test.

ModÚle mathématique

Attention, c’est lĂ  qu’on rentre dans le dur du sujet ! Si vous n’avez pas envie d’entrer Ă  ce niveau de dĂ©tails, vous pouvez sauter directement Ă  nos conclusions ! Promis, on ne dira rien 😉

Cette loi des rendements dĂ©croissants peut ĂȘtre modĂ©lisĂ©e selon cette formule :

P = N(1-(1-L)^n)

avec :

  • P le nombre de problĂšmes rencontrĂ©s
  • N le nombre de problĂšmes au total
  • n le nombre d’utilisateurs avec qui on teste
  • L la proportion moyenne de problĂšmes rencontrĂ©s par un utilisateur (si en moyenne chaque utilisateur remonte 20% des problĂšmes d’une interface, et en rate 80%, alors L=0,2).

L Ă©tant une moyenne, pour augmenter la fiabilitĂ© du modĂšle, il faut que l’échantillon d’utilisateurs pour des tests soit Ă  peu prĂšs homogĂšne, c’est-Ă -dire, qu’il s’agisse d’utilisateurs reprĂ©sentatifs de la mĂȘme population.

RĂ©sultat

Les auteurs avancent empiriquement que L = 0,31 (31%), ce qui donne le graphique suivant :

Rendu graphique du modÚle mathématiques

Effectivement, d’aprĂšs ces rĂ©sultats, avec n = 5, on trouve 85% des problĂšmes d’une interface. De plus, on voit bien que, au delĂ  de 5, chaque nouvel utilisateur avec qui on teste ne rapporte que peu de nouveaux problĂšmes dĂ©tectĂ©s (seulement +5% avec le testeurs 6, +3% avec le testeur 7, etc).

En rĂ©alitĂ©, le papier de 1993 n’insiste pas tellement sur le chiffre de 5, mais plutĂŽt sur le modĂšle crĂ©Ă©, qui selon les auteurs doit servir de base pour aider les Ă©quipes de dĂ©veloppement Ă  prĂ©dire le bon nombre de tests pour faire avancer leur projet tout en optimisant le ROI de la recherche utilisateur.

C’est surtout Nielsen qui pousse le chiffre 5, avec ses diffĂ©rents articles notamment ceux publiĂ©s en 2000, 2009 et 2012, dans lesquels il dit explicitement que tester avec 5 utilisateurs suffit.

Les problĂšmes

Peut-ĂȘtre que vous ĂȘtes en train de vous dire : “Mais du coup, je ne vois pas le problĂšme ! Le fondement mathĂ©matique derriĂšre ces dires semble solide !”

Oui et non ! Il existe en fait deux catégories de problÚmes qui font que cette affirmation - devenue axiome du monde de la recherche utilisateur depuis le temps - est en réalité un mythe :

  • ceux liĂ©s Ă  une sur-simplification ou Ă  une mauvaise interprĂ©tation de cette thĂ©orie
  • ceux liĂ©s aux limites mĂȘmes du modĂšle de Nielsen et Landauer

ProblĂšmes de sur-simplification

Souvenez-vous de vos cours de mathĂ©matiques. Vous avez sĂ»rement dĂ©jĂ  Ă©tĂ© repris·e par votre professeur pour avoir essayĂ© d’appliquer un thĂ©orĂšme sans avoir vĂ©rifiĂ© d’abord si les conditions du thĂ©orĂšme s’appliquaient.

Eh bien, c’est souvent ce qu’il se passe quand on interprùte l’affirmation : tester avec 5 utilisateurs suffit !

Voici des erreurs communes que l’on voit passer :

1. Appliquer la rÚgle des 5 testeurs aux mauvaises méthodes

Cette erreur survient dùs qu’on oublie que Nielsen parle de trouver 85% des problùmes d’une interface lors de tests utilisateurs.

La dĂ©marche qui l’intĂ©resse est Ă  la fois Ă©valuative et qualitative, et ses rĂ©sultats ne peuvent ni s’appliquer aux mĂ©thodes quantitatives, ni aux mĂ©thodes exploratoires.

Il faut donc Ă©viter :

  • ❌ de faire des interviews avec uniquement 5 personnes : dans le cadre d’interviews, l’objectif est de comprendre l’expĂ©rience, les motivations et besoins d’une population. La nature des donnĂ©es est diffĂ©rente, et couvre des notions bien plus larges que celle de “problĂšmes d’une interface”. Il paraĂźt donc logique qu’on ne puisse pas faire le tour d’un sujet exploratoire en 5 personnes seulement. L’entreprise de Nielsen le dit elle-mĂȘme, les interviews ne sont pas des tests d’utilisabilitĂ©, et 5 interviews, ce n’est pas suffisant. Mais du coup, qu’est-ce qui l’est ? Il n’existe pas de rĂšgle gĂ©nĂ©rale, si ce n’est : arrĂȘtez-vous quand vous aurez l’impression de ne plus rien apprendre. Cela peut arriver au bout de 10 interviews, comme cela peut arriver au bout de 50.
  • ❌ de faire des tests non-modĂ©rĂ©s avec uniquement 5 personnes : l’objectif et les mesures ne sont pas les mĂȘmes, et la rĂšgle des 5 ne s’applique donc pas. LĂ  oĂč l’objectif de Nielsen, en test qualitatif est d’obtenir une liste de problĂšmes, son objectif en quanti est plutĂŽt de savoir combien rencontrent ce problĂšme, Ă  quelle Ă©chelle, avec quel impact, Ă  travers des mesures de durĂ©e, de frĂ©quence etc. Ces mesures ont d’avantage le besoin d’ĂȘtre fiables statistiquement, et ainsi la recommandation de Nielsen lui mĂȘme est de passer plutĂŽt Ă  20 testeurs, ou 40, selon la marge d’erreur que vous ĂȘtes prĂȘt·e Ă  accepter.
  • ❌ de faire des questionnaires avec uniquement 5 personnes : mĂȘme si cela paraĂźt pour la plupart complĂštement logique, rappelons-le tout de mĂȘme ! Avec un questionnaire, l’objectif est souvent de pouvoir extrapoler les rĂ©sultats obtenus auprĂšs d’un Ă©chantillon Ă  une population plus large. La signification statistique de cet Ă©chantillon devient alors essentielle. Heureusement, de nombreux calculateurs en ligne peuvent vous aider Ă  en dĂ©terminer la bonne taille.

đŸ€” A noter : on parle depuis le dĂ©but de mĂ©thodes de recherche appliquĂ©es Ă  de l’interface. Est-ce que la thĂ©orie de Nielsen s’applique aussi au test d’objets physiques ou de services ? Peut-on trouver 85% des problĂšmes d’ergonomie d’un siĂšge, ou des frictions rencontrĂ©es par un voyageur Ă  l’aĂ©roport, avec 5 participants ? Malheureusement, lors de la rĂ©daction de cet article, nous n’avons pas trouvĂ© d’élĂ©ments de rĂ©ponse Ă  cette question en particulier ! Affaire Ă  suivre


2. Prendre n’importe quelles 5 personnes

Nielsen le mentionne uniquement de façon passagĂšre dans son papier de recherche et dans son article, sĂ»rement parce que c’est un fondement de la recherche utilisateur qu’il n’a pas jugĂ© utile de rĂ©pĂ©ter - cependant, il aurait probablement du !

Pour que la recherche utilisateur soit valide (quelle que soit la méthode), il faut que les utilisateurs soient représentatifs de la cible du produit testé.

Ainsi quand on dit “tester avec 5 utilisateurs suffit !” on dit bien utilisateur (ou à la rigueur, potentiel utilisateur), et non “personne”.

Si vous testez votre application de recherche d’emploi avec vos parents Ă  la retraite depuis 10 ans, vous pouvez ĂȘtre sĂ»r·e que vous n’obtiendrez pas des rĂ©sultats aussi exhaustifs ni aussi pertinents que si vous testiez avec des personnes en recherche d’emploi en ce moment mĂȘme.

💡 Trouver des utilisateurs reprĂ©sentatifs de votre cible vous paraĂźt plus facile Ă  dire qu’à faire ? Laissez-nous vous aider ! Chez Tandemz, c’est notre spĂ©cialitĂ© ! Vous ne nous croyez-pas ? Jetez un oeil aux recrutements passĂ©s que nous avons dĂ©jĂ  effectuĂ©s !

3. Tester avec 5 utilisateurs aux profils trop différents

Le modĂšle de Nielsen ne fonctionne rĂ©ellement que si les utilisateurs qui testent sont reprĂ©sentatifs de la mĂȘme cible.

Note : il n’explique pas exactement pourquoi dans son texte, mais cela doit ĂȘtre du au fait que dans sa formule, un Ă©lĂ©ment important est la variable L, la proportion moyenne de problĂšmes rencontrĂ©s par un utilisateur. Or, pour que cette moyenne fasse rĂ©ellement sens, il faut que les utilisateurs aient des profils et des comportements comparables. Sinon, c’est comme dire qu’un fruit pĂšse en moyenne 500g, sans distinguer les pommes des pastĂšques !

Ce point est souvent nĂ©gligĂ©, et il n’est du coup pas rare de voir des Ă©tudes faites avec 5 personnes, chaque personne devant reprĂ©senter Ă  elle seule toute une cible. En rĂ©alitĂ©, si vous avez plusieurs cibles (par exemple, une cible d’utilisateurs finaux et une cible d’administrateurs, ou mĂȘme, une cible jeune et une cible plus ĂągĂ©e), il faudrait tester avec 5 personnes de chaque cible pour rĂ©ellement appliquer les recommandations de Nielsen.

4. Faire un test de 5 personnes et s’arrĂȘter lĂ 

Comment mentionnĂ© plus haut, l’objectif premier de Nielsen Ă©tait de maximiser le ROI des tests d’usabilitĂ©. En effet, dans les annĂ©es 90, il cherche Ă  pousser les entreprises qui n’ont ni les moyens ni le temps de faire de la recherche d’en faire quand mĂȘme - quitte Ă  ĂȘtre moins rigoureux sur les mĂ©thodes traditionnelles. Mais Ă  une condition : itĂ©rer !

Dans cette mĂȘme veine, Nielsen a toujours recommandĂ© de faire de multiples itĂ©rations de 5 tests. En effet, dans un contexte oĂč les interfaces Ă©voluent trĂšs vite, il devient inutile de dresser en une fois une liste trĂšs exhaustive des problĂšmes d’utilisabilitĂ© d’un produit : il est probable que de toute façon, l’équipe de dĂ©veloppement ne puisse pas la rĂ©soudre dans son intĂ©gralitĂ©, rendant cette liste rapidement obsolĂšte aux grĂ©s des Ă©volutions de l’interface. Il faut ainsi privilĂ©gier un suivi continu mais moins exhaustif, pour pouvoir aider les choix des Ă©quipes de dĂ©veloppement sur la durĂ©e.

Itérez rapidement et facilement tout en faisant des économies avec nos offres de crédits !

Ainsi dĂšs le dĂ©part, l’affirmation “5 utilisateurs permettent de dĂ©couvrir 85% des problĂšmes d’une interface” vient avec son lot d’astĂ©risques, de “si“ et de “mais”, qui ne la rendent pas applicable universellement. Malheureusement, et comme trop bien souvent, la communautĂ© s’est avant tout emparĂ©e d’une forme simpliste et fausse du modĂšle.

Mais mĂȘme si on prend bien en compte toutes ces nuances et paramĂštres, est-ce que le modĂšle de Nielsen est rĂ©ellement 100% fiable ?

Les limites du modĂšle

Est-ce que L = 0.31 est vraiment généralisable ?

Pour rappel, Nielsen avance empiriquement que, en moyenne, un utilisateur va trouver 31% des problĂšmes d’une interface. C’est de cette hypothĂšse appliquĂ©e Ă  son modĂšle que dĂ©coule l’affirmation “5 utilisateurs dĂ©couvrent 85% des problĂšmes d’une interface”.

Si en fait L=0.2 (donc un utilisateur trouve 20% des problùmes), le chiffre pour trouver 85% des problùmes passe de 5 à 9. C’est presque le double ! Et avec 5 personnes, on ne trouve finalement plus que 67% des problùmes.

Or, cette variable L dépend en réalité de nombreux facteurs :

  • du type d’utilisateurs (sont-ils novices ou plutĂŽt habituĂ©s de cette interface ?)
  • de la complexitĂ© de l’interface testĂ©e, et du scope des tĂąches du test
  • du niveau d’itĂ©ration de l’interface (en effet, si une interface est dĂ©jĂ  passĂ©e par des itĂ©rations de tests et d’amĂ©liorations, thĂ©oriquement cela veut dire que les problĂšmes les plus Ă©vidents ont dĂ©jĂ  Ă©tĂ© repĂ©rĂ©s et corrigĂ©s - ne restent plus que les problĂšmes plus subtils et donc moins dĂ©tectables)
  • du niveau de l’évaluateur

Il n’y a donc aucune raison de penser que L=0.31 est vraiment gĂ©nĂ©ralisable.

Cela veut dire que pour utiliser de façon vraiment fiable la formule de Nielsen, il faudrait pouvoir calculer L. Sauf que, pour calculer L, il faut connaĂźtre le nombre total de problĂšmes dans l’interface ! Un nombre qu’on ne connaĂźt a priori pas, puisque tout l’intĂ©rĂȘt de la dĂ©marche de test d’utilisabilitĂ© est de les dĂ©couvrir.

Empiriquement, ça ne marche pas tout à fait

Plusieurs Ă©tudes qui ont suivi les travaux de Nielsen et Landauer ont eu pour dĂ©marche de tester un site avec un certain nombre d’utilisateurs, et de voir quelle proportion de problĂšmes ils auraient rĂ©ellement trouvĂ©s s’ils s’étaient arrĂȘtĂ©s Ă  5. Or surprise : on en trouve rarement 85% !

Celle que nous avons trouvé la plus intéressante (car il serait trop long de toutes les résumer) est la suivante :

En 2002, Faulkner publie un papier de recherche, dans lequel elle a rĂ©alisĂ© des tests avec 60 utilisateurs. Puis, Ă  l’aide d’un logiciel, elle a crĂ©Ă© 100 sĂ©lections alĂ©atoires, en sets de respectivement 5, 10, 15 et 20 participants, pour ainsi simuler ce qu’il se serait passĂ© si elle n’avait testĂ© qu’avec ces participants.

Pour les sets de 5, elle remarque ainsi que selon les utilisateurs sur lesquels elle serait tombĂ©e, elle aurait pu espĂ©rer trouver entre 55% et 100% des problĂšmes - ce qui prĂ©sente une variance Ă©norme ! A noter tout de mĂȘme que, en moyenne sur les 100 sets de 5 utilisateurs, elle trouvait bien 85% des problĂšmes de l’interface.

Graphique pour les sets de 5 testeurs

Pour les sets de 10 utilisateurs, elle Ă©tait plutĂŽt entre 82% et 100%, avec une moyenne de 95%

Graphique pour les sets de 10 testeurs

Et ainsi de suite :

Ensemble des graphiques pour les sets de 5, 10, 15 et 20 testeurs

Cette Ă©tude corrobore bien le modĂšle de Nielsen et Landauer, mais uniquement en moyenne ! RamenĂ©e au cas rĂ©el d’une Ă©tude terrain, cette moyenne ne peut pas malheureusement pas s’appliquer.

La réalité est donc plutÎt la suivante : avec 5 utilisateurs, vous trouverez entre 55% et 100% des problÚmes de votre interface ! A vous de voir ensuite si cet intervalle de taux est acceptable ou non.

Quid de la sévérité des problÚmes ?

Le modĂšle de Nielsen et Landauer ne se pose pas du tout la question de la sĂ©vĂ©ritĂ© d’un problĂšme. DĂ©couvrir 85% des problĂšmes, cela ne veut pas dire dĂ©couvrir 85% des problĂšmes les plus graves ni les plus bloquants !

On pourrait croire que plus un problĂšme est bloquant, plus il est Ă©vident, et donc plus il sera vu rapidement. C’est d’ailleurs la thĂ©orie de Virzi de 1990 - or Nielsen et Landauer se sont beaucoup appuyĂ©s sur ses travaux pour crĂ©er leur modĂšle.

Pourtant, il a depuis Ă©tĂ© plutĂŽt thĂ©orisĂ© qu’il n’y a en fait aucune corrĂ©lation entre sĂ©vĂ©ritĂ© et dĂ©couvrabilitĂ© d’un problĂšme.

La question de la sĂ©vĂ©ritĂ© se pose du coup plutĂŽt dans l’autre sens : si 5 utilisateurs dĂ©couvrent 85% des problĂšmes, et qu’il y a une probabilitĂ© non nulle que parmi les 15% restants, il y ait des problĂšmes graves, est-ce vraiment acceptable de s’arrĂȘter lĂ  ? On pourrait par exemple donner l’exemple des produits avec des applications mĂ©dicales ou de navigation, oĂč le moindre dĂ©faut de conception ou de dĂ©veloppement peut Ă©ventuellement mettre en danger le bien-ĂȘtre voire la vie de leurs usagers.

Pour résumer

L’affirmation “Tester avec 5 personnes suffit” n’est pas complĂštement fausse - elle est juste trĂšs imprĂ©cise, et surtout, elle vient avec beaucoup de limites et de conditions qu’il est facile d’oublier !

L’affirmation complĂšte devrait plutĂŽt ĂȘtre : Tester avec 5 utilisateurs permet de trouver entre 55% et 100% des problĂšmes d’une interface.

Mais attention, pour que cette affirmation soit réellement valable, il faut :

  • ✅ Vous placer dans le cadre de tests d’utilisabilitĂ© d’une interface.
    ❌ N’essayez pas de l’appliquer aux interviews exploratoires ni aux mĂ©thodes quantitatives !
  • ✅ Tester avec 5 utilisateurs dans la cible de votre produit
    ❌ Avec des personnes Ă  qui votre produit ne s’adresse pas, les taux de problĂšmes dĂ©couverts sont encore plus bas.
  • ✅ Tester avec 5 utilisateurs au profil et aux comportements similaires
    ❌ En prenant 5 utilisateurs trop diffĂ©rents, la fourchette de problĂšmes rencontrĂ©s devient carrĂ©ment alĂ©atoire.
  • ✅ S’assurer que chaque utilisateur trouve environ 30% des problĂšmes d’une interface   ❌ En pratique, ce chiffre est non seulement trĂšs difficile Ă  vĂ©rifier, il est aussi trĂšs variable. Or, moins vos utilisateurs trouvent de problĂšmes, plus il vous en faut pour vos tests !
  • ❌ Oublier les notions de frĂ©quences ou de criticitĂ© des problĂšmes. AprĂšs 5 tests, vous avez tout de mĂȘme la possibilitĂ© d’ĂȘtre passé·e Ă  cĂŽtĂ© de problĂšmes bloquants ou graves.

Si ce n’est pas 5, alors combien ?

Malheureusement, la seule vraie réponse est : ça dépend !

Eh oui, les facteurs qui influent sur la qualitĂ©, la pertinence et l’exhaustivitĂ© des retours sont tellement nombreux, qu’en rĂ©alitĂ©, le seul moyen de savoir si on en a fait assez, c’est
 d’en avoir fait assez pour s’en rendre compte ! Comme pour les interviews, Ă  partir du moment oĂč vous n’obtenez plus de retour nouveau, vous pouvez probablement considĂ©rer que vous avez fait le tour du sujet.

Oui on sait, cette rĂ©ponse apporte trĂšs peu satisfaction
 Et c’est bien lĂ  le problĂšme : le manque de rĂ©ponse dĂ©finitive donne vraiment envie d’adhĂ©rer Ă  cette thĂ©orie, si simple et si mĂ©morable, du “5 utilisateurs suffisent” - et c’est pour ça que le mythe s’est rĂ©pandu aussi vite !

Mais finalement, est-ce que c’est la bonne question à se poser ?

Le modĂšle de Nielsen est avant tout un modĂšle d’optimisation du ROI de la recherche. Il n’a jamais rĂ©ellement Ă©tĂ© question de savoir combien de personnes permettent de trouver combien de problĂšme - mais plutĂŽt, d’accepter que :

  • plus vous testez, plus cela vous coĂ»tera cher, en temps comme en argent - et ce coĂ»t n’est pas linĂ©aire, mais plutĂŽt exponentiel, Ă  cause de la redondance que vous allez avoir au cours des tests
  • moins vous testez, moins vous comprendrez ce qu’il faut amĂ©liorer sur le produit, et plus vous avez de chance de laisser passer des problĂšmes qui peuvent s’avĂ©rer graves.

Le tout est de trouver un bon Ă©quilibre entre efforts de recherche et exhaustivitĂ© des rĂ©sultats - et d’accepter les consĂ©quences de son choix.

Notre conseil ? DĂ©finissez d’abord votre prioritĂ© ainsi que le niveau de risque acceptable associĂ© ! Posez-vous ainsi les questions suivantes :

  • Un problĂšme sur votre produit ou parcours peut-il avoir un impact grave sur vos utilisateurs ? Si oui, alors privilĂ©giez l’exhaustivitĂ©.
  • Si non, avez-vous le budget et le temps de tester avec 15 personnes ? 10 personnes ? 5 personnes ? Si non, contentez-vous de ce que vous pouvez rĂ©aliser comme tests, et essayez d’itĂ©rer le plus souvent possible pour compenser.
  • Si oui, et que ces personnes remontent beaucoup de problĂšmes, aurez-vous la capacitĂ© de dĂ©veloppement pour les corriger rapidement avant votre prochain cycle de test ? Ajustez alors la nombre de personnes visĂ©es en fonction de votre capacitĂ© de dĂ©veloppement.

📰 Ce sujet des 5 utilisateurs qui suffisent est une des erreurs les plus communes en UX research, mais il en existe bien d'autres ! DĂ©couvrez-les dans le podcast de notre CPO les erreurs les plus communes en UX research pour apprendre Ă  les reconnaĂźtre et les Ă©viter !

Unlock your user research superpowers with Tandemz!

Get Started

Never miss a ressource - stay up to date with our newsletter!

You have successfully signed up to our newsletter!
Oops! Something went wrong while submitting the form. Try again later, or send us a message on support@tandemz.io