Plus de 10 000 visites sur mon site ! Plus de 120 personnes réunies à mon hackathon ! Plus de 53 000 post-its collés depuis l’ouverture de notre incubateur interne ! Mais qu’en est-il des usagers ? Qu’est-ce qui va mieux pour eux après le passage de l’Innovation ? Et si l’on arrêtait de mesurer nos moyens, mais plutôt nos résultats ?
« Plus un indicateur quantitatif est utilisé pour prendre des décisions, plus il va être manipulé et plus son usage va aboutir à corrompre le processus qu’il était censé améliorer. » (loi de Campbell, 1976). Il est en effet clair que si une administration se voyait responsable de publier un « taux de satisfaction » ou un « coût par transaction », ces mesures deviendraient un objectif de facto, que ce soit vis-à-vis du gouvernement ou de la société civile. Ainsi, il faut être extrêmement attentif à ce que les mesures soient celles d’un impact réel et non des mesures d’efficience interne, aux effets délétères assurés.
Certaines mesures d’impact (Key Performance Indicators, KPI) semblent pourtant capturables assez facilement :
Malheureusement, l’impact réel est souvent difficile à mesurer. La difficulté principale dans la construction de la métrique pour la plupart des produits vient du fait que le parcours utilisateur se finit hors du produit et qu’on ne peut donc pas savoir si l’objectif est atteint au-delà des clics : l’usager a-t-il obtenu le RSA après une simulation sur Mes Aides ? A-t-il suivi la formation trouvée sur La Bonne Formation ? Cette formation a-t-elle accéléré son retour à l’emploi par rapport au délai moyen ?
Le risque est ainsi de mesurer ce que l’on peut mesurer plutôt que ce qu’il faudrait mesurer. Notre approche est de nous accorder sur une métrique stratégique non mesurable dans l’immédiat, et nous satisfaire d’une métrique qualitative ou indirecte (dite « proxy »), mesurable dans l’immédiat. Il ne faut pas chercher à tout prix la justesse. L’objectif de la métrique est d’indiquer l’effet attendu, de rendre des comptes, d’orienter des décisions budgétaires, d’obtenir du soutien politique. Le bon niveau de justesse est celui qui remplit ces objectifs, ni plus ni moins.
À beta.gouv.fr, le processus de définition des KPI est surtout une maïeutique permettant de nous questionner sur les investissements dans nos produits. « Sommes-nous collectivement d’accord que notre but principal est ?… Si oui, alors notre succès pourrait se mesurer par… », « Si je fais ça, quel chance ai-je d’augmenter notre impact, mesuré dans telle KPI ? »
Quand le KPI n’est pas disponible facilement, il existe une méthode simple et frugale d’évaluer l’utilité perçue d’un service : le Net Promoter Score. Demander à ses usagers s’ils recommanderaient votre service sur une échelle de 1 à 10, pour subjectif que cela puisse paraître, est une mesure très utile, simple à capturer, et, associée à un commentaire libre, qui peut aider à adresser les problèmes que rencontrent les usagers. Cette méthode peut aisément être intégrée dans tout produit Web, avec des solutions freemium comme Hotjar.
Savoir que 80% des usagers recommandent le service est une chose, mais la justification d’un investissement peut réclamer une mesure d’impact stratégique. Pour estimer l’impact du produit à un moment donné, nous utilisons la méthode de calibrage par des cohortes : une première cohorte n’utilise pas le produit (situation avant) et une seconde l’utilise (situation après). Ces cohortes respectent les règles statistiques (groupe de contrôle, échantillonnage) pour éviter tout biais et garantir la comparabilité. Dans chaque cohorte, nous mesurons la moyenne de l’impact souhaité (ex. : délai de retour à l’emploi, taux de non-recours aux prestations sociales …). Nous en déduisons un coefficient d’impact (CI), différence en % entre ces 2 mesures d’impact stratégique réalisées précisément sur les 2 cohortes. Ainsi, si 100 personnes réalisent une action mesurable chez nous (une simulation mes-aides, une recherche dans laBonneBoite), nous déduisons que par rapport à celles qui ne le font pas, elles seront impactées de CI%.
Exemple : les demandeurs d’emploi n’utilisant pas la Bonne Boîte ont une probabilité de retour à l’emploi à 5 mois de 19,99%. En utilisant La Bonne Boîte, elle passe à 22,1% - +2 points, soit +11% (étude 2016 sur 2 cohortes de 100 000 individus). Ainsi, les chances de retrouver un emploi des 400 000 demandeurs d’emploi qui ont utilisé LBB depuis sa création jusqu’en septembre 2016 étaient de 2 points supérieures. Soit 8000 personnes impactées positivement.
En multipliant les coefficient d’impact par le nombre d’usages, nous obtenons une première idée de l’impact économique, social et environnemental du service. Dans notre exemple, la mesure est présentable en social (impact : 8000 personnes), mais aussi en économique : le “coût d’un chômeur” pour la collectivité est estimé autour de 3000€ (source Ministère du Travail). En connaissant le nombre de mois gagnés en moyenne par un utilisateur de LBB (ou en retenant un minimum, 1 mois, si on l’ignore), nous pouvons obtenir un impact normalisé en €, ici 24 M€.
Pour autant, cette mesure indirecte, n’est que la meilleure manière de mesurer notre impact dans le monde réel. Tout sauf un chiffre exact, un objectif à faire progresser ou un totem immuable. Le contexte socio-économique change, les mentalités, les personnes, et la mesure devra évoluer. Avec de nouvelles cohortes, un nouveau produit, et probablement de nouvelles KPI.
Pour construire une mesure d’impact nous distinguons deux temps, le temps court et le temps long.
À court terme :
À long terme :
War On The Big Pink Bullshit! flickr photo by dullhunk shared under a Creative Commons (BY) license