Voulez-vous votre propre version d'IndiKit?

En savoir plus

Connaissances des jeunes en matière de gouvernance locale

Niveau de l'Indicateur

Sortie

Libellé de l'indicateur

Pourcentage de jeunes ciblés ayant amélioré leurs connaissances des structures de gouvernance locale et des processus décisionnels

Indicateur Objectif

Cet indicateur mesure la proportion de jeunes qui montrent une évolution positive dans leur connaissance du fonctionnement de la gouvernance locale, notamment en ce qui concerne les structures, les rôles et les possibilités de participation. Il sert à évaluer si l'éducation civique, la formation au leadership ou les initiatives d'engagement ont permis aux jeunes de mieux comprendre qui prend les décisions au niveau local, comment ces décisions sont prises et comment les jeunes peuvent y participer. Le suivi de cet indicateur permet de démontrer l'efficacité des interventions visant à renforcer les connaissances civiques des jeunes et leur disposition à s'engager.

Comment collecter et analyser les données nécessaires

Déterminez la valeur de l'indicateur en utilisant la méthodologie suivante :

 

1)Définissez clairement les indicateurs.

  • Définir la « jeunesse » selon les critères du projet ou les critères nationaux.

  • Définir le groupe cible (par exemple, les jeunes participant à des initiatives d'éducation civique, de formation, de mentorat ou de dialogue communautaire).

  • Définissez les « connaissances » clés que le projet vise à renforcer, par exemple les structures et les rôles, les processus, les possibilités de participation et les mécanismes de responsabilisation. Celles-ci doivent correspondre aux objectifs d'apprentissage de l'intervention et être clairement définies avant la collecte des données.

2) Concevoir une approche de mesure appropriée pour évaluer l'évolution des connaissances. Cela nécessite de mesurer la différence entre la situation de référence (avant l'activité de renforcement des connaissances) et la situation post-intervention (après l'activité). Les options les plus courantes sont les suivantes :

  • Test de connaissances standardisé : administrer le même test ou un test équivalent avant et après l'intervention et comparer les résultats.

  • Auto-évaluation : demandez aux participants d'évaluer leur niveau de connaissances avant et après l'intervention à l'aide d'une échelle standard (par exemple, 1 = très faible, 5 = très élevé).

  • Évaluation par le superviseur ou le formateur : dans certains cas, un formateur ou un superviseur peut évaluer les connaissances de chaque participant au début et à la fin de la formation afin de déterminer les progrès réalisés.

Dans la mesure du possible, utilisez des évaluations objectives des connaissances avant et après la formation. Les auto-évaluations ou les évaluations par le formateur sont des alternatives acceptables dans les contextes où les tests ne sont pas réalisables, mais elles doivent être triangulées par une vérification par les pairs ou des contrôles qualitatifs.

3)Fixer un seuil minimum d'amélioration qui définit « l'augmentation des connaissances ». Exemples :

  • Niveau minimum requis de connaissances ou pourcentage minimum d'amélioration entre les résultats des tests préliminaires et finaux (par exemple, augmentation d'au moins 20 %), en fonction du niveau de référence.

  • Une augmentation d'au moins un point sur une échelle d'auto-évaluation à 5 points.

  • Évitez d'avoir des exigences irréalistes ou inutilement basses en vérifiant la difficulté du test auprès d'au moins 10 personnes avantdelemettre en place.

4)Recueillir les données pré-intervention auprès de l'ensemble de la population cible ou d'un échantillon représentatif, selon le cas.

5)Recueillir les données post-intervention. Répéter la collecte de données, idéalement immédiatement après l'intervention et, si possible, à nouveau à un stade ultérieur afin d'évaluer la rétention. S'assurer que les répondants ont eu suffisamment de temps pour intérioriser ou appliquer ce qu'ils ont appris. Les mêmes personnes doivent être évaluées à tous les points de mesure afin de permettre une comparaison au niveau individuel entre les résultats pré- et post-intervention.

6)Évaluer les résultats au niveau des participants. Calculer combien de jeunes participants ont atteint le seuil minimum requis pour l'amélioration des connaissances défini à l'étape 3.

7) Pour calculer la valeur de l'indicateur, divisez le nombre de jeunes qui atteignent le seuil défini d'amélioration des connaissances par le nombre total de jeunes évalués. Multipliez le résultat par 100 pour le convertir en pourcentage.

Ventilation par

Les données peuvent être ventilées par sexe, tranche d'âge, zone géographique et/ou d'autres caractéristiques socio-économiques pertinentes, en fonction du contexte, de l'orientation et des ressources de votre projet.

Commentaires importants

1) Lorsque vous interrogez un échantillon plutôt que l'ensemble de la population cible, veillez à ce qu'il soit suffisamment large pour tenir compte de l'attrition lors de enquête finale, car tous les répondants de référence ne seront peut-être pas disponibles à ce stade. Cela permet de garantir que l'évaluation post-intervention reste représentative (la taille de votre échantillon reste suffisamment large) et permet de collecter des données auprès des mêmes répondants lors enquête finale de référence et enquête finale .

2)Recueillez toujoursles résultats avant et après l'intervention, sinon vous ne saurez pas dans quelle mesure les répondants ont amélioré (ou non) leurs connaissances. Harmonisez les outils d'évaluation afin de maintenir la cohérence dans le suivi des progrès.

3) Si votre projet vise à mesurer si la population cible a atteint un niveau spécifique de connaissances et/ou de compétences - plutôt que si elle s'est améliorée au fil du temps - utilisez plutôt l'indicateur « % de jeunes ayant les connaissances souhaitées sur les structures de gouvernance locale et les processus décisionnels ». L'avantage de cette approche est que vous n'avez pas besoin de collecter des données de référence et de suivi auprès des mêmes répondants.

4) Veiller à ce que les outils d'évaluation soient adaptés au contexte, facilement compréhensibles par les jeunes et testés au préalable pour en vérifier la fiabilité.

5)Si vous utilisez des autoévaluations, validez-les à l'aide d'un contrôle externe afin de réduire les biais. Demandez à des formateurs ou à des pairs de vérifier si les participants sont capables de démontrer les connaissances qu'ils ont eux-mêmes évaluées. Cette étape de vérification garantit que les résultats reflètent l'apprentissage réel plutôt que des perceptions subjectives.

6)Décidez si l'indicateur mesurera l'effet immédiat d'une seule activité d'apprentissage, par exemple une session de formation ou un événement de sensibilisation, ou l'effet cumulatif d'un processus d'apprentissage plus long, qui pourrait être une série de formations, de mentorat ou d'activités continues d'éducation civique. Cela déterminera le moment de la collecte des données et la manière dont les changements dans les connaissances des jeunes seront interprétés. Dans la mesure du possible, envisagez de réaliser deux évaluations postérieures. Idéalement, cela devrait être fait immédiatement après l'activité d'apprentissage afin de saisir l'apprentissage à court terme, puis à nouveau 1 à 2 mois plus tard afin d'évaluer la rétention des connaissances et leur utilisation potentielle. Les évaluations peuvent également être intégrées dans enquête finale de référence et enquête finale afin de mesurer le changement global plutôt que les effets d'une seule activité.

7) En vous appuyant sur votre analyse de l'accessibilité et du genre , évaluez si des mesures supplémentaires sont nécessaires pour garantir une évaluation équitable et précise de tous les jeunes répondants et, le cas échéant, mettez-les en place. Il peut s'agir notamment de proposer plusieurs formats de collecte de données (écrit, oral ou numérique) afin de s'adapter aux différentes capacités ; de veiller à ce que les lieux d'évaluation soient accessibles ; d'offrir une grande flexibilité horaire aux jeunes qui en ont besoin ; d'autoriser l'utilisation d'applications ou de programmes d'aide ; et de fournir du matériel de soutien, tel que des textes en gros caractères ou des aides visuelles. Utilisez un langage et des exemples neutres du point de vue du genre dans toutes les questions et ventilez et interprétez les résultats par genre afin de déterminer si les filles/jeunes femmes, les garçons/jeunes hommes ou les jeunes non binaires obtiennent des résultats d'apprentissage différents ou rencontrent des obstacles différents.

8) Le cas échéant, envisagez de demander aux répondants où ils ont acquis leurs connaissances/compétences. Cela pourrait vous aider à comprendre la contribution de votre intervention.

9) Si possible, ajoutez des questions afin de recueillir des commentaires sur l'utilité et la pertinence du renforcement des capacités. Utilisez les résultats pour améliorer les interventions.

10) Afin de renforcer l'apprentissage et la responsabilisation, communiquer les résultats des évaluations aux jeunes participants lorsque cela est possible et approprié et les utiliser pour affiner les futures initiatives de renforcement des capacités.

Ce guide a été préparé par People in Need (PIN) ©
Proposer des améliorations