Manuel pour l'evaluation des competences fondamentales en lecture (2009) - 3

 

  Index      Manuals     Manuel pour l'evaluation des competences fondamentales en lecture (2009)

 

Search            copyright infringement  

 

   

 

   

 

Content      ..     1      2      3      4      ..

 

 

 

Manuel pour l'evaluation des competences fondamentales en lecture (2009) - 3

 

 

crayons avec gommes, écritoires à pince
ordinateurs portables avec Excel pour la saisie des données (un ordinateur par
groupe d'enquêteurs)
Les animateurs de l'atelier doivent examiner et renforcer les compétences testées dans
l'instrument et la relation de chaque composante par rapport à l'instruction. L'instrument
devrait être examiné attentivement, en faisant tout particulièrement attention à la clarté
des instructions pour les élèves et les enquêteurs. Dans la mesure du possible, les
instructions pour les élèves doivent être cohérentes (y compris la façon d'encourager
l'enfant, le nombre d'exemples, etc.) dans toutes les composantes du test (consulter la
Figure 7 pour la liste des composantes).
Le nombre d'enquêteurs à engager et à former dépendra du nombre d'écoles à visiter et du
délai d'achèvement prévu pour l'exercice. Puisque le test pilote dans trois à six écoles est
un exercice de formation, tous les enquêteurs sélectionnés pour l'ensemble de
l'administration devraient participer à la 2e semaine de l'atelier. Tout au moins, les
enquêteurs et les superviseurs devraient visiter les écoles en groupes de quatre : un
superviseur et trois enquêteurs par équipe. Ainsi, les superviseurs peuvent sélectionner
les élèves et circuler entre les enquêteurs durant la période de test. Selon les
administrations d'EGRA réalisées dans plusieurs pays, à ce jour, il est estimé que les
résultats de 400 élèves sont nécessaires pour chaque groupe de comparaison étudié
(l'année primaire, le type d'école, etc. ; consultez l'Annexe E pour des informations
détaillées sur la taille de l'échantillon). Ainsi, un simple niveau de référence national
comparant par année les élèves de la 1ère à la 3e primaire nécessite 1200 élèves. Si des
groupes de comparaison supplémentaires sont nécessaires (par exemple, rural versus
urbain, par année primaire), alors 400 élèves sont nécessaires pour chaque groupe de
comparaison intéressant (2400 élèves, dans cet exemple).68 La Figure 10 ci-dessous
résume les calculs déterminant le nombre d'écoles et d'enquêteurs nécessaires pour
effectuer une enquête communiquant les résultats pour la 1ère à la 3e année primaire.
Dans plusieurs pays où EGRA a été administré à ce jour, les membres du personnel
ministériel qui ont participé à la 1ère semaine de l'atelier ont été sélectionnés comme
superviseurs pour la durée de l'exercice. Il est important d'avoir plus de superviseurs et
d'enquêteurs qu'il n'est nécessaire afin de pouvoir sélectionner les meilleurs dans chaque
groupe.
68 Consultez l'Annexe B pour un soutien statistique supplémentaire pour cette estimation, en utilisant les résultats de
plusieurs applications d'EGRA.
66
Section V : Formation des enquêteurs d'EGRA et travail de terrain
Figure 10. Estimations des exemples d'élèves, d'écoles et du nombre
d'enquêteurs
Journées
de travaux
Exemple
Elèves par
de terrain
Groupe de
d'écoles
année
Enquêteurs
(1 journée
comparaison
Exemple
(60 élèves par
primaire par
nécessaires
par école
étudié
d'élèves
école)
école
(4 équipes de 4) par équipe)
1ère à 3e années
1200
1200/60=20
20
16
5
primaires
1ère à 3e années
2400
2400/60=40
20
16
10
primaires
Contrôle vs
traitement
1ère à 3e années
4800
4800/60=80
20
16
20
primaires
Contrôle vs
traitement, urbain vs
rural
Selon les besoins de l'équipe ministérielle et le temps disponible pour compléter
l'évaluation, le nombre d'enquêteurs peut être augmenté ou diminué. Ainsi, l'évaluation
d'un exemple de 40 écoles peut être complétée en 10 jours avec 16 enquêteurs ou en 5
jours avec 32 enquêteurs. L'application dans ces 40 écoles devraient avoir lieu
immédiatement après le test pilote, durant la 2e semaine.
Pour continuer avec l'exemple sur le simple niveau de référence de comparaison de 1200
élèves sur base de l'année primaire, le test pilote devrait être administré dans un minimum
de quatre écoles (une école par groupe de quatre), selon le nombre d'enquêteurs formés.
Pour le test pilote, les participants ont besoin de :
exemplaires de l'instrument final de l'enquêteur
1 ensemble plastifié de formulaires pour les élèves (le même formulaire plastifié
sera utilisé avec chaque élève que l'enquêteur teste), par enquêteur
chronomètres ou minuteurs (si possible, trouvez un minuteur de cuisine qui
décompte à partir d'1 minute)
crayons avec gommes, écritoires à pince
crayons ou autres matériels scolaires de petite taille à donner aux élèves pour les
remercier de leur participation
Test de fiabilité inter-observateur
La fiabilité inter-observateur calcule dans quelle mesure les différents évaluateurs, ou
enquêteurs, s’accordent sur leur notation d’une même observation. C’est durant le
processus de formation qu'elle est la plus utile parce qu’elle permet d’améliorer la
Section V : Formation des enquêteurs d'EGRA et travail de terrain
67
performance des enquêteurs avant qu’ils ne soient envoyés sur le terrain. La fiabilité
inter-observateur peut également servir à sélectionner les enquêteurs donnant les
meilleures performances.
Certaines méthodes utilisées pour générer les données nécessaires au calcul de la fiabilité
inter-observateur sont mentionnées ci-dessous :
1.
Un enquêteur évalue un élève alors qu’un autre enquêteur l’observe et le note. Les
enquêteurs comparent ensuite leurs notes et en discutent. Les superviseurs
peuvent également observer et noter l’élève avec chaque enquêteur et discuter de
toute disparité.
2.
Dans un groupe, les enregistrements audio ou vidéo de l’évaluation des élèves
peuvent être écoutés ou visionnés alors que les enquêteurs notent l’évaluation. Les
formateurs peuvent recueillir les fiches codées afin de les examiner et de donner
des commentaires (vérification du codage et des notes).
3.
Des formateurs et des enquêteurs adultes peuvent jouer le rôle des élèves dans des
petits ou grands groupes et les fiches codées peuvent être recueillies pour être
examinées et commentées. L’avantage de ce dernier scénario est que les adultes
peuvent délibérément commettre plusieurs erreurs dans un sous-test donné (par
exemple, en sautant ou en répétant des mots ou des lignes, en changeant le
volume de leur voix, en faisant une pause pendant des périodes de temps
prolongées afin de susciter une incitation, etc.).
Avec toutes ces méthodes, les données sont recueillies pour calculer la fiabilité inter-
observateur. Les formateurs principaux recueillent les fiches codées pour chaque tâche,
saisissent les données dans Excel et calculent les moyennes et les écarts-types. Les
enquêteurs dont les résultats sont supérieurs à plus d’un écart-type par rapport à la
moyenne ont besoin de pratique ou de soutien supplémentaire. Si l’analyse de fiabilité
inter-observateur révèle un enquêteur dont la performance est constamment médiocre, et
que cette dernière ne s’améliore pas suite à de la pratique et à un soutien supplémentaire,
cet enquêteur devrait ne pas participer aux travaux de terrain.
Arrivée à l'école
Avant de prendre la route vers les écoles, les enquêteurs et les superviseurs devraient :
Revérifier tout le matériel, y compris un exemplaire plastifié du formulaire pour
l'instrument de l'enfant, par enquêteur, et suffisamment d'exemplaires de
l'instrument de l'enquêteur.
Discuter des procédures d'administration du test et des stratégies pour mettre les
élèves à l'aise et pratiquer cet exercice ensemble.
68
Section V : Formation des enquêteurs d'EGRA et travail de terrain
Vérifier si tous les administrateurs préfèrent utiliser un chronomètre ou leur
propre montre.
Une fois arrivé à l'école, le superviseur devrait présenter l'équipe d'enquêteurs au
directeur de l'école. Dans la majorité des pays, une lettre signée du Ministre de
l'Education sera requise pour administrer l'évaluation. Le superviseur devrait présenter la
lettre (dont un exemplaire aura, si possible, été envoyé à l'avance ; consultez un exemple
d'une telle lettre dans l'Annexe I), expliquer le but et les objectifs de l'évaluation et
remercier le directeur d'école de participer à l'évaluation de compétences fondamentales
en lecture. Il faudra rappeler au directeur que ni les élèves ni les enseignants ne seront
identifiés par nom durant le processus de collecte des données.
Si cela est planifié, le directeur de l'école devrait être informé de la procédure pour offrir
un retour d'informations à l'école sur la performance générale des élèves. Enfin, le
superviseur devrait demander au directeur s'il y a une salle de classe, une salle
d'enseignants ou un lieu calme où chacun des administrateurs peut effectuer des
évaluations individuelles. Les enquêteurs devraient se rendre dans l'espace indiqué et
placer deux chaises ou bureaux, un pour l'élève et un pour l'enquêteur.
Sélection des élèves et réalisation de l'évaluation
Si des données récentes et correctes sur les élèves inscrits par école, année primaire et
classe sont disponibles au niveau central avant l'arrivée à l'école, une liste de numéros
aléatoires peut être utilisée pour générer l'exemple d'élèves. Etant donné que cela est très
improbable dans presque tous les contextes de pays à faibles revenus, la procédure
suivante devrait être suivie pour sélectionner les élèves dans l'école.
Afin d'évaluer 20 élèves par année primaire, le superviseur de l'enquête devrait suivre la
procédure suivante pour chaque année primaire (1ère, 2e et 3e, une à la fois).
1.
Obtenir le registre des élèves de chaque classe ou du directeur de l'école, s'il est
disponible. C'est une bonne pratique de commencer avec la sélection des enfants
de la première année primaire. Souvent, plus il est tard dans la journée, au plus
ces jeunes enfants éprouvent des difficultés à focaliser leur attention et à se
concentrer.
2.
Compter le nombre total d'élèves inscrits dans chaque classe pour cette année
primaire et les additionner (par exemple, Classe A=40, Classe B=30, Classe
C=50, Total=120).
3.
Diviser le total (120) par le nombre d'élèves à interroger (dans cet exemple, 20
élèves sont sélectionnés par année primaire [20 x 3] aussi la réponse est 6).
4.
Utiliser cette réponse pour compter les élèves dans les listes de classes et
sélectionner chaque « n-ième » élève comme partie de l'exemple. Dans cet
exemple, la réponse est 6, aussi les élèves 6, 12, 18, 24, 30, et 36 de la liste
participeront pour la Classe A ; les élèves 2, 8, 14, 20, et 26 pour la Classe B et
les élèves 2, 8, 14, 20, 26, 32, 38, 44, et 50 pour la Classe C.
Section V : Formation des enquêteurs d'EGRA et travail de terrain
69
5.
Si un élève est absent ou refuse de participer, sélectionnez le numéro suivant sur
la liste de la classe. Si cet élève est absent ou refuse, le numéro suivant devrait
être sélectionné. Ceci vous donnera l'exemple de 20 élèves, répartis dans toutes
les classes de 1ère année primaire. Noter le nombre de refus et d’absences dans le
rapport de l'école.
6.
Retirer les élèves de leurs classes en petits groupes, un élève par enquêteur, afin
de minimiser l'interruption des classes Emmener les élèves aux enquêteurs et
présenter les par leur nom. Noter la taille de la classe de l'élève et les informations
sur l'âge de l'élève et/ou la date de naissance, et communiquer ces informations à
chaque enquêteur au début de l'entrevue avec l'élève.
7.
Une fois que les administrateurs ont terminé l'évaluation pour tous les élèves de
1ère année primaire, répéter la procédure ci-dessus pour la 2e et la 3e années
primaires.
8.
S'assurer que les administrateurs aient toujours un élève à évaluer afin de ne pas
perdre de temps durant l'administration de l'instrument. Dans la mesure du
possible, toutes les entrevues devraient être complétées durant la journée scolaire.
Si l'école n'a qu'une seule période de cours et que l'évaluation n'est pas complétée
à la fin de cette période de cours, trouver les élèves restants et demandez leur
d'attendre en fin de journée scolaire. Dans ce cas, le directeur d'école ou les
enseignants devraient prendre des dispositions pour informer les parents que
certains enfants rentreront en retard à la maison Ce problème devrait être discuté
au préalable, avec les enquêteurs et les superviseurs, afin de déterminer la
pratique le plus appropriée en vue des conditions locales données.
Enseignement des leçons pour le travail de terrain
Tout au long de la formation, les participants doivent réfléchir et partager les expériences
vécues lors du pilotage de l'instrument. Les instructions doivent être améliorées et
clarifiées selon l'expérience vécue dans les écoles, par les enquêteurs. Le travail de terrain
même doit avoir lieu directement après la formation. Lorsque cela est possible, chaque
équipe devrait avoir une voiture pour le transport de matériel et pour arriver aux écoles
sélectionnées comme échantillon avant le début de la journée scolaire. A ce jour,
l'expérience a démontré que l'application de l'instrument EGRA nécessite près de 15 à 20
minutes par enfant. Cela veut dire qu'une équipe de trois enquêteurs (avec l’aide d’un
superviseur qui organise les aller et venues des élèves pour chaque enquêteur) peut
compléter neuf ou dix instruments par heure, ou voir près de 30 enfants au maximum sur
une période ininterrompue de trois heures.
Selon le travail effectué par notre partenaire local CIASES au Nicaragua, RTI a
développé un manuel du superviseur pour accompagner l'instrument et guider le
processus de collecte des données. Le manuel peut être trouvé avec les instruments les
plus récents sur le site d'EdData sous la rubrique EGRA > Current EGRA Instruments.
70
Section V : Formation des enquêteurs d'EGRA et travail de terrain
VI.
Analyse des données EGRA
Cette section s'adresse aux méthodes de base et aux technologies simples que l'équipe de
saisie et d'analyse des données peut utiliser pour les données d'EGRA.
Pendant le développement d'EGRA, la démarche de RTI a été de travailler avec des outils
et des méthodes peu chères et largement disponibles. Puisque les logiciels de statistiques
sont assez chers et nécessitent une formation supplémentaire ou autodidacte, les
personnes utilisant EGRA préfèrent travailler avec Excel. En gardant cela à l'esprit, cette
section du manuel a été développée en utilisant les fonctions « Data Analysis Toolpak »
(un complément disponible à la majorité des utilisateurs d’Excel) et les tableaux croisés
dynamiques d'Excel (consultez l'explication ci-dessous). Lorsqu'ils sont disponibles et ne
nécessitent pas une formation supplémentaire pour l'utilisation du logiciel même, les
logiciels de statistiques communs tels que SPSS et Stata devraient être utilisés à cause de
leur capacité d'ordre supérieure pour l'analyse de données. Cette section aborde les sujets
suivants :
Tri et saisie des données
Utilisation d'Excel pour analyser les données
Une explication complète sur les pondérations de l'exemple est incluse dans l'Annexe E.
Tri et saisie des données
L'expérience acquise avec EGRA et d'autres enquêtes suggèrent que les problèmes
suivants sont importants pour assurer la saisie de données (sans erreurs) et le tri des
données.
1.
S'assurer qu'une donnée d'identification clé sur chaque enfant soit incluse sur
chaque feuille du questionnaire ou du formulaire de l'évaluation, au cas où les
questionnaires ou les formulaires d'évaluation sont séparés lors du transport
2.
S'assurer que l'achèvement et la cohérence de tous les formulaires de données
soient vérifiées à la fin de chaque journée, idéalement par une autre personne que
celle ayant effectué l'évaluation. Cela sous-entend une proportion raisonnable
entre les superviseurs et les enquêteurs, afin que les superviseurs puissent
examiner les formulaires en fin de journée. Alternativement, les enquêteurs
peuvent vérifier le travail de leurs collègues en fin de journée.
3.
Etant donné les tailles relativement petites des exemples utilisés dans les
évaluations EGRA, la saisie de données est, jusqu'ici, effectué dans Excel, dans
pratiquement tous les cas. Ceci maximise la transparence et facilite le partage des
données. Excel peut être utilisé pour créer de simples fonctions et comparaisons
qui permettent des vérifications automatiques de la cohérence et de l'amplitude
des données, pour détecter et prévenir des erreurs de saisie des données.
Naturellement, d'autres méthodes sont disponibles pour la saisie des données mais
pour les tailles d'exemples considérés pour la plupart des évaluations EGRA,
Excel suffit. Un système de saisie des données avec une interface basée sur
Section VI : Analyse des données EGRA
71
Microsoft Access est en cours de développement et est actuellement testé dans
plusieurs pays.
4.
Cependant, comme il est noté ci-dessus, il est probable qu'une fois que les
données sont saisies dans Excel, on est le désir de les transférer vers un logiciel de
statistiques, tel que SPSS ou Stata, pour des analyses concrètes. Ainsi, il est
important de soigneusement saisir les données afin d'en protéger l'intégrité. C'est-
à-dire qu'il est important de s'assurer que les informations pour un enfant donné
soient soigneusement saisies sur une seule ligne et de faire attention à ne pas
mélanger les lignes. Les lignes mélangées ou multipliées sont particulièrement
dangereuses si les données sont triées électroniquement. Excel a une très faible
capacité d'intégrité des informations, aussi le personnel de saisie et d'analyse des
données doit faire très attention lorsqu'il manipule les données.
5.
Comme il est noté dans la Section IV, lors du codage des données, il est
extrêmement important que le personnel de saisie des données enregistre les
réponses correctement et ait une stratégie pour coder les informations qui
différencie les types de réponses suivantes : (a) la question n'a pas été posée, (b)
l'élève ne connaissait pas la réponse, (c) l'élève n'a pas répondu ou n'a pu répondre
et (d) un vrai zéro (la réponse de l'élève était complètement incorrecte).
6.
De même, si les données sont partagées avec d'autres personnes, ou sont
importées dans un logiciel, il est important de créer des noms de variables qui
sont complets et mnémotechniquement utiles (par exemple, LCPM pour lettres
correctes par minute).
7.
Pour certaines variables clés, telles que la fluence (mots corrects par minute), les
données telles qu'elles arrivent dans les formulaires d'évaluation indiqueront le
temps pris pour une tâche donnée et le nombre de mots ou lettres lus. C'est-à-dire
que même si la tâche est chronométrée à 1 minute, certains enfants finiront la
tâche en moins d'1 minute et dans d'autres cas plus d'une minute peut être
autorisée. Il est donc recommandé que les deux valeurs, à savoir le nombre de
lettres ou de mots lus et le temps en secondes, soient saisies dans la base de
données, mais que la fonction d'Excel soit utilisée pour créer la variable « par
minute ». Ainsi, on saisira l'enfant qui a lu 55 mots correctement en 40 secondes,
et on utilisera ensuite la formule d'Excel pour calculer que cela signifie que
l'enfant lit à une vitesse de 82,5 mots par minute, où la formule serait mots
corrects ) secondes x 60 (consultez l'explication ci-dessus).
8.
Un manuel de codes ou un dictionnaire de données devrait être créé par l'équipe
d'analyse des données afin de décrire chaque nom de variable. Ce manuel pourrait
très facilement être situé sur une page séparée du tableur Excel et contiendrait des
informations similaires à celle de la Figure 11 :
72
Section VI : Analyse des données EGRA
Figure 11. Exemple d'éléments du manuel de codes
Nom de la variable
Description de la variable
Notes de codage
Clread
Lettres correctes lues
Un espace vierge signifie que
la tâche a été interrompue
Clseconds
Temps en secondes pour les lettres
Un espace vierge signifie que
correctes lues
la tâche a été interrompue
Lcpm
Fluence de lettres correctes lues par
Zéro signifie qu'aucun mot n'a
minute (variable créée)
été lu alors que la tâche a été
interrompue
Cwctread
Mots corrects dans le texte pertinent
Un espace vierge signifie que
lu
la tâche a été interrompue
Cwctseconds
Temps en secondes pour lire le texte Un espace vierge signifie que
pertinent
la tâche a été interrompue
Mcpmtp
Mots corrects par minutes dans le
Zéro signifie qu'aucun mot n'a
texte pertinent (variable créée)
été lu alors que la tâche a été
interrompue
9.
Lors de la saisie des données et de la création des variables, l'équipe d'analyse des
données devrait créer deux variables pour chaque concept important, tel que les
mots correctes par minute dans le texte pertinent ou les lettres correctes par
minute. Pour calculer les moyennes, par exemple, il peut être utile de créer une
moyenne qui comprend uniquement les enfants qui ont essayé d'effectuer la tâche
et ont lu suffisamment que pour être permis de continuer la tâche et une autre
moyenne qui comprend également ceux qui n'ont pas lu suffisamment que pour
être enregistré. Si seuls les premiers enfants sont inclus, cela crée une image
quelque peu distordue de l'école, étant donné qu'elle exagère le niveau de lecture
des enfants. Mais si les enfants qui n'ont pas su lire du tout sont inclus dans la
moyenne, celle-ci ne donne pas une bonne idée du niveau de lecture des enfants
qui savent en effet lire.
Il n'existe aucune solution simple à ce problème, tout particulièrement puisque la
ligne entre « sait lire » et « ne sait pas » est vraiment quelque peu arbitraire,
comme on peut le voir dans le fait que le calcul sur la fluence varie très largement
et révèle de nombreux cas près de zéro. Une bonne solution est donc de permettre
les deux types de calculs : une moyenne qui comprend les enfants qui ne savent
pas lire du tout comme ayant une fluence égale à 0 et une moyenne qui exclut les
enfants jugés comme non lecteurs, et qui inclut donc uniquement ceux dont la
fluence est plus grande que 0. Si un programme tel que Stata ou SPSS est utilisé,
les choses sont simples, puisqu'il existe de simples commandes pour exclure les
cas avec une valeur égale à 0 dans la variable où la moyenne est calculée.
Section VI : Analyse des données EGRA
73
Analyse des données : utilisation d'Excel pour l'analyse des données
La majorité ou toutes les analyses nécessaires pour produire un rapport de base sur les
résultats d'EGRA peuvent être effectuées dans Excel. Cette section suggère comment la
plupart des calculs peuvent être effectués. De plus, les pondérations de l'exemple
devraient être utilisées pour obtenir la pondération adéquate des résultats (consultez
l'Annexe E pour des informations supplémentaires).
Les suggestions suivantes devraient permettre toutes les analyses de base nécessaires.
Pour protéger l'intégrité des données, il est vivement recommandé que les « tableaux
croisés dynamiques » d'Excel soient utilisés le plus possible pour l'analyse. Cela permet à
l'équipe d'analyse de données de calculer les moyennes, pour les variables clés, selon
toutes les parties des données nécessaires, tels que par âge, par année primaire, par sexe
ou par école. Pour toute variable, et pour tout sous-groupe, on peut facilement calculer les
résultats habituels tels que la moyenne, le décompte ou le nombre de cas et l'écart type.
Les résultats typiquement de valeur comprendront la moyenne des mots (ou des lettres)
corrects par minute, classée par âge ou par année primaire ou par un autre facteur. Un
exemple typique, généré en utilisant Excel, serait le suivant :
Année primaire
Variable
1ère
2e
3e
Lettres correctes par minute
12,8
25,4
36,1
Lettres correctes par minute, non lecteurs exclus
19,8
28,6
37,7
Mots familiers corrects par minute
1,2
2,3
4,3
Mots familiers corrects par minute, non lecteurs exclus
6,2
8,3
9,2
Mots corrects par minute, texte pertinent
2,2
4,0
9,2
Mots corrects par minute, texte pertinent, non lecteurs exclus
11,0
11,6
17,3
Il peut être intéressant de voir s'il existe des différences entre les résultats par année
primaire, par âge ou par sexe. Par exemple, dans ce cas, il semble y avoir une certaine
progression par année primaire dans la facilité avec laquelle les lettres sont nommées : un
gain de près de 10 lettres par année primaire. Mais dans quelle mesure pouvons-nous être
certains de l'importance des différences par année scolaire, par âge ou par sexe ?
Une idée raisonnablement rigoureuse de l'importance des différences par année primaire
(ou par âge, sexe, public vs privé, urbain vs rural ou tout autre attribut) peut être dérivée
en utilisant la commande des tableaux croisés dynamiques d'Excel pour obtenir des
moyennes, des écarts types et des décomptes, par année primaire, et en calculant un
simple intervalle de confiance. Un simple exemple, pour la variable de lettres correctes
par minute, ci-dessus, est le suivant :
74
Section VI : Analyse des données EGRA
Année
1ère
2e
3e
Décompte
419
389
392
Moyenne des lettres correctes par
minute
12,8
25,4
36,1
Ecart type
18,2
21,9
23,2
Erreur type
89
1,11
1,17
Cependant, un tableau généré de la sorte ne donne pas encore les intervalles de confiance.
Le tableau nous montre qu'il existe une variabilité considérable au sein des années
scolaires ; la performance de certains enfants est bien meilleure que celle d'autres enfants.
Etant donné que la plupart des enfants ne sont, bien sûr, pas dans la moyenne, l'« enfant
moyen » est à une certaine distance, supérieure ou inférieure, de la moyenne des enfants.
L'écart type nous indique que, généralement parlant, la performance de l'enfant moyen
peut être jusqu'à 20 mots, plus ou moins, au delà ou au deçà de la performance moyenne
des enfants. Autrement dit, l'écart type est une mesure de la différence moyenne de
chaque individu par rapport à la moyenne.
Cette variabilité est intéressante en elle-même, puisqu'elle nous révèle quelque chose sur
l'inégalité ou la différence de performance. Mais elle peut également être utilisée pour
donner une idée sur la fiabilité statistique des moyennes. L'intuition selon laquelle l'écart
type pourrait nous guider sur la fiabilité des moyennes (ou sur la fiabilité des différences
entre les moyennes) est basée sur la notion que s'il y existe une variation importante au
sein des années primaires mêmes, alors peut être que les différences observées entre les
années primaires sont accidentelles. Puisque la seule chose que nous ayons est un
exemple, pas la population actuelle, il se peut que nous soyons dans l'erreur quant au
nombre de lettres correctes par minute que les enfants peuvent lire, dans la population.
Tout exemple donné pourrait s'être trompé à la hausse ou à la baisse, et au plus la
variabilité est grande, au plus l'exemple est susceptible de se tromper soit à la hausse ou à
la baisse. Mais dans quelle mesure est-il possible qu'on puisse tellement se tromper au
point de tirer la mauvaise conclusion qu'il existe une certaine progression par année
primaire alors que, en vérité, il n'en existe aucune ?
Il est possible de répondre à cette question avec une certaine rigueur en s'appuyant sur ce
qui est appelé l'« intervalle de confiance ». Cela nécessite deux étapes, en utilisant des
commandes ou des formules très simples dans Excel. Premièrement, calculer l'« erreur
type », qui est l'écart type divisé par la racine carrée du décompte. Ainsi, par exemple,
l'erreur type pour les lettres correctes par minute en 1ère année primaire est 0,89 ou
18,2)¥419. Deuxièmement, et en utilisant une méthode empirique simplifiée, additionnez
l'erreur type, multipliée par deux, à la moyenne pour obtenir un « majorant » de
l'intervalle de confiance, et soustrayez l'écart type, multiplié par deux, pour obtenir un
« minorant » de l'intervalle de confiance. Ceci peut, une fois encore, être tabulé en
utilisant Excel comme suit.
Section VI : Analyse des données EGRA
75
Année
1
2
3
Moyenne des lettres correctes par minute
12,8
25,4
36,1
Minorant de l'intervalle de confiance
11,0
23,1
33,7
Majorant de l'intervalle de confiance
14,6
27,6
38,4
Dans ce tableau, par exemple, 14,6 est tout simplement 12,8 + 2 * 0,89, ou la moyenne
plus l'erreur type, multipliée par deux. Ce tableau devrait être interprété comme suit :
« La moyenne des lettres correctes par minute en 3e année primaire est 36,1 dans notre
exemple, et nous sommes à 95 % sûrs que la moyenne sous-jacente dans la population est
quelque part entre 33,7 and 38,4 ». Si le majorant d'une année primaire, disons la 2e
année primaire, est plus bas que le minorant de l'année primaire suivante, disons 33,7,
alors nous pouvons être assez sûrs qu'il existe une progression réelle entre années
primaires.69
Taille de l'échantillon
Une discussion sur la taille de l'échantillon est maintenant possible. Il peut sembler que la
taille de l'échantillon aurait dû être discutée plus en détail au préalable. Cependant, il est
plus facile de comprendre les références à la taille de l’échantillon une fois que les types
d'intervalles de confiance qui peuvent être générés en utilisant des exemples de tailles
d'exemples ont été examinés. Dans le tableau ci-dessus, nous avons vu que les intervalles
de confiance, par exemple, les lettres correctes pas minute, ont tendance à être à 1,8 au
delà ou en deçà de la moyenne, si la taille de l’échantillon est de près de 400 enfants par
année primaire ; et que cela suffit pour détecter la progression entre années primaires.
Bien sûr, cela dépend de l'écart type. Selon les expériences d'EGRA, nous avons
commencé à découvrir que l'écart type est raisonnablement constant entre les différents
pays.
Les résultats de base pour d'autres concepts tels que les mots corrects par minute dans le
texte pertinent (selon l'analyse des données au Pérou, en Jamaïque, au Kenya, en Gambie
et d'autres pays) ne sont pas vraiment différents les uns des autres, les écarts types sont
environ de 15 à 20, à la hausse. Le tableau suivant montre les résultats kenyans pour le
texte pertinent.
Kiswahili
Anglais
Décompte
400
400
Mots corrects par minute, texte pertinent
8,7
9,3
Ecart type
13,1
14,2
Minorant de l'intervalle de confiance
7.4
7.9
Majorant de l'intervalle de confiance
10,0
10,7
69 Consultez l'Annexe B pour une explication sur l'équilibre à trouver pour décider de la méthode d'échantillonnage,
la taille de l'échantillon et le niveau de précision désiré à utiliser.
76
Section VI : Analyse des données EGRA
Selon ce type de résultats, les tailles d'exemples d'approximativement 400 enfants par
groupe (par sexe, année primaire, langue, public vs privé, urbain vs rural) dont les valeurs
valent la peine d'être désagrégées semblent adéquates. Naturellement, 400 enfants sont
nécessaires pour chaque combinaison (sexe masculin-urbain nécessite 400 enfants, tout
comme sexe féminin-urbain, sexe masculin-rural et sexe féminin male-rural, ainsi
distinguer le sexe et la localité nécessiterait une taille d'exemple de 1600 enfants, tandis
qu'un seul niveau de référence par année primaire ne nécessiterait que 400 enfants par
année primaire). Pour une discussion détaillée sur la taille de l’échantillon et les
procédures de pondération, veuillez consulter l'Annexe E.
Section VI : Analyse des données EGRA
77
VII.
Utiliser EGRA : implications pour le dialogue sur
la politique éducative
Dans les classes du monde entier, il existe une disparité entre les pratiques didactiques et
la performance des élèves. Les enseignants écrivent fréquemment au tableau de longs
paragraphes à copier par les élèves. Dans ces mêmes classes, de nombreux élèves ne
peuvent pas reconnaître les lettres de l'alphabet. Des méthodes de lecture qui se sont
révélées être efficaces d’après des résultats de recherche ne sont pas utilisées par les
enseignants. En fait, dans de nombreux pays, très peu d'enseignement systématique de la
lecture est donné. Dans de nombreux cas, les cinq composantes d'un enseignement
efficace de la lecture, énumérées par le National Reading Panel (National Institute of
Child Health and Human Development, 2000, voir aussi la Section III) ne sont pas
présentes : apprendre à utiliser systématiquement le décodage (c’est-à-dire les
correspondances graphème-phonème ou GCP), développer la conscience phonémique
avec, pour objectif, de faciliter la maîtrise des GCP, développer les capacités de
vocabulaire et celles de compréhension (tant du texte lu qu'à l'audition) et, enfin,
développer la fluence en lecture. Bien qu'il y ait pléthore d'explications pour cette
disparité, une partie du problème est le fossé entre la communauté de recherche et ce qui
est enseigné dans les programmes de formation des enseignants, dans les pays à faibles
revenus.70
Comme il est expliqué dans la Section II, un des objectifs principaux d'EGRA est de
diagnostiquer, au niveau systémique, les domaines où l'instruction fondamentale en
lecture peut être améliorée. La section suivante offre un bref survol de la politique
éducative et des problèmes d'instruction que les ministères et les donateurs peuvent
aborder en utilisant les résultats d'EGRA.
Utiliser les résultats pour informer le dialogue sur la politique éducative
L'objectif ultime d'EGRA est d'informer les changements dans l'instruction. A ce jour,
notre expérience démontre que l'impact du dialogue sur la politique éducative, pour
informer l'instruction, semble comporter deux étapes distinctes.
Influencer les législateurs et les représentants du gouvernement
Premièrement, les résultats ont tendance à inquiéter les législateurs et les représentants du
gouvernement. Une des vertus d'EGRA est que les recherches qui l'appuient semblent
assez bien correspondre au concept que le citoyen moyen a de la lecture : utiliser les
lettres et les graphèmes pour lire des mots et des textes sans hésitation et à une vitesse
raisonnable, et être capable de répondre à quelques questions sur ce qui a été lu. C'est là
ce à quoi la plupart des citoyens pensent intuitivement lorsqu'ils pensent à la lecture.
70 Dans le cadre du programme EQUIP1 financé par USAID, l'International Reading Association et l'American
Institute for Research examinent actuellement un échantillon de programmes scolaires et de matériels didactiques
nationaux pour évaluer l'accent mis sur l'instruction de la lecture (ou le manque de celle-ci).
78
Section VII : Utiliser EGRA : implications pour le dialogue sur la politique éducative
Ainsi, pouvoir rapporter que les enfants ne reconnaissent pas les lettres, ou qu'ils ne
peuvent lire qu'à une vitesse extrêmement lente, est quelque chose que la plupart des
citoyens peuvent comprendre. L'utilisation d'un enregistrement audio ou vidéo qui met en
scène les différences entre un très faible lecteur (un enfant lisant 10 à 15 mots par minute,
sans aucune compréhension) et un
« Pour prévenir les difficultés en lecture, il faut offrir
meilleur lecteur (un enfant lisant 60
aux enfants des :
mots par minute, avec
Opportunités d'explorer les différentes utilisations et
fonctions du langage écrit et de développer une
compréhension) permet d’illustrer
appréciation et une maîtrise de ces dernières.
ces différences de niveau de lecture,
Opportunités de comprendre et de maîtriser l'utilisation
et leurs implications, de façon claire
du principe alphabétique pour la lecture et l'écriture.
(voir pour un exemple, d’une telle
Opportunités de développer et d'améliorer les
compétences linguistiques et métacognitives pour
vidéo développée au Pérou par le
répondre aux exigences de compréhension des textes
DFID et la Banque mondiale, la
imprimés.
page d'accueil de
Opportunités d'expérimenter des cadres qui
promeuvent un enthousiasme et un succès dans
l'apprentissage de la lecture et de l'écriture, ainsi que
De plus, les citoyens et les
dans l'apprentissage par la lecture et l'écriture.
Opportunités pour les enfants susceptibles d'éprouver
représentants du gouvernement, tout
des difficultés de lecture d'être identifiés et de participer
particulièrement ceux qui eux-
à des programmes préventifs efficaces.
mêmes administrent le test EGRA
Opportunités pour les enfants éprouvant des difficultés
de lecture d'être identifiés et de participer à des
(ou demandent simplement aux
programmes d'intervention et de rattrapage, bien
enfants de leur lire quelque chose),
intégrés à une instruction utile et continue au sein de la
se font rapidement une idée sur le
classe.»
fait que les enfants ne savent pas lire
Snow, C. E., Burns, M. S., & Griffin, P. (Eds). (1998). Preventing reading
difficulties in young children. Washington, DC: Committee on the
et communiquent cela à d'autres
Prevention of Reading Difficulties in Young Children and National Academy
représentants du gouvernement.
Press, p. 278.
Dans plusieurs pays, les
représentants du gouvernement ont remarqué qu'il existe un sérieux problème de lecture
chez les enfants de leurs écoles. EGRA a encouragé cela dans certains cas, mais dans
d'autres cas c'est vraiment une réponse aux types de préoccupations que les représentants
du gouvernement ont exprimées.
Dans certains contextes, les réactions à une évaluation des compétences en lecture telle
qu'EGRA ne sont pas aussi simples. Dans certains pays, certains commentateurs
remettent en question l'utilité du niveau de lecture à haute voie comme indicateur témoin
ou précurseur de l'apprentissage général, ou même de la lecture. C'est pourquoi il est
important d'avoir accès à la documentation de fond qui explique les problèmes. Il est fait
référence à certains de ces problèmes dans ce manuel. D'autres références utiles sont
http://dibels.uoregon.edu/.
Quoi qu'il en soit, il existe une perception que les efforts d'EGRA essayent d'exprimer la
notion que « la lecture est tout ce qui compte ». Dans ces cas, il est important de noter
que la lecture est en effet une compétence de base essentielle qui influence le succès
académique tout au long du programme scolaire et que lire est un bon témoin de la
Section VII : Utiliser EGRA : implications pour le dialogue sur la politique éducative
79
qualité générale de l'école, mais que, en effet, l'effort n'est pas basé sur le postulat que la
lecture est tout ce qui compte.
En général, toute tentative d'analyse de la qualité d’EGRA est sujette à ce type de débats
notoires. Dans l'expérience accumulée avec l'application d'EGRA ou d'outils semblables,
il semble que les enseignants, les administrateurs scolaires et les hauts représentants du
gouvernement, aient tendance à percevoir les bénéfices qui peuvent être tirés d'EGRA ;
tandis que certains experts en programmes scolaires ou en lecture semblent avoir
quelques soucis ou préoccupations à l'égard d'une simplification excessive possible. Il est
essentiel de comprendre que l'usage pratique d'EGRA et les stratégies d'amélioration qui
en dérivent devraient uniquement être vus comme un point de départ, et comme un
exemple de ce qui peut être accompli en se concentrant et en suivant des résultats précis.
La leçon de base peut alors être mise en application sur d'autres aspects de l'enseignement
et de l'apprentissage.
En concentrant l'attention des législateurs et des représentants du gouvernement sur le
sujet, il est utile d'étalonner les résultats d'une certaine façon. Deux méthodes
d'étalonnage des performances se sont révélées utiles aux exercices EGRA dans tout pays
donné : une comparaison avec des normes ou des objectifs internationaux d'un certain
type et une certaine analyse de la performance des écoles dans le pays en question. La
Figure 12, ci-dessous, montre les résultats moyens réels d'un exercice EGRA récent, un
point de référence international possible et un point de référence national possible.
Les données de la dernière colonne, à savoir les points de référence internationaux, sont
tirées des indicateurs dynamiques d'alphabétisation fondamentale de base (DIBELS).71
Quelques normes sur la lecture à haute voix de mots isolés en une minute peuvent être
trouvées en Annexe A.
Figure 12. Exemple d'exercice possible d'étalonnage des performances
Moyenne de tous les
enfants d'un pays
Moyenne maximale au
donné, en milieu
niveau des écoles
Points de référence des
d'année scolaire, 2e
dans le même pays,
pays développés à des
année primaire
2e année primaire
fins comparatives
Lettres correctes par
40 en fin de 3e année
22,7
41
minute
maternelle*
Mots inventés corrects par
50 en milieu de 1ère année
7.5.
25
minute
primaire
20 en milieu de 1ère année
Mots corrects par minute
11,4
36
primaire
Note de compréhension
0,4
2
Pas disponible
* Cette compétence n’est pas suivie ou référencée après la troisième année maternelle, puisqu'elle est
supposée être maîtrisée en maternelle. Notez la faible moyenne, pour la 2e année primaire, dans le cas de ce
tableau.
71 Le DIBELS peut être trouvé à http://dibels.uoregon.edu/benchmark.php.
80
Section VII : Utiliser EGRA : implications pour le dialogue sur la politique éducative
L'élément le plus important à étalonner, parce que son pouvoir prédictif sur les autres
compétences est le plus élevé, est la fluence en lecture de mots isolés, d’énoncés et de
textes (les mots corrects lus par minute dans ces différentes conditions). La plupart des
spécialistes s'accordent sur l'idée qu'en fin de 2e année primaire, les enfants qui
apprennent à lire, par exemple en anglais devraient lire correctement près de 60 mots par
minute. A ce jour, en fonction de notre expérience dans 10 pays en voie de
développement, ces points de référence pourraient raisonnablement être moins stricts (de
l’ordre de 45 mots corrects par minute). Les chercheurs pourront ensuite préciser les
pourcentages d'enfants qui ont franchi un niveau de précision et de rapidité qui serait dit
de base pour un niveau scolaire donné ainsi que préciser l'année scolaire moyenne dans
laquelle les enfants « franchissent » le seuil d'alphabétisation fonctionnelle. Cette année
du primaire, où le seuil est dit être « franchi », peut être celle dans laquelle 90 % des
enfants ont une performance qui correspond à une certaine norme ou à un certain point de
référence.72
Avant tout, un pays peut établir ses propres points de référence en observant la
performance dans les écoles qui sont connues pour leurs bonnes performances, ou qui
sont connues comme ayant eu une bonne performance lors d'une évaluation similaire à
EGRA, mais n'ont aucun avantage socioéconomique particulier ou n'ont pas de
ressources pouvant être utilisées à plusieurs reprises. De telles écoles serviront de points
de référence qui sont raisonnablement exigeants et qui peuvent raisonnablement être
atteints même par des enfants sans grands avantages socioéconomiques ou dans des
écoles sans grands avantages en matière de ressources, pour autant qu'une bonne
instruction soit en place.
Les questions de compréhension du texte indiquent également si les enfants lisent « avec
compréhension ». Une fois encore, un critère doit être précisé selon les résultats
empiriques et de l'examen de la distribution (par exemple, 75 % de réponses correctes
aux questions) pour chaque pays. Le pourcentage d'enfants qui franchit le seuil
d'alphabétisation fonctionnelle avec fluence et compréhension peut ensuite être précisé.
L'évaluation peut fournir des informations analytiques et diagnostiques sur les progrès en
lecture dans des écoles/classes précises (avec la bonne stratégie d'échantillonnage) et peut
être communiquée aux enseignants au niveau de la classe. Par exemple, les progrès
peuvent être limités du fait d'une mauvaise compréhension, d'un manque de fluence, d'un
manque de connaissance des correspondances lettre-son (ou graphème-phonème), d'une
inaptitude à décoder, d'un vocabulaire limité ou d'une combinaison de ces facteurs. Ces
informations peuvent être transmises aux enseignants, directeurs d'écoles ou superviseurs
d'écoles comme indication sur les changements didactiques à effectuer afin d'améliorer
les résultats d'apprentissage.
72 Si, tout particulièrement dans quelques premiers cas où les instruments sont testés, les années primaires dans
lesquelles l'instrument est testé ne couvre pas une année primaire dans laquelle, par exemple, 90 % des enfants
franchissent le seuil d'alphabétisation fonctionnelle, les techniques de régression et d'extrapolations peuvent être
utilisées pour estimer cette année primaire. Une future évaluation devra s'assurer d'inclure cette année.
Section VII : Utiliser EGRA : implications pour le dialogue sur la politique éducative
81
Changer les instructions de la lecture
Deuxièmement, du moins lorsque les choses vont bien, la préoccupation semble se
tourner vers une réalisation du besoin de changer l'instruction de la lecture dans les
premières années primaires. Jusqu'à présent, les deux pays où EGRA a été testé, la
Gambie et l'Afrique du Sud, ont spontanément développé du matériel assez considérable
en vue de former les enseignants pour un enseignement amélioré de la lecture. Au Kenya,
les activités et la collaboration des donateurs avec la Fondation Aga Khan ont mené au
développement d'un ensemble de plans de leçons pour améliorer l'enseignement de la
lecture dans les premières années primaires. L'Annexe J comprend l'aperçu d'une semaine
de collaboration entre un expert en lecture, la Fondation Aga Khan et les représentants du
gouvernement local pour développer des plans de leçons.
Des exemples de plans de leçons et de stratégie pour enseigner les aspects de base des
compétences fondamentales en lecture (à savoir la conscience phonémique, les
correspondances graphème-phonème, la fluence, le vocabulaire et la compréhension) sont
disponibles auprès de nombreuses sources. Les exemples comprennent les manuels
d'enseignants tels que ceux de Linan-Thompson et Vaughn pour enseigner l'anglais
comme langue maternelle (2004) et comme seconde langue (2007). De tels outils peuvent
être utilisés pour construire les plans de leçons développés localement (consultez des
exemples en français dans les Annexes C, D3 et K). Les pays peuvent également
développer leurs propres plans de leçons en utilisant les résultats d'EGRA pour identifier
les domaines ayant besoin d'amélioration. Des exemples de plans de leçons provenant du
Kenya, de la Gambie et de l'Afrique du Sud peuvent être consultés sur
www.eddataglobal.org , sous la rubrique Documents et Données (Documents and Data).
Utiliser les données pour communiquer les résultats aux écoles
A ce jour, les applications d'EGRA ont été utilisées principalement pour générer des
discussions au niveau national et pour pousser les ministères à agir. Cette promotion
d'une prise de conscience est complétée par la communication des résultats aux écoles et
aux enseignants. Pour réitérer l'énoncé fait dans une section précédent : les élèves et les
enseignants individuels ne devraient en aucun cas être identifiés dans les rapports
communiqués aux écoles, étant donné que l'analyse n'est pas utilisée comme outil de
haute responsabilisation. Cela étant dit, un cadeau de remerciement aux écoles, en
marque de gratitude pour leur participation, est généralement la bienvenue.
Afin de communiquer les résultats aux écoles, les analystes devraient créer un résumé
simple, d'une page, sur les résultats, comprenant les informations par année primaire et
par sexe, pour chaque école individuelle. Les résultats moyens par écoles ayant des
caractéristiques semblables et les moyennes pour l'exemple complet peuvent également
être partagés. Ce rapport devrait être accompagné d'explications sur la façon dont chaque
sous-test est lié à l'instruction et sur ce que les enseignants peuvent faire pour améliorer
les résultats des élèves. Des exemples de plans de leçons et des suggestions d'activités
devraient également être partagés avec les écoles.
82
Section VII : Utiliser EGRA : implications pour le dialogue sur la politique éducative
Bibliographie
Abadzi, H. (2006). Efficient learning for the poor. Washington, DC: The World Bank.
Abadzi, H., Crouch, L., Echegaray, M., Pasco, C., & Sampe, J. (2005). Monitoring basic skills
acquisition through rapid learning assessments: A case study from Peru. Prospects, 35(2),
137-156.
Alegria, J., & Morais, J. (1979). Le développement de l'habileté d'analyse phonétique consciente
de la parole et l'apprentissage de la lecture. Archives de Psychologie, 183, 251-270.
Alegria, J., & Mousty, P. (1996). The development of spelling procedures in French-speaking,
normal and reading-disabled children: Effects of frequency and lexicality. Journal of
Experimental Child Psychology, 63(2), 312-338.
Arnaud, A., & Lancelot, C. (1960). Grammaire générale et raisonnée - Grammaire de Port
Royal. Paris: Prault fils l'Ainé.
AskOxford.com. (n.d.). Ask the experts: Frequently asked questions, Words. Retrieved April
Baddeley, A. D. (1983). Working memory. Philosophical Transactions of the Royal Society of
London, B302, 311-324.
Barnes, M.A., & Dennis, M. (1996). Reading comprehension deficits arise from different
sources: Evidence from readers with and without brain pathology. In C. Cornoldi &
J. Oakhill (Eds.), Reading comprehension difficulties: Processes and intervention (pp.
251-278). Mahwah, New Jersey: Lawrence Erlbaum Associates.
Billard, C., Fluss, J., Ducot, B., Warszawski, J., Ecalle, J., Magnan, A., Ziegler, J. C. (2008).
Study of causal factors of reading impairment in a sample of 1062 7- to 8-year-old
children. Archives de Pédiatrie, 15(6), 1058-1067.
Bradley, L., & Bryant, P. (1983). Categorizing sounds in learning to read: A causal connection.
Nature, 301, 419-421.
Bruck, M., Genesee, F., & Caravolas, M. (1997). A cross-linguistic study of early literacy
acquisition. In B. Blachman (Ed.), Foundations of reading acquisition and dyslexia:
Implications for early intervention (pp. 145-162). Mahwah, New Jersey: Lawrence
Erlbaum Associates.
Caravolas, M., Volín, J., & Hulme, C. (2005). Phoneme awareness is a key component of
alphabetic literacy skills in consistent and inconsistent orthographies: Evidence from
Czech and English children. Journal of Experimental Child Psychology, 92, 107-139.
Bibliographie
83
Carlisle, J. F. (2000). Awareness of the structure and meaning of morphologically complex
words: Impact on reading. Reading and Writing: An Interdisciplinary Journal, 12, 169-
190.
Carver, R. P. (1976). Word length, prose difficulty and reading rate. Journal of Reading
Behavior, 8, 193-204.
Carver, R. P. (1998). Predicting reading level in grades 1 to 6 from listening level and decoding
level: Testing theory relevant to the simple view of reading. Reading and Writing: An
Interdisciplinary Journal, 10, 121-154.
Casalis, S., Colé, P., & Sopo, D. (2004). Morphological awareness in developmental dyslexia.
Annals of Dyslexia, 54(1), 114-138.
Casalis, S., & Louis-Alexandre, M. F. (2000). Morphological analysis, phonological analysis and
learning to read French: A longitudinal study. Reading and Writing: An Interdisciplinary
Journal, 12, 303-335.
Catts, H. W., Hogan, T. P., & Fey, M. E. (2003). Subgrouping poor readers on the basis of
individual differences in reading-related abilities. Journal of Learning Disabilities, 36,
151-164.
Center for Global Development. (2006). When will we ever learn? Improving lives through
impact evaluation. Retrieved January 2007 from
www.cgdev.org/files/7973 file WillWeEverLearn.pdf
Centre d’Expertise Collective, Institut National de la Santé et de la Recherche Medicale
(INSERM) (Eds.). (2007). Dyslexie, dysorthographie, dyscalculie. Bilan des données
scientifiques. Paris: INSERM. Récupérée à partir du
Chabbott, C. (2006). Accelerating early grades reading in high priority EFA Countries: A desk
review. Retrieved from http://www.equip123.net/docs/E1-
EGRinEFACountriesDeskStudy.pdf
Chiappe, P., Siegel, L., & Wade-Woolley, L. (2002). Linguistic diversity and the development of
reading skills: A longitudinal study. Scientific Studies of Reading, 6(4), 369-400.
Children’s Literacy Initiative. (2000). Dictation task. Retrieved March 2007 from
Clay, M. M. (1993). An observation survey of early literacy achievement. Ortonville, Michigan:
Cornucopia Books.
Colé, P., Magnan, A., & Grainger, J. (1999). Syllable-sized units in visual word recognition:
Evidence from skilled and beginning readers. Applied Psycholinguistics, 20, 507-532.
84
Bibliographie
Colé, P., Royer, C., Leuwers, C., & Casalis, S. (2004). Les connaissances morphologiques
dérivationnelles et l'apprentissage de la lecture chez l'apprenti-lecteur français du CP au
CE2. L'Année Psychologique, 104, 701-750.
Colé, P., Sprenger-Charolles, L., Siegel, L., & Jimenez-Gonzales, J. E. (2004, June). Syllables in
learning to read in English, French and Spanish. Paper presented at the SSS-R Congress,
Amsterdam, Netherlands.
Crouch, L. (2006). La fluidez lectora como indicador operacional. Unpublished manuscript.
Washington, DC: RTI International.
Crouch, L., & Winkler, D. (2007). Governance, management and financing of Education for All:
Basic frameworks and case studies. Unpublished manuscript. Washington, DC: RTI
International.
Cutting, L. E., & Scarborough, H. S. (2006). Prediction of reading comprehension: Relative
contributions of word recognition, language proficiency, and other cognitive skills can
depend on how comprehension is measured. Scientific Studies of Reading, 10(3), 277-
299.
Delahaie, M., Sprenger-Charolles, L., & Serniclaes, W. (2007). Une double évaluation des effets
de lexicalité chez des faibles lecteurs et des très faibles lecteurs comparativement à des
normolecteurs de même age et de même niveau de lecture (données longitudinales du CP
au CE1). L'Année Psychologique, 107, 361-396.
Deltour, J-J. & Hupkens, D. (1980). Test de vocabulaire actif et passif pour enfants de 5 à 8 ans
(TVAP 5-8). Braine-le-Château, Belgique: Editions de l'Application des Techniques
Modernes (ATM). Nouvel étalonnage en 1998.
Denton, C. A., Ciancio, D. J., & Fletcher, J. M. (2006). Validity, reliability, and utility of the
observation survey of early literacy achievement. Reading Research Quarterly, 41(1), 8-
34.
Department for Children, Schools and Families. (2006). The new conceptual framework for
teaching reading: The “simple view of reading.” Overview for literacy leaders and
managers in schools and early years settings. Retrieved August 2007 from
Desrochers, A., & Saint-Aubin, J. (2008). Sources de materiel en français pour l’élaboration
d’épreuves de compétences en lecture et en écriture. Revue Canadienne d’Education,
31(2), 305-326.
Dolch, E. (1948). Problems in reading. Champaign, Illinois: The Garrard Press.
Dunn, L. M., & Markwardt, F. C. (1970). Examiner’s manual: Peabody Individual Achievement
Test. Circle Pines, Minnesota: American Guidance Service.
Bibliographie
85
Dunn, L. M., Thériault-Whalen, C. M., & Dunn, L. M. (1993). Echelle de vocabulaire en images
Peabody: Adaptation française du Peabody Picture Vocabulary Test. Toronto, Canada:
Psycan.
Ecalle, J., & Magan, A. (2007). Development of phonological skills and learning to read in
French. European Journal of Psychology of Education, 22, 153-167.
Educational Testing Service. (2005). Dictation assessment. Retrieved March 2007 from
Ehri, L. C. (1998). Word reading by sight and by analogy in beginning readers. In C. Hulme &
R. M. Joshi (Eds.), Reading and spelling: Development and disorders (pp. 87-111).
Mahwah, New Jersey: Lawrence Erlbaum Associates.
Ehri, L. C., Nunes, S. R., Stahl, S. A., & Willows, D. M. (2001). Systematic phonics instruction
helps students learn to read: Evidence from the National Reading Panel’s meta-analysis.
Review of Educational Research, 71(3), 393-447.
Ehri, L. C., Nunes, S. R., Willows, D. M., Schuster, B. V., Yaghoub-Zadeh, Z., & Shanahan, T.
(2001). Phonemic awareness instruction helps children learn to read: Evidence from the
National Reading Panel’s meta-analysis. Reading Research Quarterly, 36(3), 250-287.
Ehri, L., & Wilce, L. S. (1985). Movement into reading: Is the first stage of printed word
learning visual or phonetic? Reading Research Quarterly, 20, 163-179.
Elley, W. (1992). How in the world do students read? Edited by the International Association for
the Evaluation of Educational Achievement (IEA). Hamburg: Grindeldruck GMBH.
Eme, E., & Golder, C. (2005). Word-reading and word-spelling styles of French beginners: Do
all children learn to read and spell in the same way? Reading and Writing: An
Interdisciplinary Journal, 18(2), 157-188.
Espin, C., & Foegen, A. (1996). Validity of three general outcome measures for predicting
secondary students: Performance on content-area tasks. Exceptional Children, 62, 497-
514.
Espin, C., & Tindal, G. (1998). Curriculum-based measurement for secondary students. In M. R.
Shin (Ed.), Advanced applications of curriculum-based measurement. New York:
Guilford Press.
Feldman, L. B., Rueckl, J., DiLiberto, K., Pastizzo, M., & Vellutino, F. (2002). Morphological
analysis by child readers as revealed by the fragment completion task. Psychonomic
Bulletin, 9(3), 529-535.
Filmer, D., Hasan, A., & Pritchett, L. (2006). A millennium learning goal: Measuring real
progress in education. Washington, DC: The World Bank.
86
Bibliographie
Foorman, B. R., Jenkins, L., & Francis, D. J. (1993). Links between segmenting, spelling and
reading words in first and second grades. Reading and Writing: An Interdisciplinary
Journal, 5, 1-15.
Foulin, J. N. (2005). Why is letter-name knowledge such a good predictor of learning to read?
Reading and Writing: An Interdisciplinary Journal, 18, 129-155.
Fuchs, L., Fuchs, D., Hosp, M. K., & Jenkins, J. (2001). Oral reading fluency as an indicator of
reading competence: A theoretical, empirical, and historical analysis. Scientific Studies of
Reading, 5(3), 239-256.
Gelb, I. J. (1952). A study of writing: The foundations of grammatology. Chicago, Illinois:
University of Chicago Press.
Gernsbacher, M. A., Varner, K. R., & Faust, M. E. (1990). Investigating differences in general
comprehension skills. Journal of Experimental Psychology: Learning, Memory and
Cognition, 16, 430-445.
Good, R. H., III, Simmons, D. C., & Smith, S. B. (1998). Effective academic interventions in the
United States: Evaluating and enhancing the acquisition of early reading skills. School
Psychology Review, 27(1), 45-56.
Goswami, U., Gombert, J. E., & de Barreira, L. F. (1998). Children’s orthographic
representations and linguistic transparency: Nonsense word reading in English, French
and Spanish. Applied Psycholinguistics, 19, 19-52.
Gough, P. B. (1996). How children learn to read and why they fail. Annals of Dyslexia, 46, 3-20.
Gough, P. B., & Tunmer, W. (1986). Decoding, reading, and reading disability. Remedial and
Special Education, 7, 6-10.
Guttentag, R. E., & Haith, M. M. (1978). Automatic processing as a function of age and reading
ability. Child Development, 49, 707-716.
Hasbrouck, J., & Tindal, G. A. (2006). Oral reading fluency norms: A valuable assessment tool
for reading teachers. The Reading Teacher, 59(7), 636-644. Retrieved from
e.pdf
Hirsch, E. D., Jr. (2003). Reading comprehension requires knowledge—of words and the world.
American Educator, 27(1), 1-44.
Hoover, W. A., & Gough, P. B. (1990). The simple view of reading. Reading and Writing: An
Interdisciplinary Journal, 2, 127-160.
Hoover, W.A., & Tunmer, W. (1993). The components of reading. In G.B. Thompson, W.E.
Tunmer, & T. Nicholson (Eds.), Reading acquisition processes (pp. 1-19). Adelaide,
Australia: Multilingual Matters.
Bibliographie
87
Hulme, C., Hatcher, P. J., Nation, K., Brown, A., Adams, J., & Stuart, G. (2002). Phoneme
awareness is a better predictor of early reading skill than onset-rime awareness. Journal
of Experimental Child Psychology, 82(1), 2-28.
International Literacy Institute (ILI) & United Nations Educational, Scientific, and Cultural
Organization (UNESCO). (2002). Towards guidelines for the improvement of literacy
assessment in developing countries: Conceptual dimensions based on the LAP [Literacy
Assessment Practices] project. Philadelphia, Pennsylvania: ILI. Retrieved from
International Reading Association. (2007). Teaching reading well: A synthesis of the
International Reading Association’s research on teacher preparation for reading
instruction. Retrieved January 2008 from www.reading.org/resources/issues/status.html
Joshi, R. M., & Aaron, P. G. (2000). The component model of reading: Simple view of reading
made a little more complex. Reading Psychology, 21, 85-97.
Juel, C. (1988). Learning to read and write: A longitudinal study of 54 children from first
through fourth grade. Journal of Educational Psychology, 80(4), 437-447.
Kame’enui, E. J., Fuchs, L., Francis, D. J., Good, R. H., III, O’Connor, R. E., Simmons, D. C., et
al. (2006). The adequacy of tools for assessing reading competence: A framework and
review. Educational Researcher, 35(4), 3-11.
Kaminski, R. A., Good, R. H., III, Baker, D., Cummings, K., Dufour-Martel, C., Fleming, K., et
al. (2006). Position paper on use of DIBELS for system-wide accountability decisions.
11-16.pdf
Kandel, S., Soler, O., Valdois, S., & Gros, C. (2006). Graphemes as motor units in the
acquisition of writing skills. Reading and Writing: An Interdisciplinary Journal, 19, 313-
337.
Keenan, J. M., & Betjemann, R. S. (2006). Comprehending the Gray Oral Reading Test without
reading it: Why comprehension tests should not include passage-independent items.
Scientific Studies of Reading, 10, 363-380.
Keenan, J. M., Betjemann, R. S., & Olson, R. K. (2008). Reading comprehension tests vary in
the skills they assess: Differential dependence on decoding and oral comprehension.
Scientific Studies of Reading, 12, 281-300.
Khomsi, A., & Khomsi, J. (2003). Bilan de Lecture Informatisé (BLI). Paris: Editions du Centre
de Psychologie Appliquée (ECPA).
Kipffer-Piquard, A. (2003). Etude longitudinale prédictive de la réussite et de l'échec spécifiques
à l’apprentissage de la lecture (suivi de 85 enfants de 4 à 8 ans). Thèse de doctorat non
publieé. Université Denis Diderot, Paris.
88
Bibliographie
Laing, E., & Hulme, C. (1999). Phonological and semantic processes influence beginning
readers’ ability to learn to read words. Journal of Experimental Child Psychology, 73,
183-207.
Laxon, V., Rickard, M., & Coltheart, V. (1992). Children read affixed words and non-words.
British Journal of Psychology, 83, 407-423.
Lecocq, P., Casalis, S., Leuwers, C, & Watteau, N. (1996). Apprentissage de la lecture et
compréhension d’énoncés. Lille, France: Presse du Septentrion.
Lefavrais, P. (1986). La pipe et le rat: L’évaluation du savoir lire. Issy-les-Moulineaux, France:
Editions des Applications Psychotechniques.
Lennox, C., & Siegel, L. S. (1993). Visual and phonological spelling errors in subtypes of
children with learning disabilities. Applied Psycholinguistics 14, 473-488.
Leslie, L. & Caldwell, J. (2001). Qualitative Reading Inventory-3. New York: Addison Wesley
Longman.
Lété, B., Peereman, R., & Fayol, M. (2008). Consistency and word-frequency effects on spelling
among first- to fifth-grade French children: A regression-based study. Journal of Memory
and Language, 58(4), 952-977.
Lété, B., Sprenger-Charolles, L., & Colé, P. (2004). MANULEX: A grade-level lexical database
from French elementary school readers. Behavior Research Methods, Instruments, and
Computers, 36(1), 156-166. Retrieved from http://leadserv.u-
bourgogne.fr/bases/manulex/manulexbase/Manulex.pdf
Leybaert, J., & Content, A. (1995). Reading and spelling acquisition in two different teaching
methods: A test of the independence hypothesis. Reading and Writing: An
Interdisciplinary Journal, 7, 65-88.
Linan-Thompson, S., & Vaughn, S. (2004). Research-based methods of reading instruction:
Grades K-3. Alexandria, Virginia: Association for Supervision and Curriculum
Development.
Linan-Thompson, S., & Vaughn, S. (2007). Research-based methods of reading instruction for
English language learners: Grades K-4. Alexandria, Virginia: Association for
Supervision and Curriculum Development.
Lonigan, C., Wagner, R., Torgesen, J. K., & Rashotte, C. (2002). Preschool Comprehensive Test
of Phonological and Print Processing (Pre-CTOPPP). Tallahassee: Department of
Psychology, Florida State University.
Mahony, D., Singson, M., & Mann, V. (2000). Reading ability and sensitivity to morphological
relations. Reading and Writing: An Interdisciplinary Journal, 12(3-4), 191-218.
Bibliographie
89
Manis, F. R., Custodio, R., & Szeszulski, P.A. (1993). Development of phonologic and
orthographic skills: A 2-year longitudinal study of dyslexic children. Journal of
Experimental Child Psychology, 56, 64-86.
Martinet, C., Valdois, S., & Fayol, M. (2004). Lexical orthographic knowledge develops from
the beginning of reading acquisition. Cognition, 91, B11-22.
McBride-Chang, C. (1999). The ABCs of the ABCs: The development of letter-name and letter-
sound knowledge. Merrill-Palmer Quarterly, 45, 285-308.
Megherbi, H., Seigneuric, A., & Ehrlich, M. F. (2006). Reading comprehension in French 1st
and 2nd grade children: Contribution of decoding and language comprehension.
European Journal of Psychology of Education, XXI, 2, 135-147.
Moats, L. (2000). Speech to print: Language essentials for teachers. Baltimore, Maryland: Paul
H. Brookes.
Moats, L. (2004). Language essentials for teachers of reading and spelling. Frederick, Colorado:
Sopris West Educational Services.
Morais, J., Bertelson, P. Cary, L., & Alegria, J. (1986). Literacy training and speech
segmentation. Cognition, 24, 45-64.
Morais, J., Cary, L., Alegria, J., & Bertelson, P. (1979). Does awareness of speech as a sequence
of phones arise spontaneously? Cognition, 7, 323-333.
Mullins, I., Martin, M., Gonzalez, E., & Chrostowski, S. (2004). TIMSS 2003 international
mathematics report. Boston, Massachusetts: TIMSS & PIRLS International Study Center,
Lynch School of Education.
National Institute of Child Health and Human Development. (2000). Report of the National
Reading Panel. Teaching children to read: An evidence-based assessment of the scientific
research literature on reading and its implications for reading instruction: Reports of the
subgroups (NIH Publication No. 00-4754). Retrieved August 2007 from
National Literacy Panel. (2004). National Literacy Panel on Language Minority Children and
Youth: Progress report. Retrieved August 2007 from http://www.cal.org/natl-lit-
panel/reports/progress.pdf
Olson, R. K., Forsberg, H., Wise, B., & Rack, J. (1994). Mesurement of word recognition,
orthographic and phonological skills. In G. R. Lyon (Ed.), Frames of reference for the
assessment of learning disabilities: New views on measurement issues (pp. 243-275).
Baltimore/London/Toronto/Sydney: Paul H. Brookes.
90
Bibliographie
Organisation for Economic Co-operation and Development (OECD). (2004). Learning for
tomorrow’s world: First results from PISA 2003. Retrieved January 2008 from
http://www.oecd.org/document/55/0,3343,en 32252351 32236173 33917303 1 1 1 1,
00.html
Orr, D. B., & Graham, W. R. (1968). Development of a listening comprehension test to identify
educational potential among disadvantaged junior high school students. American
Educational Research Journal, 5(2), 167-180.
Paris, S. G., & Paris, A. H. (2006). Chapter 2: Assessments of early reading. In W. Damon & R.
M. Lerner (Eds.), Handbook of child psychology: Theoretical models of human
development, 6th Edition (Vol. 4: Child Psychology in Practice). Hoboken, New Jersey:
John Wiley and Sons.
Parviainen, T., Helenius, P., Poskiparta, E., Niemi, P., & Salmelin, R. (2006). Cortical sequence
of word perception in beginning readers. Journal of Neuroscience, 26(22), 6052-6061.
Peereman, R., & Content, A. (1998). Quantitative analysis of orthography to phonology mapping
in English and French. Retrieved from
Peereman, R., & Content, A. (1999). LEXOP: A lexical database providing orthography-
phonology statistics for French monosyllabic words. Behavioral Methods, Instruments
and Computers, 31, 376-379.
Peereman, R., Lété, B., & Sprenger-Charolles, L. (2007). MANULEX-Infra: Distributional
characteristics of infra-lexical and lexical units in child-directed written material.
Behavior Research Methods, 39, 593-603.
Perfetti, C. A. (1985). Reading ability. New York: Oxford University Press.
Perfetti, C. A., Beck, I., Bell, L., & Hughes, C. (1987). Phonemic knowledge and learning to
read are reciprocal: A longitudinal study of first-grade children. Merrill-Palmer
Quarterly, 33, 283-319.
Perfetti, C. A., Goldman, S. R., & Hogaboam, T. W. (1979). Reading skill and the identification
of words in discourse context. Memory and Cognition, 7(4), 273-282.
Perfetti, C. A., & Zhang, S. (1995). The universal word identification reflex. In D. L. Medin
(Ed.), The psychology of learning and motivation (Vol. 33, pp. 159-189). San Diego,
California: Academic Press.
Pothier, B., & Pothier, P. (2002). EOLE: Echelle d’acquisition en orthographe lexicale. Paris:
Retz.
Pratham. (2005). Annual Status of Education Report (ASER): Final report. Retrieved April 2006
Bibliographie
91
Programme for International Student Assessment (PISA). (2000). Knowledge and skills for life:
First results from PISA 2000. Paris: Organization for Economic Co-operation and
Development (OECD).
Progress in International Reading Literacy Study (PIRLS). (2003). International report: IEA’s
study of reading literacy achievement in primary schools. Chestnut Hill, Massachusetts:
Boston College.
Rack, J., Snowling, M. J., & Olson, R. K. (1992). The nonword reading deficit in developmental
dyslexia: A review. Reading Research Quarterly, 27, 29-53.
Rayner, K. (1998). Eye movements in reading and information processing: 20 years of research.
Psychological Bulletin, 124, 372-422.
Rey, A., Ziegler, J. C., & Jacobs, A. (2000). Graphemes are perceptual reading units. Cognition,
75, B1-12.
Scarborough, H. S. (1998). Early identification of children at risk for reading disabilities:
Phonological awareness and some other promising predictors. In B. K. Shapiro, P. J.
Accardo, & A. J. Capute (Eds.), Specific reading disability: A view of the spectrum (pp.
75-119). Timonium, Maryland: York Press.
Scarborough, H. S. (2001). Connecting early language and literacy to later reading (dis)abilities:
Evidence, theory, and practice. In S. B. Neumann & D. K. Dickinson (Eds.), Handbook
of early literacy research (pp. 97-117). New York: Guilford Press.
Sénéchal, M., Ouellette, G., & Rodney, D. (2006). The misunderstood giant: On the predictive
role of early vocabulary to future reading. In S. B. Neumann & D. K. Dickinson (Eds.),
Handbook of early literacy research (Vol. 2, 173-182). New York: Guilford Press.
Seymour, P. H. K. (1997). Foundations of orthographic development. In C. A. Perfetti, L.
Rieben, & M. Fayol (Eds.), Learning to spell: Research, theory, and practice across
languages (pp. 319-337). Mahwah, New Jersey: Lawrence Erlbaum Associates.
Seymour, P. H. K., Aro, M., & Erskine, J. M. (2003). Foundation literacy acquisition in
European orthographies. British Journal of Psychology, 94, 143-174. Retrieved from
Share, D. L. (1995). Phonological recoding and self-teaching: Sine qua non of reading
acquisition. Cognition, 55, 151-218.
Share, D. L. (1999). Phonological recoding and orthographic learning: A direct test of the self-
teaching hypothesis. Journal of Experimental Child Psychology, 72, 95-129.
Share, D. L. (2004). Knowing letter names and learning letter sounds: A causal connection.
Journal of Experimental Child Psychology, 88, 213-233.
92
Bibliographie
Share, D. L. (2008). On the Anglocentrism of current reading research and practice: The perils of
overreliance on an “outlier orthography.” Psychological Bulletin, 134, 584-615.
Share, D. L., Jorm, A., Maclearn, R., & Matthews, R. (1984). Sources of individual differences
in reading acquisition. Journal of Education Psychology, 76, 1309-1324.
Siegel, L. S. (1998). Phonological processing deficits and reading disabilities. In J. L. Metsala &
L. C. Ehri (Eds.), Word recognition in beginning literacy (pp. 141-160). Mahwah, New
Jersey: Lawrence Erlbaum Associates.
Siegel, L. S. (1999). Issues in the definition and diagnosis of learning disabilities. Journal of
Learning Disabilities, 22, 469-478.
Siegel, L. S., & Faux, D. (1989). Acquisition of certain grapheme-phoneme correspondences in
normally achieving and disabled readers. Reading and Writing: An Interdisciplinary
Journal, 1, 37-52.
Singson, M., Mahony, D., & Mann, V. (2000). The relation between reading ability and
morphological skills: Evidence from derivational suffixes. Reading and Writing: An
Interdisciplinary Journal, 12(3-4), 219-252.
Snow, C. E., Burns, M. S., & Griffin, P. (Eds.). (1998). Preventing reading difficulties in young
children. Washington, DC: Committee on the Prevention of Reading Difficulties in
Young Children and National Academy Press.
Sprenger-Charolles, L. (2008). Early grade reading assessment (EGRA): Résultats d'élèves
sénégalais des trois premiers grades ayant appris à lire en français et en wolof—Rapport
pour la Banque Mondiale. Récupérée à partir du
Sprenger-Charolles, L., Bogliotti, C., Leloup, G., & Kipffer-Piquard, A. (Sous presse). Déficits
en et hors lecture chez des dyslexiques de 17 ans et prédicteurs précoces (à 5 ans) de ces
déficits: Comparaison avec des contrôles de même âge chronologique. Approche
Neuropsychologique des Apprentissages chez l'Enfant (ANAE).
Sprenger-Charolles, L., & Bonnet, P. (1996). New doubts on the importance of the logographic
stage. Current Psychology of Cognition, 15, 173-208.
Sprenger-Charolles, L., Colé, P., Béchennec, D., & Kipffer-Piquard, A. (2005). French
normative data on reading and related skills: From EVALEC, a new computarized battery
of tests. European Review of Applied Psychology, 55, 157-186.
Sprenger-Charolles, L., Colé P., Lacert, P., & Serniclaes, W. (2000). On subtypes of
developmental dyslexia: Evidence from processing time and accuracy scores. Canadian
Journal of Experimental Psychology. 54, 88-104.
Sprenger-Charolles, L., Colé, P., & Serniclaes, W. (2006). Reading acquisition and
developmental dyslexia. New York: Psychology Press.
Bibliographie
93
Sprenger-Charolles, L., Siegel, L., Béchennec, D., & Serniclaes, W. (2003). Development of
phonological and orthographic processing in reading aloud, in silent reading and in
spelling: A four year longitudinal study. Journal of Experimental Child Psychology, 84,
194-217.
Sprenger-Charolles, L., Siegel, L. S., & Bonnet, P. (1998). Phonological mediation and
orthographic factors in reading and spelling. Journal of Experimental Child Psychology,
68, 134-155.
Stage, S. A., & Wagner, R. K. (1992). Development of young children’s phonological and
orthographic knowledge as revealed by their spellings. Developmental Psychology, 28,
287-296.
Stanovich, K. E. (1986). Matthew effects in reading: Some consequences of individual
differences in the acquisition of literacy. Reading Research Quarterly, 21, 360-406.
Stanovich, K. E. (1990). Concepts in developmental theories of reading skill: Cognitive
resources, automaticity, and modularity. Developmental Review, 10, 72-100.
Stanovich, K. E (1999). The sociopsychometrics of learning disabilities. Journal of Learning
Disabilities, 32, 350-361.
Stanovich, K. E. (2000). Progress in understanding reading: Scientific foundations and new
frontiers. New York: Guilford Press.
Stanovich, K. E., & Siegel, L. S. (1994). Phenotypic performance profile of children with
reading disabilities: A regression-based test of the phonological-core variable-difference
model. Journal of Educational Psychology, 86(1), 24-53.
Stuart, M., & Coltheart, M. (1988). Does reading develop in a sequence of stages? Cognition, 30,
139-151.
Taylor, S. E. (1965). Eye movements in reading: Facts and fallacies. American Educational
Research Journal, 2, 187-202.
Torgesen, J. K. (1998). Catch them before they fall: Identification and assessment to prevent
reading failure in young children. America Educator/American Federation of Teachers,
22, 32-39.
Torgesen, J. K., & Davis, C. (1996). Individual difference variables that predict response to
training in phonological awareness. Journal of Experimental Child Psychology, 63, 1-21.
Treiman, R., Mullennix, J., Bijeljac-Babic, R., & Richmond-Welty, E. D. (1995). The special
role of rimes in the description, use, and acquisition of English orthography. Journal of
Experimental Psychology: General, 124, 107-136.
Treiman, R., Tincoff, R. Rodriguez, K., Monzaki, A., & Francis, D. J. (1998). The foundations of
literacy: Learning the sounds of the letters. Child Development, 69, 1524-1540.
94
Bibliographie
Van Ijzendoorn, M. H., & Bus, A. G. (1994). Meta-analytic confirmation of the non-word
reading deficit in developmental dyslexia. Reading Research Quarterly, 29, 266-275.
Wagner, D. A. (2003). Smaller, quicker, cheaper: Alternative strategies for literacy assessment in
the UN Literacy Decade. International Journal of Educational Research, 39, 293-309.
Waters, G. S., Bruck, M., & Seidenberg, M. S. (1985). Do children use similar cognitive
processes to read and spell words? Journal of Experimental Child Psychology, 39, 511-
530.
Waters, G. S., Seidenberg, M. S., & Bruck, M. (1984). Children’s and adults’ use of spelling-
sound information in three reading tasks. Memory and Cognition, 12, 293-305.
West, R. F., & Stanovich, K. E. (1978). Automatic contextual facilitation in readers of three
ages. Child Development, 49, 717-727.
Wiederholt, J. L., & Bryant, B. R. (1992). Gray Oral Reading Tests (3rd ed.). Austin, Texas:
Pro-Ed.
Wiederholt, J. L., & Bryant, B. R. (2001). Gray Oral Reading Tests (4th ed.). Austin, Texas:
Pro-Ed.
Woodcock, R. W., McGrew, K. S., & Mather, N. (2001). Woodcock-Johnson III tests of
achievement. Itasca, Illinois: Riverside.
World Bank. (2007). Por una educación de calidad para el Perú: Estándares, rendición de
cuentas, y fortalecimiento de capacidades. Washington, DC.
World Bank: Independent Evaluation Group. (2006). From schooling access to learning
outcomes—An unfinished agenda: An evaluation of World Bank support to primary
education. Washington, DC.
Yovanoff, P., Duesbery, L., Alonzo, J., & Tindall, G. (2005). Grade-level invariance of a
theoretical causal structure predicting reading comprehension with vocabulary and oral
reading fluency. Educational Measurement (Fall), 4-12.
Zeno, S. M., Ivenz, S. H., Millard, R. T., & Duvvuri, R. (1995). The educator’s word frequency
guide. Brewster, New York: Touchstone Applied Science Associates.
Ziegler, J.C., & Goswami, U. (2005). Reading acquisition, developmental dyslexia and skilled
reading across languages: A psycholinguistic grain size theory. Psychological Bulletin,
13(1), 3-29.
Ziegler, J. C., & Goswami, U. (2006). Becoming literate in different languages: Similar
problems, different solutions. Developmental Science, 9, 429-436.
Bibliographie
95
Ziegler, J. C., Pech-Georgel, C., George, F., & Lorenzi, C. (2009). Speech-perception-in-noise
deficits in dyslexia. Developmental Science, published online 25 February 2009. doi:
10.1111/j.1467-7687.2009.00817.x
96
Bibliographie
Annexe A : Normes : lecture à haute voix de mots
isolés en 1 minute
Distribution des notes en centiles de l’épreuve « Lecture en Une Minute » du logiciel Bilan de
Lecture Informatisé. LUM (épreuve totale), EO = erreurs d’oralisation.1
Mots lus en 1 minute
Erreurs d’oralisation
Grade 2 (CE1)
10
17,2
10,0
25
25,0
8,0
50
38,0
6,0
75
48,0
3,0
90
55,0
1,0
Grade 3 (CE2)
10
34,0
7,9
25
43,5
6,0
50
56,0
4,0
75
68,5
2,0
90
77,0
1,0
Grade 4 (CM1)
10
50,0
7,0
25
55,5
4,5
50
69,0
3,0
75
78,0
2,0
90
85,9
1,0
Grade 5 (CM2)
10
57,6
5,4
25
66,0
4,0
50
76,0
3,0
75
88,0
1,0
90
97,4
1,0
Ce test pose toutefois quelques problèmes pour au moins deux raisons. En effet, il contient des
mots courts très fréquents (comme les articles « un », « le ») et des mots qui sont à la fois longs
et rares (comme « anthropophage ») et donc probablement inconnus des jeunes enfants. Il inclut
aussi des mots qui, en dehors du contexte, peuvent se lire de deux façons, comme « est » qui se
lit /E/ dans « il est » et /Est/ dans « à l’est d’Eden ».
1 Khomsi, A., et Khomsi, J. (2003). Bilan de Lecture Informatisé (BLI). Paris: ECPA.
Annexe A
A-1
A-2
Annexe A
Annexe B. Batterie d’évaluation de la lecture en début
du primaire (langue française)
Evaluation du niveau de lecture au début du
primaire : fin CP (Grade 1)
à fin CE1(Grade 2)
Liliane Sprenger-Charolles* et Pascale Colé**
* Centre National de la Recherche Scientifique, Laboratoire de Psychologie de la
Perception (CNRS/LPP) et Paris-Descartes
** CNRS, Laboratoire de Psychologie Cognitive (LPC)
et Université de Provence
OBJECTIFS & PRINCIPES DES EPREUVES
Section 1. Vocabulaire
Objectif : évaluer le niveau de vocabulaire, ce qui est particulièrement important quand
certains enfants apprennent à lire dans une langue qui n’est pas leur langue maternelle.
Principes : Le niveau de vocabulaire est vérifié à partir de tâches de désignation ou de
mime pour des mots (noms et verbes) plus ou moins fréquents qui désignent des
parties du corps (genou, index, hanche…), des termes de l’environnement (un crayon,
le coin de la table…), des termes du vocabulaire scolaire (carré, cercle, triangle,
rectangle…), des termes spatiaux (sous, sur…) ou encore à partir de mots qui référent
à des actions (sourire, s’étirer…).1 Certains de ces mots sont présents dans les
1 Une première version de ce test a été utilisée au NIGER avec plan (environ 500 enfants).
Annexe B
B-1
évaluations du niveau de vocabulaire destinées aux enfants de 4 à 9 ans.2
Section 2. Compréhension orale et compréhension écrite (voir les sections 6 et 7)
Objectifs : vérifier le niveau de compréhension orale et le niveau de compréhension
écrite et leurs relations. On évalue la compréhension sur la base d’un texte injonctif
(écouter ou lire pour faire3), en tenant compte, entre autres, des relations anaphoriques
(reprises : tu prends le crayon puis tu le poses…), spatiales (tu le poses sur la table...)
et temporelles (et après tu prends…).
Principes : L’épreuve de compréhension orale (section 2) est construite sur la même
base que la première épreuve de compréhension écrite (section 6 : lecture à haute
voix). Ces deux épreuves sont le moins possible chargées en mémoire. De plus, le
vocabulaire utilisé est principalement celui qui est évalué dans l’épreuve de vocabulaire.
La compréhension écrite est aussi évaluée sur la base de deux autres épreuves
(sections 7 et 8), qui sont passées en lecture silencieuse.
Section 3. Lecture (à haute voix) de mots familiers (Test 1 minute)
Objectif : Vérifier le niveau de lecture (précision et temps) de mots familiers, cette
capacité étant celle qui, en plus du niveau de vocabulaire et de compréhension orale,
permet de rendre compte du niveau de compréhension écrite.
Principes : Lecture à haute voix de mots en une minute (60 mots, 10 par ligne). Les
mots choisis sont fréquents : ils ont été sélectionnés parmi les 1000 premiers mots des
manuels du premier grade4 et, pour la majorité d’entre eux, ils sont « faciles à lire » : en
l’occurrence, courts (une ou deux syllabes), réguliers sur le plan des correspondances
graphèmes-phonèmes (CGP), et ils ne comportent que peu de groupes
consonantiques. En plus, dans la mesure ou cette épreuve ne s’adresse pas
uniquement à des natifs, on a évité d’utiliser massivement certaines caractéristiques
spécifiques à l’orthographe et/ou à la phonologie du français (voyelles nasales, « u »
opposé à « ou », finales de mots muettes), au moins dans les premières lignes.
Plus précisément, les mots sélectionnés contiennent tous les graphèmes les plus
fréquents du français. Il y a, comme en français, une majorité de mots réguliers (38).
Certains ne comportent que des graphèmes d’une seule lettre, d’autres intègrent un
graphème de plus d’une lettre. Il y a aussi quelques mots (12) comportant un (ou
plusieurs) graphème(s) dont la prononciation dépend du contexte (s = /s/ ou /z/ ; g = /g/
ou /j/ ; c = /k/ ou /s/). Enfin, certains items ne peuvent être lus correctement en utilisant
2 Deltour, J-J. & Hupkens, D. (1980). Test de vocabulaire actif et passif pour enfants de 5 à 8 ans (TVAP 5-8).
Braine-le-Château, Belgique : Editions de l'Application des Techniques Modernes (ATM). Nouvel étalonnage en
1998; et Dunn, L.M., Thériault-Whalen, C. M., & Dunn, L. M. 1993. Echelle de vocabulaire en images Peabody:
Adaptation française du Peabody Picture Vocabulary Test. Toronto, Canada: Psycan.
3 Ce qui est une situation fréquente dans le contexte scolaire (l’enfant doit, par exemple, lire ou écouter pour faire un
exercice) ou dans l’environnement familial (l’enfant doit, par exemple, lire pour construire un jouet, pour faire une
recette de cuisine…).
4 Lété, B., Sprenger-Charolles, L., & Colé, P. (2004). MANULEX: A lexical database from French readers.
Behavior Research Methods, 36(1), 156-166.
B-2
Annexe B
les CGP (10 items qui ont une consonne muette en fin de mot ou une autre irrégularité).
Les autres difficultés sont liées à la présence de groupes consonantiques.
Section 4. Lecture (à haute voix) de mots inventés (Test 1 minute)
Objectif : Vérifier le niveau de lecture (précision et temps) de mots inventés, niveau
dont dépend largement le niveau en lecture de mots fréquents.
Principes : Lecture à haute voix de mots inventés en une minute (60 mots, 10 par
ligne). Les items choisis sont appariés aux mots fréquents en longueur, en structure
syllabique et en difficultés orthographiques. Par rapport aux mots fréquents, les mots
inventés ont aussi approximativement le même nombre de voyelles nasales et d’autres
graphèmes de plus d’une lettres, qu’il s’agisse de graphèmes vocaliques (ou, ai, eau…)
ou consonantiques (ch, gn). Par contre, il est impossible d’inventer des mots irréguliers
ou se terminant par une consonne qui serait obligatoirement muette. Tous les mots
inventés sont donc réguliers sur le plan des correspondances graphème-phonème,
mais 20 d’entre eux ont un graphème dont la prononciation dépend du contexte (s = /s/
ou /z/ ; g = /g/ ou /j/ ; c = /k/ ou /s/).
Section 5. Lecture (silencieuse) et compréhension de mots (Test 1 minute)
Objectif : A la différence de l’épreuve de lecture à haute voix de mots (section 3), cette
épreuve permet d’évaluer un certain niveau de compréhension lexicale: les enfants
devant indiquer, parmi une liste de mots, ceux qui correspondent à des noms
d’animaux5.
Principes : Le niveau de lecture de mots est vérifié à partir d’une tâche de lecture
silencieuse de mots (en une minute). Les mots ont été choisis sur les mêmes bases
que pour l’épreuve précédente : en particulier ils sont fréquents, c’est-à-dire inclus dans
les 1000 premiers items du premier grade d’après MANULEX (Lété, Sprenger-Charolles
et Colé, 2004). Plus précisément, 50 noms d’animaux (insectes exclus) sont présentés
parmi d’autres mots désignant des items appartenant à différentes catégories
sémantiques (fruits et légumes, moyens de transport, vêtements ou linge de maison et
objets divers). Il y a en tout 108 mots répartis sur 18 lignes (6 par lignes avec 2/4 noms
d’animaux dans chacune). Les items sont présentés en ordre croissant de difficulté:
longueur, ainsi que niveau de complexité et de régularité des correspondances
graphème-phonème.
Section 6. Lecture (à haute voix) et compréhension d’énoncés
Objectifs : Cette épreuve poursuit les mêmes objectifs que celle de lecture à haute voix
de mots fréquents, mais les mots sont insérés dans un contexte. Il est tenu compte de
5 Cette épreuve s’inspire du test “La pipe et le rat” (P. Lefavrais, 1986, La pipe et le rat: L’évaluation du savoir lire
(Issy-les-Moulineaux: Editions des Applications Psychotechniques). Elle ne comporte toutefois que des noms
d’animaux fréquents. On a aussi évité les mots irréguliers, surtout dans les premières lignes, parce que, en fin de CP,
les enfants français ne lisent que peu de mots irréguliers (L. Sprenger-Charolles, L. S. Siegel, & P. Bonnet, 1998,
Phonological mediation and orthographic factors in reading and spelling. Journal of Experimental Child Psychology,
68, 134-155). Les noms d’insectes ont aussi été exclus, ces animaux n’étant pas classés comme tels par certains
enfants. Enfin, les noms ne désignant pas des animaux référent à des entités appartenant à des catégories
sémantiques plus homogènes que celles du test d’origine.
Annexe B
B-3
la précision et du temps de lecture (toutefois il ne s’agit pas d’une épreuve en « 1
minute »).
Principes : La compréhension écrite est vérifiée avec une épreuve construite sur les
mêmes bases que celle de compréhension orale (voir section 2), ces deux épreuves
étant le moins que possible chargées en mémoire. Le vocabulaire utilisé est
principalement celui qui est évalué dans l’épreuve de vocabulaire. L’enfant doit mimer
ce qu’il lit.
Section 7. Lecture (silencieuse) et compréhension d’énoncés (maximum accordé : 2
minutes)
Objectifs et principes : Identiques à ceux de l’épreuve précédente, la principale
différence est que l’enfant doit lire silencieusement, sa tâche étant de tracer un itinéraire
entre plusieurs endroits.
Section 8. Lecture (silencieuse) et compréhension d’énoncés (Test 1 minute)
Objectifs et principes : L’enfant doit lire silencieusement plusieurs énoncés courts et,
pour chacun d’eux, choisir parmi 4 mots celui qui permet de le compléter (test dit de
« closure »).
Principes : Les énoncés sont courts (pas plus de 10-12 mots, ce qui permet d’éviter de
surcharger la mémoire) et les mots utilisés dans ces énoncés, tout comme ceux qui
sont proposés pour les compléter, sont fréquents (ce qui permet d’éviter les biais dus à
des différences de niveau de vocabulaire). Quatre mots sont proposés au choix, un seul
permet de compléter correctement l’énoncé, un autre étant très proche de ce dernier
(par exemple : « poisson / poison » ou encore « douche » / « touche »).
Section 9. Ecriture de mots familiers
Objectifs : Evaluer les capacités d’écriture. Cette épreuve est incluse dans la batterie
proposée en raison de l’asymétrie entre les correspondances graphèmes-phonèmes
(utilisées pour lire) et phonèmes-graphèmes (utilisées pour écrire) en français.
Principes : Afin de comparer lecture et écriture, cette épreuve comporte des mots (8)
utilisés dans l’épreuve de lecture (6 réguliers dont 2 avec des graphèmes contextuels,
et 2 irréguliers). Les mots ont été aussi choisis en fonction du niveau de réussite en fin
de CP: pour chacune des catégories, il y a au moins un mot qui, d’après des données
normatives,6 est correctement orthographié par au moins 70% des enfants.
Section 10. Analyse phonémique : Ecriture de mots inventés
Objectifs : Evaluer, via l’écriture de mots inventés, trois capacités essentielles pour
apprendre à lire dans une écriture alphabétique : les capacités de segmentation et
d’assemblage de phonèmes7 et celles de discrimination phonémique.
Principes : Cette épreuve comporte 8 items de différentes structures syllabiques : CV,
CVC et CCV (C=consonne ; V=voyelle). Dans la mesure où on veut vérifier les
6 Pothier, B., & Pothier, P. (2002). EOLE : Echelle d’acquisition en orthographe lexicale. Paris : Retz.
7 Cf. Torgesen, J.K., & Davis, C. (1996). Individual difference variables that predict response to training in
phonological awareness. Journal of Experimental Child Psychology, 63, 1-21.
B-4
Annexe B
capacités phonémiques des enfants, on a évité les phonèmes qui ont de trop
nombreuses représentations graphémiques (é), ainsi que ceux qui se représentent par
plus d’une lettre (les voyelles nasales, par exemple). Les configurations sélectionnées
sont légales en français (par exemple, il n’y a pas de clusters tels que « dl » ou « t », ou
encore il n’y a pas d’items se terminant par un « v »).
Annexe B
B-5
Protocole pour l’examinateur
Section 1. Vocabulaire8
Matériel nécessaire : une chaise, une table, plus, devant l’examinateur : une boite, un
crayon, un stylo, et une feuille sur laquelle est dessiné un carré, un rectangle, un
losange, un triangle, un cube, un cercle, un ovale, une étoile.
Vous allez demander à l’élève de montrer des parties de son corps, des objets de son
environnement, et de faire différentes actions.
Barrer les items pour lesquels l’élève n’a pas répondu ou a donné une réponse
incorrecte. Si l’élève s’est corrigé par la suite (auto-correction), vous comptez la
réponse comme étant correcte et vous entourez l’item que vous avez barré.
Arrêt : si l’élève n’a pas été capable de désigner correctement au moins trois parties du
corps
A. Partie du corps
Consigne pour l’élève: Je vais te dire un mot qui désigne une partie de ton corps. Tu
devras me montrer la partie de ton corps que ce mot désigne. Par exemple, montre-moi
« ton nez », « ton œil ».
Nombre de
Montre-moi:
réponses
correctes
ton genou - ton index - ton épaule - ton coude
/ 4
ta cheville - ton poignet - ta narine - ta hanche
/ 4
Total correct :
/ 8
Arrêt si l’élève a correctement désigné moins de trois parties du corps et entourer la croix : X
B. Mots de l’environnement
Consigne pour l’élève: Je vais te dire un mot et tu devras me montrer à quoi il
correspond
Nombre de
Montre-moi:
réponses
correctes
un crayon - un stylo - un des coins de la table - le dossier de la
/ 4
chaise
un cercle - un carré - un triangle - un cube
/ 4
Total correct :
/ 8
8 Mots présents dans l’EVIP (Age [X]) ; genou [3] ; épaule [5 ½] ; coude [4] ; narine [6] ; carré [4] ; étirer [5]. Mots
présents dans le TVAP 4-8 ans (position dans le test sur 30 mots [X]) : bailler [13/30] ; rire [6/30]
B-6
Annexe B
C. Termes spatiaux et actions
Nombre de
Consigne: Je vais encore te dire de faire quelque chose, et tu
réponses
devras faire ce que je te dis : Tu mets le stylo
correctes
sur la boite - dans la boite - sous la boite - devant toi
/ 4
devant moi - au dessous de la boite - derrière toi - derrière moi
/ 4
Total correct :
/ 8
Consigne: Tu fais encore une fois ce que je te dis de faire :
Tu te lèves - tu t’assieds - tu t’étires - tu bailles - tu souris - tu
tousses
Total correct :
/ 6
TOTAL GÉNÉRAL :
/ 30
Annexe B
B-7

 

 

 

 

 

 

 

 

Content      ..     1      2      3      4      ..