JoVE Logo

S'identifier

Dans cet article

  • Résumé
  • Résumé
  • Introduction
  • Protocole
  • Résultats
  • Discussion
  • Déclarations de divulgation
  • Remerciements
  • matériels
  • Références
  • Réimpressions et Autorisations

Résumé

Ce protocole présente la méthode étape par étape pour l’utilisation d’une application basée sur l’écriture, valide et fiable, conçue pour l’enseignement au niveau de la maternelle. Il s’agit d’un outil d’évaluation basé sur le programme d’études, qui se concentre spécifiquement sur l’évaluation des compétences d’écriture précoces des jeunes apprenants.

Résumé

L’écriture à la maternelle implique l’acquisition de compétences fondamentales, telles que la formation des lettres, la conscience phonémique et l’utilisation progressive du langage écrit pour exprimer des idées. Dans ce contexte, les évaluations des programmes d’études sur tablette offrent de nouvelles possibilités d’enseignement et d’évaluation de ces capacités d’écriture précoces. À notre connaissance, il n’existe actuellement aucun outil avec ces fonctionnalités disponible pour les enfants hispanophones. Par conséquent, l’objectif principal de cette étude était de présenter un protocole sur tablette pour le dépistage des jeunes écrivains à risque. Ce protocole sur tablette est spécialement conçu pour l’enseignement au niveau de la maternelle et sert d’outil d’évaluation basé sur le programme d’études qui se concentre sur l’évaluation des compétences d’écriture précoces chez les jeunes apprenants. Cette application conviviale intègre des tâches et des exercices interactifs, notamment des évaluations de la conscience phonologique, de l’écriture des noms, de la fluidité de la copie des lettres de l’alphabet et des compétences narratives orales. Ces évaluations complètes couvrent divers aspects de l’écriture. Cette application est méticuleusement alignée sur les objectifs du programme de maternelle, en veillant à ce que les évaluations respectent les normes éducatives. En fournissant aux éducateurs une plateforme numérique pour évaluer et améliorer les compétences en écriture des élèves, cet outil leur permet de prendre des décisions fondées sur des données pour un enseignement efficace dès les premières étapes du développement de l’écriture. De plus, il fonctionne comme une mesure basée sur le programme d’études (CBM), offre un soutien précieux pour identifier les défis potentiels en écriture chez les jeunes apprenants et suivre en permanence leurs progrès. Cette fonctionnalité permet une intervention précoce et un enseignement personnalisé pour optimiser le développement des compétences en écriture.

Introduction

L’objectif principal de cette étude est d’introduire un protocole d’évaluation multimédia pour les élèves de maternelle visant à identifier les difficultés d’écriture potentielles et à explorer sa structure interne et la précision de son diagnostic.

À la maternelle, l’écriture marque le début du parcours d’alphabétisation d’un enfant. Cela va au-delà des gribouillis et des formes, représentant la base de la communication et de l’expression créative. L’acquisition de compétences rédactionnelles est une question d’importance primordiale car elle nécessite l’attention des parents, des éducateurs, des enfants et des érudits. L’Organisation mondiale de la santé (OMS)1 (2001) a désigné les difficultés d’écriture comme un obstacle important à la participation scolaire, un élément central dans la trajectoire de développement normative d’un enfant. L’écriture, qui est un moyen indispensable, permet aux enfants d’articuler leurs connaissances et leurs pensées, ce qui leur permet de participer à un éventail d’activités académiques2. Cependant, cette entreprise faussement élémentaire est loin d’être simpliste et englobe de nombreux processus complexes. Les enfants doivent investir du temps et de la diligence pour acquérir et affiner cette compétence nuancée. Le passage de l’idéation à la représentation orthographique nécessite l’orchestration de processus cognitifs, linguistiques et moteurs.

De nombreux rapports nationaux ont mis en lumière la prévalence des élèves qui n’atteignent pas les niveaux de compétence requis en écriture. Par exemple, en Espagne, l’Instituto Nacional de Evaluación Educativa [Institut national de la qualité et de l’évaluation] (INEE) a dévoilé les résultats de son évaluation réalisée au cours de l’année scolaire 1999-2000 pour l’enseignement primaire et secondaire3. L’évaluation a révélé que les performances des élèves en écriture étaient non seulement inférieures aux normes attendues, mais qu’elles mettaient également en évidence des lacunes importantes dans l’enseignement en classe et la préparation pédagogique. En outre, le ministère espagnol de l’Éducation a publié en 2009 un rapport d’évaluation diagnostique générale, qui a souligné les niveaux de compétences de base des élèves de quatrième année de l’enseignement primaire4. L’article 20.3 de la loi organique 2/2006, du 3 mai, relative à l’éducation (LOE), qui a ensuite été modifiée par la loi organique 8/2013, promulguée le 9 décembre, visant à améliorer la qualité de l’éducation (LOMCE), a établi l’introduction d’une évaluation diagnostique pour l’enseignement primaire de troisième année5. Cette disposition législative stipulait que « les établissements d’enseignement doivent procéder à une évaluation individualisée pour tous les élèves à l’issue de la troisième année de l’enseignement primaire ». L’objectif principal de cette évaluation était de déterminer le degré de compétence dans les aptitudes, les compétences et les aptitudes englobant l’expression orale et écrite, la compréhension, le calcul et la résolution de problèmes. Cette évaluation a été réalisée dans le but d’évaluer l’acquisition de compétences en communication linguistique et en mathématiques. La formulation du cadre général de cette évaluation est le fruit d’un effort de collaboration impliquant l’engagement actif de 14 autorités éducatives et du ministère de l’Éducation, de la Culture et des Sports (MECD). En 2010, dans le diagnostic complet pour l’enseignement secondaire (ESO), concernant les processus d’expression écrite, un score faible a été obtenu dans la présentation des travaux écrits. Il a également mis en évidence un paysage éducatif inquiétant en Espagne, en particulier en ce qui concerne les compétences linguistiques6.

Maîtriser l’art de l’écriture est un formidable défi qui exige un traitement cognitif complexe. Il existe deux modèles d’écriture qui ont reçu un soutien conceptuel important : le modèle de vue simple de l’écriture (SVW)7,8 et la vue pas si simple du modèle d’écriture (NSVW)9,10. Ce dernier, une révision du précédent, postule que les compétences de transcription, telles que la fluidité de l’écriture manuscrite et l’orthographe, collaborent avec des fonctions d’autorégulation, y compris l’attention, l’établissement d’objectifs et la révision, en plus de la mémoire de travail, dans le processus nuancé de génération de texte. Ce processus implique la double tâche de générer des idées et de transformer ces idées en propositions linguistiques étroitement liées aux compétences linguistiques orales. Les compétences de transcription 11,12 et la maîtrise du langage oral 13,14,15 sont fortement reconnues comme des facteurs prédictifs dans le développement précoce de l’écriture. En raison de la nature complexe de l’écriture, certains élèves rencontrent des difficultés pour atteindre la compétence. Les troubles de l’écriture ont non seulement un impact négatif sur l’auto-efficacité et la motivation scolaire, mais peuvent également persister à l’âge adulte, influençant négativement les expériences futures sur le lieu de travail et le bien-être émotionnel16,17. Le DSM-V définit les troubles d’apprentissage à l’écrit comme suit : Avec déficience de l’expression écrite (315.2 F81.81) : les compétences en orthographe, en grammaire, en ponctuation, en clarté et en organisation de l’expression écrite sont affectées. De plus, le DSM-V spécifie que dans ce trouble, l’individu peut ajouter, supprimer ou substituer des voyelles ou des mots. De ce fait, les travaux écrits sont souvent illisibles ou difficiles à lire. Une altération des compétences en écriture interfère de manière significative avec la réussite scolaire ou les activités de la vie quotidienne qui nécessitent la composition d’un texte écrit (APA, 2013)18.

Le protocole d’évaluation cible des éléments clés tels que la copie de l’alphabet, la conscience phonologique, l’écriture des noms, le vocabulaire expressif et les compétences narratives orales. La copie de l’alphabet est définie comme le processus qui consiste à faire reproduire aux enfants des formes de lettres en traçant, copiant ou écrivant sur des modèles de lettres de l’alphabet individuelles. Cette tâche repose principalement sur les compétences de reproduction motrice plutôt que sur la mémoire à long terme, l’amélioration des performances étant corrélée à l’automatisation des routines de reproduction motrice19. La conscience phonologique, quant à elle, évalue la compréhension des enfants de la structure sonore du langage. Plus précisément, il implique la connaissance explicite que les mots peuvent être segmentés en une séquence de phonèmes et que les phonèmes peuvent être mélangés en mots20. L’écriture des noms, selon Puranik et Lonigan21, est définie comme la capacité de reproduire son propre nom à l’écrit, ce qui est considéré comme une étape importante du développement de l’alphabétisation précoce et la première étape vers la maîtrise du principe alphabétique. Le vocabulaire expressif fait référence aux mots qu’un enfant peut utiliser pour communiquer ses pensées, ses sentiments et ses idées par le biais du langage parlé. C’est un aspect crucial du développement du langage dans la petite enfance22. Enfin, les compétences narratives orales englobent la capacité des jeunes enfants à comprendre, produire et transmettre des histoires par le biais du langage parlé. Il s’agit de séquencer les événements dans un ordre logique, de fournir des détails pertinents et d’utiliser des structures linguistiques appropriées pour raconter des expériences personnelles ou des récits fictifs23. Ces compétences sont généralement évaluées en demandant aux enfants de raconter des histoires ou de générer des récits basés sur des images, avec des mesures évaluant des éléments tels que la structure de l’histoire, l’utilisation d’un langage évaluatif, les liens temporels et causaux et la cohérence globale24.

Les protocoles d’évaluation précoce sont essentiels pour détecter les élèves à risque de troubles de l’écriture avant que le problème ne se développe. Des recherches approfondies ont montré qu’une détection précoce entraîne un meilleur pronostic. Dans le contexte du modèle de réponse à l’intervention (RTI), les mesures basées sur le curriculum (CBM) sont souvent utilisées pour le dépistage universel et le suivi des progrès parce qu’elles sont rapides, pratiques, fiables, valides, précises et sensibles au moment de la mesure 25,26,27. Le processus CBM implique une évaluation à trois moments distincts du cours (normalement en automne, en hiver et au printemps). Ce processus nous permet d’identifier les élèves à risque et de décider si l’intervention doit être modifiée ou si les progrès sont acceptables. Cependant, il existe peu de littérature scientifique sur les outils de détection précoce des processus d’écriture par rapport à d’autres domaines académiques, tels que la lecture ou les mathématiques28.

Avancées technologiques dans l’éducation
L’utilisation des tablettes tactiles chez les jeunes enfants augmente à la maison et dans les centres d’éducation de la petite enfance29. Une revue de la littérature scientifique la plus récente met en évidence la pertinence et les avantages des CBM générées par l’utilisation de moyens numériques (i.e. tablettes)30. Ces dernières années, la facilité d’utilisation et l’applicabilité des mesures de confiance ont fait l’objet d’une attention considérable. Ceci est associé à des enquêtes sur la mise en œuvre réussie d’outils de suivi des progrès dans la pratique éducative31. Dans ce contexte, l’importance des médias numériques modernes dans le domaine de l’éducation est de plus en plus reconnue32. Un outil d’évaluation basé sur le programme d’études ayant le double objectif de dépistage et de suivi des progrès à l’aide de la technologie des tablettes offrirait de nombreux avantages aux éducateurs 33,34,35. Avec ce type de support numérique (c’est-à-dire les tablettes), les avantages l’emportent sur les inconvénients de la réalisation d’évaluations visant à la détection précoce des difficultés d’apprentissage (c’est-à-dire le dépistage) dans les domaines académiques de base que sont la lecture, l’écriture et les mathématiques, ainsi que des évaluations conçues pour suivre les progrès d’apprentissage des élèves dans ces domaines académiques. Cela est attribué au fait que les évaluations numériques (qu’elles soient effectuées via des ordinateurs ou des tablettes) permettent d’augmenter l’efficacité du temps. En ce qui concerne plus particulièrement les tâches de collecte de données d’évaluation, de présentation et de documentation généralement effectuées par les enseignants, ces processus peuvent être automatisés et exécutés beaucoup plus efficacement en termes d’utilisation des ressources36. De plus, il devient beaucoup plus simple de fournir un soutien à l’interprétation des données. De plus, les recherches indiquent que les évaluations sur tablette sont bien accueillies par les enseignants et entraînent de plus grands gains d’apprentissage37,38. En revanche, malgré les avantages potentiels des évaluations sur tablette, les chercheurs ont mis en évidence plusieurs inconvénients qui devraient être pris en compte. Bremer et Tillmann39 soulignent les coûts importants associés à l’acquisition et à la maintenance des tablettes, ainsi que les préoccupations concernant l’exacerbation des inégalités existantes en matière d’accès à la technologie. De plus, les tablettes ont souvent une puissance de traitement, une capacité de stockage et des capacités de saisie limitées par rapport aux ordinateurs portables, ce qui peut entraver leur fonctionnalité pour les tâches de calcul exigeantes ou la saisie prolongée39. Ces limites peuvent avoir un impact sur l’efficacité des évaluations sur tablette, en particulier dans les scénarios nécessitant une analyse avancée des données ou des réponses écrites détaillées. De plus, des défis techniques tels que la puissance de traitement réduite, les contraintes de stockage, les difficultés de saisie, la petite taille de l’écran, les problèmes de connectivité, les limitations de la batterie et les problèmes de compatibilité avec les logiciels ou les plates-formes d’évaluation peuvent entraver leur facilité d’utilisation40,41. De plus, les risques d’engagement et de distraction posent des préoccupations importantes, car les évaluations numériques peuvent avoir du mal à maintenir la concentration des enfants pendant les tests42. Il est crucial d’examiner attentivement ces facteurs lors de l’utilisation de tablettes pour l’évaluation éducative.

Dans l’ensemble, à la lumière des informations présentées dans ce rapport, la faisabilité de l’utilisation de tablettes par des caméras de confiance en classe semble prometteuse et est de plus en plus nécessaire dans une société numérique. Cette affirmation est corroborée par des résultats indiquant que de nombreux enfants ont accès à des tablettes à la fois à l’école et à la maison43. Ces dernières années, plusieurs applications sur tablette ont été développées pour l’évaluation des compétences précoces en littératie 44,45,46. Neumann et coll.46ont évalué les propriétés psychométriques des évaluations de la littératie sur tablette, en mettant l’accent sur la validité et la fiabilité. Ils ont testé une application conçue pour évaluer les compétences d’alphabétisation expressive et réceptive dans un échantillon de 45 enfants âgés de 3 à 5 ans. Les enfants ont utilisé l’application sur une tablette pour effectuer des évaluations liées à l’alphabet et aux compétences de reconnaissance des mots. Les résultats ont indiqué que les évaluations sur tablette utilisant à la fois des formats de réponse expressive et réceptive offrent un moyen valide et fiable de mesurer les compétences précoces en littératie chez les jeunes enfants. Le but de l’étude menée par Chu et Krishnan44 était de développer et de déterminer la validité d’un outil informatisé appelé Évaluation quantitative des compétences de pré-écriture (QAPS) pour évaluer le modèle de copie des enfants afin de mesurer leurs compétences visuo-motrices. Les auteurs ont démontré que le QAPS est réalisable et adéquat pour mesurer et distinguer les compétences de dessin des enfants en développement typique et des enfants présentant des déficits moteurs visuels. De même, Dui et coll.45 ont conçu une nouvelle application sur tablette, Play Draw Write, qui a été testée auprès d’enfants en bonne santé ayant maîtrisé l’écriture manuscrite (élèves de troisième année) et d’enfants préalphabétisés (enfants de maternelle). Leurs résultats fournissent des preuves de l’efficacité de la technologie des tablettes dans l’évaluation quantitative de la production d’écriture manuscrite. De plus, ils proposent qu’une application basée sur une tablette ait le potentiel d’identifier les difficultés d’écriture manuscrite à un stade précoce. Néanmoins, il convient de noter qu’aucune de ces études n’a évalué la précision diagnostique requise pour identifier les enfants à risque de troubles d’apprentissage liés à l’écriture. Par conséquent, il est nécessaire de disposer de données de classification précises pour valider l’efficacité d’un tel outil de dépistage. La précision de la classification d’un outil de dépistage est déterminée par la façon dont il identifie les élèves comme étant à risque ou non par rapport à un résultat d’écriture ultérieur. Les chercheurs rapportent souvent l’aire sous la courbe (AUC), une mesure de la précision globale de la classification. L’AUC sert d’indice de performance diagnostique en combinant sensibilité et spécificité en une seule mesure. Il classe les élèves comme à risque ou non à risque, en utilisant leur performance à un autre test standardisé comme critère. Les intervalles suivants ont été utilisés pour interpréter l’AUC : élevée, AUC > 0,90 ; bon, AUC > .80-.90 ; modérée, AUC = 0,70-0,79 ; et faible, AUC = 0,50-0,6947.

Les outils de dépistage et leurs scores seuils respectifs pour la détermination du risque doivent équilibrer la sensibilité et la spécificité, ce qui signifie qu’une sensibilité croissante tend à diminuer la spécificité et vice versa. La sensibilité représente la proportion d’élèves identifiés comme étant à risque sur l’outil de dépistage et à risque sur la mesure des résultats (vrais positifs) de tous les élèves qui ont obtenu un score à risque sur la mesure des résultats (vrais positifs et faux négatifs). Essentiellement, une valeur de sensibilité élevée indique que moins d’élèves à risque sont manqués lors du processus de dépistage. Si l’outil de dépistage manque de sensibilité et ne parvient pas à identifier ces élèves, ils ne recevront pas l’intervention nécessaire. À l’inverse, la spécificité représente la proportion d’élèves identifiés avec précision comme non à risque par l’outil de dépistage et la mesure des résultats (vrais négatifs) parmi tous les élèves classés comme non à risque par la mesure des résultats (y compris les vrais négatifs et les faux positifs). Une spécificité accrue entraîne une réduction des faux positifs. Les écoles accordent la priorité à la réduction des identifications de faux positifs lors du dépistage, car l’identification excessive des élèves à risque39 (c’est-à-dire l’identification d’un grand nombre de faux positifs) met à rude épreuve les ressources allouées aux services d’intervention. Bien qu’il n’existe pas de norme universellement acceptée pour les valeurs acceptables de ces indices, il est primordial d’obtenir des valeurs de sensibilité élevées dans le dépistage universel48,49.

Au cours des dernières années, divers instruments de dépistage papier-crayon ont été conçus pour évaluer les compétences en écriture des élèves hispanophones de la maternelle et de l’école primaire. Plus précisément, l’Indicadores de Progreso de Aprendizaje en Escritura (IPAE) sert un CBM sur mesure pour les classes élémentairesde 50e année. En revanche, l’évaluation de l’écriture dans les premières années de la maternelle (EGWA-K) cible spécifiquement les élèves de la maternelle, en fournissant un test standardisé d’espagnol qui évalue les compétences fondamentales en littératie. Il comprend des tâches telles que la transcription de mots à partir d’images, la segmentation de pseudo-mots en phonèmes, l’écriture de mots librement choisis et la narration d’une histoire basée sur un dessin. Ces diverses tâches font preuve d’une grande fiabilité et d’une grande validité dans l’évaluation des capacités d’écriture précoce51.

Cependant, à notre connaissance, aucun outil technologique de CBM n’a encore été développé pour l’évaluation de la langue espagnole pour le dépistage et le suivi des progrès d’apprentissage de l’écriture chez les jeunes enfants. Reconnaissant l’importance d’identifier les jeunes enfants qui peuvent avoir des difficultés à écrire et le manque d’outils informatiques pour la population hispanophone, cette étude visait à introduire un protocole d’évaluation multimédia pour les élèves de maternelle et à explorer sa structure interne et la précision du diagnostic.

Protocole

Le protocole présenté ici a été réalisé conformément aux directives fournies par le Comité de Ética de la Investigación y Bienestar Animal (CEIBA) de l’Universidad de La Laguna. Les données ont été collectées à trois moments différents, capturant des informations exclusivement auprès des élèves dont les parents, les administrations et les écoles ont donné leur consentement.

REMARQUE : L’application utilisée dans le protocole est Tablet App Indicadores de Progreso de Aprendizaje en Escritura para Educación Infantil [Compétences de base en écriture précoce pour les maternelles] (T-IPAE-K). Il comprend cinq tâches : 1) Copier les lettres de l’alphabet, 2) Écrire le nom, 3) Vocabulaire expressif, 4) Conscience phonologique et 5) Narration orale. Un agent pédagogique fournit des instructions pour chaque tâche, ainsi qu’un ou deux essais (selon la tâche) et une démonstration avant le début de la phase de test. Vous trouverez ci-dessous un exemple du protocole d’application de chaque tâche :

1. Dispositif expérimental

  1. Utilisez les critères d’inclusion suivants : Assurez-vous que les élèves appartiennent à la dernière année de maternelle et qu’ils sont de langue maternelle espagnole. Assurez-vous qu’ils peuvent suivre correctement les instructions.
  2. Excluez les enfants ayant des besoins éducatifs spéciaux (c’est-à-dire ceux qui ont besoin d’un soutien et d’une attention éducative spécifique en raison de leur déficience sensorielle ou de problèmes neurologiques acquis, entre autres ; ceux-ci sont traditionnellement utilisés comme critères d’exclusion pour les troubles d’apprentissage ou les troubles graves du comportement, soit temporairement, soit tout au long de leur scolarité).
  3. Installez l’application sur les tablettes des enfants. Cette application s’installe sur les tablettes à l’aide d’un seul fichier avec le fichier . L’extension APK, qui est le type de fichier utilisé par Android pour distribuer et installer des applications
    REMARQUE : Le fichier contient un programme d’installation automatique qui permet à l’utilisateur de sélectionner l’emplacement de l’installation. L’installateur détecte les versions précédentes de l’outil et avertit l’utilisateur des éventuelles mises à jour. Ces mises à jour ne suppriment pas les données enregistrées des versions précédentes.
    1. Lors de l’accès initial à l’application, les utilisateurs rencontrent un menu présentant plusieurs options : 1) Evaluar [lancer le jeu], 2) Corregir [rectifier les devoirs], 3) Modificar [mettre à jour les données des étudiants], et 4) Nuevo [inclure les nouveaux étudiants]
    2. Lancez le processus en créant le profil de l’élève. Entrez des détails essentiels tels que 'Code de l’étudiant', ''Date de naissance', ''Date de candidature', '' Nom de l’école', 'Numéro de colegio], etc. Cliquez sur Enregistrer [guardar] pour finaliser le nouveau profil de l’étudiant et mettre à jour les informations plus tard dans la section « Modifier » [Modificar] si nécessaire (voir Figure 1).
    3. Avant de commencer les tâches, vérifiez que tout fonctionne. Cliquez sur Examinateur, puis sur Périphériques pour confirmer les fonctionnalités de l’écran tactile, du clavier, de la touche vocale et de l’enregistreur. Enregistrez la configuration en cliquant sur OK.
      REMARQUE : Chaque tâche est mise en surbrillance dans une case verte. Les tâches sont les suivantes : Copia de letras [Copie des lettres de l’alphabet], Vocabulario expresivo [Vocabulaire expressif], Escritura del nombre [Écriture des noms 1ère partie, 2ème partie], Conciencia fonológica aislar [Conscience phonologique] et Narrativa oral [Narration orale].
    4. Effectuez chaque tâche surlignée en vert. Une fois la tâche terminée, assurez-vous que le menu revient à la section de la tâche et que la case passe au rouge, signalant à la fois à l’examinateur et à l’étudiant que la tâche a été accomplie (voir la figure 2).
    5. Examinez les enfants en dernière année de maternelle en une seule séance d’environ 25 min. Administrez la tâche dans une pièce calme. Utilisez le clavier externe pour corriger une fois la tâche terminée ou pour enregistrer les résultats positifs et manqués pendant l’exécution de la tâche, selon la tâche.
      REMARQUE : Aucun casque n’est nécessaire, car les instructions peuvent être entendues à l’aide des haut-parleurs intégrés de la tablette. Le programme lui-même peut être enregistré via la tablette.
    6. Effectuez la tâche.
      1. Fournir des instructions orales sur la tâche et démontrer la procédure à l’aide d’un agent pédagogique intégré.
      2. S’assurer que l’agent pédagogique donne des instructions initiales aux élèves sur le sujet du jeu et sur la façon d’y jouer.
      3. Lorsque l’agent pédagogique demande aux élèves s’ils ont compris la tâche, assurez-vous qu’ils cliquent sur la coche verte si la réponse est « oui » ou sur la croix rouge si la réponse est « non » (voir figure 3).
      4. En fonction de la réponse, exécutez la tâche avec l’aide de l’agent pédagogique sur les élèves. Assurez-vous qu’ils effectuent la tâche de manière indépendante sans aucune aide.
        REMARQUE : L’agent pédagogique n’est pas présent lorsque l’étudiant effectue la tâche.
  4. Une fois la tâche terminée, assurez-vous que l’agent pédagogique fournit le bon retour d’information.
  5. Répétez les instructions initiales si la tâche n’est pas comprise.
    REMARQUE : Lorsqu’un élève clique sur l’option « Je n’ai pas compris » pour la deuxième fois, le devoir est codé dans la base de données comme « l’élève n’a pas été en mesure d’effectuer la tâche » et la tâche sera marquée comme terminée.

figure-protocol-6091
Figure 1 : Menu principal et nouveau menu étudiant de CBM Veuillez cliquer ici pour voir une version plus grande de cette figure.

figure-protocol-6513
Figure 2 : Tâches avant et après l’achèvement de la tâche de copie alphabétique de la lettre Veuillez cliquer ici pour voir une version agrandie de cette figure.

figure-protocol-6967
Figure 3 : Écran « Avez-vous compris ? » Veuillez cliquer ici pour voir une version agrandie de cette figure.

2. Tâches

figure-protocol-7422
Figure 4 : Démonstration de la performance d’un élève dans la tâche de copie alphabétique de lettres Veuillez cliquer ici pour voir une version agrandie de cette figure.

  1. Copier l’alphabet
    1. Pour accéder à la tâche, cliquez sur Évaluation [Évaluer] et sélectionnez Copie des lettres .
    2. Laissez l’agent pédagogique donner des instructions et modéliser la tâche. La figure 4 en montre un exemple.
    3. Appuyez sur la touche Continuer du clavier externe pour continuer.
    4. Demandez à l’élève s’il a compris la tâche et demandez-lui de cliquer sur Oui ou Non en conséquence. Guide si besoin.
    5. Commencez la tâche : Demandez à l’élève de reproduire les voyelles telles qu’elles sont présentées à l’écran en 1 minute, présentées séquentiellement.
    6. Utilisez la touche Continuer du clavier externe après avoir terminé chaque lettre.
    7. Une fois la tâche terminée, appuyez sur la porte de sortie comme indiqué par l’agent pédagogique.
    8. Ouvrez la section Corriger [corrección] du menu principal et cliquez sur Copier les lettres" [copia de letras].
    9. Enregistrez les lettres correctes et incorrectes à l’écran.
    10. Cliquez sur la case à remplir et utilisez le clavier externe pour entrer le nombre de lettres tapées, les lettres correctes ou les erreurs (désalignement, omission, ajout ou inversion)
    11. À l’aide du clavier externe, identifiez et notez les lettres correctes et incorrectes. Notez également l’alignement, les inversions totales ou partielles, et l’ajout ou l’omission de traits dans la section correspondante.
      REMARQUE : Une lettre est considérée comme correcte si elle ne comporte pas d’erreurs présentées à l’étape 2.1.10. Ajoutez également le type de poignée de crayon que l’élève a utilisé. L’examinateur utilise des images de différents types de prises pour identifier celle que l’enfant utilise lorsqu’il écrit. Il n’y a pas de citations spécifiques pour le type de prise car il est basé sur une évaluation visuelle par l’examinateur.
    12. Une fois la correction terminée, cliquez sur Enregistrer [guardar].
    13. Calculez le nombre de lettres correctes (score maximum : 5) et notez les erreurs d’alignement, les inversions, les ajouts ou les omissions (voir la figure 5).
      REMARQUE : Les lettres correctes sont définies comme celles qui ne présentent pas les erreurs suivantes : désalignement, inversions, traits ajoutés et traits manquants. Le désalignement fait référence à la distance entre l’endroit où une lettre est censée être positionnée sur la ligne de base et l’endroit où elle est placée. Les inversions se produisent lorsqu’une lettre ou une partie de celle-ci est inversée ou tournée de manière incorrecte (par exemple, e/ǝ/, a/ɒ, u/n). Les traits ajoutés sont tous les traits n’appartenant pas à la lettre originale du modèle, tandis que les traits manquants font référence à l’absence de tout trait dans la lettre originale sur la feuille de réponses52.

figure-protocol-10998
Figure 5 : Exemple de correction de la performance d’un élève dans la tâche de copie alphabétique de la lettre Veuillez cliquer ici pour voir une version agrandie de cette figure.

  1. Vocabulaire expressif
    1. Pour accéder à la tâche, cliquez sur Évaluation [Évaluation], puis sélectionnez Vocabulaire expressif [Vocabulario expresivo].
    2. S’assurer que l’agent pédagogique donne des instructions à l’élève, suivies de la section de modélisation (voir la figure 6). Deux exemples d’articles seront présentés.
    3. Réagissez à la performance de l’élève à l’aide des touches Correct ou Incorrect du clavier externe.
    4. Si l’élève obtient des exemples erronés, offrez-lui une rétroaction corrective en montrant la bonne réponse.
    5. Demandez à l’élève s’il a compris la tâche en appuyant sur le bouton Oui ou Non sur l’écran. Si nécessaire, orientez leur réponse.
    6. Une fois la dernière étape terminée, assurez-vous que la tâche démarre. Les images apparaîtront individuellement pour chacun des dix éléments. Enregistrez les coups corrects (à l’aide de la touche Correct ) et les échecs (à l’aide de la touche Incorrect ) à l’aide d’un clavier externe. Les synonymes associés aux noms d’images sont également considérés comme corrects.
    7. Une fois la tâche terminée, appuyez sur la porte de sortie comme indiqué par l’agent pédagogique.
      REMARQUE : La tablette calcule automatiquement le nombre total de visites, 10 étant le score maximum.

figure-protocol-13024
Figure 6 : Un exemple de vocabulaire expressif Veuillez cliquer ici pour voir une version agrandie de cette figure.

  1. Écriture du nom
    1. Pour accéder à la tâche, cliquez sur Évaluation [Evaluar] puis sélectionnez Écriture de nom [Escritura del nombre].
    2. La première partie de la tâche commence en premier. Laisser l’agent pédagogique proposer à l’élève la partie instruction et modélisation. Dans la première partie, l’agent pédagogique dit : « Prenons un exemple ; Je vais écrire mon nom », et l’examinateur accompagnant l’enfant doit écrire son nom à titre d’exemple (voir figure 7).
    3. Ensuite, demandez à l’élève s’il a compris la tâche en cliquant sur le bouton Oui ou Non à l’écran. Fournir des conseils si nécessaire.
    4. Au cours de la première partie de l’exécution de la tâche, les élèves écrivent leurs noms dans les directives données en moins de 1 minute.
    5. Après avoir terminé la première partie, passez à la deuxième partie en suivant la même procédure. Dans cette deuxième partie, l’agent pédagogique explique la tâche et donne un exemple.
    6. Dans la deuxième partie, les élèves écrivent les noms qu’ils connaissent dans la ligne directrice donnée en moins de 3 minutes.
    7. Une fois terminé, l’agent pédagogique interroge les élèves sur les noms qu’ils ont écrits. Notez les noms sous les réponses écrites.
    8. Appuyez sur la porte de sortie comme indiqué par l’agent pédagogique.
    9. Pour corriger, ouvrez Correct [Corregir] dans le menu principal et sélectionnez Names Writing [Escritura del nombre].
    10. Utilisez le clavier externe pour saisir le nombre total de lettres correctes et de noms correctement orthographiés dans les deux parties.
    11. Entrez le nombre total de lettres correctes et de noms correctement orthographiés pour les deux parties à l’aide du clavier externe. Pour passer à la deuxième partie, appuyez sur la case Gris (deuxième partie) [segunda parte]. Ajoutez également la poignée de crayon que l’élève a utilisée pour les deux parties.
    12. Choisissez l’un des 12 types de poignées suivants que l’élève a utilisés pour les deux parties : palmaire radiale, supinateur palmaire, pronation numérique, pinceau, pince avec les doigts étendus, pouce croisé, trépied statique, quatre doigts, trépied latéral, trépied dynamique, quadripode dynamique ou quadrupède latéral. 53
    13. Cliquez sur Enregistrer [Guardar] lorsque la correction est terminée.
      REMARQUE : Un nom est considéré comme correct lorsqu’il est écrit avec toutes les lettres correspondantes, y compris les homophones. Les erreurs courantes comprennent l’omission, l’ajout, la substitution ou la traduction de lettres. Une lettre est considérée comme correcte lorsqu’elle est à peu près reconnaissable. L’orthographe incorrecte des lettres homophones (par exemple, écrire la lettre /b/ au lieu de /v/) ne sera pas prise en compte.

figure-protocol-16514
Figure 7 : Exemple de correction de la performance d’un élève dans la tâche d’écriture du nom Veuillez cliquer ici pour voir une version agrandie de cette figure.

  1. Conscience phonologique
    1. Pour accéder à la tâche, cliquez sur Évaluation [Evaluar], puis sélectionnez Conscience phonologique - Isolat [Conciencia fonológica aislar].
    2. Permettre à l’agent pédagogique de fournir à l’élève des instructions et de modéliser les tâches. Deux exemples d’articles seront présentés. Si l’étudiant fait des erreurs dans les exemples, l’agent pédagogique lui donnera un retour d’information en révélant la bonne réponse.
    3. Permettez à l’agent pédagogique de vérifier la compréhension de la tâche par l’élève en l’incitant à appuyer sur le bouton Oui ou Non à l’écran.
    4. Assurez-vous que l’élève comprend la tâche et donnez-lui des conseils supplémentaires, au besoin.
    5. Terminez cette dernière étape et la tâche commencera.
    6. Présentez 18 éléments associés à cette tâche.
    7. À l’aide du clavier externe, marquez comme « hit » lorsque l’élève articule le son du phonème qui doit être isolé. Marquez-le comme « résultat partiel » lorsque l’élève nomme la lettre et marquez-le comme « incorrect » pour toute autre réponse.
    8. Une fois la tâche terminée, demandez aux élèves de suivre les instructions de l’agent pédagogique, c’est-à-dire d’appuyer sur la porte de sortie et de quitter la tâche.
    9. Affichez l’image d’une icône d’une personne émettant un son pour indiquer l’enregistrement précis du temps de réaction (voir Figure 8).
      REMARQUE : Aucune correction n’est requise une fois la tâche terminée. L’étudiant reçoit 2 points pour chaque réponse correcte, 1 point pour chaque réponse partiellement correcte et 0 point pour chaque erreur. La tablette calcule automatiquement le nombre total de visites, à la fois totales et partielles, 36 étant le score maximum réalisable.

figure-protocol-18930
Figure 8 : Un exemple d’élément lié à la conscience phonologique. Un agent pédagogique prononce le mot à haute voix, et la tonalité vocale apparaît dans le coin supérieur gauche lorsque l’élève répond. Veuillez cliquer ici pour voir une version agrandie de cette figure.

  1. Narration orale
    1. Pour accéder à la tâche, cliquez sur Évaluation [Évaluation], puis sélectionnez Récit oral [Narrativa oral].
    2. Demandez à l’agent pédagogique de donner des instructions à l’élève.
    3. Demandez à l’élève s’il comprend la tâche et demandez-lui de répondre par « oui » ou « non ».
    4. Donnez à l’élève 30 secondes pour réfléchir à son histoire ( figure 9).
    5. Lancez un compte à rebours et commencez la tâche une fois le compte à rebours terminé.
    6. Donnez à l’élève jusqu’à 5 minutes pour raconter ses histoires en fonction du sujet fourni.
    7. Enregistrez le récit de l’élève sur la tablette pour le corriger plus tard.
    8. Demandez à l’élève d’appuyer sur le bouton Fin lorsqu’il a terminé.
    9. Affichez la porte de sortie pour quitter la tâche.
    10. Pour les corrections, ouvrez Corriger [Corregir] dans le menu principal, sélectionnez Récit oral, [Narrativa oral] et Examiner les articles à l’aide de l’outil de lecture multimédia.
    11. Appuyez sur le bouton de lecture pour rejouer l’histoire de l’élève qui a été enregistrée pendant sa performance par le même logiciel ( Figure 10).
    12. Utilisez le clavier externe pour noter le nombre total de mots, les mots uniques, les séquences de mots et les unités T (c’est-à-dire qu’une unité T se compose d’une phrase principale et de toutes les propositions dépendantes ou relatives qui y sont directement liées).
    13. Cliquez sur Enregistrer [Guardar] lorsque la correction est terminée

figure-protocol-21248
Figure 9 : Un exemple d’invite dans la tâche orale narrative : « Un jour, je me réveille et je peux voler » Veuillez cliquer ici pour voir une version agrandie de cette figure.

figure-protocol-21717
Figure 10 : Menu de correction pour la tâche de narration orale Veuillez cliquer ici pour voir une version agrandie de cette figure.

3. Évaluation des étudiants

  1. Une fois l’évaluation terminée par tous les étudiants, évaluez les devoirs et téléchargez ensuite les données sur un serveur géré par l’équipe de recherche.
  2. Importez, fusionnez et nettoyez méticuleusement les données en vue de l’analyse ultérieure.
  3. Pour évaluer l’apprentissage au cours de l’année scolaire, demandez aux élèves d’effectuer les tâches et d’évaluer à l’aide du formulaire A (automne), du formulaire B (hiver) et du formulaire C (printemps).
  4. Générer les données pour le formulaire A de la demande au début de l’année universitaire (automne).
  5. Générer les données pour le formulaire B de la demande, au milieu de l’année (hiver).
  6. Générer les données pour le formulaire C de la demande, à la fin de l’année universitaire (été).
  7. Évaluer la pertinence des données pour l’analyse factorielle exploratoire (EFA) en analysant les corrélations entre les variables pour s’assurer qu’elles sont suffisamment intercorrélées54.
  8. Utilisez le test de Bartlett pour vérifier que votre matrice de corrélation de population diffère d’une matrice d’identité, ce qui indique que vos variables ne sont pas indépendantes55.
  9. Appliquer le test de Kaiser-Meyer-Olkin (KMO) pour évaluer l’adéquation de l’échantillonnage pour l’inclusion de chaque variable dans l’EFA56.
  10. Examinez le déterminant de la matrice de corrélation pour vérifier la multicolinéarité.
  11. Déterminez le nombre de facteurs à extraire en retenant les variables dont les valeurs propres sont de 1 ou plus et en examinant le graphique d’éboulis pour identifier les facteurs présentant une forte baisse des valeurs propres, en particulier dans les échantillons de plus de 200 participants 57,58.
  12. Incorporer une analyse parallèle en plus de ces critères couramment utilisés, car elle est considérée comme la méthode la plus précise pour déterminer le nombre de facteurs à retenir59.
  13. Effectuez une analyse factorielle exploratoire pour trouver la corrélation entre les différentes variables obtenues60.
  14. Comparez les résultats avec l’EGWA-K et l’échelle d’évaluation des enseignants réalisée sur le même groupe d’élèves à la fin de l’année scolaire.
    REMARQUE : Les enseignants ont évalué les compétences linguistiques, de communication et de représentation des élèves, y compris le langage oral, la conscience phonologique, les capacités de communication et l’écriture initiale, sur une échelle de 1 à 4, où 1 est « faible » et 4 est « excellent ». Ces évaluations (Teacher Rating Scale) reflètent la perception qu’ont les enseignants de la compétence et de la progression académiques des élèves tout au long de l’année scolaire.

Résultats

Pour cette étude, 336 élèves espagnols de maternelle (garçons = 163, filles = 173 ; M âge = 5,3 ans (63,6 mois), ET = 0,29) ont été recrutés dans des écoles publiques et privées des régions urbaines et suburbaines de Santa Cruz de Tenerife. Les enfants ayant des besoins éducatifs spéciaux ont été exclus. Cela comprenait les enfants atteints de déficiences sensorielles, de troubles neurologiques acquis ou d’autres problèmes traditionnellement considérés comme des critères d’exclusion pour les troubles d’apprentissage. Cette information provient du ministère de l’Éducation du gouvernement des îles Canaries.

Les variables de l’application ont été calculées comme suit : Le nombre total de lettres correctement copiées a été utilisé pour la tâche de copie alphabétique des lettres. La tâche de vocabulaire expressif a été évaluée à l’aide du nombre total d’éléments corrects. Pour la tâche d’écriture de noms, le nombre total de noms correctement écrits dans les deux parties de la tâche a été enregistré. La tâche de conscience phonologique a pris en compte le nombre total de réponses correctes et partiellement correctes. La tâche de narration orale comprenait trois mesures : les mots uniques (UW), le nombre total de séquences de mots correctes et le nombre total d’unités terminales. Enfin, une variable agrégée a été dérivée en faisant la moyenne de toutes les variables précédemment calculées. Cette nouvelle variable englobait les mesures de transcription et de compétence narrative. Le tableau 1 présente des statistiques descriptives (moyenne, écart-type, minimum, maximum, plage, asymétrie et aplatissement) pour les formulaires A, B et C. Les résultats ont indiqué une distribution normale des données, avec des indices d’aplatissement et d’asymétrie inférieurs à 10,00 et 3,00, respectivement54.

Statistiques descriptives des mesures T-IPAE-K par formulaire
DispositionsFormulaire AFormulaire BFormulaire C
nMSDMinmaxgammefausserkurtosisnMSDMinmaxgammefausserkurtosisnMSDMinmaxgammefausserkurtosis
ACL3221.431.630550.91-0.443312.331.710550.10-1.313343.071.83055-0.48-1.22
EV3207.302.7401010-1.351.113297.782.1301010-1.582.893318.422.3501010-2.334.80
NW3200.480.990662.9810.333290.991.370771.763.243311.952.37012121.592.50
PAPA3104.017.57036362.385.133178.4911.62036361.15-0.1532212.6412.79036360.67-1.09
UW3268.0111.17056561.471.9133210.7011.89053530.940.3933211.7211.25057571.081.35
WS3269.0515.9901041042.628.1833212.5716.51091911.864.3633213.5315.71085851.894.46
TU3252.082.99016161.652.833321.982.50013131.773.973332.872.94015151.312.03
ACL = Lettres de copie alphabétiques ; EV = vocabulaire expresif ; NW = Écriture des noms ; PA = Conscience phonologique ; UW = mots uniques ; WS = Séquences de mots ; TU = Unités T

Tableau 1 : Statistiques descriptives des indicateurs de mesure de confiance par formulaire.

La validité simultanée et prédictive de cette évaluation a été établie en l’administrant parallèlement à un test d’écriture standardisé papier-crayon, l’EGWA-K, et en recueillant les évaluations des enseignants à l’aide de l’échelle d’évaluation des enseignants (TRS), qui évalue les compétences curriculaires de leurs élèves. Les enseignants ont utilisé le questionnaire TRS pour évaluer les compétences des élèves dans ces compétences en évaluant leur acquisition de compétences ou leur niveau de difficulté. Les résultats ont révélé des corrélations significatives entre les formes de MH (A, B et C) et l’EGWA-K et le TRS, comme le montre le tableau 2. Plus précisément, le formulaire administré au début de l’année scolaire (automne) a démontré une association modérée avec l’EGWA-K (r = 0,38, p < 0,001) et le TRS (r = 0,24, p < 0,001). La forme de milieu d’année (hiver) a montré une corrélation plus forte avec l’EGWA-K (r = 0,42, p < 0,001) et une corrélation plus substantielle mais toujours modérée avec le TRS (r = 0,33, p < 0,001). Le formulaire administré à la fin de l’année scolaire (printemps) présentait les corrélations les plus élevées avec l’EGWA-K (r = 0,48, p < 0,001) et le TRS (r = 0,31, p < 0,001), reflétant la tendance entre les formulaires individuels (A, B et C).

Coefficients de corrélation de la forme A, B et C, validité concurrente et prédictive
Observer variable1234567EGWA-KÉvaluation de l’enseignant
Formulaire A
ACL1.00.05.06.13*.04.02.04.19***.04
EV1.00.07.12*.11*.08.11.20***.18**
NW1.00.34***.01.00.00.28***.21***
PAPA1.00.05.01.04.28***.11
UW1.000.92***.97***.20***.09
WS1.00.92***.21***.12*
TU1.00.20***.09
Formulaire B
ACL1.00.04.05.17**.10.08.06.12*.02
EV1.00.21***.20***.25***.22***.21***.29***.27***
NW1.00.28***.07.07.03.35***.11
PAPA1.00.13*.12*.11*.50***.09
UW1.00.96***.93***.19***.21***
WS1.00.95***.17**.19**
TU1.00.17**.18**
Formulaire C
ACL1.00.02.24***.25***.08.10.05.21***.17**
EV1.00.08.12*.10.12*.13*.14**.10
NW1.00.42***.15**.13*.14*.47***.22***
PAPA1.00.08.07.09.51***.00
UW1.00.95***.94***.26***.14*
WS1.00.94***.25***.15*
TU1.00.25***.14*
Note. *p < 0,05 ; **p < ,01 ; p < 001 ; ACL = Lettres de copie alphabétiques ; EV = vocabulaire expresif ; NW = Écriture des noms ; PA = Conscience phonologique ; UW = mots uniques ; WS = Séquences de mots ; TU = Unités T.

Tableau 2 : Coefficients de corrélation des formes A, B et C : validité concurrente et prédictive

Les résultats de l’EFE utilisant une analyse parallèle ont révélé une solution à deux facteurs. Le graphique d’éboulis et l’analyse parallèle ont indiqué que deux facteurs devaient être sélectionnés (voir figures 11, 12 et 13). Toutes les charges factorielles étaient supérieures à 0,30 et statistiquement significatives (p < 0,001). Un facteur était lié aux compétences de transcription (c’est-à-dire le nombre de noms correctement orthographiés, le nombre total de résultats dans le vocabulaire expressif, le nombre total de lettres copiées et le nombre de phonèmes correctement isolés), et un autre facteur était lié à la compétence narrative orale (NC) (c’est-à-dire le nombre de mots uniques dans le récit oral, le nombre d’unités T dans le récit oral, et des séquences de mots correctes).

Cette structure a été confirmée par l’analyse factorielle confirmatoire (CFA). L’ajustement du modèle a été évalué à l’aide de la méthode d’estimation du maximum de vraisemblance robuste (RML) et évalué à l’aide des indicessuivants 59,61 : racine carrée moyenne normalisée (SRMS ≤ 0,08), chi carré (χ², p > 0,05), indice de Tucker-Lewis (TLI ≥ 0,90), indice d’ajustement comparatif (CFI ≥ 0,90), racine carrée moyenne de l’erreur quadratique d’approximation (RMSEA ≤ 0,06) et fiabilité composite (ω ≥ 0,60). Les indices de modification (IM) ont également été examinés.

Les résultats de l’EGF pour chaque formulaire (c.-à-d. A, B et C) seront expliqués séparément.

Formulaire A
Les résultats de l’EFC du modèle à deux facteurs de forme A sont présentés à la figure 14. L’indice d’ajustement indiquait un excellent ajustement du modèle aux données (χ2= 10,61, df= 13, p = 0,64 ; χ2/df = 0,81 ; CFI = 1,00 ; TLI = 1,002 ; NFI = 0,99 ; IFNN = 1,002 ; IMF = 1,007 ; RMSEA = 0,00 ; IC = 0,00 à 0,04 ; MRS = 0,03).

figure-results-15503
Figure 11 : Diagramme d’éboulis pour l’analyse factorielle exploratoire : Formulaire A Veuillez cliquer ici pour voir une version agrandie de cette figure.

L’évaluation de l’ajustement du modèle pour la « forme A » du CBM démontre un fort alignement entre le modèle proposé et les données observées. La statistique du khi-deux (χ2 = 10,61) avec 13 degrés de liberté (df = 13) donne une valeur p de 0,64, indiquant un ajustement robuste du modèle. Le rapport du khi-carré au degré de liberté (χ2/df = 0,81) se situe dans la plage attendue, ce qui confirme un ajustement favorable du modèle. De plus, les indices de qualité de l’ajustement, y compris l’indice d’ajustement comparatif (CFI), l’indice de Tucker-Lewis (TLI), l’indice d’ajustement normalisé (NFI), l’indice d’ajustement non normé (NNFI), l’indice d’ajustement de McDonald’s (MFI), l’erreur quadratique moyenne d’approximation (RMSEA) et la racine carrée résiduelle moyenne standardisée (SRMR), indiquent collectivement un ajustement précis du modèle. En particulier, le CFI a une valeur parfaite de 1,00, tandis que le RMSEA a une valeur faible de 0,00, avec un intervalle de confiance à 90 % allant de 0,00 à 0,04. En résumé, les résultats pour la forme A du CBM indiquent indéniablement un ajustement exemplaire du modèle. La statistique du khi-deux, la valeur p et un ensemble d’indices d’ajustement soulignent collectivement l’alignement précis entre le modèle et les données observées, fournissant un soutien solide à l’adéquation de la forme A dans notre contexte de recherche. Le coefficient oméga est ω = 0,78

Formulaire B
Les résultats de l’EFC pour le modèle à deux facteurs de forme B sont présentés à la figure 15. Les indices d’ajustement indiquaient un excellent ajustement du modèle aux données (χ2= 28,60, df= 13, p = 0,01 ; χ2/df = 2,2 ; CFI = 0,99 ; TLI = 0,98 ; NFI = 0,97 ; IFNN = 0,98 ; IFM = 0,98 ; RMSEA = 0,05 ; IC = 0,02 à 0,08 ; RMRS = 0,04).

figure-results-17909
Figure 12 : Diagramme d’éboulis pour l’analyse factorielle exploratoire : Formulaire B Veuillez cliquer ici pour voir une version agrandie de cette figure.

L’évaluation de l’ajustement du modèle pour le formulaire B du CBM indique un alignement raisonnablement bon entre le modèle proposé et les données observées. La statistique du khi-deux (χ2 = 28,60) avec 13 degrés de liberté (df = 13) donne une valeur p de 0,01, ce qui signifie un ajustement statistiquement significatif, bien que légèrement supérieur au seuil de signification conventionnel. Le rapport du khi-carré au degré de liberté (χ2/df = 2,2) suggérait un ajustement acceptable du modèle dans une plage prévue. Divers indices de qualité de l’ajustement soulignent un ajustement raisonnable du modèle. En particulier, le CFI a signalé une valeur élevée de 0,99, tandis que le RMSEA a enregistré une valeur de 0,05, avec un intervalle de confiance à 90 % allant de 0,02 à 0,08. En résumé, les résultats pour la forme B du CBM indiquent un ajustement satisfaisant du modèle. La statistique du khi-deux, la valeur p et divers indices d’ajustement soutiennent collectivement un alignement raisonnablement fort entre le modèle et les données observées, fournissant des preuves solides de l’adéquation de la forme B dans notre contexte de recherche. Le coefficient oméga était ω = 0,86

Formulaire C
Les résultats de l’AFC pour le modèle à deux facteurs de la forme C sont illustrés à la figure 16. Les indices d’ajustement suggèrent un ajustement exceptionnel du modèle à l’ensemble de données. (χ2 = 19,85, df = 13, p = 0,09 ; χ2/df = 1,52 ; CFI = 0,99 ; TLI = 0,99 ; NFI = 0,98 ; IFNN = 0,99 ; IFM = 0,99 ; RMSEA = 0,03 ; IC = 0,00 à 0,06 ; MRS = 0,03).

figure-results-20088
Figure 13 : Diagramme d’éboulis pour l’analyse factorielle exploratoire : Formulaire C Veuillez cliquer ici pour voir une version agrandie de cette figure.

L’évaluation de l’ajustement du modèle pour la forme C du CBM suggère un fort alignement entre le modèle et les données observées. La statistique du khi-deux (χ2 = 19,85) avec 13 degrés de liberté (df = 13) donne une valeur p de 0,09, indiquant un ajustement raisonnablement acceptable du modèle, bien que la valeur p soit légèrement supérieure au seuil de signification habituel. Le rapport du khi-carré au degré de liberté (χ2/df = 1,52) se situe dans la plage prévue, ce qui indique un ajustement raisonnable du modèle. Plusieurs indices de qualité de l’ajustement corroborent un fort ajustement du modèle. Plus précisément, le CFI a une valeur robuste de 0,99, tandis que le RMSEA a une valeur de 0,03, avec un intervalle de confiance à 90 % allant de 0,00 à 0,06. En résumé, les résultats pour la forme C du CBM suggèrent un ajustement robuste du modèle. La statistique du khi-deux, la valeur p et divers indices d’ajustement soutiennent collectivement un fort alignement entre le modèle et les données observées, fournissant des preuves convaincantes de la pertinence de la forme C dans notre contexte de recherche. Le coefficient oméga était ω = 0,82.

En général, après le calcul des valeurs Omega, qui évaluent la cohérence interne compte tenu de la nature multidimensionnelle du CBM, les trois versions (formes A, B et C) font preuve d’une fiabilité robuste. Une valeur d’oméga supérieure à 0,70 est généralement considérée comme acceptable dans la plupart des contextes de recherche. Par conséquent, dans chacune des trois versions, le CBM semble être cohérent en interne, ce qui indique que les éléments mesurent de manière fiable le même concept ou la même compétence qu’ils sont censés évaluer. Il est également important de noter que ces valeurs oméga fournissent une mesure supplémentaire de la qualité du CBM, complétant l’analyse d’ajustement fournie précédemment. Collectivement, ces résultats soutiennent la pertinence des trois formes de MH dans le contexte de la présente recherche.

L’approche multidimensionnelle de l’outil s’est confirmée. Les tâches incluses dans l’application ont été chargées sur deux facteurs : 1) la conscience phonologique, l’écriture des noms, la copie alphabétique des lettres et les indicateurs de vocabulaire expressif chargés sur le « facteur de transcription » et 2) les unités t, les mots uniques et les séquences de mots chargés sur le facteur de « compétence narrative ».

Enfin, une analyse des caractéristiques de fonctionnement du récepteur (ROC) a été effectuée pour évaluer la précision diagnostique de l’application en fonction des deux facteurs dérivés de l’analyse CFA. Une partition composite, l’Omnibus Pomp Score, a été générée pour capturer les deux facteurs : la transcription et la compétence narrative (RTCN). L’EGWA-K normalisé a été utilisé comme étalon-or pour tester la précision de chaque mesure diagnostique (c’est-à-dire le facteur). Les élèves ont été classés en deux groupes : a) les enfants à risque avec des scores compris ou inférieurs au 20e percentile au test d’écriture standardisé EGWA-K51 (n = 147) et b) les enfants ayant généralement obtenu des scores dans ou au-dessus du 20e percentile au même test (n = 107). L’aire sous la courbe ROC (AUC > 0,70), la sensibilité (> 0,70) et la spécificité (> 0,80) ont été explorées60. En termes de précision diagnostique, la forme A présentait une aire sous la courbe (AUC) de 71,18, une sensibilité de 70,47 et une spécificité de 58,69. La forme B avait une AUC supérieure de 75,43, associée à une sensibilité de 71,02 et une spécificité de 70,21. De plus, la forme C a démontré une AUC particulièrement robuste de 82,03, avec une sensibilité de 75,70 et une spécificité de 72,34 (Figure 17). Ces résultats de discernement soulignent collectivement une augmentation évidente de la précision diagnostique de la CBM au cours de l’année universitaire.

figure-results-24737
Figure 14 : Analyse factorielle confirmatoire du formulaire A. Remarque. NW = Écriture du nom ; EV = Vocabulaire expressif ; ACL = Lettres de copie alphabétiques ; PA = Conscience phonologique ; TU = unités T ; UW = Mots uniques ; WS = Séquence de mots ; TR = Facteur de transcription ; NC = Facteur de compétence narrative.  Veuillez cliquer ici pour voir une version agrandie de cette figure.

figure-results-25425
Figure 15 : Analyse factorielle confirmatoire de la forme B. Remarque. NW = Écriture du nom ; EV = Vocabulaire expressif ; ACL = Lettres de copie alphabétiques ; PA = Conscience phonologique ; TU = unités T ; UW = Mots uniques ; WS = Séquence de mots ; TR = Facteur de transcription ; NC = Facteur de compétence narrative.  Veuillez cliquer ici pour voir une version agrandie de cette figure.

figure-results-26111
Figure 16 : Analyse factorielle confirmatoire de la forme C. Remarque. NW = Écriture du nom ; EV = Vocabulaire expressif ; ACL = Lettres de copie alphabétiques ; PA = Conscience phonologique ; TU = unités T ; UW = Mots uniques ; WS = Séquence de mots ; TR = Facteur de transcription ; NC = Facteur de compétence narrative.  Veuillez cliquer ici pour voir une version agrandie de cette figure.

figure-results-26797
Figure 17 : Analyse du ROC de la courbe. Veuillez cliquer ici pour voir une version agrandie de cette figure.

Discussion

Cette étude a examiné le cadre d’un CBM chez des élèves de maternelle espagnols à l’aide d’un modèle basé sur la littérature, en examinant comment les compétences de transcription et les capacités narratives orales influencent les indicateurs observables tout au long de l’année scolaire. L’étude met en évidence le manque d’outils technologiques de CBM adaptés à l’espagnol, ce qui entrave l’évaluation précoce des progrès de l’écriture. Pour combler cette lacune et souligner l’importance d’identifier les difficultés potentielles d’écriture chez les jeunes apprenants, un protocole d’évaluation multimédia pour les élèves de maternelle a été mis en place.

En utilisant un modèle complet, qui allait au-delà d’une vision simpliste de l’écriture, l’étude a mené un examen multidimensionnel des capacités d’écriture précoces. Ce modèle, également connu sous le nom de vision pas si simple de l’écriture10,11, reconnaissait les rôles des compétences de transcription (par exemple, la formation des lettres, l’orthographe) et des compétences linguistiques. L’objectif principal était d’introduire un protocole d’évaluation multimédia visant à identifier les difficultés d’écriture et à explorer leur structure interne et la précision du diagnostic, améliorant ainsi les stratégies d’intervention précoce basées sur un cadre théorique robuste.

Les premières années de la scolarité formelle, en particulier de la maternelle, marquent une période cruciale pour identifier et offrir un soutien spécifique aux enfants confrontés à des obstacles à l’écriture62. Les difficultés liées à l’écriture dans les premières années d’école peuvent entraver la capacité d’un enfant à suivre le rythme de ses pairs, ce qui entraîne des revers scolaires et une diminution de l’estime de soi63. Par conséquent, il est impératif que les éducateurs et les soignants aient une compréhension globale des indicateurs potentiels des difficultés d’écriture et qu’ils mettent en œuvre des interventions appropriées pour soutenir les progrès développementaux des enfants64.

Cette étude visait à examiner la structure factorielle du CBM chez les élèves espagnols de maternelle. Les compétences de transcription et la compétence narrative ont été identifiées comme des facteurs latents pouvant expliquer la variance observée dans chaque tâche à trois moments différents tout au long de l’année universitaire. À l’heure actuelle, il y a une absence notable d’outils technologiques de CBM disponibles en espagnol pour le dépistage et le suivi des progrès de l’écriture précoce. Reconnaissant l’importance d’identifier les jeunes enfants qui peuvent rencontrer des difficultés d’écriture et le manque de ressources numériques pour les populations hispanophones, nous avons mis en place un protocole d’évaluation multimédia pour les élèves de maternelle.

La présente étude a prouvé que l’application est un outil valable et fiable. En considérant la fiabilité des composites, nous pouvons conclure que le CBM a une bonne fiabilité sous trois formes (c’est-à-dire A, B et C), étant supérieure à 0,70 dans tous les cas. Les résultats des analyses ROC étaient prometteurs, car les ASC variaient de 0,71 à 0,82 pour tous les formulaires, indiquant une précision acceptable à excellente. Il est important de noter que nous nous sommes appuyés sur une seule mesure comme étalon-or, en nous concentrant spécifiquement sur les compétences en écriture, ce qui est une approche relativement limitée. Pour refléter fidèlement le contenu du critère étudié, nous croyons que l’exactitude de la classification pourrait être améliorée en intégrant des évaluations normalisées supplémentaires dans les études futures.

De plus, les résultats ont montré des indices adéquats de validité concurrente et prédictive, toutes les corrélations étant statistiquement significatives (p < 0,01). Ces résultats mettent en évidence la forte validité concurrente du CBM, mise en évidence par des corrélations cohérentes entre les trois formes et la mesure d’écriture standardisée (EGWA-K). De plus, les résultats indiquent l’importante capacité prédictive de l’échelle, comme en témoigne sa corrélation avec les évaluations des compétences curriculaires des élèves par les enseignants (échelle RT) à la fin de l’année scolaire. Certaines études ont corroboré l’exactitude des évaluations des enseignants dans certains contextes. Bien que les évaluations des enseignants sur les compétences émergentes en littératie aient donné des résultats mitigés65,66, elles peuvent tout de même fournir des informations précieuses. Cabell et coll.65 ont rapporté que les évaluations des enseignants différenciaient les enfants ayant des compétences inférieures en littératie, mais étaient insuffisantes pour identifier de manière fiable les enfants à risque. Cependant, Coker et Ritchey66 ont montré que les évaluations des enseignants étaient précises pour identifier les enfants à risque dans les mesures écrites. De plus, Gray et coll.67 ont validé l’utilité des indicateurs rapportés par les enseignants pour le suivi des compétences langagières orales. Malgré ces limites, les jugements de l’enseignant peuvent offrir des informations importantes, surtout lorsqu’ils sont utilisés avec d’autres évaluations. En résumé, l’ampleur de ces corrélations trouvées corrobore la capacité de l’outil à évaluer et à prédire le développement des compétences en écriture chez les enfants de la maternelle, soulignant son potentiel de mise en œuvre dans la recherche et la pratique en éducation. L’exactitude du diagnostic s’est également avérée adéquate, car le CBM a pu faire la distinction entre les élèves à risque et les élèves non à risque.

Le CBM, conçu pour détecter les signes précoces de difficultés d’apprentissage de l’écriture chez les enfants de maternelle, fait face à diverses contraintes. L’accès limité à la technologie, en particulier dans les milieux où les ressources sont limitées, peut entraver son déploiement, réduisant ainsi son efficacité. De plus, l’efficacité de l’application repose sur la littératie numérique des enfants et des éducateurs. Une connaissance insuffisante des outils numériques peut nuire à leur fonctionnalité. De plus, une représentation incomplète des nuances culturelles et linguistiques dans l’évaluation peut compromettre sa validité, ce qui peut affecter l’exactitude des résultats. Des facteurs tels que la connectivité Internet, l’étalonnage des appareils et la normalisation des tests peuvent également influencer la fiabilité et la validité, ce qui a un impact sur la précision des résultats. L’absence d’interaction humaine directe peut limiter la capacité de l’application à comprendre adéquatement les besoins de chaque enfant, ce qui entrave le soutien personnalisé, crucial dans les environnements d’apprentissage précoce. De plus, certains éléments de l’évaluation peuvent manquer de sensibilité culturelle, ce qui entrave la détection équitable des difficultés d’apprentissage dans divers groupes.

Des mises à jour régulières sont essentielles pour répondre à l’évolution des besoins des utilisateurs et maintenir l’efficacité. Le fait de négliger les mises à jour peut rendre l’application obsolète ou moins efficace pour identifier et résoudre les problèmes d’écriture chez les enfants de maternelle. Il est essentiel de s’attaquer à ces limites lors de la conception, du développement et de la mise en œuvre pour optimiser l’utilité et l’efficacité dans les contextes éducatifs.

En résumé, nous concluons que le modèle d’évaluation convient parfaitement à l’automne, à l’hiver et au printemps pour les élèves espagnols de maternelle. Ces résultats indiquent la bonne validité conceptuelle du CBM, ce qui permet de mesurer les compétences d’écriture précoces. Cette étude comporte deux contributions principales. Premièrement, les résultats soutiennent la relation entre les mesures proposées (c’est-à-dire la tâche) en tant qu’indicateurs observables du facteur latent de transcription et de la compétence narrative. Deuxièmement, les résultats soutiennent l’utilisation du CBM pour évaluer les compétences de transcription et les compétences narratives. Le développement du CBM permettra aux enseignants d’identifier et de suivre les progrès des élèves espagnols qui ont des difficultés à écrire tout au long de l’année scolaire. De plus, les enseignants peuvent utiliser les informations recueillies par le CBM pour déterminer les stratégies d’intervention les plus appropriées pour un enfant individuel. Les recherches futures devraient explorer les trajectoires de croissance et l’invariance factorielle longitudinale du CBM.

Déclarations de divulgation

Les auteurs énumérés ci-dessus certifient qu’il n’y a pas d’intérêts financiers ou d’autres conflits d’intérêts associés à la présente étude.

Remerciements

Nous remercions le gouvernement espagnol pour son soutien par le biais de son Plan Nacional I+D+i (Plan national de recherche R+D+i, ministère espagnol de l’Économie et de la Compétitivité), subvention PID2019-108419RB-100 financée par MCIN/AEI/10.130.39/50110001103, avec le premier auteur comme chercheur principal. Nous remercions également l’équipe de l’Unidad de Audiovisuales ULL pour sa participation à la production de la vidéo.

matériels

NameCompanyCatalog NumberComments
Indicadores de Progreso de Aprendizaje en Escritura para Educación Infantil (T-IPAE-EI)“Universidad de La Laguna ®Copyrigth, 2023  C826ED53A500DC82D7A7CD0F 03C136CDB8F5A8E41D4175 0052469CA4CC0E11F8

Références

  1. World Health Organization (WHO). Mental health: a call for action by World Health Ministers. , World Health Organization. (2001).
  2. Berninger, V. Frames of Reference for the Assessment of Learning Disabilities: New Views on Measurement Issues. Lyon, G. R., Paul, H. , Brookes Publishing Co. 419-439 (1994).
  3. Evaluación general de diagnóstico 2010. Educación Secundaria Obligatoria. Segundo curso. Informe de resultados. Ministerio de Educación [General diagnostic assessment 2010. Compulsory secondary education. Second Year. Results Report]. , Ministerio de Educación. (2011).
  4. Evaluación general de diagnóstico 2009. Marco de la evaluación [General diagnostic assessment 2009. Framework for the evaluation]. , Ministerio de Educación. (2009).
  5. Ley Orgánica 8/2013, de 9 de diciembre, para la mejora de la calidad educativa [Organic Law 8/2013, of December 9, for the improvement of educational quality]. The Official State Gazette. , Boletín Oficial del Estado. (2023).
  6. Panorama de la Educación. Indicadores de la OCDE 2021. Informe español [Education at a Glance. OECD Indicators 2021. Spanish report]. , Ministerio de Educación y Formación Profesional. (2021).
  7. Juel, C., Griffith, P. L., Gough, P. B. Acquisition of literacy: A longitudinal study of children in first and second grade. J Educ Psychol. 78, 243-255 (1986).
  8. Juel, C. Learning to read and write: A longitudinal study of 54 children from first through fourth grades. J Educ Psychol. 80, 437-447 (1988).
  9. Berninger, V. W., Amtmann, D. Handbook of Learning Disabilities. Swanson, H. L., Harris, K. R., Graham, S. , 345-363 (2003).
  10. Berninger, V. W., Winn, W. D. Handbook of Writing Research. MacArthur, C. A., Graham, S., Fitzgerald, J. , The Guilford Press. 96-114 (2006).
  11. Berninger, V. W. Coordinating transcription and text generation in working memory during composing: automatic and constructive processes. LDQ. 22, 99-112 (1999).
  12. Graham, S., Berninger, V. W., Abbott, R. D., Abbott, S. P., Whitaker, D. Role of mechanics in composing of elementary school students: A new methodological approach. J Educ Psychol. 89, 170-182 (1997).
  13. Kent, S., Wanzek, J., Petscher, Y., Al Otaiba, S., Kim, Y. -S. Writing fluency and quality in kindergarten and first grade: the role of attention, reading, transcription, and oral language. Reading and Writing. 27, 1163-1188 (2014).
  14. Kim, Y. -S., et al. Componential skills of beginning writing: An exploratory study. Learn Individ Diff. 21, 517-525 (2011).
  15. Kim, Y. -S., Al Otaiba, S., Wanzek, J. Kindergarten predictors of third grade writing. Learn Individ Diff. 37, 27-37 (2015).
  16. Garcia, J. N., de Caso, A. M. Changes in writing self-Efficacy and writing products and processes through specific training in the self-efficacy beliefs of students with learning disabilities. LDCJ. 4, 1-27 (2006).
  17. Graham, S., Schwartz, S. S., MacArthur, C. A. Knowledge of Writing and the Composing Process, Attitude Toward Writing, and Self-Efficacy for Students With and Without Learning Disabilities. J Learn Disabil. 26, 237-249 (1993).
  18. American Psychiatric Association. Diagnostic and Statistical Manual of Mental Disorders. , American Psychiatric Association. (2013).
  19. Graham, S., Harris, K. R., Fink, B. Is handwriting causally related to learning to write? Treatment of handwriting problems in beginning writers. J Educ Psychol. 92, 620-633 (2000).
  20. Gillis, M. B., Moats, L. Theme Editors Introduction: The role of phonology and language in learning to read. Perspec Lang Liter. 46, 7-9 (2020).
  21. Puranik, C. S., Lonigan, C. J. Name-writing proficiency, not length of name, is associated with preschool children's emergent literacy skills. Early Child Res Q. 27, 284-294 (2012).
  22. Rowe, M. L., Goldin-Meadow, S. Early gesture selectively predicts later language learning. Dev Sci. 12, 182-187 (2009).
  23. Boudreau, D. Narrative Abilities: Advances in research and implications for clinical practice. Topics in Language Disorders. 28, 99-114 (2008).
  24. Rodríguez, C., Jiménez, J. E., Balade, J. The impact of oral language and transcription skills on early writing production in kindergarteners: productivity and quality. Early Child Educ. , (2024).
  25. Schatschneider, C., Petscher, Y., Williams, K. M. Solving problems in the teaching of literacy. Achieving excellence in preschool literacy instruction. Justice, L. M., Vukelich, C. , Guilford Press. 304-316 (2008).
  26. Glover, T. A., Albers, C. A. Considerations for evaluating universal screening assessments. J Educ Psychol. 45, 117-135 (2007).
  27. Lembke, E., Deno, S. L., Hall, K. Identifying an indicator of growth in early writing proficiency for elementary school students. Assessment for Effective Intervention. 28, 23-35 (2003).
  28. Balade, J., Rodríguez, C., Jiménez, J. E. Curriculum-based measurement for early writing struggles in kindergarten: a systematic review. Psicol Educ. 30, 101-110 (2024).
  29. Neumann, M. M., Neumann, D. L. Touch Screen Tablets and Emergent Literacy. Early Childh Educ J. 42, 231-239 (2014).
  30. Blumenthal, S., Blumenthal, Y. Tablet or paper and pen? examining mode effects on german elementary school students' computation skills with curriculum-based measurements. IJEM. 6, 669-680 (2020).
  31. Gil, V., de León, S. C., Jiménez, J. E. Universal screening for writing risk in spanish-speaking first graders. Reading & Writing Quarterly. 37, 117-135 (2021).
  32. Haleem, A., Javaid, M., Qadri, M. A., Suman, R. Understanding the role of digital technologies in education: A review. Sustainable Operations and Computers. 3, 275-285 (2022).
  33. CEUR Workshop Proceedings 1227. Bremer, C., Tillmann, A. Proceedings of DeLFI Workshops 2014, colocated with 12th e-Learning Conference of the German Computer Society, , 156-163 (2014).
  34. Genz, F., Bresges, A. Tablets in Schule und Unterricht [In tablets in school and lessons]. , Springer VS. 63-86 (2017).
  35. Redecker, C., Johannessen, Ø Changing assessment - toward a new assessment paradigm using ICT. Eur J Educ. 48, 79-96 (2013).
  36. Fuchs, L. S. The Past, present, and future of curriculum-based measurement research. Sch Psychol Rev. 33, 188-192 (2004).
  37. Förster, N., Souvignier, E. Learning progress assessment and goal setting: Effects on reading achievement, reading motivation and reading self-concept. Learning and Instruction. 32, 91-100 (2014).
  38. Souvignier, E., Förster, N., Schulte, E. Lernverlaufsdiagnostik [Progress Monitoring]. Hasselhorn, M., Schneider, W., Trautwein, U. H. 12, 221-237 (2014).
  39. Lissitz, R. Informing Assessment Practice: Insights from Research and Implementation. , Information Age Publishing. 1-20 (2014).
  40. McHenry, M. S., et al. The current landscape and future of tablet-based cognitive assessments for children in low-resourced settings. PLOS Digit Health. 2, e0000196-e0000196 (2023).
  41. World Health Organization. mHealth: New horizons for health through mobile technologies: second global survey on eHealth. , (2011).
  42. Vedechkina, M., Borgonovi, F. A review of evidence on the role of digital technology in shaping attention and cognitive control in children. Front in Psychol. 12, (2021).
  43. Neumann, M. M., Neumann, D. L. The use of touch-screen tablets at home and pre-school to foster emergent literacy. J Early Child Lit. 17, 203-220 (2017).
  44. Chu, V., Krishnan, K. Quantitative assessment of prewriting skills in children: the development and validation of a tablet assessment tool. Percept Mot Skills. 129, 554-569 (2022).
  45. Dui, L. G., et al. A tablet app for handwriting skill screening at the preliteracy stage: instrument validation study. JMIR Serious Games. 8, e20126-e20126 (2020).
  46. Neumann, M. M., Worrall, S., Neumann, D. L. validation of an expressive and receptive tablet assessment of early literacy. J ResTechnol Educ. 51, 326-341 (2019).
  47. Hosmer, D., Lemeshow, S., Sturdivant, R. X. Applied Logistic Regression. , Hoboken. (2013).
  48. Johnson, E. S., Jenkins, J. R., Petscher, Y., Catts, H. W. How can we improve the accuracy of screening instruments. Learning Disabilities Research & Practice. 24, 174-185 (2009).
  49. Klingbeil, D. A., McComas, J. J., Burns, M. K., Helman, L. Comparison of predictive validity and diagnostic accuracy of screening measures of reading skills. Psychol Sch. 52, 500-514 (2015).
  50. Jiménez, J. E., Gil, V. Modelo respuesta a la intervención: Un enfoque preventivo para el abordaje de las dificultades de aprendizaje [Response to intervention model: A preventive approach to addressing specific learning disabilities]. Jiménez, J. E. , Pirámide. (2019).
  51. Jiménez, J. E., Rodríguez, C., Balade, J., et al. Identifying kindergarteners at risk of writing difficulties based on foundational literacy skills. Reading and Writing: An Interdisciplinary Journal. Advance online publication. , : https://doi-org.remotexs.ntu.edu.sg/10.1007/s11145-024-10518-7 (2024).
  52. Graham, S., Struck, M., Santoro, J., Berninger, V. W. Dimensions of good and poor handwriting legibility in first and second graders: motor programs, visual-spatial arrangement, and letter formation parameter setting. Dev Neuropsychol. 29, 43-60 (2006).
  53. Schneck, C. M., Henderson, A. Descriptive analysis of the developmental progression of grip position for pencil and crayon control in nondysfunctional children. Am J Occup Ther. 44, 893-900 (1990).
  54. Kline, R. B. Principles and practice of structural equation modeling. , 2nd edition, Guilford Press. (2005).
  55. Bartlett, M. S. A note on the multiplying factors for various chi square approximations. J R Stat Soc Series B Stat Methodol. 16, 296-298 (1954).
  56. Kaiser, H. F. A second generation little jiffy. Psychometrika. 35, 401-415 (1970).
  57. Cattell, R. B. The scree test for the number of factors. Multivariate Behavioral Research. 1, 245-276 (1966).
  58. Stevens, J. Applied multivariate statistics for the social sciences. , Fifth Edition , Routledge. (2009).
  59. Henson, R. K., Roberts, J. K. Use of exploratory factor analysis in published research. Educ Psychol Meas. 66, 393-416 (2006).
  60. Zainudin, A. A handbook on structural equation modeling. MPWS Rich Resources. , 54-73 (2014).
  61. Brown, T. A. Confirmatory factor analysis for applied research. , The Guildford Press. (2015).
  62. Thomas, L. J. G., et al. The early writing skills of children identified as at-risk for literacy difficulties. Early Child Res Q. 51, 392-402 (2020).
  63. Dombek, J. L., Otaiba, S. A. Curriculum-based measurement for beginning writers (K-2). Intervention in School and Clinic. 51, 276-283 (2016).
  64. Smolkowski, K., Cummings, K. D. Evaluation of diagnostic systems. Assessment for Effective Intervention. 41, 41-54 (2015).
  65. Cabell, S. Q., Justice, L. M., Zucker, T. A., Kilday, C. R. Validity of teacher report for assessing the emergent literacy skills of at-risk preschoolers. Lang Speech Hear Serv Sch. 40, 161-173 (2009).
  66. Coker, D. L., Ritchey, K. D. Universal screening for writing risk in kindergarten. Assess Eff Interv. 39, 245-256 (2014).
  67. Gray, S., et al. Can a teacher-reported indicator be used for population monitoring of oral language skills at school entry. Int J Speech Lang Pathol. 20, 447-457 (2018).

Réimpressions et Autorisations

Demande d’autorisation pour utiliser le texte ou les figures de cet article JoVE

Demande d’autorisation

Explorer plus d’articles

Comportementnum ro 216d pistagemesure bas e sur le programme d tudespremi res notescritureapplication pour tablette

This article has been published

Video Coming Soon

JoVE Logo

Confidentialité

Conditions d'utilisation

Politiques

Recherche

Enseignement

À PROPOS DE JoVE

Copyright © 2025 MyJoVE Corporation. Tous droits réservés.