Évaluer la pensée algorithmique : l'outil CAT virtuel
Un nouvel outil pour évaluer les compétences en pensée algorithmique dans les écoles suisses.
― 9 min lire
Table des matières
- Le besoin de nouvelles méthodes d'évaluation
- Présentation du CAT virtuel
- Test pilote dans les écoles suisses
- Comprendre la pensée algorithmique
- Méthodes d'évaluation actuelles
- Construire un meilleur outil : le Cross Array Task (CAT)
- La conception du CAT virtuel
- Conception de l'expérience utilisateur
- Évaluer la performance : comment fonctionne le CAT
- L'environnement virtuel
- Le langage de programmation du CAT virtuel
- Mise en œuvre et tests utilisateur
- Formation et collecte de données
- Résultats de l'étude pilote
- Retour des utilisateurs et améliorations
- Discussion et directions futures
- Conclusion
- Source originale
- Liens de référence
Dans le monde d'aujourd'hui, savoir penser de manière algorithmique est super important pour tout le monde, pas seulement pour ceux qui étudient l'informatique. La pensée algorithmique aide à décomposer des problèmes difficiles en petites parties plus faciles à gérer et à planifier des actions pour les résoudre. Cet article présente un nouvel outil appelé le Cross Array Task virtuel (CAT). Cet outil est conçu pour aider à évaluer les compétences en pensée algorithmique dans les écoles suisses.
Le besoin de nouvelles méthodes d'évaluation
Il y a un besoin croissant d'évaluer les compétences en pensée algorithmique dans les écoles. Les méthodes d'évaluation traditionnelles comme les tests à choix multiples et les questions fermées ont leurs limites. Ces méthodes se concentrent souvent sur la mémorisation plutôt que sur la résolution pratique de problèmes. D'autres approches, comme les questions ouvertes ou les Tâches de programmation, peuvent montrer comment les élèves pensent et résolvent des problèmes, mais peuvent prendre beaucoup de temps à corriger.
Présentation du CAT virtuel
Pour répondre à la demande croissante d'évaluation de la pensée algorithmique, le CAT virtuel a été développé comme une version numérique d'un outil d'évaluation existant. L'idée était de créer une manière évolutive et automatisée d'évaluer les élèves, réduisant ainsi l'implication humaine et les erreurs dans la collecte de données.
Cette plateforme virtuelle utilise des interfaces de programmation basées sur des gestes et des blocs, ce qui la rend conviviale pour une variété d'élèves, y compris ceux qui parlent différentes langues.
Test pilote dans les écoles suisses
Pour évaluer le CAT virtuel, une étude pilote a été réalisée en Suisse avec un groupe d'élèves divers. Les résultats ont montré l'efficacité de l'outil pour évaluer les compétences algorithmiques selon l'âge et le niveau d'éducation. L'étude a mis en avant l'Utilisabilité de la plateforme et son adéquation pour la collecte de données à grande échelle.
Comprendre la pensée algorithmique
La pensée algorithmique consiste à décomposer systématiquement des problèmes complexes et à déterminer les étapes séquentielles pour les résoudre. C'est une compétence cruciale dans le monde numérique d'aujourd'hui, qui va au-delà de l'informatique et s'applique à la vie quotidienne et à divers métiers. Reconnaissant l'importance de cette compétence, les systèmes éducatifs recherchent de plus en plus des moyens de l'enseigner et de l'évaluer.
Méthodes d'évaluation actuelles
Les éducateurs ont plusieurs méthodes pour évaluer la pensée algorithmique. Les tests traditionnels mettent souvent l'accent sur la mémorisation d'informations et les connaissances de base plutôt que sur une compréhension plus approfondie. Des méthodes alternatives comme les questions ouvertes peuvent mettre en avant la pensée critique mais peuvent aussi mener à une notation incohérente. Les tâches de programmation offrent une évaluation pratique mais peuvent être longues à évaluer. Les activités robotiques engagent les élèves mais peuvent nécessiter des ressources qui ne sont pas toujours disponibles.
Les systèmes d'évaluation automatisés ont un potentiel mais sont encore en cours de perfectionnement pour suivre efficacement les progrès des apprenants. De plus, de nombreuses méthodes actuelles ne tiennent pas compte des stades de développement ou des environnements sociaux des enfants, ce qui rend essentiel de créer un outil d'évaluation plus complet.
Construire un meilleur outil : le Cross Array Task (CAT)
Pour améliorer les méthodes d'évaluation, le CAT virtuel a été basé sur une activité d'évaluation débranchée bien connue. Cette activité est conçue pour s'aligner sur les objectifs éducatifs en Suisse, qui valorisent la diversité et l'inclusion. Le CAT peut s'adapter à différents environnements éducatifs, garantissant que tous les élèves puissent participer.
Le CAT d'origine était une activité en tête-à-tête entre un élève et un évaluateur, ce qui le rendait impraticable pour de grands groupes. Le CAT virtuel a été créé pour permettre d'effectuer des Évaluations simultanément pour de nombreux élèves, améliorant ainsi l'efficacité du processus d'évaluation.
La conception du CAT virtuel
Le CAT virtuel comprend plusieurs interfaces pour l'interaction et prend en charge plusieurs langues, ce qui le rend accessible à un groupe d'apprenants diversifié. Les élèves peuvent utiliser leurs propres appareils pour passer l'évaluation, ce qui simplifie le processus et minimise les erreurs humaines.
Cette section décrit comment le CAT virtuel a été conçu, en mettant l'accent sur l'utilisabilité et l'expérience utilisateur. Le processus de conception a impliqué plusieurs phases, dont la définition des objectifs, l'analyse des outils existants, la création de prototypes et le perfectionnement de la conception en fonction des retours des utilisateurs.
Conception de l'expérience utilisateur
La conception de l'expérience utilisateur (UX) a impliqué trois étapes principales. Au début, l'équipe de conception a défini ses objectifs et exigences, ce qui a conduit à la création d'un prototype. Dans la deuxième phase, un expert UX a examiné le prototype pour son utilisabilité, et leurs retours ont été utilisés pour améliorer l'outil. La phase finale a consisté à engager des enfants dans le processus de conception pour s'assurer que leurs besoins et préférences soient pris en compte.
Le CAT se compose de deux composants principaux : l'activité débranchée, où les élèves donnent des instructions à un chercheur pour reproduire un motif, et la version virtuelle, qui permet aux élèves d'utiliser des interfaces de programmation par gestes et par blocs.
Évaluer la performance : comment fonctionne le CAT
Le CAT évalue les élèves sur trois dimensions clés : le type d'activité, les outils cognitifs utilisés et le niveau d'indépendance montré par l'élève. L'évaluation se concentre sur la capacité des élèves à concevoir des algorithmes pour résoudre des tâches de programmation.
Les élèves reçoivent une série de schémas de référence, qui sont des motifs qu'ils doivent reproduire. Le CAT mesure leur succès en fonction de la complexité des algorithmes qu'ils créent et des outils qu'ils utilisent pour communiquer leurs instructions.
L'environnement virtuel
Dans le CAT virtuel, les élèves interagissent avec une plateforme numérique où ils peuvent utiliser des interfaces gestuelles ou de programmation par blocs. Contrairement à la version débranchée, où un agent humain interprète les instructions, l'agent virtuel enregistre automatiquement les actions des élèves.
Le nouveau design vise à reproduire l'expérience physique de l'activité débranchée tout en introduisant des éléments qui rendent l'évaluation plus facile et plus engageante pour les élèves.
Le langage de programmation du CAT virtuel
Pour simplifier les instructions dans l'application, un langage de programmation appelé CAT a été développé. Ce langage standardise les commandes et les actions dans l'environnement virtuel, assurant la cohérence dans la manière dont les élèves créent leurs algorithmes.
Mise en œuvre et tests utilisateur
L'application CAT virtuelle a été développée en utilisant Flutter, ce qui la rend compatible sur divers appareils. L'interface de l'application a été conçue pour être conviviale, avec des fonctionnalités d'accessibilité pour des élèves de différentes capacités.
Pendant la phase de test, une étude pilote a été réalisée impliquant des élèves de diverses écoles. L'étude visait à évaluer l'utilisabilité et l'efficacité du CAT virtuel en tant qu'outil d'évaluation.
Formation et collecte de données
Pour s'assurer que les élèves se sentent à l'aise avec l'application, un module de formation a été inclus. Ce module permet aux élèves de se familiariser avec les fonctionnalités de l'outil avant de commencer l'évaluation.
Pendant le processus de validation, des données sur la performance des élèves ont été collectées et analysées. Les données collectées comprenaient des horodatages et des détails sur les actions des élèves, fournissant des informations précieuses sur leur engagement avec la tâche.
Résultats de l'étude pilote
L'étude pilote a montré des résultats prometteurs. Les élèves de différents groupes d'âge se sont bien engagés avec le CAT virtuel, et les taux de réussite globaux pour terminer les tâches étaient élevés.
Les élèves plus jeunes avaient tendance à utiliser des algorithmes plus simples, tandis que les élèves plus âgés démontraient une plus grande capacité à gérer des défis plus complexes. Les taux de réussite variaient selon les tâches, indiquant que l'outil peut s'adapter à divers niveaux de compétence.
Retour des utilisateurs et améliorations
Les retours des élèves et des enseignants pendant la phase de test ont aidé à identifier les zones à améliorer. Des ajustements ont été faits pour améliorer l'utilisabilité, comme simplifier les éléments de l'interface et ajouter des fonctionnalités qui aident les élèves à suivre leur progression.
Ces améliorations visaient à s'assurer que la plateforme reste engageante et efficace pour les élèves tout en étant facile à utiliser.
Discussion et directions futures
Les résultats de l'étude indiquent que le CAT virtuel a un grand potentiel pour évaluer les compétences en pensée algorithmique dans différents contextes éducatifs. Son utilisabilité et son efficacité le rendent adapté aux évaluations à grande échelle, et son design répond à une population étudiante diversifiée.
À l'avenir, l'objectif est de continuer à affiner l'outil en fonction des retours des utilisateurs et d'élargir son utilisation dans les contextes éducatifs. Les études futures se concentreront sur le test de la plateforme dans divers curricula et environnements d'apprentissage pour valider davantage son efficacité.
Conclusion
Le CAT virtuel représente une approche innovante pour évaluer la pensée algorithmique dans les écoles. Son accent sur l'utilisabilité, l'engagement et l'adaptabilité en fait une ressource précieuse pour les éducateurs. En fournissant un outil d'évaluation évolutif, il aide les enseignants à évaluer les compétences algorithmiques de leurs élèves de manière plus efficace.
Avec un développement et un perfectionnement continus, le CAT virtuel a le potentiel de redéfinir comment la pensée algorithmique est enseignée et évaluée dans les contextes éducatifs du monde entier, ouvrant la voie aux futures générations pour développer des compétences de résolution de problèmes essentielles dans un monde de plus en plus numérique.
Titre: Designing the virtual CAT: A digital tool for algorithmic thinking assessment in compulsory education
Résumé: Algorithmic thinking (AT) is a critical skill in today's digital society, and it is indispensable not only in computer science-related fields but also in everyday problem-solving. As a foundational component of digital education and literacy, fostering AT skills is increasingly relevant for all students and should become a standard part of compulsory education. However, successfully integrating AT into formal education requires effective teaching strategies and robust and scalable assessment procedures. In this paper, we present the design and development process of the virtual Cross Array Task (CAT), a digital adaptation of an unplugged assessment activity aimed at evaluating algorithmic skills in Swiss compulsory education. The development process followed iterative design cycles, incorporating expert evaluations to refine the tool's usability, accessibility and functionality. A participatory design study played a dual role in shaping the platform. First, it gathered valuable insights from end users, including students and teachers, to ensure the tool's relevance and practicality in classroom settings. Second, it facilitated the collection and preliminary analysis of data related to students' AT skills, providing an initial evaluation of the tool's assessment capabilities across various developmental stages. This was achieved through a pilot study involving a diverse group of students aged 4 to 12, spanning preschool to lower secondary school levels. The resulting instrument features multilingual support and includes both gesture-based and visual block-based programming interfaces, making it accessible to a broad range of learners. Findings from the pilot study demonstrate the platform's usability and accessibility, as well as its suitability for assessing AT skills, with preliminary results showing its ability to cater to diverse age groups and educational contexts.
Auteurs: Giorgia Adorni, Alberto Piatti
Dernière mise à jour: 2024-11-26 00:00:00
Langue: English
Source URL: https://arxiv.org/abs/2408.01263
Source PDF: https://arxiv.org/pdf/2408.01263
Licence: https://creativecommons.org/licenses/by/4.0/
Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.
Merci à arxiv pour l'utilisation de son interopérabilité en libre accès.