Simple Science

La science de pointe expliquée simplement

# Informatique# Ordinateurs et société

Automatiser l'équité dans les examens électroniques

Un aperçu pour améliorer la qualité et l'efficacité des exams électroniques.

― 7 min lire


E-Examens : ÉquilibrerE-Examens : Équilibrerl'automatisation etl'équitédes méthodes innovantes.les évaluations électroniques grâce àS'efforcer d'avoir de la qualité dans
Table des matières

Les examens électroniques, ou e-exams, deviennent de plus en plus populaires car ils peuvent simplifier le processus d'examen. Ils automatisent beaucoup de tâches, depuis la préparation de l'examen jusqu'à la correction. Cependant, il est important de s'assurer que la complexité des tâches et l'équité dans la notation soient maintenues tout en profitant des avantages de l'automatisation. Cet article discute de la conception et de la mise en œuvre d'un examen électronique de programmation fonctionnelle, en se concentrant sur la façon d'améliorer l'automatisation sans sacrifier la qualité.

Avantages des Examens Électroniques

Un des gros avantages des examens électroniques, c'est leur potentiel d'automatisation. Ça peut vraiment réduire l'effort nécessaire pour organiser les examens et corriger. La correction automatique peut faire gagner du temps et permettre un retour immédiat aux étudiants. Mais, automatiser sans réfléchir peut faire chuter la qualité de l'examen. Par exemple, des examens qui ne comprennent que des questions à choix multiples sont faciles à corriger mais ne mesurent pas la capacité des étudiants à créer des solutions. Donc, il faut trouver un bon équilibre entre automatisation et maintien de la complexité des tâches et de l'équité de la notation.

Composants Clés de la Conception de l'E-Examen

Pour améliorer la conception et la correction des e-exams de programmation fonctionnelle, plusieurs composants ont été introduits :

  1. Nouvel Algorithme de Notation : Un nouveau moyen d’évaluer les tâches de preuve a été créé. Cet algorithme recherche des séquences correctes de lignes de preuve, offrant une meilleure équité que les méthodes précédentes basées sur les distances d'édition.

  2. Outil d'Analyse Statique : Un outil open-source a été développé pour analyser le code selon des critères importants, facilitant le processus de correction. Cet outil inspecte la structure du code pour s'assurer qu'il respecte les exigences de tâches spécifiques.

  3. Outil d'Expressions Régulières : Un langage de haut niveau a été introduit pour aider à spécifier des expressions régulières complexes. Ça réduit les erreurs lors de la création d'expressions régulières.

Ces composants contribuent collectivement à une expérience d'e-examen fluide tout en gardant un accent sur l'évaluation de qualité.

Transition des Examens Traditionnels aux E-Exams

Passer des examens sur papier aux e-exams implique divers défis. Un aspect majeur de cette transition est de s'assurer que l'examen couvre les mêmes objectifs d'apprentissage que les formats traditionnels. En analysant de près les examens papiers passés, on a identifié des domaines qui pourraient être améliorés grâce à l'automatisation.

Analyse des Examens Précédents

Une inspection approfondie des anciens examens a révélé leur structure et les types de questions posées. Ce processus a aidé à identifier quels aspects pouvaient être traduits en format électronique. Les anciens examens ont été divisés en plusieurs catégories, y compris des questions à choix unique, des questions à choix multiples, des Extraits de code et des explications textuelles.

Mise en Œuvre dans le Système d'E-Examen

Le nouveau système d'e-examen a été construit autour d'un cadre qui prend en charge divers types de tâches.

Catégories de Tâches

  1. Choix Unique : Les étudiants choisissent une option parmi plusieurs.
  2. Choix Multiples : Les étudiants peuvent sélectionner plusieurs options.
  3. Extraits de Code : Les étudiants écrivent de courts morceaux de code.
  4. Code Complet : Les étudiants doivent écrire des fonctions ou des types de données complètes.
  5. Réponses Textuelles : Les étudiants fournissent des explications ou des justifications.

Transférer ces tâches à un format électronique nécessitait une planification soignée. Pour les extraits de code, des expressions régulières étaient utilisées pour évaluer la justesse. Les tâches de codage compliquées étaient évaluées à l'aide de frameworks de test, facilitant la correction automatisée tout en laissant de la place aux étudiants pour exprimer leur compréhension.

Améliorations du Format d'E-Examen

Pour améliorer le format d'e-examen, plusieurs fonctionnalités ont été introduites :

Intégration du Compilateur Haskell

Pour s'assurer que les étudiants travaillent dans l'environnement de programmation Haskell, nous avons intégré un compilateur pour Haskell. Cela permet aux étudiants d'écrire et de tester leur code directement pendant l'examen. La structure des tâches guide les étudiants sur comment aborder les problèmes de codage, tandis que le compilateur intégré fournit des retours sur leur travail.

Tâches d'Expressions Régulières

Des tâches d'expressions régulières ont été utilisées pour vérifier les extraits de code courts pour leur justesse. Pendant l'évaluation, les réponses des étudiants sont comparées à des modèles spécifiés. Quand la réponse d'un étudiant est seulement partiellement correcte, il peut recevoir des points partiels, ce qui promeut un système de notation plus équitable.

Champ de Commentaires pour Explications

Une section de commentaires a été ajoutée pour permettre aux étudiants d'exprimer leurs pensées en dehors de leurs réponses principales. Cette flexibilité offre aux étudiants la chance de clarifier leur raisonnement ou de noter des hypothèses qu'ils auraient pu faire en travaillant sur les tâches.

Algorithmes de Notation

La notation des tâches de preuve posait des défis. La méthode de notation originale basée sur la distance entre les réponses donnait parfois des résultats inéquitables. Un nouvel algorithme a été développé qui reconnaît des séquences correctes de réponses, permettant une notation plus précise et équitable basée sur les critères définis.

Outils d'Analyse de Code

Pour s'assurer que les tâches de programmation respectent des critères spécifiques, nous avons développé un outil qui analyse le code des étudiants. Cet outil fournit des retours concernant l'utilisation des constructions et des fonctionnalités de programmation, aidant les étudiants à comprendre leurs forces et leurs faiblesses.

Génération d'Expressions Régulières

Créer des expressions régulières précises pour les tâches de notation est souvent laborieux. Donc, nous avons développé un langage spécialisé pour générer ces expressions afin d'aider à automatiser le processus. Cette approche réduit la complexité impliquée dans la création manuelle d'expressions régulières et minimise le risque d'erreurs.

Évaluation et Retours des Étudiants

Après la transition au format d'e-examen, il était crucial de recueillir des retours des étudiants. Les sondages ont mis en évidence leurs expériences concernant le nouveau format. La plupart des étudiants ont trouvé l'e-examen adapté ; cependant, les avis étaient partagés sur leur capacité à exprimer leurs pensées aussi efficacement que dans les examens sur papier.

Conclusion

Le passage aux examens électroniques offre d'importants avantages en termes d'automatisation et d'efficacité. Cependant, il faut prêter une attention particulière pour s'assurer que la qualité de l'évaluation reste élevée. En développant de nouveaux algorithmes de notation, en intégrant des outils d'analyse de code et en favorisant un environnement pour les retours des étudiants, on peut améliorer l'expérience d'e-examen tout en maintenant un environnement de test équitable. Le travail futur continuera à affiner ces outils et méthodes pour garantir les meilleurs résultats possibles pour les étudiants et les éducateurs.

Source originale

Titre: Computer Aided Design and Grading for an Electronic Functional Programming Exam

Résumé: Electronic exams (e-exams) have the potential to substantially reduce the effort required for conducting an exam through automation. Yet, care must be taken to sacrifice neither task complexity nor constructive alignment nor grading fairness in favor of automation. To advance automation in the design and fair grading of (functional programming) e-exams, we introduce the following: A novel algorithm to check Proof Puzzles based on finding correct sequences of proof lines that improves fairness compared to an existing, edit distance based algorithm; an open-source static analysis tool to check source code for task relevant features by traversing the abstract syntax tree; a higher-level language and open-source tool to specify regular expressions that makes creating complex regular expressions less error-prone. Our findings are embedded in a complete experience report on transforming a paper exam to an e-exam. We evaluated the resulting e-exam by analyzing the degree of automation in the grading process, asking students for their opinion, and critically reviewing our own experiences. Almost all tasks can be graded automatically at least in part (correct solutions can almost always be detected as such), the students agree that an e-exam is a fitting examination format for the course but are split on how well they can express their thoughts compared to a paper exam, and examiners enjoy a more time-efficient grading process while the point distribution in the exam results was almost exactly the same compared to a paper exam.

Auteurs: Ole Lübke, Konrad Fuger, Fin Hendrik Bahnsen, Katrin Billerbeck, Sibylle Schupp

Dernière mise à jour: 2023-08-14 00:00:00

Langue: English

Source URL: https://arxiv.org/abs/2308.07938

Source PDF: https://arxiv.org/pdf/2308.07938

Licence: https://creativecommons.org/licenses/by-sa/4.0/

Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.

Merci à arxiv pour l'utilisation de son interopérabilité en libre accès.

Plus d'auteurs

Articles similaires