Classer les révisions dans les essais argumentatifs
Cette étude examine comment classifier les révisions pour améliorer l'écriture argumentative.
― 7 min lire
Table des matières
Dans l'écriture, surtout quand il s'agit d'écriture persuasive ou argumentative, les révisions sont super importantes pour améliorer la qualité et l'efficacité des arguments présentés. Cette étude se penche sur comment classer ces révisions, en se concentrant spécifiquement sur le raisonnement dans les essais argumentatifs. Le raisonnement fait référence à la manière dont les preuves sont liées à un argument, et faire des révisions souhaitables peut aider à renforcer l'impact d'un essai.
Classifier les Révisions
Les révisions souhaitables sont des changements qui aident à clarifier ou à renforcer l'argument. Par exemple, ajouter plus de preuves pour soutenir une affirmation serait considéré comme un changement bénéfique. En revanche, les révisions indésirables pourraient embrouiller le message ou affaiblir l'argument. Le but est d'identifier automatiquement ces révisions souhaitables pour aider à fournir de meilleurs retours dans les systèmes d'évaluation automatique de l'écriture.
Pour améliorer les capacités d'apprentissage de notre modèle, nous utilisons des données supplémentaires provenant de diverses sources. Par exemple, les perspectives d'essais de collèges pourraient éclairer les améliorations dans les essais d'écoles élémentaires.
Méthodologie
Deux principales méthodes ont été utilisées dans nos expériences : l'Apprentissage multitâche et l'Apprentissage par transfert. Chacune de ces approches aide à améliorer la classification des révisions en utilisant des données de différentes sources.
Apprentissage Multitâche
Dans l'apprentissage multitâche, nous formons un modèle capable d'apprendre à partir de plusieurs sources de données en même temps. Comme ça, le modèle peut partager des informations entre différentes tâches, ce qui peut conduire à une meilleure performance. Nous nous sommes concentrés sur l'identification des révisions souhaitables à travers plusieurs ensembles de données, qui incluent des essais écrits par des étudiants à différents niveaux d'éducation.
Apprentissage par Transfert
L'apprentissage par transfert, en revanche, consiste d'abord à former un modèle sur un ensemble de données, puis à appliquer ce qu'il a appris à un autre ensemble de données. Cela aide le modèle à comprendre les relations entre différents types de données, même s'ils ne sont pas directement comparables.
Sources de Données
Les données de notre étude consistent en des brouillons d'essais appariés provenant de quatre sources différentes, chacune représentant divers niveaux de compétence et contextes d'écriture. Tous les essais ont été rédigés en réponse à des consignes et révisés sur la base de retours. Les quatre corpus que nous avons examinés incluent :
- Essais Élémentaires : Les élèves ont rédigé des brouillons sur un projet, ont reçu des retours, puis ont révisé leur travail.
- Essais de Lycée : Deux ensembles d'essais de lycée ont été examinés, où les élèves ont révisé des brouillons sur la base de retours de leurs pairs.
- Essais Universitaires : Pour les universitaires, les essais ont été révisés plusieurs fois sur la base de retours généraux et spécifiques.
Chacun de ces types d'essais présente des défis et des qualités différentes, ce qui rend intéressant de voir comment la classification des révisions pourrait différer entre eux.
Alignement et Annotations
Pour analyser les révisions, nous avons aligné des phrases des brouillons en fonction de leur signification. Chaque paire de phrases alignées représente des changements spécifiques, comme ajouter, modifier ou supprimer des phrases. Nous avons annoté ces révisions pour identifier leur objectif, en nous concentrant spécifiquement sur celles qui affectent le raisonnement.
Modèles Utilisés pour l'Apprentissage
Nous avons utilisé divers modèles dans nos expériences d'apprentissage :
Modèle d'Apprentissage Unitaire
Ce modèle était conçu pour classer les révisions une tâche à la fois. Il traite chaque corpus séparément, permettant un apprentissage ciblé sur les caractéristiques uniques de chaque ensemble de données.
Modèle d'Apprentissage Multitâche
Le modèle d'apprentissage multitâche combine les tâches individuelles en une seule, avec des couches partagées qui apprennent des motifs communs à travers différents ensembles de données. Cela aide à améliorer la classification en tirant parti de l'information de toutes les données disponibles en même temps.
Modèle d'Union
Contrairement à l'approche unitaire, le Modèle d'Union entraîne un seul modèle en utilisant les données de toutes les tâches combinées. Cela nous aide à déterminer si l'utilisation de plus de données peut conduire à une meilleure compréhension et classification.
Modèles d'Apprentissage par Transfert
Nous avons également exploré l'apprentissage par transfert en formant un modèle sur un ensemble de données, puis en l'ajustant sur un autre ensemble de données cible. Cette méthode nous a permis d'explorer comment la connaissance acquise d'un type d'écriture pourrait aider à classifier les révisions dans un autre.
Évaluation des Résultats
Pour évaluer nos modèles, nous avons effectué des Évaluations intrinsèques, qui comparent les métriques de performance comme la note moyenne des prédictions du modèle par rapport aux modèles de référence. Nous avons également effectué des évaluations extrinsèques pour voir à quel point les révisions souhaitables et indésirables prédites correspondaient aux réelles améliorations dans les essais.
Résultats de l'Apprentissage Multitâche
Nos résultats suggèrent que l'apprentissage multitâche a généralement fourni de meilleurs scores de classification. Cependant, les différences de performance par rapport aux modèles de référence étaient faibles. Notamment, cette méthode s'est avérée efficace pour identifier plus précisément les révisions indésirables par rapport aux modèles d'apprentissage unitaire.
Aperçus de l'Apprentissage par Transfert
L'apprentissage par transfert a montré que certains types de données pouvaient améliorer la performance quand ils sont utilisés correctement. Par exemple, utiliser des données de rédacteurs plus expérimentés (comme des étudiants universitaires) a aidé à classifier les révisions pour les rédacteurs moins expérimentés (comme les élèves élémentaires). Cependant, les résultats variaient selon la direction du transfert. Dans certains cas, utiliser des données de lycée pour améliorer la classification au niveau universitaire n'a pas donné de meilleurs résultats.
Limitations
L'analyse a rencontré certaines limites. Le processus d'annotation original utilisait un schéma détaillé, qui, lorsqu'il a été simplifié pour des tâches de classification binaire, a pu entraîner une perte de nuances importantes. En pratique, appliquer ce modèle dans un système automatisé pourrait introduire des erreurs. De plus, nous nous sommes seulement concentrés sur une séquence pour l'entraînement multitâche, et les modèles nécessitaient des ressources informatiques considérables.
Directions Futures
À l'avenir, explorer d'autres méthodes pour augmenter les données serait bénéfique. Cela peut impliquer d'expérimenter avec différentes techniques pour générer plus d'exemples d'entraînement ou d'utiliser des modèles plus sophistiqués pour analyser les révisions. De plus, élargir notre ensemble de données pour inclure une gamme plus large d'informations démographiques pourrait fournir des perspectives sur la manière dont les facteurs de contexte influencent l'écriture et l'efficacité des révisions.
Conclusion
Cette étude révèle que l'utilisation de sources de données auxiliaires, que ce soit par le biais de l'apprentissage multitâche ou de l'apprentissage par transfert, peut améliorer la capacité à classifier les révisions souhaitables dans l'écriture argumentative. Les informations obtenues indiquent que la manière dont les données sont utilisées est cruciale, et la relation entre différents ensembles de données peut fournir un contexte précieux pour améliorer l'écriture à différents niveaux de compétence. Dans l'ensemble, une attention particulière aux sources de données et aux méthodes d'apprentissage promet d'avancer les systèmes d'évaluation automatique de l'écriture et, finalement, d'aider les étudiants à améliorer leurs compétences en écriture.
Titre: Learning from Auxiliary Sources in Argumentative Revision Classification
Résumé: We develop models to classify desirable reasoning revisions in argumentative writing. We explore two approaches -- multi-task learning and transfer learning -- to take advantage of auxiliary sources of revision data for similar tasks. Results of intrinsic and extrinsic evaluations show that both approaches can indeed improve classifier performance over baselines. While multi-task learning shows that training on different sources of data at the same time may improve performance, transfer-learning better represents the relationship between the data.
Auteurs: Tazin Afrin, Diane Litman
Dernière mise à jour: 2023-09-13 00:00:00
Langue: English
Source URL: https://arxiv.org/abs/2309.07334
Source PDF: https://arxiv.org/pdf/2309.07334
Licence: https://creativecommons.org/licenses/by/4.0/
Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.
Merci à arxiv pour l'utilisation de son interopérabilité en libre accès.