Approche innovante pour la génération de texte contrôlable
Présentation de l'instruction d'expressions régulières pour une génération de texte contrôlée et flexible.
― 5 min lire
Table des matières
La Génération de texte contrôlable est super importante pour la génération de langage naturel. Y'a plein de méthodes pour différents types de Contraintes. Mais, beaucoup de ces méthodes nécessitent des changements majeurs dans la structure du modèle ou dans les méthodes de sortie, rendant difficile l'application de nouvelles contraintes ou de combinaisons de contraintes. Cet article présente l'Instruction par Expression Régulière (REI), qui utilise un système basé sur des instructions pour tirer le meilleur des expressions régulières afin de modéliser diverses contraintes.
REI gère des contraintes fines populaires comme le choix des mots, la position dans le texte et la longueur. Il fait ça en utilisant des instructions de style expression régulière. Notre approche nécessite seulement un petit ajustement sur des modèles de langage à échelle moyenne ou quelques exemples pour des modèles plus grands, sans avoir besoin d'autres changements face à différentes contraintes. Les expériences montrent que cette approche atteint de hauts taux de réussite et s'adapte bien à diverses contraintes tout en maintenant de bonnes performances sur des métriques automatiques, dépassant plusieurs modèles antérieurs.
Générer du texte selon les besoins humains a toujours été un défi dans la génération de langage naturel. Avec l'arrivée des grands modèles de langage, plein de tâches en traitement de langage naturel peuvent être unifiées sous une génération contrôlée. Par exemple, des tâches comme la classification de texte, le remplissage de blancs, et répondre à des questions à choix multiples peuvent limiter la sortie à une des options fournies. Le raisonnement abductif exige que la sortie s'intègre entre des contextes précédents et futurs donnés. Résumer du texte limite la longueur de la sortie, tandis que la traduction automatique doit utiliser des mots de la langue cible.
Pour la génération de texte contrôlable, les tâches typiques incluent le choix des mots, la position et la longueur. Les solutions récentes peuvent être séparées en trois catégories : retravailler le modèle, l'ajuster sur des données spécifiques et un post-traitement conçu manuellement.
Malgré des performances correctes, les méthodes actuelles se concentrent surtout sur des contraintes spécifiques et peuvent ne pas se transférer facilement à d'autres, surtout s'il y a plusieurs contraintes. Par exemple, certaines méthodes ne considèrent que le choix des mots et la longueur, mais ne peuvent pas spécifier où le texte doit apparaître. D'autres peuvent établir des positions contextuelles mais ne peuvent pas imposer l'inclusion de mots ou des limites de longueur. De plus, ces méthodes supposent généralement l'accès aux probabilités de sortie du modèle, ce qui n'est pas toujours possible avec des modèles plus grands, nécessitant des techniques de contrôle en boîte noire.
Pour résoudre ces problèmes, nous introduisons REI pour une génération contrôlée universelle et fine. Notre design est influencé par les expressions régulières, permettant d'exprimer facilement des contraintes courantes et leurs combinaisons. On utilise aussi un langage de balisage pour distinguer les instructions du texte réel. Notre méthode est flexible et s'adapte à des tâches comme la résumation, les traductions avec contraintes terminologiques, et les fins d'histoires.
Notre approche a plusieurs avantages. Elle supporte toutes les tâches fines courantes et décrit des règles de contrôle complexes. La solution s'adapte facilement à différents scénarios et ne nécessite pas de gros ajustements du modèle. Les expériences indiquent que les grands modèles de langage peuvent comprendre notre langage de contrôle, atteignant de hauts taux de réussite et maintenant de bons scores d'évaluation automatique, surpassant plusieurs méthodes précédentes.
Le fine-tuning est un aspect clé de notre approche, nous permettant de construire des données d'entraînement à partir de diverses sources. On applique aussi l'apprentissage en contexte pour les grands modèles afin de générer du texte qui correspond aux contraintes données. Cela inclut le choix de modèles à partir d'exemples passés, permettant une génération de sortie efficace basée sur le format d'instruction que l'on fournit.
En résumé, REI est une façon efficace d'atteindre une génération de texte contrôlée. Il démontre une grande adaptabilité et de bons taux de réussite, ce qui en fait un outil utile pour diverses applications en génération de langage naturel. Les travaux futurs peuvent se concentrer sur l'amélioration de son algorithme pour des contraintes plus complexes et sur l'optimisation de l'efficacité dans la génération de sorties.
Titre: Toward Unified Controllable Text Generation via Regular Expression Instruction
Résumé: Controllable text generation is a fundamental aspect of natural language generation, with numerous methods proposed for different constraint types. However, these approaches often require significant architectural or decoding modifications, making them challenging to apply to additional constraints or resolve different constraint combinations. To address this, our paper introduces Regular Expression Instruction (REI), which utilizes an instruction-based mechanism to fully exploit regular expressions' advantages to uniformly model diverse constraints. Specifically, our REI supports all popular fine-grained controllable generation constraints, i.e., lexical, positional, and length, as well as their complex combinations, via regular expression-style instructions. Our method only requires fine-tuning on medium-scale language models or few-shot, in-context learning on large language models, and requires no further adjustment when applied to various constraint combinations. Experiments demonstrate that our straightforward approach yields high success rates and adaptability to various constraints while maintaining competitiveness in automatic metrics and outperforming most previous baselines.
Auteurs: Xin Zheng, Hongyu Lin, Xianpei Han, Le Sun
Dernière mise à jour: 2023-09-19 00:00:00
Langue: English
Source URL: https://arxiv.org/abs/2309.10447
Source PDF: https://arxiv.org/pdf/2309.10447
Licence: https://creativecommons.org/licenses/by/4.0/
Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.
Merci à arxiv pour l'utilisation de son interopérabilité en libre accès.