Les défis de la prédiction de la prochaine activité
Analyser les problèmes pour prévoir les actions futures dans des processus en cours.
― 7 min lire
Table des matières
La prédiction de la prochaine activité fait référence à la tâche d'essayer de deviner ce qui va se passer ensuite dans des processus en cours. Beaucoup de chercheurs se concentrent sur l'utilisation de techniques avancées d'apprentissage profond pour améliorer ces prédictions en formant des modèles sur les journaux d'événements disponibles. Cependant, il existe des problèmes importants dans la façon dont ces modèles sont évalués, ce qui soulève des questions sur leur efficacité.
C'est quoi la prédiction de la prochaine activité ?
La prédiction de la prochaine activité consiste à prévoir la prochaine étape d'une procédure en se basant sur des données historiques. Par exemple, dans un processus commercial, on peut vouloir prédire quelle action sera prise ensuite en fonction de ce qui s'est passé jusqu'à présent. Ce processus va au-delà de l'identification de retards ou d'autres problèmes ; il vise à anticiper les résultats et les obstacles.
Traditionnellement, les chercheurs s'appuyaient sur des modèles spécifiques du comportement des processus. De nos jours, beaucoup se concentrent sur les réseaux neuronaux, surtout pour prédire la prochaine étape dans une séquence d'événements. L'approche habituelle consiste à prendre un Journal d'événements existant, à le diviser en un ensemble d'entraînement et un ensemble de test, et à utiliser les données d'entraînement pour aider le modèle à apprendre à faire des prédictions.
Problèmes avec les méthodes actuelles
Un gros problème avec les méthodes existantes est qu'elles ne évaluent souvent pas vraiment à quel point un modèle peut prédire des actions futures sur des données complètement nouvelles. De nombreuses études utilisent le même ensemble de journaux d'événements pour l'entraînement et l'évaluation, ce qui conduit à des résultats biaisés. Cela signifie que les modèles ne sont pas testés de manière à montrer leur efficacité dans le monde réel.
En examinant les journaux d'événements courants, on remarque que la prochaine action est principalement déterminée par ce qui est arrivé avant. Cela signifie que de nombreuses prédictions se contentent de répéter ce que le modèle a déjà vu. Les fuites dans ces journaux créent un faux sentiment de Précision.
De plus, les chercheurs ont découvert que pour certaines prédictions, il peut y avoir plusieurs options valides. Cette Ambiguïté des étiquettes peut rendre difficile de savoir à quel point un modèle fonctionne vraiment bien, car il peut simplement prédire l'étape suivante la plus courante plutôt que d'être capable de s'adapter à différents scénarios.
Entraînement et test avec les journaux d'événements
Un journal d'événements est juste une collection de cas, chacun représenté par une séquence d'événements. Chaque événement a des détails spécifiques, généralement l'action effectuée et un identifiant pour le cas auquel il appartient. D'autres attributs peuvent également exister, comme un horodatage ou la personne qui effectue la tâche.
Pour la prédiction de la prochaine activité, le modèle essaie de déterminer quelle action se produira ensuite en se basant sur une partie de la séquence d'événements. Le modèle apprend à partir des données d'entraînement, en utilisant des actions passées étiquetées comme la "prochaine activité" pour guider ses prédictions.
Les modèles sont formés sur des paires de "préfixes" (la séquence d'événements jusqu'à présent) et les actions suivantes correspondantes. Les chercheurs utilisent généralement des mesures de performance comme la précision pour voir à quel point le modèle prédit bien sur un ensemble qu'il n'a pas vu lors de l'entraînement.
Problèmes d'évaluation
Lors de l'évaluation des méthodes de prédiction de la prochaine activité, les chercheurs doivent être prudents. Un problème est la fuite d'exemples, où des exemples de l'ensemble de formation apparaissent aussi dans l'ensemble de test. Cela conduit à des conclusions trop optimistes sur la performance d'un modèle parce que celui-ci se contente de rappeler ce qu'il a déjà vu.
Un autre point important est que l'efficacité des prédictions de prochaine activité est fortement influencée par les caractéristiques spécifiques du journal d'événements utilisé. Dans de nombreux cas, les journaux ont des séquences d'actions similaires menant à différents résultats, créant ainsi une ambiguïté d'étiquettes.
La performance d'un modèle de prédiction est souvent évaluée par sa précision, qui est simplement le pourcentage de prédictions correctes qu'il a faites. Cependant, si les prédictions n'apportent pas de nouvelles informations, alors l'évaluation pourrait ne pas refléter vraiment à quel point le modèle pourrait performer dans des situations réelles.
Généralisation dans la prédiction de la prochaine activité
La généralisation est cruciale dans toute tâche de modélisation prédictive. En termes simples, cela fait référence à la capacité d'un modèle à faire des prédictions précises sur de nouveaux cas qui ne faisaient pas partie de ses données d'entraînement. Beaucoup d'approches actuelles ne testent pas correctement la généralisation dans le contexte de la prédiction de la prochaine activité.
Pour améliorer le processus d'évaluation, différents scénarios de prédiction basés sur différents types de généralisation devraient être envisagés. Par exemple, un modèle devrait être capable de prédire correctement même lorsqu'il rencontre de nouvelles séquences d'actions qu'il n'a jamais vues auparavant.
Scénarios pour la généralisation
Ambiguïté d'étiquette : Un modèle pourrait être confronté à des situations où plusieurs actions pourraient suivre après un certain point. Il est essentiel que le modèle apprenne qu'il peut y avoir plus d'une action suivante valide même s'il a été formé sur des données où une seule action semble courante.
Flux de contrôle non vu : Un modèle pourrait devoir prédire des actions basées sur des séquences qu'il n'a pas rencontrées. Il est important que le modèle généralise ses connaissances pour pouvoir gérer de nouveaux motifs dans les données.
Valeurs de contexte non vues : Le contexte autour des actions, comme qui les a effectuées ou quand elles se sont produites, peut impacter les prédictions. Les modèles devraient être capables de faire des prédictions sur des valeurs connues qui peuvent se combiner de nouvelles façons.
Nouvelles valeurs d'attribut : Parfois, de nouvelles activités ou ressources peuvent être introduites après que le modèle a été formé. Dans ces cas, le modèle devrait être capable d'indiquer l'incertitude ou de faire des suppositions éclairées basées sur des données passées similaires.
Recommandations pour des recherches futures
Étant donné les défis mentionnés, les recherches futures doivent se concentrer sur la création de méthodes d'évaluation robustes pour la prédiction de la prochaine activité. Cela implique d'évaluer à quel point les modèles peuvent généraliser à travers différents scénarios.
Une approche consiste à créer des journaux d'événements synthétiques qui simulent divers scénarios de généralisation. Cela aidera à tester les modèles plus efficacement et à comprendre leurs réelles capacités. Une autre zone de focus pourrait être d'améliorer les modèles pour reconnaître et gérer l'ambiguïté des étiquettes plus efficacement.
Dans l'ensemble, bien qu'il y ait eu des progrès dans la prédiction des prochaines actions, beaucoup de travail reste à faire pour s'assurer que les modèles sont réellement efficaces et peuvent s'adapter à de nouvelles situations. Une meilleure compréhension de la généralisation dans ce domaine peut mener à des améliorations dans les applications pratiques à travers diverses industries.
Titre: A Discussion on Generalization in Next-Activity Prediction
Résumé: Next activity prediction aims to forecast the future behavior of running process instances. Recent publications in this field predominantly employ deep learning techniques and evaluate their prediction performance using publicly available event logs. This paper presents empirical evidence that calls into question the effectiveness of these current evaluation approaches. We show that there is an enormous amount of example leakage in all of the commonly used event logs, so that rather trivial prediction approaches perform almost as well as ones that leverage deep learning. We further argue that designing robust evaluations requires a more profound conceptual engagement with the topic of next-activity prediction, and specifically with the notion of generalization to new data. To this end, we present various prediction scenarios that necessitate different types of generalization to guide future research.
Auteurs: Luka Abb, Peter Pfeiffer, Peter Fettke, Jana-Rebecca Rehse
Dernière mise à jour: 2023-09-18 00:00:00
Langue: English
Source URL: https://arxiv.org/abs/2309.09618
Source PDF: https://arxiv.org/pdf/2309.09618
Licence: https://creativecommons.org/licenses/by/4.0/
Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.
Merci à arxiv pour l'utilisation de son interopérabilité en libre accès.