Analisando Métodos de Explicação na Classificação de Séries Temporais Multivariadas
Esse estudo analisa métodos de explicação para resultados de classificação de séries temporais multivariadas.
― 7 min ler
Índice
- Entendendo Dados de Séries Temporais Multivariadas
- Semelhanças e Diferenças Entre Séries Temporais e Imagens
- Métodos de Explicação em Séries Temporais Multivariadas
- Objetivos e Contribuições da Pesquisa
- Métodos de Classificação
- Métodos de Explicação
- Conjuntos de Dados Usados no Estudo
- Análise de Precisão
- Avaliando Métodos de Explicação
- Conclusão
- Fonte original
- Ligações de referência
A Classificação de Séries Temporais Multivariadas lida com dados coletados ao longo do tempo de múltiplas fontes. Um exemplo do dia a dia é um smartwatch que rastreia os movimentos de uma pessoa através de vários sensores. Ao analisar esses dados, dá pra aprender sobre a atividade humana e níveis de fitness. Mas só classificar os dados não é o suficiente; a gente também quer entender por que o modelo tá fazendo previsões específicas. Este artigo tem como objetivo analisar métodos que explicam os resultados da Classificação de Séries Temporais Multivariadas (MTSC), focando em métodos baseados em saliência que destacam pontos-chave dos dados.
Entendendo Dados de Séries Temporais Multivariadas
Conjuntos de dados do mundo real são frequentemente multivariados, ou seja, têm dados registrados de diferentes fontes ao longo do tempo. Por exemplo, dados de um dispositivo vestível que registra movimento podem ajudar a identificar atividades como andar ou correr. Outro exemplo é a coleta de dados de sensores de tráfego em vários pontos da cidade para monitorar o uso das estradas.
Embora muita pesquisa tenha sido feita em dados de séries temporais univariadas (dados coletados de uma única fonte), o interesse em séries temporais multivariadas está crescendo, especialmente para tarefas de classificação. Pesquisadores criaram benchmarks para acelerar o desenvolvimento de métodos de MTSC.
Com o aprendizado de máquina e o aprendizado profundo se tornando mais complexos, há uma necessidade maior de entender esses modelos. Trabalhos iniciais focavam principalmente em explicar modelos que trabalham com texto e imagens, mas alguns métodos podem ser adaptados para análise de séries temporais.
Semelhanças e Diferenças Entre Séries Temporais e Imagens
Imagens são tipicamente representadas por três canais de cor (RGB), todos essenciais para entender o conteúdo. Em contraste, nem todos os canais em dados de séries temporais contribuem igualmente; alguns podem até confundir a classificação. Além disso, nos dados de imagens, os valores dos pixels tendem a mudar de forma consistente, enquanto os dados de séries temporais podem variar muito entre os canais. Elementos como normalização também desempenham um papel maior em dados de séries temporais.
Este artigo foca em explicar métodos de MTSC, que é crucial para entender como os sistemas funcionam. Por exemplo, se alguém usa um acelerômetro enquanto se exercita, não é só importante determinar se a pessoa está fazendo certo, mas também fornecer um feedback explicando os erros com base nos dados coletados.
Métodos de Explicação em Séries Temporais Multivariadas
Neste artigo, uma explicação de séries temporais multivariadas é representada como um mapa de saliência 2D. Este mapa indica a importância de cada ponto de dado entre canais e períodos de tempo para a decisão de classificação. Um bom método de explicação deve ser capaz de identificar pontos de tempo relevantes em um canal, independentemente da sua posição na série temporal. Alguns métodos, como CAM, foram feitos para dados de canal único e não conseguem determinar quais pontos de tempo são importantes entre vários canais.
A análise de métodos de explicação para MTSC revela uma lacuna significativa na pesquisa atual. Muitos métodos existentes são adequados para aprendizado profundo, deixando espaço para crescimento no desenvolvimento de métodos sob medida que atendam especificamente a dados multivariados.
Objetivos e Contribuições da Pesquisa
Este estudo pretende analisar os métodos de explicação existentes para MTSC para preencher a lacuna na literatura atual.
- A revisão da literatura mostra a falta de métodos sob medida para MTSC, focando principalmente em modelos de aprendizado profundo.
- Selecionamos o dCAM, que é uma extensão de um método de explicação popular, o CAM.
- Conduzimos experimentos usando classificadores notáveis e métodos de explicação, examinando como adaptações do SHAP podem funcionar com dados multivariados.
- Usando conjuntos de dados sintéticos e do mundo real, comparamos classificadores e explicadores para avaliar sua eficácia.
Métodos de Classificação
Os classificadores usados neste estudo incluem:
- ROCKET: Feito para séries temporais univariadas, mas adaptado para dados multivariados. Aplica vários núcleos de convolução aleatória para transformar a série temporal em um formato adequado para classificação.
- dResNet: É uma versão do ResNet adaptada para classificação de séries temporais. Usa conexões de atalho para melhorar o treinamento e é composto por várias camadas convolucionais.
- Ridge Classifier: Um modelo clássico usado como base para comparação.
Métodos de Explicação
Analisamos vários métodos de explicação neste artigo:
- SHAP: Este método mede a importância das características com base em quanto cada uma contribui para as previsões do modelo. Ele analisa várias configurações para quantificar a importância de cada característica.
- dCAM: Este método calcula um mapa de saliência para cada canal, agregando resultados para mostrar a contribuição geral dos diferentes canais para a classificação.
- Ridge: Sendo um modelo inteligível, ele oferece explicações diretamente com base nos coeficientes aprendidos durante o treinamento.
Conjuntos de Dados Usados no Estudo
Examinamos três conjuntos de dados sintéticos criados para testar métodos de classificação, além de dois conjuntos de dados do mundo real que refletem o movimento humano durante exercícios.
Conjuntos de Dados Sintéticos
Esses conjuntos de dados são projetados para fornecer um ambiente controlado para testar métodos de classificação.
Conjuntos de Dados do Mundo Real
- Counter Movement Jump (CMJ): Este conjunto de dados é composto por leituras de acelerômetros de participantes durante um exercício de salto. Os dados pertencem a três classes com base na forma do salto.
- Military Press (MP): Isso envolve dados de participantes realizando um exercício de levantamento de peso. Focamos em pontos corporais selecionados considerados cruciais para entender o desempenho.
Análise de Precisão
Antes de avaliar as explicações, precisamos primeiro avaliar a precisão dos classificadores. Cada classificador foi executado várias vezes para determinar os modelos mais eficazes.
- Nos conjuntos de dados sintéticos, o Ridge teve um desempenho muito bom, até superando outros classificadores.
- No CMJ, os modelos mostraram diferentes níveis de precisão em relação à concatenação de dados versus o uso de classificadores multivariados.
No geral, descobrimos que modelos multivariados tendem a ter um desempenho melhor quando os dados realmente exigem múltiplos canais para uma classificação precisa.
Avaliando Métodos de Explicação
A avaliação dos métodos de explicação envolve examinar quão efetivamente eles conseguem indicar áreas críticas nos dados. Aplicamos frameworks de avaliação existentes projetados para conjuntos de dados univariados e os adaptamos para cenários multivariados.
Metodologia
- AMET: Este framework de avaliação avalia quão bem um método de explicação pode indicar segmentos importantes de uma série temporal univariada. Ele funciona comparando as explicações com a queda de desempenho observada quando áreas importantes são mascaradas.
- Avaliando Saídas: À medida que analisamos as saídas, fica claro que alguns métodos produzem resultados próximos ao acaso, mostrando uma necessidade significativa de melhorias.
Conclusão
Neste estudo, examinamos os pontos fortes e fracos de diferentes métodos usados para explicar MTSC. Nossas descobertas indicam que adaptações do SHAP têm um bom desempenho para MTSC e podem até superar métodos sob medida como o dCAM. Além disso, também destacamos desafios importantes em relação ao tempo computacional e a necessidade de melhores conjuntos de dados sintéticos. O trabalho futuro se concentrará em melhorar a eficiência dos métodos de explicação e desenvolver frameworks para avaliar soluções sob medida voltadas para séries temporais multivariadas.
Título: Evaluating Explanation Methods for Multivariate Time Series Classification
Resumo: Multivariate time series classification is an important computational task arising in applications where data is recorded over time and over multiple channels. For example, a smartwatch can record the acceleration and orientation of a person's motion, and these signals are recorded as multivariate time series. We can classify this data to understand and predict human movement and various properties such as fitness levels. In many applications classification alone is not enough, we often need to classify but also understand what the model learns (e.g., why was a prediction given, based on what information in the data). The main focus of this paper is on analysing and evaluating explanation methods tailored to Multivariate Time Series Classification (MTSC). We focus on saliency-based explanation methods that can point out the most relevant channels and time series points for the classification decision. We analyse two popular and accurate multivariate time series classifiers, ROCKET and dResNet, as well as two popular explanation methods, SHAP and dCAM. We study these methods on 3 synthetic datasets and 2 real-world datasets and provide a quantitative and qualitative analysis of the explanations provided. We find that flattening the multivariate datasets by concatenating the channels works as well as using multivariate classifiers directly and adaptations of SHAP for MTSC work quite well. Additionally, we also find that the popular synthetic datasets we used are not suitable for time series analysis.
Autores: Davide Italo Serramazza, Thu Trang Nguyen, Thach Le Nguyen, Georgiana Ifrim
Última atualização: 2023-09-07 00:00:00
Idioma: English
Fonte URL: https://arxiv.org/abs/2308.15223
Fonte PDF: https://arxiv.org/pdf/2308.15223
Licença: https://creativecommons.org/licenses/by/4.0/
Alterações: Este resumo foi elaborado com a assistência da AI e pode conter imprecisões. Para obter informações exactas, consulte os documentos originais ligados aqui.
Obrigado ao arxiv pela utilização da sua interoperabilidade de acesso aberto.
Ligações de referência
- https://anonymous.4open.science/r/ECML_PKDD_2023-795A
- https://ctan.org/pkg/multirow
- https://ctan.org/pkg/hhline
- https://easychair.org/cfp/aaltd21
- https://www.overleaf.com/project/60a3ec8292ea580aa82983e5
- https://www.springer.com/gp/computer-science/lncs
- https://doi.org/#1
- https://pems.dot.ca.gov/
- https://ieeexplore.ieee.org/abstract/document/8970899?casa_token=81h_JYnBwxsAA
- https://www.mdpi.com/2227-7390/9/23/3137
- https://dl.acm.org/doi/abs/10.1145/3437963.3441815
- https://ieeexplore.ieee.org/abstract/document/9374393?casa_token=ecTJ4bptcWwAAAAA:VrmdvMABI5LoF5EThk6_xAi21AiGGKVXwDSDmduVSiVvLfCX6UFWbwCuCXmqnSQp_u4CxMCRJQ
- https://arxiv.org/abs/2207.12165
- https://github.com/davide-serramazza/Evaluating-Explanation-Methods-MTSC