Reconhecimento de Ação com Foco na Privacidade usando Tecnologia de Ultrassom
Um novo método usa ultrassom para reconhecer ações enquanto protege a privacidade.
― 6 min ler
Índice
O reconhecimento de ações é uma tecnologia importante que ajuda em várias áreas, como robótica, saúde, monitoramento de idosos e identificação de comportamentos suspeitos. Tradicionalmente, essa tecnologia depende de informações visuais de vídeos e imagens. No entanto, os métodos visuais podem levantar preocupações sobre privacidade porque capturam informações identificáveis, como rostos e ambientes. Para resolver esses problemas, propomos um novo método que usa sensoriamento por ultrassom ativo para reconhecer ações sem comprometer a privacidade.
A Necessidade de Privacidade no Reconhecimento de Ações
As técnicas visuais são populares para reconhecer ações humanas, mas muitas vezes envolvem dados pessoais que podem identificar indivíduos. Isso limita seu uso, especialmente em ambientes sensíveis. Para evitar esses problemas de privacidade, alguns métodos usam sinais como radiofrequência (RF), Wi-Fi e Sinais Acústicos. Esses métodos não capturam imagens, ajudando a manter a privacidade ao detectar movimentos humanos sem revelar rostos ou outras características identificáveis.
Por Que Usar Sinais Acústicos?
Enquanto sinais RF e Wi-Fi podem detectar movimentos corporais detalhados, eles podem ter dificuldades com interferências de dispositivos eletrônicos. Por outro lado, sinais acústicos oferecem uma maneira prática de detectar ações humanas. Eles podem ser facilmente implementados com microfones e alto-falantes comuns, não são afetados por regulamentos rigorosos e podem funcionar em áreas onde sinais de rádio não são permitidos, como em aviões. Sinais acústicos também podem filtrar ruídos indesejados, tornando-os úteis em vários ambientes.
Sensoriamento Ativo vs. Passivo
Existem dois tipos de sensoriamento acústico: passivo e ativo. O sensoriamento passivo captura sons que são feitos naturalmente por objetos, como vozes. No entanto, esse método pode levantar preocupações de privacidade e pode não funcionar se a pessoa estiver em silêncio. O sensoriamento ativo, por outro lado, emite um som e mede as ondas refletidas de uma pessoa. Esse método permite o rastreamento de movimentos sem coletar informações pessoais.
Embora o sensoriamento ativo tenha sido usado em tarefas como reconhecimento de gestos, ainda não foi amplamente utilizado para reconhecimento de ações. Para preencher essa lacuna, projetamos um novo conjunto de dados que se concentra em ações capturadas por sensoriamento por ultrassom ativo não invasivo.
Nossa Abordagem para Reconhecimento de Ações
Para avaliar a viabilidade do reconhecimento de ações usando sensoriamento por ultrassom ativo, focamos em ações básicas. As categorizamos em movimentos de parte superior do corpo, parte inferior do corpo e corpo inteiro. Coletamos dados de desempenho com a ajuda de uma máquina de vetor de suporte (SVM) e de uma rede neural convolucional (CNN) para classificar essas ações.
Definimos oito ações fundamentais: acenar, lançar, chutar, pegar, caminhar, deitar, sentar e ficar em pé. Construímos nosso conjunto de dados gravando essas ações em diferentes ambientes, incluindo uma câmara anecoica e quartos com e sem móveis.
Como Coletamos Dados
Nossos experimentos foram configurados em três espaços diferentes. Na câmara anecoica, garantimos mínima interferência. Também utilizamos um quarto sem móveis para reduzir distrações, enquanto um quarto mobiliado ofereceu condições da vida real. Gravamos dados com sujeitos únicos em cada configuração para garantir clareza em nossos resultados.
Recursos para Classificação de Ações
Para a classificação de ações, utilizamos dois tipos principais de recursos: ondas refletidas em série temporal e envelopes de ondas refletidas. As ondas refletidas em série temporal nos dão informações temporais vitais, essenciais para identificar ações a partir de ondas de ultrassom.
O outro tipo de recurso foca na amplitude das ondas refletidas. Mudanças na forma das ondas refletidas podem nos ajudar a entender os movimentos dos indivíduos. Para analisar ainda mais os sinais, também observamos a resposta ao impulso das ondas sonoras.
Análise dos Resultados
Durante nossos experimentos, comparamos o desempenho dos modelos SVM e CNN. Descobrimos que a SVM foi eficaz, especialmente em condições ideais, onde a mesma pessoa foi gravada na mesma sala. A precisão chegou a 99,8% nesses melhores casos. No entanto, quando enfrentamos sujeitos desconhecidos ou ambientes diferentes, a precisão caiu significativamente.
Essa variação indica que diferenças individuais nos movimentos podem impactar o desempenho do reconhecimento. Assim, precisamos de melhores métodos para reduzir os efeitos dessas diferenças em nossos processos de extração de recursos.
Desafios e Limitações
Um dos principais desafios que enfrentamos foi a queda de desempenho ao testar em salas desconhecidas. Por exemplo, ao testar dados coletados em uma sala mobiliada, vimos uma precisão tão baixa quanto 22,7%. Essa queda provavelmente se deve às reflexões de vários objetos no ambiente, que podem confundir o sistema de sensoriamento.
Para melhorar o desempenho em ambientes desconhecidos, sugerimos ter um conjunto de dados de referência coletados quando ninguém está presente e subtrair esses dados dos sinais registrados. Outro método poderia ser reunir dados mais variados, permitindo um melhor treinamento dos modelos de aprendizado profundo para reconhecer ações, apesar das diferenças entre pessoas e configurações.
Direções Futuras
Daqui pra frente, nossa pesquisa se concentrará em desenvolver melhores técnicas para extração de recursos que possam levar em conta variações de comportamento individuais e mudanças ambientais. Acreditamos que nosso método tem um grande potencial para ser uma abordagem consciente da privacidade para sensoriamento humano.
Ao não capturar informações identificáveis enquanto ainda rastreia ações com precisão, o sensoriamento por ultrassom ativo pode abrir caminho para muitas aplicações que requerem monitoramento humano sem comprometer a privacidade. Essa tecnologia pode ser particularmente útil na saúde, monitorando idosos e em vários sistemas automatizados de robótica.
Conclusão
Em resumo, o reconhecimento de ações usando sensoriamento por ultrassom ativo apresenta uma nova abordagem empolgante para rastrear movimentos humanos enquanto protege a privacidade individual. Com melhorias contínuas na extração de recursos e treinamento de modelos, nosso objetivo é aumentar a precisão e confiabilidade dessa tecnologia. Acreditamos que, com mais pesquisas, esse método pode se tornar um padrão em muitos campos que exigem reconhecimento eficaz de ações humanas sem o risco de vigilância intrusiva.
Título: hear-your-action: human action recognition by ultrasound active sensing
Resumo: Action recognition is a key technology for many industrial applications. Methods using visual information such as images are very popular. However, privacy issues prevent widespread usage due to the inclusion of private information, such as visible faces and scene backgrounds, which are not necessary for recognizing user action. In this paper, we propose a privacy-preserving action recognition by ultrasound active sensing. As action recognition from ultrasound active sensing in a non-invasive manner is not well investigated, we create a new dataset for action recognition and conduct a comparison of features for classification. We calculated feature values by focusing on the temporal variation of the amplitude of ultrasound reflected waves and performed classification using a support vector machine and VGG for eight fundamental action classes. We confirmed that our method achieved an accuracy of 97.9% when trained and evaluated on the same person and in the same environment. Additionally, our method achieved an accuracy of 89.5% even when trained and evaluated on different people. We also report the analyses of accuracies in various conditions and limitations.
Autores: Risako Tanigawa, Yasunori Ishii
Última atualização: 2023-09-14 00:00:00
Idioma: English
Fonte URL: https://arxiv.org/abs/2309.08087
Fonte PDF: https://arxiv.org/pdf/2309.08087
Licença: https://creativecommons.org/licenses/by/4.0/
Alterações: Este resumo foi elaborado com a assistência da AI e pode conter imprecisões. Para obter informações exactas, consulte os documentos originais ligados aqui.
Obrigado ao arxiv pela utilização da sua interoperabilidade de acesso aberto.