Simple Science

Scienza all'avanguardia spiegata semplicemente

# Ingegneria elettrica e scienze dei sistemi# Elaborazione del segnale# Interazione uomo-macchina# Apprendimento automatico

Avanzare nel riconoscimento dei gesti con segnali sEMG

Un metodo per migliorare il riconoscimento dei gesti usando i segnali muscolari.

― 7 leggere min


Avanzamenti nelAvanzamenti nelriconoscimento dellegestualità sEMGusando segnali muscolari.un'identificazione efficiente dei gestiMetodi innovativi per
Indice

L'elettromiografia di superficie ([SEMG](/it/keywords/elettromiografia-superficiale--kkglv5d)) è un modo utile per misurare l'attività muscolare, che può essere usato per controllare dispositivi e migliorare l'interazione uomo-computer. I ricercatori stanno lavorando per riconoscere i gesti delle mani basandosi sui segnali sEMG. La maggior parte degli studi si è concentrata sull'identificazione di gesti singoli, ma c'è un crescente interesse nel riconoscere combinazioni di gesti per creare un sistema di controllo più espressivo.

In questo approccio, i gesti possono essere formati combinando movimenti di diverse parti della mano, come polso e dita. Ad esempio, un movimento del polso potrebbe indicare la direzione del cursore su uno schermo, mentre un movimento della mano potrebbe essere usato per selezionare un elemento. Questa tecnica porta a una sfida chiamata classificazione multi-etichetta, dove più gesti devono essere riconosciuti contemporaneamente.

I metodi attuali per classificare questi gesti combinati richiedono spesso una grande quantità di dati di addestramento, il che può richiedere tempo per essere raccolti. Gli utenti devono tipicamente eseguire ogni possibile combinazione di gesti, rendendo il processo piuttosto noioso. L'obiettivo di questo studio è sviluppare un metodo che permetta di riconoscere questi gesti complessi senza richiedere un addestramento esaustivo, rendendo il processo più efficiente per gli utenti.

Panoramica del Problema

Il riconoscimento dei gesti usando la sEMG è promettente, ma la sua efficacia è limitata quando si tratta di riconoscere gesti complessi. I sistemi tradizionali richiedono normalmente agli utenti di mostrare ogni singolo gesto, il che può richiedere molto tempo. Inoltre, avere molti gesti significa che gli utenti potrebbero aver bisogno di essere altamente addestrati, cosa non pratica per tutti.

La ricerca mira a semplificare questo rompendo i gesti in due parti separate: un movimento di direzione dal polso e un movimento modificatore dalle dita. Concentrandosi su questi due componenti, il sistema può costruire un set più ampio di possibili gesti senza necessitare che gli utenti eseguano ogni combinazione.

Metodologia

Per identificare chiaramente i gesti, questo studio ha adottato un approccio in due parti. Ha comportato la creazione di un modello che impara a riconoscere indipendentemente la direzione del polso e i modificatori delle dita. In questo modo, le due parti possono essere combinate per formare nuovi gesti.

Raccolta Dati

Per costruire un sistema efficace, è stato creato un dataset di gesti. Ai partecipanti è stato chiesto di eseguire vari movimenti di polso e di dita usando un joystick. Questo ha permesso ai ricercatori di raccogliere dati chiari e accurati su ogni gesto. Durante il processo, sono state attaccate etichette di verità di terra, il che significa che il gesto esatto eseguito è stato registrato, il che aiuta nell'Addestramento del Modello.

Il dataset includeva quattro direzioni del polso-Su, Giù, Sinistra e Destra-insieme a due modificatori delle dita-Pinza e Pollice. È stato incluso anche un gesto di riposo per completezza. Combinando queste due parti, il team di ricerca ha generato quelli che chiamavano "doppie gesti".

Addestramento del Modello

Il passo successivo ha comportato l'addestramento di modelli che possono catalogare questi gesti. Sono state esplorate due tipologie di architetture di modello: parallele e gerarchiche. Nel modello parallelo, due classificatori indipendenti lavoravano simultaneamente; uno si concentrava sulle direzioni del polso, mentre l'altro sui modificatori delle dita.

Il modello gerarchico ha anche usato due classificatori, ma il processo era sequenziale. Prima si prendeva una decisione su se una direzione fosse presente, e poi si identificava la direzione effettiva.

Sono stati testati diversi algoritmi di machine learning per la loro efficacia nel classificare i gesti. Questi includevano la Regressione Logistica, il Perceptron Multilayer e la Random Forest. L'obiettivo era trovare l'architettura di modello e l'algoritmo più adatti in grado di identificare accuratamente sia i gesti singoli che quelli doppi usando i dati raccolti.

Esperimenti e Risultati

Esperimento 1: Selezione del Modello

Il primo esperimento mirava a determinare la migliore struttura del modello e l'algoritmo di classificazione. Ogni modello è stato addestrato sui dati forniti dai partecipanti e testato su un set separato di gesti. Le prestazioni di ciascun modello sono state valutate in base alla loro accuratezza nel classificare sia gesti singoli che doppi.

I risultati hanno mostrato che l'algoritmo del Perceptron Multilayer ha avuto le migliori performance in generale, offrendo un buon equilibrio nell'identificazione sia di gesti singoli che doppi. Questo ha portato i ricercatori a selezionare questo modello per ulteriori analisi.

Esperimento 2: Selezione di Gesti Sintetici

La fase successiva della ricerca si è concentrata su come creare gesti sintetici a partire da gesti singoli esistenti. Combinando le caratteristiche dei gesti del polso e delle dita, il team ha generato nuovi gesti combinati sintetici. Questo ha aiutato a soddisfare la necessità di ulteriori dati di addestramento senza richiedere agli utenti di eseguire un gran numero di gesti extra.

Sono state testate varie strategie per selezionare quali gesti sintetici includere nel processo di addestramento. I risultati hanno indicato che prendere un campione rappresentativo di gesti sintetici preservava le prestazioni mentre riduceva la quantità di dati sintetici utilizzati.

Esperimento 3: Aumento dei Dati dei Gesti Singoli

L'ultimo esperimento ha esplorato se aumentare i dati dei gesti singoli potesse migliorare le performance sia sui gesti singoli che su quelli doppi. Sono state applicate diverse tecniche di aumento, come l'aggiunta di rumore ai dati dei gesti esistenti. L'intenzione era di bilanciare meglio il dataset aumentando il numero di gesti singoli rispetto ai gesti doppi.

Tuttavia, il team ha scoperto che aumentare i gesti singoli non ha migliorato significativamente l'accuratezza nel riconoscere i gesti doppi. Questo ha evidenziato una sfida nel bilanciare il dataset, e sarà necessario un ulteriore approfondimento su diversi metodi di aumentazione.

Conclusione

Questa ricerca presenta un approccio nuovo al riconoscimento di gesti combinati usando segnali sEMG. Il metodo mostra promesse per aumentare l'espressività dei gesti mantenendo un breve tempo di calibrazione. L'indagine sulla selezione del modello, le opzioni di dati sintetici e l'aumento dei gesti singoli fornisce una base per futuri miglioramenti.

I risultati suggeriscono che, concentrandosi separatamente sui movimenti del polso e delle dita, è possibile creare un sistema di riconoscimento dei gesti più versatile. Questo può portare a migliorare le interazioni uomo-computer in diverse applicazioni, come controllare arti robotici o migliorare esperienze di realtà virtuale.

La capacità di riconoscere gesti più complessi senza sopraffare gli utenti durante la fase di addestramento può migliorare significativamente l'usabilità dei sistemi di controllo basati sui gesti. Il potenziale di estendere questa metodologia per includere più gesti in futuro rende questo un'area entusiasmante per ulteriori ricerche nel campo.

Direzioni Future

Sebbene questo studio abbia mostrato risultati promettenti, ci sono ancora diverse strade da esplorare. Il lavoro attuale si è concentrato su un set limitato di gesti, il che solleva la questione della scalabilità. Man mano che i ricercatori cercano di includere più gesti o persino combinazioni di tre o più movimenti, la complessità e il volume dei dati di addestramento aumenteranno. Sviluppare metodi che consentano un addestramento efficiente senza richiedere una raccolta dati estesa sarà essenziale.

Inoltre, lo studio ha principalmente utilizzato un joystick per un'etichettatura di verità di terra precisa. La ricerca futura potrebbe trarre beneficio dall'esplorare diverse opzioni hardware che potrebbero fornire segnali ancora più chiari dai movimenti muscolari. Questo potrebbe assicurare che tutti i gesti siano catturati efficacemente e ridurre il rumore nel processo di etichettatura.

Inoltre, vari metodi per generare dati sintetici rappresentano un'altra area di potenziale miglioramento. Lo studio attuale ha utilizzato tecniche di mediazione, ma potrebbero essere esplorati metodi più avanzati per creare combinazioni sintetiche ancora migliori.

Infine, considerare l'applicazione di metodi di deep learning potrebbe portare a miglioramenti nel riconoscimento dei gesti. Questi modelli potrebbero sfruttare quantità maggiori di dati sintetici, permettendo risultati di classificazione migliori.

In generale, il metodo proposto fornisce una solida base per far avanzare i sistemi di riconoscimento dei gesti e migliorare l'espressività dell'interazione uomo-computer.

Fonte originale

Titolo: A Multi-label Classification Approach to Increase Expressivity of EMG-based Gesture Recognition

Estratto: Objective: The objective of the study is to efficiently increase the expressivity of surface electromyography-based (sEMG) gesture recognition systems. Approach: We use a problem transformation approach, in which actions were subset into two biomechanically independent components - a set of wrist directions and a set of finger modifiers. To maintain fast calibration time, we train models for each component using only individual gestures, and extrapolate to the full product space of combination gestures by generating synthetic data. We collected a supervised dataset with high-confidence ground truth labels in which subjects performed combination gestures while holding a joystick, and conducted experiments to analyze the impact of model architectures, classifier algorithms, and synthetic data generation strategies on the performance of the proposed approach. Main Results: We found that a problem transformation approach using a parallel model architecture in combination with a non-linear classifier, along with restricted synthetic data generation, shows promise in increasing the expressivity of sEMG-based gestures with a short calibration time. Significance: sEMG-based gesture recognition has applications in human-computer interaction, virtual reality, and the control of robotic and prosthetic devices. Existing approaches require exhaustive model calibration. The proposed approach increases expressivity without requiring users to demonstrate all combination gesture classes. Our results may be extended to larger gesture vocabularies and more complicated model architectures.

Autori: Niklas Smedemark-Margulies, Yunus Bicer, Elifnur Sunger, Stephanie Naufel, Tales Imbiriba, Eugene Tunik, Deniz Erdoğmuş, Mathew Yarossi

Ultimo aggiornamento: 2023-09-13 00:00:00

Lingua: English

URL di origine: https://arxiv.org/abs/2309.12217

Fonte PDF: https://arxiv.org/pdf/2309.12217

Licenza: https://creativecommons.org/licenses/by/4.0/

Modifiche: Questa sintesi è stata creata con l'assistenza di AI e potrebbe presentare delle imprecisioni. Per informazioni accurate, consultare i documenti originali collegati qui.

Si ringrazia arxiv per l'utilizzo della sua interoperabilità ad accesso aperto.

Altro dagli autori

Articoli simili