Simple Science

Scienza all'avanguardia spiegata semplicemente

# Ingegneria elettrica e scienze dei sistemi# Robotica# Elaborazione del segnale

Nuovo dispositivo prevede i movimenti delle braccia umane per un'assistenza robotica migliore

I sensori indossabili aiutano i robot a anticipare i movimenti delle braccia umane in modo efficace.

― 7 leggere min


Prevedere i movimentiPrevedere i movimentidelle braccia umane congli IMUumane.anticipare i movimenti delle bracciaUn nuovo modello permette ai robot di
Indice

Nelle attività quotidiane, le persone spesso devono lavorare insieme e passarsi oggetti. Per far sì che i robot possano aiutare in questo modo, devono sapere dove si trova il braccio umano in ogni momento. Questo significa che i robot non devono solo reagire, ma anche anticipare cosa farà una persona dopo. Prevedendo il bersaglio di un movimento verso un oggetto, i robot possono prepararsi ad assistere prima che accada l'azione.

Questo articolo parla di un nuovo approccio per tracciare i movimenti del braccio umano utilizzando un dispositivo indossabile con sensori. Questi sensori aiuteranno il robot a interagire con gli esseri umani In tempo reale, anche quando la visibilità è scarsa o l'ambiente è disordinato. L'idea principale è usare un dispositivo semplice che può essere indossato sul braccio, dotato di sensori di movimento chiamati Unità di Misura Inerziale (IMU).

L'importanza della collaborazione

Quando due persone lavorano insieme, riescono spesso a indovinare cosa intende fare l'altra. Per esempio, se una persona si allunga per passare un oggetto, l'altra può prevedere dove andrà quell'oggetto e prepararsi a riceverlo. Anche i robot devono imparare a farlo. Questa abilità è importante in varie situazioni, come passarsi oggetti, collaborare in spazi di lavoro condivisi, evitare collisioni o anche in ambienti virtuali.

Capire i movimenti del braccio umano è stato un argomento di studio per molti anni. I ricercatori hanno esplorato come gli esseri umani si allungano verso gli oggetti, cercando di identificare modelli nei movimenti. Mentre gli studi precedenti si concentravano sull'uso di telecamere e indizi visivi per comprendere quei movimenti, questi metodi possono avere difficoltà in situazioni di scarsa luce o quando oggetti bloccano la vista.

Il ruolo dei dispositivi indossabili

I dispositivi indossabili dotati di sensori possono aiutare a superare le sfide poste dai metodi visivi. Queste IMU possono raccogliere dati direttamente dal braccio umano, dando una comprensione migliore del suo movimento. Questa tecnologia può essere particolarmente utile quando gli indizi visivi tradizionali sono inaffidabili a causa di illuminazione o disordine.

Un approccio specifico prevede l'uso di due IMU, una sul braccio superiore e l'altra sull'avambraccio. Questi sensori permettono al dispositivo di raccogliere informazioni su come si muove il braccio in tempo reale. I ricercatori stanno addestrando un modello con questi dati per prevedere dove si muoverà il braccio dopo.

Il problema con i metodi dipendenti dalla visione

Fare affidamento esclusivamente su telecamere e tracciamento visivo ha le sue limitazioni. In situazioni in cui la visibilità è bassa o gli oggetti ostacolano la vista, diventa difficile per un robot determinare dove sta raggiungendo un essere umano. Inoltre, usare le telecamere richiede grandi quantità di dati e risorse di calcolo potenti.

Per affrontare queste sfide, i ricercatori hanno esaminato metodi alternativi utilizzando sensori indossabili. Ad esempio, sono stati testati dispositivi come l'elettromiografia (EMG) e le interfacce cervello-computer per prevedere le intenzioni umane. Tuttavia, l'uso delle IMU mostra grande promessa grazie alla loro efficacia e al costo relativamente basso.

Sviluppare un nuovo modello di previsione

L'obiettivo di questo studio è creare un modello che consenta previsioni in tempo reale del movimento del braccio umano senza dipendere dall'input visivo. Utilizzando dati grezzi dalle IMU sul braccio umano, i ricercatori stanno indagando come prevedere dove il braccio si allungherà durante il movimento.

Un aspetto significativo di questo lavoro è l'addestramento di un modello Long Short Term Memory (LSTM). Gli LSTM sono utili per analizzare dati basati sul tempo, rendendoli ideali per osservare come si muove il braccio nel tempo. Possono catturare schemi e dipendenze nei dati che possono portare a previsioni accurate.

Per costruire il modello di previsione, i ricercatori raccolgono dati attraverso vari compiti di allungamento. Man mano che i partecipanti si allungano verso diversi bersagli, le IMU registrano i dati di movimento. Queste informazioni aiutano a creare un dataset che può addestrare il modello.

I ricercatori si concentrano su due obiettivi:

  1. Determinare la posizione attuale del polso.
  2. Prevedere dove il polso è probabile che vada dopo.

Completando questi compiti, il modello può assistere un robot nel pianificare il suo movimento di conseguenza.

Impostare l'esperimento

Per gli esperimenti, è stato progettato un dispositivo indossabile che include due IMU e un sistema di registrazione dei dati. Il dispositivo offre un flusso di dati in tempo reale del movimento, consentendo ai ricercatori di analizzare efficacemente i movimenti di allungamento.

I partecipanti partecipano a diversi test in cui si allungano verso aree bersaglio designate. Il dispositivo registra le loro posizioni del braccio durante i test, creando un dataset completo. Questi dati vengono quindi elaborati per addestrare il modello, consentendogli di imparare come si muove il braccio e dove è probabile che si allunghi dopo.

Affrontare le variazioni nel movimento

Ogni individuo ha movimenti del braccio unici a seconda di fattori come la forma e le dimensioni del corpo. Questa variabilità può complicare il completamento delle attività e le previsioni. Pertanto, i ricercatori si assicurano che i dati raccolti riflettano una vasta gamma di movimenti del braccio in diverse posizioni.

Ogni partecipante allo studio è stato incoraggiato a eseguire vari compiti di allungamento da diverse posizioni iniziali. Avendo un dataset diversificato, i ricercatori possono addestrare meglio il modello per affrontare la variabilità nei movimenti del braccio.

Valutare il modello di posizione del polso

Per valutare quanto bene il modello prevede la posizione del polso, i ricercatori analizzano la sua accuratezza testando diverse configurazioni dei dati IMU. Confrontano le prestazioni di modelli che utilizzano varie combinazioni di input dei sensori per identificare quale configurazione offre i migliori risultati.

Dopo ampi test, i risultati mostrano che il modello più efficace combina i dati di tutti i sensori disponibili. Questo approccio completo fornisce la massima accuratezza nella stima della posizione del polso durante i compiti di allungamento.

Previsione del bersaglio

Dopo aver valutato la posizione del polso, l'attenzione si concentra sulla previsione del bersaglio del movimento di allungamento. L'obiettivo è capire come si muoverà il braccio e dove si allungherà dopo in base ai dati raccolti in precedenza.

I ricercatori sviluppano un modello di previsione utilizzando una rete LSTM che incorpora informazioni sulla posizione del polso. Alimentando una sequenza di punti dati passati, il modello impara a prevedere dove si troverà il polso in base ai movimenti precedenti.

Una scoperta chiave durante la ricerca è che aggiungere la posizione approssimativa del polso ai dati di input migliora la capacità predittiva del modello. Addestrando con questi nuovi dati, il modello ottiene miglioramenti significativi in accuratezza.

Collaborazione umana-robot in tempo reale

Dopo aver stabilito un solido modello di previsione, i ricercatori conducono esperimenti per dimostrare la sua efficacia in tempo reale. I partecipanti si allungano verso un braccio robotico mentre il robot riceve previsioni continue su dove andrà il braccio umano.

Quando il robot riceve la sua prima previsione, inizia a pianificare il suo movimento per incontrare il braccio umano. Man mano che arrivano nuove previsioni, il robot regola di conseguenza il suo movimento. Questo approccio porta a risultati impressionanti, mostrando alti tassi di successo nel raggiungere il bersaglio desiderato mentre il partecipante umano estende il braccio.

Tassi di successo e scoperte

I test che coinvolgono più partecipanti producono risultati favorevoli. Il robot riesce a raggiungere la mano umana nella maggior parte dei casi. Questo risultato è particolarmente notevole poiché alcuni partecipanti non avevano contribuito con dati durante l'addestramento del modello.

Attraverso questi test, diventa chiaro che il modello inferisce efficacemente i schemi di movimento umano. Imparando dalle sequenze di dati di movimento, il modello può generalizzare e adattarsi a utenti diversi, portando a interazioni di successo.

Conclusione

La ricerca mette in evidenza il valore di utilizzare dispositivi indossabili con IMU per prevedere il movimento del braccio umano. I modelli sviluppati qui consentono ai robot di anticipare i compiti di allungamento umani in tempo reale, anche senza fare affidamento su informazioni visive. Questa capacità è significativa per migliorare la collaborazione tra umani e robot in vari scenari.

Con un setup economico e leggero, l'approccio mostra promettenti applicazioni nel mondo reale. La ricerca futura può migliorare l'adattabilità del modello a nuovi utenti o combinarlo con tecnologie aggiuntive per una maggiore accuratezza.

I risultati dimostrano come un semplice dispositivo possa essere potente nel facilitare le collaborazioni umane-robot e fornire assistenza in compiti diversi. Questo lavoro apre la porta a ulteriori indagini su come affinare questi sistemi per adattarsi a diversi ambienti e casi d'uso.

Fonte originale

Titolo: Learning Human-arm Reaching Motion Using IMU in Human-Robot Collaboration

Estratto: Many tasks performed by two humans require mutual interaction between arms such as handing-over tools and objects. In order for a robotic arm to interact with a human in the same way, it must reason about the location of the human arm in real-time. Furthermore and to acquire interaction in a timely manner, the robot must be able predict the final target of the human in order to plan and initiate motion beforehand. In this paper, we explore the use of a low-cost wearable device equipped with two inertial measurement units (IMU) for learning reaching motion for real-time applications of Human-Robot Collaboration (HRC). A wearable device can replace or be complementary to visual perception in cases of bad lighting or occlusions in a cluttered environment. We first train a neural-network model to estimate the current location of the arm. Then, we propose a novel model based on a recurrent neural-network to predict the future target of the human arm during motion in real-time. Early prediction of the target grants the robot with sufficient time to plan and initiate motion during the motion of the human. The accuracies of the models are analyzed concerning the features included in the motion representation. Through experiments and real demonstrations with a robotic arm, we show that sufficient accuracy is achieved for feasible HRC without any visual perception. Once trained, the system can be deployed in various spaces with no additional effort. The models exhibit high accuracy for various initial poses of the human arm. Moreover, the trained models are shown to provide high success rates with additional human participants not included in the model training.

Autori: Nadav D. Kahanowich, Avishai Sintov

Ultimo aggiornamento: 2023-08-26 00:00:00

Lingua: English

URL di origine: https://arxiv.org/abs/2308.13936

Fonte PDF: https://arxiv.org/pdf/2308.13936

Licenza: https://creativecommons.org/licenses/by/4.0/

Modifiche: Questa sintesi è stata creata con l'assistenza di AI e potrebbe presentare delle imprecisioni. Per informazioni accurate, consultare i documenti originali collegati qui.

Si ringrazia arxiv per l'utilizzo della sua interoperabilità ad accesso aperto.

Altro dagli autori

Articoli simili