Simple Science

Scienza all'avanguardia spiegata semplicemente

# Informatica# Robotica# Visione artificiale e riconoscimento di modelli# Interazione uomo-macchina# Apprendimento automatico

Robot che imparano a prevedere i movimenti umani

Un nuovo metodo aiuta i robot a prevedere come si muovono le persone negli spazi condivisi.

― 5 leggere min


Prevedere i movimentiPrevedere i movimentiumani con i robotumane per interazioni più sicure.movimento usando le caratteristicheI robot migliorano le previsioni di
Indice

Navigare in sicurezza in posti come case e uffici richiede ai robot di prevedere come si muoveranno le persone. È importante perché gli esseri umani non seguono sempre percorsi chiari e possono apparire all'improvviso da posti come angoli o porte. Nel nostro lavoro, abbiamo introdotto un nuovo modo per i robot di anticipare i movimenti umani usando tecnologie avanzate.

La Sfida di Prevedere il Movimento Umano

I robot devono essere in grado di rilevare le persone nel loro ambiente e prendere decisioni su come ci si aspetta che si muovano. Ci sono tre compiti principali: Percezione, previsione e Pianificazione.

  1. Percezione: Riguarda il notare le persone e capire l’ambiente circostante.
  2. Previsione: Significa intuire dove potrebbero andare le persone dopo.
  3. Pianificazione: I robot devono poi decidere come muoversi verso il loro obiettivo evitando collisioni con gli umani.

Sebbene sia stata studiata a lungo la previsione del movimento delle auto, prevedere il movimento umano in posti quotidiani, come case o ospedali, è meno comune ma molto importante.

Perché Gli Umani Sono Diversi

Le persone si muovono in un modo molto meno prevedibile rispetto alle auto. Possono camminare, correre, fermarsi o cambiare direzione rapidamente, a seconda dei loro compiti. Questo significa che un robot in un ufficio affollato deve affrontare molti movimenti imprevedibili da parte di diverse persone contemporaneamente.

Inoltre, in spazi più piccoli, ci sono spesso ostacoli come muri e mobili che possono bloccare la vista di una persona fino a quando non sono molto vicini. Quindi, il robot deve agire rapidamente e con precisione basandosi sulle informazioni limitate che ha.

La Nostra Soluzione: Usare le Caratteristiche Uman

Per migliorare come i robot prevedono i movimenti umani, abbiamo progettato un sistema che utilizza diversi tipi di informazioni su una persona. Questo include:

  • Dove si trova: Il robot tiene traccia delle posizioni delle persone.
  • Dove stanno guardando: Il robot osserva i movimenti della testa.
  • Postura del corpo: Il robot utilizza modelli 3D per capire come una persona sta in piedi o si muove.

Questo approccio permette ai robot di raccogliere molte informazioni senza bisogno di dati perfetti. Aiuta i robot a fare previsioni migliori su dove andranno le persone dopo.

L'Importanza delle Caratteristiche Umane

Le persone emanano segnali visivi, come dove guardano o come si muovono, che possono dire molto a un robot sulle loro intenzioni. Ad esempio, se una persona gira la testa o guarda in una certa direzione, è un forte suggerimento su dove potrebbe muoversi dopo. Usare questo tipo di informazioni può migliorare notevolmente le previsioni del robot.

Contributi Chiave del Nostro Lavoro

  1. Adattamento alla Navigazione Umana: Ci siamo concentrati su come rendere i robot migliori nel prevedere i movimenti in ambienti dove ci sono spesso umani.
  2. Uso delle Caratteristiche Visive: Il nostro sistema incorpora caratteristiche 3D, come le posizioni del corpo, per fornire una comprensione più chiara delle azioni umane.
  3. Affrontare Dati Limitati: Abbiamo dimostrato come usare indizi visivi sia particolarmente utile quando i robot hanno poche informazioni sui movimenti passati di una persona.

Il Quadro per la Previsione

Abbiamo sviluppato un sistema avanzato che elabora diversi tipi di informazioni. Ecco come funziona:

  1. Raccolta Dati: I robot usano i loro sensori per raccogliere dati sulle posizioni delle persone, movimenti della testa e postura del corpo.
  2. Elaborazione delle Informazioni: Il sistema combina queste informazioni usando un’architettura speciale che permette di considerare le relazioni tra le diverse caratteristiche umane.
  3. Fare Previsioni: Il robot poi prevede dove andrà la persona nel prossimo futuro, tenendo conto dell'incertezza del comportamento umano.

Ricerca Precedente e Limitazioni

Molti studi si sono concentrati su come prevedere dove si muoveranno le auto. Questi studi di solito si concentrano su dati di posizione semplici e non includono approfondimenti più profondi sulle persone coinvolte. Ci sono stati alcuni studi che uniscono i movimenti del corpo umano con previsioni di traiettoria, ma spesso questo avviene in ambienti controllati, che non riflettono le condizioni del mondo reale.

Testare il Nostro Sistema

Per convalidare il nostro approccio, lo abbiamo testato in vari ambienti del mondo reale. Abbiamo monitorato quanto bene il nostro modello ha performato rispetto ad altri metodi. Il nostro obiettivo era dimostrare che incorporare le caratteristiche umane porta a previsioni migliori in spazi affollati.

Il Ruolo delle Caratteristiche Basate sulla Visione

Le nostre scoperte indicano che usare caratteristiche visive migliora l'accuratezza delle previsioni, specialmente quando ci sono pochi dati storici su una persona. Quando i robot si sono trovati di fronte a una nuova persona, basarsi solo sulle posizioni passate non ha portato a buone previsioni. Tuttavia, quando abbiamo incluso caratteristiche visive come la postura del corpo, il nostro modello ha previsto con successo dove si sarebbe spostata la persona successivamente.

Raccolta Dati e Valutazione

Abbiamo usato dataset esistenti per valutare il nostro modello. Molti di questi dataset erano limitati poiché registrati in ambienti specifici, spesso usando una sola telecamera. Il nostro obiettivo era dimostrare che il nostro approccio poteva adattarsi a situazioni diverse, migliorando significativamente le prestazioni di previsione.

Risultati sulla Navigazione Centrata sull'Umano

Attraverso vari test, abbiamo dimostrato che la nostra architettura migliora efficacemente le previsioni in ambienti dove gli esseri umani sono attivi. Abbiamo notato risultati migliori in situazioni sociali dove le persone interagiscono da vicino. Questo è cruciale per i robot che lavorano accanto agli umani in posti affollati.

Conclusione

La nostra ricerca offre una nuova prospettiva su come i robot possano anticipare e rispondere ai movimenti umani in spazi condivisi. Usando informazioni sulle caratteristiche umane, abbiamo migliorato significativamente l'accuratezza delle previsioni di movimento. Il nostro lavoro apre la strada a futuri studi che potrebbero ulteriormente migliorare questi sistemi, in particolare in ambienti dinamici nella vita reale.

I robot che comprendono meglio il movimento umano possono portare a interazioni più sicure ed efficaci, rendendo gli spazi quotidiani più navigabili sia per i robot che per le persone.

Fonte originale

Titolo: Robots That Can See: Leveraging Human Pose for Trajectory Prediction

Estratto: Anticipating the motion of all humans in dynamic environments such as homes and offices is critical to enable safe and effective robot navigation. Such spaces remain challenging as humans do not follow strict rules of motion and there are often multiple occluded entry points such as corners and doors that create opportunities for sudden encounters. In this work, we present a Transformer based architecture to predict human future trajectories in human-centric environments from input features including human positions, head orientations, and 3D skeletal keypoints from onboard in-the-wild sensory information. The resulting model captures the inherent uncertainty for future human trajectory prediction and achieves state-of-the-art performance on common prediction benchmarks and a human tracking dataset captured from a mobile robot adapted for the prediction task. Furthermore, we identify new agents with limited historical data as a major contributor to error and demonstrate the complementary nature of 3D skeletal poses in reducing prediction error in such challenging scenarios.

Autori: Tim Salzmann, Lewis Chiang, Markus Ryll, Dorsa Sadigh, Carolina Parada, Alex Bewley

Ultimo aggiornamento: 2023-09-29 00:00:00

Lingua: English

URL di origine: https://arxiv.org/abs/2309.17209

Fonte PDF: https://arxiv.org/pdf/2309.17209

Licenza: https://creativecommons.org/licenses/by/4.0/

Modifiche: Questa sintesi è stata creata con l'assistenza di AI e potrebbe presentare delle imprecisioni. Per informazioni accurate, consultare i documenti originali collegati qui.

Si ringrazia arxiv per l'utilizzo della sua interoperabilità ad accesso aperto.

Altro dagli autori

Articoli simili