Migliorare la sicurezza nei luoghi di lavoro con robot e persone
Unire telecamere 3D e IMU assicura interazioni sicure tra umani e robot.
― 4 leggere min
I robot stanno diventando sempre più comuni nei posti di lavoro, lavorando accanto agli esseri umani. Però ci sono preoccupazioni riguardo alla sicurezza su come umani e robot interagiscono nello stesso spazio. Una sfida chiave è capire esattamente dove si trova una persona e come è posizionata. Queste informazioni sono fondamentali per garantire che i robot possano operare in sicurezza senza scontrarsi con i lavoratori.
I sistemi attuali per la cooperazione tra robot e umani hanno spesso difficoltà a tracciare accuratamente i movimenti umani. Ostacoli occasionali, come persone che si muovono davanti alle telecamere, possono disturbare il Tracciamento, rendendo difficile garantire la sicurezza. Questo documento discute una soluzione che combina due tipi di tecnologie di tracciamento: un sistema di telecamera 3D e piccoli Sensori indossati sul corpo chiamati unità di misura inerziale (IMU).
La Necessità di un Tracciamento Affidabile
Nei posti di lavoro dove robot e umani condividono compiti, sapere dove si trova ogni persona in ogni momento è cruciale. I robot devono essere in grado di fermarsi o rallentare se una persona si avvicina troppo. Un sistema affidabile per rilevare la Posizione di una persona aiuta a calcolare distanze sicure per evitare incidenti. Inoltre, comprendere gesti e movimenti può portare a una comunicazione più efficace tra umani e robot.
Anche se ci sono vari sistemi disponibili per il tracciamento delle persone, spessissimo si fa affidamento su un solo metodo, il che può portare a problemi. Ad esempio, i sistemi di telecamera possono perdere di vista una persona a causa di ostacoli, causando lacune nelle informazioni. D'altra parte, le IMU potrebbero driftare nel tempo, rendendo le loro letture meno affidabili.
Fusione di Tecnologie per Risultati Migliori
La soluzione proposta combina un sensore di visione 3D con le IMU posizionate sul corpo umano. La telecamera 3D traccia i movimenti della persona, mentre le IMU aiutano a riempire eventuali vuoti quando la telecamera perde di vista la persona. Quando una persona si muove, le IMU lavorano per tenere traccia della loro posizione, anche se la telecamera 3D non riesce a vederli in quel momento.
Per mantenere i dati accurati, il sistema controlla continuamente e regola eventuali errori nelle letture delle IMU. Questo metodo migliora l'accuratezza del tracciamento e garantisce che il robot possa operare in sicurezza senza rischiare una collisione con il partner umano.
Applicazioni nella Vita Reale
In pratica, questo sistema può essere utilizzato in vari ambienti dove umani e robot lavorano insieme. Ad esempio, può assistere nelle linee di assemblaggio dove un lavoratore potrebbe aver bisogno di raggiungere strumenti o parti. Se un lavoratore lascia cadere qualcosa, il sistema aiuta il robot a rilevare i loro movimenti e reagire di conseguenza, ad esempio allontanandosi per dare spazio al lavoratore.
I test condotti hanno mostrato risultati promettenti. La tecnologia è stata in grado di tracciare la posizione del braccio con un errore molto ridotto, anche quando la telecamera 3D non riusciva a vederlo. Le IMU hanno fornito un flusso costante di informazioni che ha aiutato a mantenere un tracciamento continuo.
Sfide con le Tecnologie di Tracciamento
Anche se la combinazione di telecamere 3D e IMU sembra funzionare bene, ci sono ancora sfide da affrontare. Ad esempio, il costo delle IMU può variare, e usare modelli più economici potrebbe portare a letture meno accurate. Inoltre, entrambi i sistemi devono essere configurati e mantenuti correttamente per garantire che funzionino in modo efficace in tempo reale.
Sviluppi Futuri
Guardando al futuro, ci sono piani per migliorare ulteriormente il sistema attuale. Un obiettivo è estendere le capacità di tracciamento a tutto il corpo invece che solo agli arti. Questo renderebbe possibile capire meglio come le persone si muovono e interagiscono negli spazi condivisi con i robot.
Un'altra area di interesse è integrare queste tecnologie di sensori nei vestiti di tutti i giorni. Questo renderebbe il tracciamento ancora più naturale, dato che le persone non dovrebbero indossare dispositivi ingombranti.
Conclusione
Un tracciamento umano affidabile è vitale in ambienti dove robot e umani lavorano insieme. Combinare sensori di visione 3D con IMU ha mostrato potenzialità nel migliorare l'accuratezza del tracciamento e la sicurezza. Questo approccio assicura interazioni migliori tra umani e robot, rendendo i posti di lavoro più sicuri e più efficienti.
Con il progresso della tecnologia, la ricerca continua a perfezionare questi sistemi, rendendoli più efficaci nelle applicazioni reali. L’obiettivo è creare ambienti sicuri e intuitivi dove umani e robot possano collaborare senza problemi.
Titolo: Robust human position estimation in cooperative robotic cells
Estratto: Robots are increasingly present in our lives, sharing the workspace and tasks with human co-workers. However, existing interfaces for human-robot interaction / cooperation (HRI/C) have limited levels of intuitiveness to use and safety is a major concern when humans and robots share the same workspace. Many times, this is due to the lack of a reliable estimation of the human pose in space which is the primary input to calculate the human-robot minimum distance (required for safety and collision avoidance) and HRI/C featuring machine learning algorithms classifying human behaviours / gestures. Each sensor type has its own characteristics resulting in problems such as occlusions (vision) and drift (inertial) when used in an isolated fashion. In this paper, it is proposed a combined system that merges the human tracking provided by a 3D vision sensor with the pose estimation provided by a set of inertial measurement units (IMUs) placed in human body limbs. The IMUs compensate the gaps in occluded areas to have tracking continuity. To mitigate the lingering effects of the IMU offset we propose a continuous online calculation of the offset value. Experimental tests were designed to simulate human motion in a human-robot collaborative environment where the robot moves away to avoid unexpected collisions with de human. Results indicate that our approach is able to capture the human\textsc's position, for example the forearm, with a precision in the millimetre range and robustness to occlusions.
Autori: António Amorim, Diana Guimarães, Tiago Mendonça, Pedro Neto, Paulo Costa, António Paulo Moreira
Ultimo aggiornamento: 2023-04-17 00:00:00
Lingua: English
URL di origine: https://arxiv.org/abs/2304.08379
Fonte PDF: https://arxiv.org/pdf/2304.08379
Licenza: https://creativecommons.org/licenses/by/4.0/
Modifiche: Questa sintesi è stata creata con l'assistenza di AI e potrebbe presentare delle imprecisioni. Per informazioni accurate, consultare i documenti originali collegati qui.
Si ringrazia arxiv per l'utilizzo della sua interoperabilità ad accesso aperto.