Simple Science

Scienza all'avanguardia spiegata semplicemente

# Informatica# Visione artificiale e riconoscimento di modelli# Apprendimento automatico

Tracciamento 3D in tempo reale dei piccioni

Un nuovo sistema tiene traccia dei movimenti dei piccioni in tempo reale usando più angolazioni delle telecamere.

― 6 leggere min


Framework di TracciamentoFramework di TracciamentoPiccionireale dei movimenti degli animali.Avanzando nel tracciamento in tempo
Indice

Negli ultimi anni, tenere traccia dei movimenti e delle posture degli animali ha guadagnato più attenzione. I metodi tradizionali spesso usavano marcatori per seguire gli animali, che richiedevano di mettere etichette fisiche su di loro. Ora, nuovi metodi puntano a monitorare gli animali senza questi marcatori, soprattutto in gruppi più grandi e in ambienti naturali.

Questo articolo parla di un framework creato per seguire le pose 3D di fino a dieci piccioni in tempo reale. Usando diverse angolazioni delle telecamere, il framework stima dove si trovano i piccioni e come si muovono. Questo metodo non è solo veloce, ma fornisce anche risultati accurati paragonabili alle tecniche esistenti.

Contesto

Studiare il comportamento animale è importante per vari settori, tra cui biologia, ecologia e benessere animale. Capire come interagiscono gli animali può dare informazioni sulle strutture sociali e sulla comunicazione. Tradizionalmente, i ricercatori si affidavano all'osservazione manuale e a cataloghi di comportamenti specifici, che possono essere dispendiosi in termini di tempo e potrebbero non catturare tutte le sfumature delle interazioni animali.

Con l'ascesa della visione artificiale, i ricercatori ora hanno gli strumenti per automatizzare il tracciamento e l'analisi. Questa tecnologia consente agli scienziati di studiare i comportamenti in modo più efficiente e raccogliere dati sulle interazioni animali in ambienti più dinamici.

Attualmente, molti framework esistenti si concentrano sul tracciamento di singoli animali in condizioni controllate. Tuttavia, monitorare più animali rimane una sfida a causa di problemi come l'occlusione, dove un animale blocca la vista di un altro. La necessità di un tracciamento efficace di più animali è cruciale per comprendere i comportamenti collettivi nelle specie sociali.

Il Nuovo Framework

Per affrontare queste sfide, è stato sviluppato un nuovo framework per tracciare le pose 3D dei piccioni. Questo framework elabora i dati video da più angolazioni, consentendo di stimare le posizioni di fino a dieci piccioni contemporaneamente.

Il framework funziona prima rilevando i piccioni in video 2D e poi usando quelle posizioni 2D per dedurre le pose 3D. Questo comporta una serie di passaggi:

  1. Formazione dell’Estimatore di Pose: Il framework inizia addestrando un estimatore di pose per rilevare punti chiave dei piccioni in immagini 2D. Questo include l'identificazione di parti importanti del corpo come il becco, gli occhi e le ali.

  2. Triangolazione in 3D: Una volta rilevati i punti chiave, il passo successivo è triangolare questi punti. Questo processo utilizza informazioni da più angolazioni per dedurre dove si trovano i piccioni nello spazio 3D.

  3. Corrispondenza dei Punti: Il framework deve tenere traccia di quale punto 2D rilevato appartiene a quale piccione. Lo fa abbinando le rilevazioni dal primo fotogramma alle loro identità globali e mantenendo le corrispondenze nei fotogrammi successivi.

Confronto con i Metodi Esistenti

I risultati ottenuti da questo framework sono comparabili ad alcuni dei migliori metodi esistenti in termini di accuratezza. Le performance sono state misurate usando due metriche: Root Mean Square Error (RMSE) e Percentuale di Punti Chiave Corretti (PCK). Nonostante il suo approccio innovativo, questo framework offre anche un'alta velocità di inferenza, riuscendo a elaborare fino a dieci fotogrammi al secondo in 2D e 1.5 fotogrammi al secondo in 3D.

Inoltre, il framework ha dimostrato una capacità unica di lavorare con dati provenienti sia da ambienti confinati che dalla natura senza necessità di messa a punto o annotazioni aggiuntive. Questa flessibilità lo rende un notevole progresso nello studio del comportamento animale.

Importanza del Dataset

Un fattore principale nel successo di questo framework è il dataset utilizzato. Questo dataset include una grande varietà di filmati video di piccioni in ambienti controllati e naturali. Il dataset offre annotazioni complete, incluse le posizioni di ogni singolo piccione.

La varietà di questo dataset consente ai ricercatori di addestrare il sistema con dati di singoli piccioni e comunque ottenere buone performance nel monitoraggio di più piccioni. Questo riduce la necessità di ampi sforzi di etichettatura che sono spesso richiesti per i dati di più animali, che possono essere noiosi e dispendiosi in termini di lavoro.

Applicazioni

Le implicazioni di questo framework vanno oltre lo studio dei piccioni. Sebbene sia progettato per i piccioni, i metodi possono essere adattati ad altre specie animali, a patto che ci siano sufficienti annotazioni 2D disponibili.

Questa capacità apre nuove porte per studiare il comportamento animale in una varietà di contesti. I ricercatori che vogliono monitorare specie nei loro habitat naturali possono beneficiare della possibilità di tracciare automaticamente i movimenti degli animali in gruppo. Queste informazioni sono preziose per comprendere le interazioni sociali e le dinamiche tra gli animali.

Aspetti Tecnici

Tecniche di Estimazione della Pose

Il framework utilizza tecniche avanzate per l'estimazione della pose, incluso l'uso di un KeypointRCNN modificato. Questo modello è progettato per rilevare i punti critici sui piccioni in modo efficiente mantenendo un'alta accuratezza.

Metodi di Tracciamento

Per mantenere le identità tra i fotogrammi, il framework utilizza un algoritmo di tracciamento che si adatta alle condizioni di tracciamento in tempo reale. Assicura continuità nel tracciamento anche quando alcuni animali sono momentaneamente occlusi o fuori vista.

Velocità ed Efficienza

Il framework è progettato per essere efficiente, raggiungendo velocità interattive adatte per applicazioni in tempo reale. Questo è essenziale non solo per studi accademici ma anche per potenziali utilizzi nella conservazione e gestione della fauna selvatica.

Sfide Affrontate

Nonostante i progressi fatti, ci sono ancora sfide associate a questo framework. Un problema principale è la possibilità di imprecisioni dovute a occlusioni o movimenti rapidi. Quando i piccioni sono vicini tra loro, può essere difficile determinare a quale uccello appartengono i punti chiave, portando a possibili errori nelle stime della posa 3D.

C'è anche la variabilità degli sfondi naturali in ambienti all'aperto. Questo può creare difficoltà nel distinguere i piccioni dai loro ambienti, specialmente quando le condizioni di luce cambiano.

Direzioni Future

Date le attuali limitazioni, c'è ancora molto potenziale per migliorare il framework. I futuri lavori potrebbero concentrarsi sul perfezionare l'algoritmo di tracciamento per gestire meglio le occlusioni. Sviluppare metodi che incorporino informazioni temporali potrebbe rendere più fluide le previsioni delle pose nel tempo, portando a risultati più affidabili.

Inoltre, affinando il modello utilizzando piccole quantità di dati annotati provenienti da ambienti selvatici, i ricercatori potrebbero migliorare l'accuratezza del tracciamento in ambienti più complessi.

C'è anche spazio per espandere il framework per monitorare altre specie sociali oltre ai piccioni. Questo potrebbe fornire ulteriori informazioni sul comportamento collettivo tra diversi gruppi animali.

Conclusione

Il nuovo framework per tracciare le pose 3D di più piccioni rappresenta un notevole passo avanti nella ricerca sul comportamento animale. Combina un'efficace stima della posa con capacità di elaborazione in tempo reale, rendendolo adatto sia per ambienti controllati che naturali.

Riducendo la dipendenza dalle annotazioni manuali e offrendo applicazioni flessibili, questo framework ha il potenziale di impattare vari settori, dalla conservazione della fauna selvatica alla ricerca biologica.

Man mano che i ricercatori continuano a sviluppare metodi automatizzati per studiare gli animali, le intuizioni guadagnate da questo lavoro potrebbero portare a una comprensione più profonda delle dinamiche sociali e dei comportamenti tra più specie.

Fonte originale

Titolo: 3D-MuPPET: 3D Multi-Pigeon Pose Estimation and Tracking

Estratto: Markerless methods for animal posture tracking have been rapidly developing recently, but frameworks and benchmarks for tracking large animal groups in 3D are still lacking. To overcome this gap in the literature, we present 3D-MuPPET, a framework to estimate and track 3D poses of up to 10 pigeons at interactive speed using multiple camera views. We train a pose estimator to infer 2D keypoints and bounding boxes of multiple pigeons, then triangulate the keypoints to 3D. For identity matching of individuals in all views, we first dynamically match 2D detections to global identities in the first frame, then use a 2D tracker to maintain IDs across views in subsequent frames. We achieve comparable accuracy to a state of the art 3D pose estimator in terms of median error and Percentage of Correct Keypoints. Additionally, we benchmark the inference speed of 3D-MuPPET, with up to 9.45 fps in 2D and 1.89 fps in 3D, and perform quantitative tracking evaluation, which yields encouraging results. Finally, we showcase two novel applications for 3D-MuPPET. First, we train a model with data of single pigeons and achieve comparable results in 2D and 3D posture estimation for up to 5 pigeons. Second, we show that 3D-MuPPET also works in outdoors without additional annotations from natural environments. Both use cases simplify the domain shift to new species and environments, largely reducing annotation effort needed for 3D posture tracking. To the best of our knowledge we are the first to present a framework for 2D/3D animal posture and trajectory tracking that works in both indoor and outdoor environments for up to 10 individuals. We hope that the framework can open up new opportunities in studying animal collective behaviour and encourages further developments in 3D multi-animal posture tracking.

Autori: Urs Waldmann, Alex Hoi Hang Chan, Hemal Naik, Máté Nagy, Iain D. Couzin, Oliver Deussen, Bastian Goldluecke, Fumihiro Kano

Ultimo aggiornamento: 2023-12-15 00:00:00

Lingua: English

URL di origine: https://arxiv.org/abs/2308.15316

Fonte PDF: https://arxiv.org/pdf/2308.15316

Licenza: https://creativecommons.org/licenses/by/4.0/

Modifiche: Questa sintesi è stata creata con l'assistenza di AI e potrebbe presentare delle imprecisioni. Per informazioni accurate, consultare i documenti originali collegati qui.

Si ringrazia arxiv per l'utilizzo della sua interoperabilità ad accesso aperto.

Altro dagli autori

Articoli simili