Simple Science

Scienza all'avanguardia spiegata semplicemente

# Informatica# Visione artificiale e riconoscimento di modelli

Flusso d'informazioni ottimizzato nel tracciamento di oggetti visivi

OIFTrack migliora la precisione del tracciamento gestendo il flusso di informazioni tra i token target e quelli di sfondo.

― 7 leggere min


OIFTrack: TracciamentoOIFTrack: TracciamentoVisivo Potenziatooggetti.e l'efficienza del tracciamento degliNuovo approccio migliora l'accuratezza
Indice

La tracciamento degli oggetti visivi (VOT) è un processo che consiste nell'identificare la posizione e la dimensione di un oggetto in un video dal primo fotogramma e nel seguirlo nei fotogrammi successivi. Questa tecnologia ha molte applicazioni pratiche come nella videosorveglianza, nelle auto a guida autonoma, nella realtà aumentata, nei robot mobili e nel monitoraggio del traffico. Nonostante i numerosi tentativi di migliorare il VOT nel corso degli anni, rendere il tracciamento affidabile ed efficace in situazioni reali è ancora una sfida. I problemi comuni includono cambiamenti nell'aspetto, oggetti che bloccano la vista, sfocature di movimento, sfondi confusionari e oggetti simili nelle vicinanze che possono confondere il tracker.

Negli ultimi anni, il deep learning ha fatto enormi progressi, specialmente con metodi che utilizzano Reti Neurali Convoluzionali (CNN) per il tracciamento. Tra questi, i metodi di tracciamento basati su Siamese hanno mostrato risultati impressionanti. I tracker Siamese consistono in due sezioni di CNN identiche che leggono separatamente l'oggetto target e un'area circostante. Poi determinano la posizione del target confrontando le caratteristiche di entrambe le sezioni. Tuttavia, questi metodi spesso faticano a tenere conto del contesto più ampio attorno all'oggetto, e potrebbero non gestire bene interazioni complesse, come quando l'oggetto cambia forma o è parzialmente nascosto. Di conseguenza, alcuni metodi di tracciamento più recenti si sono rivolti ai Transformers, che originariamente hanno guadagnato fama nel trattamento dei dati linguistici.

I Transformers sono diventati popolari perché possono gestire lunghe sequenze di dati e catturare efficacemente il contesto utilizzando Meccanismi di Attenzione. Il loro successo in compiti come la rilevazione di oggetti e la classificazione delle immagini ha ispirato il loro uso anche nel tracciamento visivo. I tracker Transformer a flusso unico combinano il processo di estrazione delle caratteristiche con l'attenzione per migliorare la capacità di tracciare oggetti.

Il problema con i metodi tradizionali

Nei metodi di tracciamento tradizionali a flusso unico, il meccanismo di attenzione calcola le connessioni tra tutti i Token che rappresentano sia il template target che l'area di ricerca circostante. Sebbene questo approccio si sia rivelato efficace, non è stato valutato a fondo se questa attenzione aiuti o ostacoli la capacità del tracker di distinguere il target dalle distrazioni. La maggior parte dei modelli precedenti consente un'interazione completa tra i due tipi di token, ma questo potrebbe portare a confusione, specialmente quando sono coinvolti molti token di sfondo.

Il tracciamento a lungo termine, dove l'oggetto può apparire molto diverso nel tempo, è particolarmente complicato. Alcuni tracker cercano di migliorare le prestazioni aggiungendo template dinamici, che si aggiornano in base ai fotogrammi più fidati. Tuttavia, come i loro predecessori, continuano a trattare tutti i token allo stesso modo e non indagano su come il flusso di informazioni tra questi token influisca sul tracciamento.

Cosa proponiamo

In questo lavoro, presentiamo un nuovo approccio chiamato Tracciamento Ottimizzato del Flusso di Informazioni (OIFTrack). Questo metodo cerca di migliorare l'accuratezza del tracciamento degli oggetti gestendo con attenzione come fluisce l'informazione tra diversi token che rappresentano il target e le aree circostanti.

Prima di tutto, partiamo da un template iniziale del target e da un'area di ricerca. I token di queste due regioni sono considerati in quattro gruppi: token iniziali del target, token dinamici del target (aggiornati in base agli ultimi fotogrammi), token dinamici di sfondo (che catturano l'ambiente) e token di regione di ricerca. L'idea principale qui è di bloccare distrazioni inutili nelle prime fasi di elaborazione.

Nelle fasi più profonde del processo di tracciamento, i token di ricerca vengono divisi in due categorie: quelli contenenti segnali del target e quelli che non lo fanno. Consentire solo il flusso di informazioni dai token di ricerca rilevanti aiuta a migliorare la capacità di tracciamento complessiva, consentendo al modello di adattarsi ai cambiamenti nell'aspetto del target.

L'importanza dei segnali dinamici

I template dinamici sono essenziali nel tracciamento, specialmente quando il target subisce cambiamenti significativi nel tempo. Aggiungere segnali di sfondo dinamici migliora anche la capacità del modello di discernere le distrazioni e mantenere il focus sul target.

In OIFTrack, l'obiettivo è incorporare informazioni dall'area circostante in modo da aggiungere contesto senza creare confusione. Ad esempio, invece di concentrarsi solo sul target, consideriamo un'area più ampia che include potenziali distrazioni. Questo aiuta il tracker a evitare di identificare erroneamente oggetti simili nelle vicinanze.

Come funziona il processo

Il processo OIFTrack inizia suddividendo le immagini sia dal template target che dall'area di ricerca in pezzi più piccoli e gestibili chiamati patch. Queste patch vengono poi trasformate in token. I token di diversi gruppi vengono combinati in una singola sequenza prima di essere inseriti in un modello Transformer.

Durante le fasi iniziali del processo di codifica, blocchiamo le interazioni dai token di ricerca e dai token dinamici di sfondo verso i token iniziali del target. Questo consente una migliore estrazione delle caratteristiche specifiche del target. Una volta che ci spostiamo nelle fasi più profonde, categorizziamo di nuovo i token di ricerca per mantenere il focus sui segnali rilevanti.

Meccanismo di attenzione

Il meccanismo di attenzione è un componente chiave di OIFTrack. Nelle prime fasi dell'encoder, alcune interazioni vengono bloccate per ridurre l'interferenza. Nelle fasi più profonde, analizziamo quali token di ricerca portano informazioni rilevanti sul target. Dopo aver determinato quali token sono più pertinenti, consentiamo il flusso di informazioni da questi token specifici verso i token del target, abilitando una migliore estrazione delle caratteristiche.

Eliminazione dei token di sfondo

Una delle sfide del metodo OIFTrack è mantenere l'efficienza computazionale, specialmente quando aumentiamo il numero di token di input aggiungendo template dinamici. Per ridurre il numero di calcoli non necessari, identifichiamo ed eliminiamo i token che portano principalmente informazioni di sfondo.

Rimuovendo questi token meno rilevanti dalla considerazione, possiamo mantenere alti livelli di prestazioni semplificando i calcoli. Questo approccio aiuta a garantire che il nostro modello possa funzionare in modo efficiente senza compromettere l'accuratezza.

Valutazione e prestazioni

Per convalidare l'efficacia del framework OIFTrack, abbiamo condotto ampie valutazioni contro diversi benchmark. Durante i test, OIFTrack ha dimostrato risultati impressionanti, superando molti modelli esistenti in diverse categorie.

Benchmark GOT-10K

Quando testato sul benchmark GOT-10K, noto per valutare le capacità di tracciamento one-shot, OIFTrack ha raggiunto un punteggio medio di sovrapposizione del 74,6%. Questo punteggio segna prestazioni superiori rispetto ad altri modelli. OIFTrack ha anche superato altri tracker in termini di tassi di successo a soglie definite, dimostrando la sua efficacia in situazioni con classi di oggetti mai viste.

Benchmark TrackingNet e LaSOT

Nel robusto benchmark TrackingNet, OIFTrack ha raggiunto un punteggio AUC di 84,1%, mostrando la sua efficacia in una gamma diversificata di scenari di tracciamento. Ha anche performato bene in LaSOT, dove ha mantenuto prestazioni competitive su vari attributi, dimostrando la sua resilienza in scenari di tracciamento a lungo termine.

Benchmark UAV123

Per scenari di tracciamento aereo, il dataset UAV123 ha presentato sfide uniche a causa delle piccole dimensioni degli oggetti e dei cambiamenti costanti. OIFTrack ha prodotto risultati competitivi, dimostrando la sua robustezza anche in ambienti più difficili.

Conclusione

In sintesi, il modello OIFTrack sfrutta un meccanismo di flusso di informazioni ottimizzato per migliorare le capacità di tracciamento degli oggetti. Concentrandosi sullo scambio significativo di informazioni tra i token riducendo le distrazioni, il modello offre miglioramenti nell'accuratezza e nell'efficienza del tracciamento. L'uso di template dinamici e segnali contestuali dall'ambiente aiuta significativamente nell'identificare l'oggetto target nel tempo, rendendo OIFTrack un'avanzamento promettente nel campo del tracciamento visivo degli oggetti.

In generale, questo approccio illustra il potere di un flusso di informazioni gestito con attenzione e sottolinea l'importanza di incorporare aspetti dinamici nei sistemi di tracciamento per gestire meglio le complessità delle situazioni reali.

Fonte originale

Titolo: Optimized Information Flow for Transformer Tracking

Estratto: One-stream Transformer trackers have shown outstanding performance in challenging benchmark datasets over the last three years, as they enable interaction between the target template and search region tokens to extract target-oriented features with mutual guidance. Previous approaches allow free bidirectional information flow between template and search tokens without investigating their influence on the tracker's discriminative capability. In this study, we conducted a detailed study on the information flow of the tokens and based on the findings, we propose a novel Optimized Information Flow Tracking (OIFTrack) framework to enhance the discriminative capability of the tracker. The proposed OIFTrack blocks the interaction from all search tokens to target template tokens in early encoder layers, as the large number of non-target tokens in the search region diminishes the importance of target-specific features. In the deeper encoder layers of the proposed tracker, search tokens are partitioned into target search tokens and non-target search tokens, allowing bidirectional flow from target search tokens to template tokens to capture the appearance changes of the target. In addition, since the proposed tracker incorporates dynamic background cues, distractor objects are successfully avoided by capturing the surrounding information of the target. The OIFTrack demonstrated outstanding performance in challenging benchmarks, particularly excelling in the one-shot tracking benchmark GOT-10k, achieving an average overlap of 74.6\%. The code, models, and results of this work are available at \url{https://github.com/JananiKugaa/OIFTrack}

Autori: Janani Kugarajeevan, Thanikasalam Kokul, Amirthalingam Ramanan, Subha Fernando

Ultimo aggiornamento: 2024-02-12 00:00:00

Lingua: English

URL di origine: https://arxiv.org/abs/2402.08195

Fonte PDF: https://arxiv.org/pdf/2402.08195

Licenza: https://creativecommons.org/licenses/by/4.0/

Modifiche: Questa sintesi è stata creata con l'assistenza di AI e potrebbe presentare delle imprecisioni. Per informazioni accurate, consultare i documenti originali collegati qui.

Si ringrazia arxiv per l'utilizzo della sua interoperabilità ad accesso aperto.

Articoli simili