Simple Science

Scienza all'avanguardia spiegata semplicemente

# Informatica# Apprendimento automatico# Visione artificiale e riconoscimento di modelli

Rilevamento in tempo reale di spinte tra la folla

Un nuovo sistema usa il cloud e il deep learning per rilevare la spinta tra la folla.

― 6 leggere min


Rilevare il ComportamentoRilevare il Comportamentodi Spinta nella Follain spazi affollati.Un sistema per identificare le spinte
Indice

La folla in posti come eventi sportivi, concerti o raduni religiosi può portare a situazioni pericolose, soprattutto quando la gente inizia a Spingere per entrare più in fretta. Riconoscere il comportamento di spinta in anticipo potrebbe aiutare gli organizzatori e la sicurezza a gestire meglio le folle e a mantenere tutti al sicuro. Questo articolo parla di un nuovo sistema che usa tecnologia cloud e deep learning per rilevare automaticamente le spinte in aree affollate.

Contesto

Quando le folle si radunano all'entrata degli eventi, spesso si formano ingorghi per il controllo degli accessi, i controlli dei biglietti o le ispezioni di sicurezza. In queste situazioni, alcune persone possono iniziare a spingere gli altri per muoversi più in fretta. La spinta può essere definita come l'azione di applicare forza a un'altra persona per superarla o per incoraggiarla a muoversi più velocemente. La gente spesso sfrutta i varchi nella folla come opportunità per avanzare. Queste azioni possono aumentare la densità della folla, portando a disagio e potenzialmente a scenari pericolosi.

Rilevare precocemente il comportamento di spinta è fondamentale, poiché fornisce agli organizzatori e al personale di sicurezza informazioni importanti per una gestione migliore della folla. L'osservazione manuale del comportamento di spinta è spesso difficile perché può essere complessa e variare notevolmente, rendendo necessaria l'automazione.

Recenti progressi hanno integrato telecamere di sorveglianza con tecnologia di visione artificiale per identificare automaticamente comportamenti anomali nella folla. Il comportamento di spinta è classificato come anomalo all'interno di questo framework. Il machine learning, soprattutto utilizzando le Reti Neurali Convoluzionali (CNN), ha mostrato promesse in vari compiti di visione artificiale, incluso l'identificare comportamenti anomali nelle folle. Le CNN possono imparare caratteristiche automaticamente dai dati, riducendo la necessità di input umano.

Tuttavia, addestrare modelli CNN efficaci richiede grandi dataset, spesso non disponibili per comportamenti specifici come la spinta. Alcuni ricercatori hanno provato a combinare le CNN con altri approcci per superare questa limitazione. I metodi esistenti faticano a rilevare il comportamento di spinta in tempo reale, fondamentale per un intervento immediato.

Framework Proposto

Il framework presentato in questo articolo mira a rilevare il comportamento di spinta in tempo reale utilizzando tecnologia cloud. Presenta un setup di telecamera dal vivo all'entrata degli eventi e impiega modelli di deep learning per analizzare i feed video. Il sistema è composto da diversi componenti chiave:

  1. Streaming dal vivo e Preprocessing: Il framework raccoglie flussi video in tempo reale da una vista fissa della telecamera all'entrata degli eventi.

  2. Rilevamento del Movimento: Utilizza un modello di flusso ottico profondo combinato con tecniche visive per valutare il movimento nella folla.

  3. Rilevamento della Spinta: Il modello EfficientNetV2B0 adattato classifica il movimento rilevato come comportamento di spinta o non spinta.

  4. Annotazione e Archiviazione: Il sistema annota le aree nel video dove viene rilevata la spinta e memorizza queste informazioni nel cloud.

Streaming dal Vivo e Preprocessing

Il primo passo consiste nel mostrare il feed della telecamera dal vivo su un client web mentre raccoglie i dati necessari per il rilevamento. Il sistema cattura i fotogrammi dal feed dal vivo a intervalli regolari (ogni due secondi) per ridurre il sovraccarico di elaborazione mantenendo informazioni rilevanti.

Rilevamento del Movimento

Il secondo componente si concentra sull'estrazione delle informazioni di movimento dalla folla utilizzando un modello chiamato RAFT, che calcola in modo efficiente la direzione e la velocità del movimento. Una tecnica della ruota dei colori visualizza questi dati per creare una mappa delle informazioni di movimento. La mappa è divisa in patch più piccole per analizzare aree specifiche della folla.

Rilevamento della Spinta

Il compito principale del terzo componente è determinare se le patch rilevate indicano comportamento di spinta. Il modello EfficientNetV2B0 è adattato e addestrato per classificare queste patch. Questo modello di deep learning identifica efficacemente caratteristiche importanti per distinguere tra comportamenti di spinta e non spinta.

Annotazione e Archiviazione

Dopo la classificazione, il framework annota il flusso video dal vivo con le patch di spinta rilevate. Inoltre, sfoca eventuali caratteristiche identificabili per proteggere la privacy prima di memorizzare i dati annotati nel cloud per riferimenti futuri.

Preparazione del Dataset

Per addestrare e valutare il framework, è stato creato un nuovo dataset. Questo dataset include vari esempi di comportamento di spinta e non spinta registrati durante eventi reali. Consiste in cinque esperimenti video, dove ogni video è stato analizzato e etichettato per comportamento di spinta da esperti.

Il dataset è diviso in tre parti: addestramento, validazione e test. Questa distribuzione consente un testing completo delle prestazioni del framework in diversi scenari e condizioni.

Valutazione e Risultati

Il framework è stato testato per valutare le sue prestazioni nel rilevare il comportamento di spinta. Metriche come precisione, accuratezza e richiamo sono state calcolate per misurare la sua efficacia. Queste metriche forniscono informazioni su quanto bene il framework identifichi le azioni di spinta in ambienti affollati.

Nei test, il framework ha ottenuto un'accuratezza del 87% nel rilevare il comportamento di spinta entro un intervallo di tempo ragionevole. Questo livello di accuratezza suggerisce che il sistema può aiutare efficacemente nella gestione della sicurezza delle folle.

Limitazioni e Lavori Futuri

Sebbene il framework proposto mostri risultati promettenti, esistono diverse limitazioni. Attualmente, funziona solo con telecamere fisse posizionate per catturare una vista dall'alto del comportamento della folla. I futuri miglioramenti potrebbero coinvolgere lo sviluppo di tecniche per rendere il framework adattabile a diverse posizioni e angolazioni della telecamera.

Un altro campo per la ricerca futura è lo sviluppo di un metodo più dinamico per rappresentare il comportamento di spinta nel machine learning. Questo approccio potrebbe portare a un dataset più ampio con una migliore rappresentazione di vari scenari di spinta, migliorando l'addestramento e l'accuratezza del modello.

Considerazioni Etiche

Gli esperimenti condotti per generare il dataset sono stati approvati da un comitato etico, assicurando che tutti i partecipanti abbiano fornito consenso informato. Il framework include anche misure per proteggere la privacy individuale sfocando informazioni identificabili nel video memorizzato.

Conclusione

Questo articolo presenta un framework basato su cloud progettato per la rilevazione precoce del comportamento di spinta in ambienti affollati. Integrando tecnologia di streaming video, modelli di deep learning e archiviazione cloud, il sistema identifica efficacemente le patch di spinta in tempo reale. I risultati indicano che il framework può contribuire significativamente a migliorare la gestione della folla e la sicurezza durante eventi su larga scala. I lavori futuri si concentreranno sull'affrontare le attuali limitazioni e migliorare l'adattabilità del framework per vari scenari.

Fonte originale

Titolo: A Cloud-based Deep Learning Framework for Early Detection of Pushing at Crowded Event Entrances

Estratto: Crowding at the entrances of large events may lead to critical and life-threatening situations, particularly when people start pushing each other to reach the event faster. Automatic and timely identification of pushing behavior would help organizers and security forces to intervene early and mitigate dangerous situations. In this paper, we propose a cloud-based deep learning framework for automatic early detection of pushing in crowded event entrances. The proposed framework initially modifies and trains the EfficientNetV2B0 Convolutional Neural Network model. Subsequently, it integrates the adapted model with an accurate and fast pre-trained deep optical flow model with the color wheel method to analyze video streams and identify pushing patches in real-time. Moreover, the framework uses live capturing technology and a cloud-based environment to collect video streams of crowds in real-time and provide early-stage results. A novel dataset is generated based on five real-world experiments and their associated ground truth data to train the adapted EfficientNetV2B0 model. The experimental setups simulated a crowded event entrance, while the ground truths for each video experiment was generated manually by social psychologists. Several experiments on the videos and the generated dataset are carried out to evaluate the accuracy and annotation delay time of the proposed framework. The experimental results show that the proposed framework identified pushing behaviors with an accuracy rate of 87% within a reasonable delay time.

Autori: Ahmed Alia, Mohammed Maree, Mohcine Chraibi, Anas Toma, Armin Seyfried

Ultimo aggiornamento: 2023-06-09 00:00:00

Lingua: English

URL di origine: https://arxiv.org/abs/2302.08237

Fonte PDF: https://arxiv.org/pdf/2302.08237

Licenza: https://creativecommons.org/licenses/by/4.0/

Modifiche: Questa sintesi è stata creata con l'assistenza di AI e potrebbe presentare delle imprecisioni. Per informazioni accurate, consultare i documenti originali collegati qui.

Si ringrazia arxiv per l'utilizzo della sua interoperabilità ad accesso aperto.

Altro dagli autori

Articoli simili