Simple Science

Scienza all'avanguardia spiegata semplicemente

# Informatica# Interazione uomo-macchina# Apprendimento automatico

Migliorare l'etichettatura delle attività con sensori indossabili

Uno studio svela metodi migliori per monitorare le attività umane usando dispositivi indossabili.

― 7 leggere min


Avanzando il monitoraggioAvanzando il monitoraggiodelle attivitàindossabiliriconoscimento delle attività.la precisione dell'etichettatura per ilUno studio mostra metodi per migliorare
Indice

La ricerca sull'uso di sensori indossabili per tracciare le attività umane sta crescendo rapidamente. Questo ha molti vantaggi, che vanno dall'aiutare i pazienti in ambito sanitario a migliorare i compiti sul posto di lavoro. In questo studio, abbiamo esaminato quattro modi per etichettare le attività quando si usano questi sensori. Questi metodi rientrano in due gruppi: etichettatura in tempo reale, che avviene durante l'attività, e etichettatura per richiamo, dove le persone ricordano le loro attività in seguito.

I nostri risultati mostrano che diversi metodi di etichettatura influenzano la qualità dei dati raccolti e quanto bene i Modelli di Deep Learning possono lavorare con quei dati. In particolare, i metodi in tempo reale hanno prodotto etichette meno numerose, ma più accurate, rispetto ai metodi di richiamo. Abbiamo anche introdotto uno strumento che combina un diario delle attività con un modo per visualizzare i dati dei sensori. Questo ha aiutato i partecipanti a etichettare meglio le loro attività, riducendo le etichette mancanti e migliorando la qualità complessiva dei dati usati per addestrare il modello di deep learning.

Importanza di un'Annotazione Accurata

Quando si registrano dati dai sensori indossabili, è fondamentale avere etichette accurate. Queste etichette aiutano i ricercatori e le macchine a capire quali attività sono state svolte e quando. Un'etichettatura scadente può portare a problemi nel rilevare correttamente le attività. In un ambiente reale, spesso le persone dimenticano di annotare cosa hanno fatto o potrebbero non ricordare tutti i dettagli. Questo può rendere difficile fidarsi dei dati raccolti.

Il nostro studio sottolinea la necessità di metodi di etichettatura migliori, soprattutto quando si tratta di riconoscere attività quotidiane complesse. La maggior parte della ricerca esistente si è concentrata su attività più semplici in ambienti controllati, dove le condizioni possono essere gestite. Tuttavia, la vita reale non è così. È più complicata, e abbiamo bisogno di metodi migliori per catturare quella complessità.

Impostazione dello Studio

Nel nostro studio, undici partecipanti, principalmente ricercatori familiari con l'interpretazione dei dati, ci hanno aiutato a testare quattro diversi metodi di annotazione per un periodo di due settimane. I partecipanti indossavano un tipo specifico di smartwatch che registrava i dati dei sensori mentre svolgevano attività quotidiane. Hanno utilizzato i seguenti metodi per etichettare le loro attività:

  1. Pulsante in Tempo Reale: I partecipanti premevano un pulsante sullo smartwatch quando iniziavano e terminavano un'attività.
  2. App in Tempo Reale: I partecipanti utilizzavano un'app per smartphone per registrare le loro attività in tempo reale.
  3. Richiamo Puro: Alla fine di ogni giorno, i partecipanti scrivevano un diario delle attività, ricordando le loro attività dalla memoria.
  4. Strumento di Richiamo Visivo: I partecipanti combinavano il loro diario con uno strumento visivo che mostrava i loro dati dei sensori, aiutandoli a ricordare e etichettare le attività in modo accurato.

Nella prima settimana, i partecipanti hanno utilizzato i primi tre metodi. Nella seconda settimana, abbiamo aggiunto lo strumento di richiamo visivo, che consentiva loro di vedere i dati delle loro attività e fare annotazioni basate su quelli.

Analisi dei Metodi di Annotazione

Ogni metodo produce risultati diversi in termini di qualità e completezza delle etichette. I metodi in tempo reale fornivano etichette accurate ma comportavano il rischio di dimenticare di premere il pulsante o registrare le attività. Il metodo di richiamo, anche se inizialmente più completo, mostrava debolezze a causa di errori di memoria.

Usare lo strumento di richiamo visivo ha mostrato risultati promettenti, poiché i partecipanti hanno fatto annotazioni più accurate quando potevano ispezionare visivamente i loro dati. Questo metodo ha aiutato a ridurre il numero di annotazioni mancanti e aumentare la coerenza delle etichette nel tempo. Abbiamo scoperto che combinare uno strumento visivo con un diario è un modo efficace per aiutare i partecipanti a ricordare meglio le loro attività.

Annotazioni Mancanti

Una delle sfide più grandi che abbiamo affrontato in questo studio è stata gestire le annotazioni mancanti. Le etichette mancanti possono distorcere i risultati e rendere difficile comprendere correttamente i dati. La nostra analisi ha mostrato che l'uso del metodo del pulsante in tempo reale ha comportato molte annotazioni mancanti. A volte i partecipanti dimenticavano di premere il pulsante all'inizio o alla fine di un'attività.

Al contrario, il metodo di richiamo puro, pur essendo generalmente migliore nel evitare annotazioni mancanti, mostrava ancora imprecisioni nei tempi delle attività. I partecipanti tendevano a arrotondare le stime temporali e registravano le loro attività in un modo che non corrispondeva ai dati reali raccolti dai sensori.

Il metodo di richiamo visivo ha aiutato a ridurre significativamente il numero di etichette mancanti. I partecipanti hanno riportato maggiore soddisfazione e si sono sentiti più sicuri riguardo all'accuratezza delle loro annotazioni quando potevano vedere i loro dati insieme alle voci del diario.

Effetti sui Modelli di Machine Learning

La qualità delle etichette influenzava direttamente quanto bene i modelli di deep learning si comportavano. Quando abbiamo addestrato modelli con annotazioni provenienti da diversi metodi, abbiamo notato che i modelli addestrati con metodi in tempo reale tendevano a performare meglio. In particolare, l'uso del metodo dell'app ha prodotto le migliori performance medie.

Al contrario, i modelli addestrati con dati principalmente etichettati tramite metodi di richiamo spesso performavano peggio. Questo suggerisce che, mentre possiamo raccogliere molti dati, l'accuratezza di quei dati è cruciale per addestrare classificatori di machine learning efficaci.

Un'altra osservazione è che la qualità delle annotazioni è a volte più importante della quantità di dati. Un insieme più piccolo di etichette di alta qualità può portare a una migliore performance complessiva rispetto a un insieme più grande di dati mal etichettati. Pertanto, è essenziale concentrare l'attenzione sulla qualità dei metodi di raccolta dei dati in studi futuri.

Bias nei Metodi di Annotazione

Possono sorgere diversi bias dai metodi di annotazione scelti. Ad esempio, quando i partecipanti usano metodi di richiamo, la loro capacità di ricordare le attività può variare molto, portando a incoerenze. Possono verificarsi anche bias comportamentali se i partecipanti sentono di essere osservati. Tuttavia, in questo studio, i partecipanti non sono stati monitorati da vicino, il che ha minimizzato questo effetto.

Il bias di auto-annotazione si verifica quando i partecipanti etichettano le loro attività in isolamento senza alcuna conferma da parte degli altri. Questo può portare a imprecisioni nell'etichettatura. La nostra analisi di deep learning ha mostrato che il classificatore può a volte gestire questo bias meglio di quelli derivanti da un richiamo scadente.

Riconoscere e affrontare questi bias è fondamentale per migliorare l'affidabilità degli studi di riconoscimento delle attività.

Raccomandazioni per la Ricerca Futura

Basandoci sui nostri risultati, raccomandiamo diverse strategie per migliorare i metodi di etichettatura negli studi futuri:

  1. Integrazione Software: Incorporare uno strumento digitale che consenta ai partecipanti di visualizzare i loro dati dei sensori può migliorare la qualità delle annotazioni. Insegnare ai partecipanti come interpretare i loro dati aiuterà anche a fare etichette più accurate.

  2. Soluzioni Facili da Usare: Semplificare il processo di annotazione è cruciale. Se l'etichettatura diventa troppo noiosa, i partecipanti potrebbero rinunciare o non partecipare appieno. I ricercatori dovrebbero progettare sistemi che siano facili da usare e integrabili nelle routine quotidiane dei partecipanti.

  3. Combinazione di Metodi: Usare una combinazione di metodi in tempo reale e metodi di richiamo, specialmente con ausili visivi, porta spesso a una migliore performance complessiva. Questa combinazione può portare a annotazioni più complete e accurate.

  4. Formazione e Consapevolezza: Fornire formazione ai partecipanti su come interpretare i dati dei sensori e sull'importanza di un'etichettatura accurata può portare a risultati migliori. Essere consapevoli dei potenziali bias e dei loro impatti può anche aiutare i partecipanti a etichettare le loro attività in modo più efficace.

Conclusione

Etichettare le attività umane usando sensori indossabili presenta delle sfide, ma la qualità dei metodi di annotazione può fare una grande differenza. Il nostro studio evidenzia l'importanza di trovare modi per migliorare l'accuratezza e la coerenza delle etichette.

Abbiamo scoperto che una combinazione di metodi in tempo reale e di richiamo, specialmente quando accoppiata con dati visivi, fornisce i migliori risultati. Migliorare i nostri metodi di annotazione è cruciale per progredire nella ricerca in quest'area e sfruttare efficacemente il machine learning per riconoscere attività umane complesse.

I risultati di questo studio servono da guida per la ricerca futura per creare migliori sistemi di riconoscimento delle attività che possano adattarsi alle complessità degli ambienti reali. Investendo in strumenti e metodi di annotazione migliori, possiamo migliorare la qualità e l'utilità complessiva dei dati raccolti dai sensori indossabili.

Fonte originale

Titolo: A Matter of Annotation: An Empirical Study on In Situ and Self-Recall Activity Annotations from Wearable Sensors

Estratto: Research into the detection of human activities from wearable sensors is a highly active field, benefiting numerous applications, from ambulatory monitoring of healthcare patients via fitness coaching to streamlining manual work processes. We present an empirical study that evaluates and contrasts four commonly employed annotation methods in user studies focused on in-the-wild data collection. For both the user-driven, in situ annotations, where participants annotate their activities during the actual recording process, and the recall methods, where participants retrospectively annotate their data at the end of each day, the participants had the flexibility to select their own set of activity classes and corresponding labels. Our study illustrates that different labeling methodologies directly impact the annotations' quality, as well as the capabilities of a deep learning classifier trained with the data. We noticed that in situ methods produce less but more precise labels than recall methods. Furthermore, we combined an activity diary with a visualization tool that enables the participant to inspect and label their activity data. Due to the introduction of such a tool were able to decrease missing annotations and increase the annotation consistency, and therefore the F1-Score of the deep learning model by up to 8% (ranging between 82.1 and 90.4% F1-Score). Furthermore, we discuss the advantages and disadvantages of the methods compared in our study, the biases they could introduce, and the consequences of their usage on human activity recognition studies as well as possible solutions.

Autori: Alexander Hoelzemann, Kristof Van Laerhoven

Ultimo aggiornamento: 2024-07-11 00:00:00

Lingua: English

URL di origine: https://arxiv.org/abs/2305.08752

Fonte PDF: https://arxiv.org/pdf/2305.08752

Licenza: https://creativecommons.org/licenses/by/4.0/

Modifiche: Questa sintesi è stata creata con l'assistenza di AI e potrebbe presentare delle imprecisioni. Per informazioni accurate, consultare i documenti originali collegati qui.

Si ringrazia arxiv per l'utilizzo della sua interoperabilità ad accesso aperto.

Altro dagli autori

Articoli simili