Simple Science

La science de pointe expliquée simplement

# Informatique# Vision par ordinateur et reconnaissance des formes

Avancées dans la ré-identification de personnes sur le long terme

De nouvelles méthodes améliorent la reconnaissance d'identité au fil du temps malgré les changements de vêtements.

― 7 min lire


Système deSystème deré-identification despersonnes de nouvelleinnovants.d'identité avec des modèles 3DTransformer la reconnaissance
Table des matières

La ré-identification des personnes sur le long terme (LT-ReID) est un domaine super important en vision par ordinateur, qui se concentre sur la reconnaissance et le matching des gens sur une longue période, même quand leurs vêtements changent. C'est essentiel dans plein de domaines, y compris la sécurité et la police, où ça peut aider à identifier des individus dans diverses situations. La plupart des études actuelles se concentrent sur des scénarios à court terme où les gens portent les mêmes vêtements, ce qui limite leur efficacité dans la vie réelle. Cet article présente une nouvelle méthode qui vise à améliorer LT-ReID en prenant en compte une plus large gamme d'activités humaines et les changements de vêtements.

Les défis de LT-ReID

Dans LT-ReID, reconnaître les individus devient compliqué à cause de différents facteurs. Les changements de vêtements, les variations de poses et le temps qui passe peuvent rendre difficile l'identification de la même personne sur différentes images. Quand une personne porte des vêtements différents ou pose d'une manière différente, son apparence peut changer énormément, ce qui entraîne des confusions pour les matcher avec des images précédentes. Ce problème devient encore plus compliqué sur une longue période.

Par exemple, si tu vois un pote avec un t-shirt rouge aujourd'hui et une veste bleue la semaine prochaine, ça peut être plus dur de le reconnaître de loin. Le même principe s'applique aux systèmes automatisés qui essaient d'identifier les gens à partir d'images. Plus les changements de vêtements et de poses sont importants dans le temps, plus la tâche d'identification devient complexe.

Notre approche innovante

Pour relever ces défis, on propose un nouveau système appelé 3DInvarReID. Cette méthode se concentre sur la séparation de l'identité d'une personne des autres caractéristiques non identitaires comme ses vêtements et sa pose. En analysant des représentations 3D de personnes vêtues, on peut mieux comprendre à quoi ressemble une personne avec différents outfits et poses.

Notre méthode consiste à reconstruire des modèles 3D précis de personnes habillées tout en apprenant les caractéristiques du corps nu. Ça permet au système de se concentrer sur les aspects essentiels de l'identité d'une personne, peu importe les changements de vêtements.

L'importance d'un nouveau dataset

Pour améliorer notre étude, on a créé un nouveau dataset appelé CCDA, qui contient une large gamme d'activités humaines et de changements de vêtements. Ce dataset est crucial pour tester notre système face aux défis de la vie réelle. En utilisant des scénarios divers, on peut mieux évaluer comment notre méthode se compare aux autres.

Contrairement aux datasets existants qui limitent souvent les sujets à des actions simples comme marcher ou se tenir debout, CCDA inclut diverses activités, comme des athlètes en train de jouer ou des soldats en plein travail. Ça le rend plus pertinent pour les applications pratiques.

Recherche précédente en ré-identification des personnes

Dans le domaine de la ré-identification des personnes, beaucoup d'études antérieures se concentrent sur le matching des gens entre différentes images capturées par différentes caméras. Jusqu'à présent, la plupart de ces approches ont supposé que les vêtements restent inchangés pendant de courtes périodes. Cette limitation a suscité un intérêt pour LT-ReID, se concentrant sur les situations de changements de vêtements.

Cependant, la plupart des recherches antérieures ne tiennent pas compte des diverses activités dans lesquelles les gens s'engagent. Notre travail va au-delà du simple matching des piétons et aborde les complexités de la reconnaissance des individus impliqués dans différentes actions.

Modélisation des humains habillés en 3D

Pour améliorer la ré-identification des personnes, on vise à créer des modèles précis d'humains habillés en trois dimensions. Les tentatives précédentes de modélisation de gens en 3D ont souvent rencontré des limites à cause de structures de maillage fixes et d'un manque de détails sur la façon dont les vêtements interagissent avec les formes du corps. Les méthodes plus récentes ont utilisé des représentations neuronales pour créer des modèles plus flexibles, mais peu d'entre elles traitent efficacement la discrimination des formes de corps.

Notre approche utilise un modèle à deux couches qui nous permet de représenter à la fois la Forme du corps nu et celle des vêtements. En combinant ces deux aspects, on obtient une compréhension complète de l'identité d'une personne. On intègre aussi un processus d'ajustement pour séparer l'identité des aspects non identitaires, ce qui rend plus facile la reconstruction de formes de corps réalistes à partir d'images.

Processus et techniques d'entraînement

L'entraînement de notre modèle implique plusieurs étapes clés. Au départ, on utilise des scans 3D existants d'individus pour créer nos systèmes. Ces scans fournissent une base solide pour comprendre les formes du corps et comment elles se rapportent à l'habillement.

On utilise des techniques avancées pour extraire des caractéristiques qui aident notre modèle à apprendre comment identifier les gens avec précision, même lorsque leurs vêtements changent. L'entraînement implique non seulement d'apprendre à partir des images collectées, mais aussi des relations entre différents vêtements, poses et apparences.

Identifier les gens dans des scénarios réels

Pour que notre modèle LT-ReID identifie efficacement les individus, il traite les images d'entrée et extrait des caractéristiques uniques associées à l'identité de chaque personne. La similarité entre différentes images est évaluée à travers des calculs simples, permettant au système de déterminer si deux images contiennent probablement la même personne.

Grâce à ce processus efficace, notre système peut faire des matches rapides sans avoir besoin de se fier à une reconstruction 3D complexe pendant la phase d'identification, ce qui améliore les performances.

Évaluation de notre méthode

Pour évaluer combien notre approche fonctionne bien, on a mené des expériences approfondies en utilisant notre dataset CCDA et l'a comparé à d'autres méthodes existantes. On a mesuré la performance en fonction de l'exactitude dans l'identification des individus dans différents scénarios de vêtements.

Les résultats ont montré que notre méthode surpassait les techniques précédentes, prouvant que notre focus sur la dissociation des caractéristiques d'identité et non-identité contribue significativement à une reconnaissance plus précise.

Résultats et conclusions

En évaluant notre modèle sur divers datasets de changement de vêtements, on a constaté qu'il performait systématiquement mieux que la plupart des approches existantes. Notre méthode a montré une forte capacité à matcher des individus même lorsque leurs styles vestimentaires changeaient radicalement entre les images.

De plus, notre système a été testé dans des scénarios impliquant à la fois la ré-identification à court et à long terme, où il a maintenu une forte précision pour reconnaître les individus.

Conclusion

Notre recherche présente une approche novatrice pour la ré-identification des personnes sur le long terme qui prend en compte diverses activités humaines et les changements de vêtements. En développant un modèle à deux couches pour représenter des individus habillés et en créant un dataset complet, on a montré que séparer les caractéristiques d'identité des autres caractéristiques mène à des améliorations significatives en termes de précision de reconnaissance.

En avançant, il y a un potentiel pour d'autres avancées dans ce domaine, ouvrant encore plus de possibilités pour des applications pratiques dans la sécurité et la surveillance. Cependant, on doit rester conscient des considérations éthiques liées à la vie privée et à l'utilisation de cette technologie.

Ce travail ouvre des voies pour la recherche future, encourageant l'exploration de l'apprentissage multi-tâches à travers différentes modalités tout en soulignant l'importance d'un usage éthique dans le développement technologique.

Source originale

Titre: Learning Clothing and Pose Invariant 3D Shape Representation for Long-Term Person Re-Identification

Résumé: Long-Term Person Re-Identification (LT-ReID) has become increasingly crucial in computer vision and biometrics. In this work, we aim to extend LT-ReID beyond pedestrian recognition to include a wider range of real-world human activities while still accounting for cloth-changing scenarios over large time gaps. This setting poses additional challenges due to the geometric misalignment and appearance ambiguity caused by the diversity of human pose and clothing. To address these challenges, we propose a new approach 3DInvarReID for (i) disentangling identity from non-identity components (pose, clothing shape, and texture) of 3D clothed humans, and (ii) reconstructing accurate 3D clothed body shapes and learning discriminative features of naked body shapes for person ReID in a joint manner. To better evaluate our study of LT-ReID, we collect a real-world dataset called CCDA, which contains a wide variety of human activities and clothing changes. Experimentally, we show the superior performance of our approach for person ReID.

Auteurs: Feng Liu, Minchul Kim, ZiAng Gu, Anil Jain, Xiaoming Liu

Dernière mise à jour: 2023-09-21 00:00:00

Langue: English

Source URL: https://arxiv.org/abs/2308.10658

Source PDF: https://arxiv.org/pdf/2308.10658

Licence: https://creativecommons.org/licenses/by/4.0/

Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.

Merci à arxiv pour l'utilisation de son interopérabilité en libre accès.

Plus d'auteurs

Articles similaires