Simple Science

Hochmoderne Wissenschaft einfach erklärt

# Computerwissenschaften# Computer Vision und Mustererkennung# Graphik# Maschinelles Lernen

Fortschritte bei der Erstellung realistischer digitaler Menschen

Eine neue Methode verbessert die Kontrolle beim Entwerfen von digitalen Avataren.

― 6 min Lesedauer


Transformation derTransformation derdigitalenAvatar-ErstellungMenschen.beim Design von realistischen digitalenNeue Methoden verbessern die Kontrolle
Inhaltsverzeichnis

Realistische Digitale Menschen zu erstellen, ist ne ganz schöne Herausforderung. Das wird immer wichtiger in Bereichen wie Filmen, Videospielen und virtueller Realität. Mit dem wachsenden Interesse am Metaversum braucht man einfachere Möglichkeiten, um verschiedene digitale Menschen zu erschaffen. Das hilft sowohl talentierten Künstlern als auch normalen Nutzern, die vielleicht kein künstlerisches Talent haben, dabei, einzigartige Avatare zu kreieren.

Früher hat es Wochen oder sogar Monate gedauert, nur die Kopfform eines Charakters zu erstellen. Um diesen Prozess zu beschleunigen, wurden Tools entwickelt, die beim Design von Avataren helfen. Aber diese Tools haben oft ihre Grenzen. Sie basieren meist auf Methoden, die entweder wenig flexibel sind oder die Kontrolle über die spezifischen Merkmale des Charakters nicht erlauben.

Generative Modelle und ihre Einschränkungen

Die meisten Tools zur Erstellung von 3D-Digitalmenschen basieren auf generativen Modellen. Diese Modelle sind datengestützt und können die Erstellung von Formen vereinfachen. Allerdings erlauben sie normalerweise keine Kontrolle über Details wie Gesichtszüge oder andere lokale Merkmale. Zu den gängigen Methoden gehören Blendshapes, Hauptkomponentenanalyse (PCA) und generative gegnerische Netzwerke (GANs). Während diese Modelle Formen erzeugen können, fehlt oft die Möglichkeit, spezifische Details effektiv zu steuern.

Ein Problem dieser Methoden ist, dass sie keine Änderungen an einem Teil eines Charakters erlauben, ohne auch andere Teile zu beeinflussen. Diese fehlende Unabhängigkeit kann es schwierig machen, einen Avatar zu erstellen, der der Vorstellung des Nutzers entspricht. Daher besteht ein Bedarf an neuen Techniken, die eine bessere Kontrolle über die Generierung von Charakteren ermöglichen.

Der Bedarf an verbesserten Methoden

Jüngste Fortschritte im Bereich des Deep Learning haben neue Möglichkeiten für die Erstellung von 3D-Formen eröffnet. Dazu gehören Methoden wie Variationale Autoencoder (VAEs) und GANs, die Daten mit weniger Parametern besser darstellen können. Allerdings bleibt die Kontrolle über die spezifischen Details einer generierten Form nach wie vor eine grosse Herausforderung.

Aktuelle Forschungen konzentrieren sich hauptsächlich darauf, die Identität eines Charakters von Änderungen in Pose oder Ausdruck zu trennen. Allerdings gab es bisher wenig Fortschritt bei der Kontrolle der lokalen Merkmale, die die Identität eines Charakters definieren. Einige Modelle haben in der Kontrolle von Details bei Möbelformen vielversprechende Ergebnisse gezeigt, aber ähnliche Techniken auf menschliche Formen anzuwenden, war nicht so erfolgreich.

Ein neuerer Ansatz versucht, einen einzigen VAE zu trainieren und dabei eine Trennung zwischen Variablen zu erzwingen, die die Identitätsattribute eines Charakters steuern. Doch selbst diese Methoden haben Einschränkungen, da sie noch mit verwobenen Variablen innerhalb jedes Sets kämpfen.

Vorgeschlagene Lösung: Lokale Eigenprojektion

Um diese Einschränkungen zu überwinden, wurde eine neue Methode entwickelt, die sich auf spektrale Geometrie konzentriert. Diese Methode fördert die latente Darstellung einer Form, sodass sie sich an wichtigen lokalen Merkmalen orientiert. Indem die zugrunde liegenden Mesh-Daten strukturiert mit lokalen Attributen verbunden werden, ermöglicht die neue Methode eine verbesserte Kontrolle über lokale Details in digitalen Menschen.

Der Hauptbeitrag dieses Ansatzes ist eine neue Verlustfunktion für lokale Eigenprojektionen. Diese Verlustfunktion verbessert, wie gut verschiedene Attribute während der Formgenerierung kontrolliert werden können. Die Methode fördert spezifische Beziehungen zwischen den Faktoren, die einen Charakter definieren, sodass es einfacher wird, jedes Merkmal unabhängig zu steuern.

Formrepräsentation und Verlustfunktion für lokale Eigenprojektion

Digitale Formen werden als Dreiecks-Meshes dargestellt, die eine konsistente Struktur teilen. Wenn die gleiche Topologie für alle Formen beibehalten wird, können die Modelle effizienter arbeiten. Änderungen an der Form können dann durch Anpassung der Position der Vertices verwaltet werden.

Die Verlustfunktion für lokale Eigenprojektionen ist in diesem Setup entscheidend. Sie hilft, spezifische Merkmale auf einem Mesh zu definieren und ermöglicht eine konsistente Kontrolle darüber, wie diese Merkmale erzeugt werden. Die Verlustfunktion bewertet die Unterschiede zwischen den erwarteten und tatsächlichen Positionen der Vertices und optimiert so den Generierungsprozess für bessere Ergebnisse.

Testen der neuen Methode

Die neue Methode wurde mit traditionellen VAEs und GANs getestet. Die Ergebnisse zeigen, dass sie nicht nur die Kontrolle über lokale Merkmale verbessert, sondern auch gute Generierungsfähigkeiten beibehält. Die Trainingszeit für die neue Methode ist ebenfalls vergleichbar mit bestehenden Modellen, was sie zu einer praktischen Option für Künstler und Designer macht.

Vorteile der Methode für lokale Eigenprojektion

  1. Verbesserte Kontrolle: Der Hauptvorteil ist die verbesserte Möglichkeit, lokale Attribute wie Augen, Nase und Kiefer unabhängig zu steuern.
  2. Effizienz: Der neue Ansatz benötigt im Vergleich zu einigen bestehenden Methoden keine umfangreichen Rechenressourcen.
  3. Qualität der Ergebnisse: Die erzeugten Formen sind realistisch und konsistent, sodass sie für verschiedene Anwendungen in Unterhaltung und virtuellen Umgebungen geeignet sind.

Leistung im Vergleich zu bestehenden Methoden

Im Vergleich zur neuen Methode zeigen bestehende Modelle, dass sie eine bessere Kontrolle über lokale Merkmale erreichen können. Traditionelle Modelle haben oft Schwierigkeiten, sicherzustellen, dass Änderungen an einem Merkmal andere nicht beeinflussen. Doch die neue Methode ermöglicht eine unabhängige Manipulation der Merkmale, was zu vielfältigeren und realistischeren Avataren führt.

Bewertungsmetriken

Um zu messen, wie gut die neuen Modelle abschneiden, werden verschiedene Metriken verwendet. Dazu gehören Diversität, Jensen-Shannon-Divergenz (JSD) und minimaler Matching-Abstand (MMD). Die neuen Modelle zeigen vergleichbare oder verbesserte Ergebnisse bei diesen Metriken im Vergleich zu traditionellen Methoden.

  1. Diversität: Die Fähigkeit, abwechslungsreiche Formen zu erstellen, ist entscheidend für die Avatar-Generierung. Die neue Methode glänzt in diesem Bereich und produziert unterschiedliche Ausgaben aus variierenden latenten Variablen.
  2. JSD und MMD: Diese Metriken bewerten, wie nah die erzeugten Formen an realen liegen. Die neue Methode hält eine effektive Leistung aufrecht, sodass sowohl Diversität als auch Qualität möglich sind.

Anwendungen und zukünftige Arbeiten

Die Auswirkungen dieser Forschung gehen über die blosse Avatar-Generierung hinaus. Da digitale Menschen in verschiedenen Bereichen immer präsenter werden, werden Tools, die den Erstellungsprozess vereinfachen, von unschätzbarem Wert sein. Die Fähigkeit, realistische Charaktere effizient und flexibel zu generieren, kann ein Game-Changer in Branchen von Gaming bis hin zu Gesundheitswesen sein.

In Zukunft kann diese Methode erweitert werden, um komplexere Attribute wie Ausdrücke, Texturen und detaillierte Merkmale wie Haare einzubeziehen. Das Ziel wird sein, den Generierungsprozess intuitiver und zugänglicher für Nutzer mit unterschiedlichen Fähigkeiten zu gestalten.

Fazit

Diese neue Methode stellt einen bedeutenden Fortschritt in der Entwicklung von Tools zur Erstellung digitaler Menschen dar. Durch die Konzentration auf lokale Eigenprojektionen und die Verbesserung der Kontrolle über lokale Attribute eröffnet sie neue Möglichkeiten für Künstler und Nutzer. Mit den Fortschritten der Technologie wird das Potenzial für die Erstellung lebensechter, vielfältiger digitaler Charaktere nur noch wachsen und das Metaversum sowie virtuelle Interaktionen ansprechender und realistischer machen.

Zusammenfassend verbessert die Einführung der Methode zur lokalen Eigenprojektion den Prozess der Generierung digitaler Menschen, indem sie eine bessere Kontrolle ermöglicht, die Effizienz steigert und die Qualität der Ergebnisse erhöht. Diese Methode wird die Art und Weise, wie digitale Identitäten gestaltet werden, verändern und den Weg für eine neue Welle kreativer Möglichkeiten im digitalen Raum ebnen.

Originalquelle

Titel: 3D Generative Model Latent Disentanglement via Local Eigenprojection

Zusammenfassung: Designing realistic digital humans is extremely complex. Most data-driven generative models used to simplify the creation of their underlying geometric shape do not offer control over the generation of local shape attributes. In this paper, we overcome this limitation by introducing a novel loss function grounded in spectral geometry and applicable to different neural-network-based generative models of 3D head and body meshes. Encouraging the latent variables of mesh variational autoencoders (VAEs) or generative adversarial networks (GANs) to follow the local eigenprojections of identity attributes, we improve latent disentanglement and properly decouple the attribute creation. Experimental results show that our local eigenprojection disentangled (LED) models not only offer improved disentanglement with respect to the state-of-the-art, but also maintain good generation capabilities with training times comparable to the vanilla implementations of the models.

Autoren: Simone Foti, Bongjin Koo, Danail Stoyanov, Matthew J. Clarkson

Letzte Aktualisierung: 2023-04-04 00:00:00

Sprache: English

Quell-URL: https://arxiv.org/abs/2302.12798

Quell-PDF: https://arxiv.org/pdf/2302.12798

Lizenz: https://creativecommons.org/licenses/by/4.0/

Änderungen: Diese Zusammenfassung wurde mit Unterstützung von AI erstellt und kann Ungenauigkeiten enthalten. Genaue Informationen entnehmen Sie bitte den hier verlinkten Originaldokumenten.

Vielen Dank an arxiv für die Nutzung seiner Open-Access-Interoperabilität.

Mehr von den Autoren

Ähnliche Artikel