Simple Science

Ciência de ponta explicada de forma simples

# Informática# Gráficos# Inteligência Artificial# Aprendizagem de máquinas

Avanços na Movimentação de Personagens para Jogos e Filmes

Novos métodos permitem que personagens realistas façam várias ações ao mesmo tempo.

― 6 min ler


Revolução na Animação deRevolução na Animação dePersonagensforma realista.personagens façam ações complexas deNovas técnicas permitem que os
Índice

Nos últimos anos, criar personagens realistas para videogames e filmes ficou mais fácil graças aos avanços da tecnologia. Personagens que se movem de forma natural e respondem ao ambiente virtual tornam as histórias mais interessantes. Mas, os métodos que usamos atualmente muitas vezes dependem de gravações de pessoas reais. Essas gravações capturam como os especialistas fazem ações específicas. Essa abordagem limita a criatividade porque muitas vezes é preciso encontrar novas gravações toda vez que queremos que um personagem faça algo diferente.

Esse artigo explora uma nova forma de combinar essas gravações em um único personagem que pode realizar várias ações ao mesmo tempo. Nosso objetivo é criar personagens que consigam imitar vários movimentos enquanto também realizam tarefas como andar e gesticular ao mesmo tempo. Vamos discutir como ensinamos os personagens a dominar essas ações complexas, resultando em movimentos mais naturais e versáteis em ambientes virtuais.

Síntese de Comportamento Composto

Para treinar nossos personagens a realizarem múltiplos comportamentos ao mesmo tempo, apresentamos uma técnica que mistura ações gravadas. Isso permite que nossos personagens aprendam com diferentes clipes de referência de uma só vez. Em vez de fazer um personagem imitar apenas uma ação, podemos combinar várias gravações para criar uma nova ação. Por exemplo, um personagem pode aprender a andar enquanto acena com o braço ao mesmo tempo.

Usando esse método, também incluímos tarefas específicas que o personagem deve realizar enquanto executa essas ações. Isso pode envolver fazer o personagem andar até um ponto específico enquanto adiciona gestos. Ao criar um sistema que pode lidar com múltiplos objetivos, nossos personagens podem aprender a realizar ações de uma forma mais realista e flexível.

Abordagem de Aprendizado Multi-Objetivo

Nossa abordagem é baseada em um sistema de aprendizado que permite que os personagens trabalhem em várias tarefas ao mesmo tempo. Usando várias redes "discriminadoras", conseguimos avaliar quão bem o personagem está realizando cada tarefa. Cada discriminadora foca em uma parte diferente do movimento do personagem, permitindo que forneçamos feedback sobre os movimentos do corpo de forma independente.

Esse método ajuda o personagem a se adaptar a tarefas mistas, equilibrando o aprendizado de várias ações. Assim, o personagem pode aprender a realizar tarefas como andar e gesticular juntos sem que uma ação interfira muito na outra.

Aprendizado Incremental

Outro aspecto chave da nossa técnica é o conceito de aprendizado incremental. Assim como os humanos constroem sobre habilidades existentes, nossos personagens podem melhorar reutilizando comportamentos já aprendidos. Por exemplo, um personagem que já sabe andar pode rapidamente se adaptar a usar um celular enquanto caminha, sem precisar re-aprender todo o processo de andar.

Implementamos isso criando uma "meta política", que é basicamente um comportamento fundamental que o personagem pode desenvolver. Treinando novas habilidades em cima dessa meta política, os personagens conseguem aprender mais rápido e criar movimentos complexos sem precisar começar do zero toda vez.

Controle de Personagens Baseado em Física

Criar personagens que se movem de forma realista exige um entendimento de física. Usamos um sistema que simula como os personagens interagem com o ambiente. Isso envolve considerar como a gravidade, o equilíbrio e as forças afetam os movimentos. Ao modelar essas interações de forma precisa, garantimos que nossos personagens não só tenham uma aparência boa, mas também se movam de uma maneira que faça sentido fisicamente.

Os desafios de controlar um personagem com várias articulações e membros exigem uma programação cuidadosa. Nossa abordagem foca em dividir esses controles em tarefas mais simples que podem ser combinadas depois.

Aplicações em Várias Áreas

As técnicas que discutimos têm várias aplicações. Para além do entretenimento, também podem ser usadas em robótica, ambientes de treinamento virtual e até mesmo em reabilitação. Por exemplo, na robótica, criar movimentos realistas pode ajudar máquinas a interagir melhor com os humanos.

Nos videogames, personagens que conseguem combinar movimentos de forma adaptativa criam uma jogabilidade mais dinâmica, melhorando a experiência do jogador. Da mesma forma, na animação, ser capaz de gerar movimentos novos e variados sem precisar gravar cada ação pode economizar tempo e recursos.

Aprendendo com Dados Reais

Nosso sistema de aprendizado é baseado em dados de movimentos humanos reais. Ao analisar como as pessoas realizam tarefas, conseguimos criar movimentos de referência para nossos personagens. Isso significa que, em vez de começar do zero, temos uma riqueza de dados do mundo real para nos basear. Isso ajuda nossos personagens a não apenas se saírem bem, mas também a aprender de uma forma que pareça natural.

Desafios e Direções Futuras

Apesar do nosso progresso, ainda há desafios pela frente. Um grande desafio é garantir que nosso personagem consiga lidar com tarefas complexas que envolvem várias fases ou etapas. Atualmente, nosso sistema não distingue entre diferentes etapas de uma atividade, o que dificulta o aprendizado de comportamentos que mudam ao longo do tempo.

Outra área a ser melhorada é a diversidade dos dados que usamos. Pessoas diferentes se movem de maneiras diferentes, e ser capaz de levar em conta essa variedade poderia melhorar o quão bem nossos personagens imitam ações reais.

Conclusão

Resumindo, estamos desenvolvendo uma forma dos personagens aprenderem comportamentos complexos misturando ações gravadas e realizando múltiplas tarefas ao mesmo tempo. Com a combinação dos nossos métodos de aprendizado multi-objetivo e aprendizado incremental, conseguimos criar personagens que são não só visualmente críveis, mas também capazes de se adaptar às suas tarefas de uma maneira realista.

Nosso trabalho amplia os limites do que é possível em animação e controle de personagens, abrindo novas possibilidades para criadores e usuários. Essa pesquisa abre caminho para um futuro onde personagens virtuais possam se integrar perfeitamente aos seus ambientes, interagir com os usuários de forma mais fluida e proporcionar experiências envolventes e imersivas.

Fonte original

Título: Composite Motion Learning with Task Control

Resumo: We present a deep learning method for composite and task-driven motion control for physically simulated characters. In contrast to existing data-driven approaches using reinforcement learning that imitate full-body motions, we learn decoupled motions for specific body parts from multiple reference motions simultaneously and directly by leveraging the use of multiple discriminators in a GAN-like setup. In this process, there is no need of any manual work to produce composite reference motions for learning. Instead, the control policy explores by itself how the composite motions can be combined automatically. We further account for multiple task-specific rewards and train a single, multi-objective control policy. To this end, we propose a novel framework for multi-objective learning that adaptively balances the learning of disparate motions from multiple sources and multiple goal-directed control objectives. In addition, as composite motions are typically augmentations of simpler behaviors, we introduce a sample-efficient method for training composite control policies in an incremental manner, where we reuse a pre-trained policy as the meta policy and train a cooperative policy that adapts the meta one for new composite tasks. We show the applicability of our approach on a variety of challenging multi-objective tasks involving both composite motion imitation and multiple goal-directed control.

Autores: Pei Xu, Xiumin Shang, Victor Zordan, Ioannis Karamouzas

Última atualização: 2023-05-05 00:00:00

Idioma: English

Fonte URL: https://arxiv.org/abs/2305.03286

Fonte PDF: https://arxiv.org/pdf/2305.03286

Licença: https://creativecommons.org/licenses/by/4.0/

Alterações: Este resumo foi elaborado com a assistência da AI e pode conter imprecisões. Para obter informações exactas, consulte os documentos originais ligados aqui.

Obrigado ao arxiv pela utilização da sua interoperabilidade de acesso aberto.

Mais de autores

Artigos semelhantes