| Resumo |
A comunicação de pessoas com deficiências auditivas e de fala baseia-se nas linguagens de sinais; por isso, o aprendizado de línguas orais, como o português, é secundário. Essa dinâmica cria desafios na transmissão de mensagens, tornando a tradução da linguagem oral para a de sinais crucial para estreitar a lacuna comunicativa entre falantes e não falantes. Nesse contexto, as expressões faciais apresentam importância significativa, pois adicionam profundidade às interlocuções, revelando intenções e promovendo conexões, o que torna a comunicação mais eficaz e completa. Entretanto, apesar da relevância inegável dessa ferramenta, a escassez de dados visuais variados de qualidade para a criação de sistemas de tradução é um grande obstáculo. Coletar e rotular manualmente essas informações é custoso e demanda tempo e recursos consideráveis.Assim, a geração de dados sintéticos surge como uma solução promissora para criar os materiais necessários para programas de representação de sinais. No entanto, a criação de animações faciais críveis é uma tarefa desafiadora, dada a complexidade de capturar as minúcias das movimentações. O principal obstáculo é evitar o chamado “vale da estranheza”, garantindo uma representação autêntica. Diante desse cenário, este trabalho propõe o desenvolvimento de uma metodologia para a animação de esqueleto da face a fim de realizar movimentos e expressões faciais de forma automática utilizando motores gráficos com renderização hiper-realista. Nossa principal hipótese é que a inclusão das expressões e movimentos faciais contribuirá para um melhor entendimento da sinalização realizada pelo avatar fotorrealístico, aprimorando a comunicação e acessibilidade da comunidade dependente da linguagem de sinais. Para este projeto, o motor escolhido foi a Unreal Engine, destacando-se pela sua capacidade de renderização e por suas ferramentas de animação de personagens. O processo de animação teve duas etapas. A primeira utilizou uma biblioteca de expressões faciais padronizadas da Unreal Engine para avatares MetaHuman, modelos humanos digitais realistas. Essa abordagem, contudo, tem limitações na diversidade das expressões, pois são pré-definidas, limitadas e imutáveis. A outra etapa foca na transferência de animações, que podem ser capturadas de vídeos, para avatares, a partir da transformação de modelos paramétricos, como o SMPL-X, para o MetaHuman, visando o retargeting de malhas e esqueletos. Tal processo permite maior flexibilidade e naturalidade às expressões, reproduzindo feições reais. Em suma, tal metodologia possibilitou avanços na animação de esqueletos das faces de modelos 3D para a geração de avatares realísticos, contribuindo para a criação de expressões faciais verossímeis. O objetivo final é integrar essas animações faciais às corporais para enriquecer as representações das linguagens de sinais, a fim de aprimorar a comunicação e a acessibilidade dos usuários dessas línguas. |