Das Montanhas de Minas ao Oceano: Os Caminhos da Ciência para um Futuro Sustentável

20 a 25 de outubro de 2025

Trabalho 21524

ISSN 2237-9045
Instituição Universidade Federal de Viçosa
Nível Graduação
Modalidade Pesquisa
Área de conhecimento Ciências Exatas e Tecnológicas
Área temática Dimensões Econômicas: ODS9
Setor Departamento de Engenharia Elétrica
Bolsa PIBIC/CNPq
Conclusão de bolsa Sim
Apoio financeiro CNPq
Primeiro autor Cleide Almeida Coelho Fernandes
Orientador KETIA SOARES MOREIRA
Outros membros ALEXANDRE SANTOS BRANDAO, Maria Clara do Carmo Precci Lopes
Título Integração de Veículos Autônomos em Ambientes Cooperativos com Controle Multimodal de Gestos e Emoções
Resumo A Quarta Revolução Industrial tem impulsionado a busca por sistemas produtivos mais autônomos, destacando a robótica colaborativa como campo essencial para otimizar a coexistência entre humanos e robôs. Um desafio central é o desenvolvimento de interfaces de comunicação intuitivas. Esta pesquisa aborda essa questão ao propor um sistema de controle multimodal para veículos autônomos, que integra o reconhecimento de gestos e emoções para criar uma interação mais natural e segura. O objetivo principal do trabalho é desenvolver e validar um sistema de controle bimodal que utilize gestos como comandos primários e o reconhecimento de emoções faciais como uma camada de validação, aumentando a robustez da interação humano-robô. Os objetivos específicos foram: (i) implementar um algoritmo para a classificação precisa de gestos e emoções; (ii) desenvolver uma arquitetura, utilizando a plataforma ROS (Robot Operating System), para integrar os subsistemas de reconhecimento e controle; e (iii) implementar os algoritmos de controle em MATLAB para traduzir os comandos validados em ações de movimentação. A metodologia empregou o robô móvel Pioneer 3-DX e o sensor Intel RealSense D435i para captura de dados. Para o reconhecimento de gestos, utilizou-se o classificador de aprendizado de máquina KNN (K-Nearest Neighbors), treinado com um banco de dados próprio de cinco classes de ações e aprimorado com a divisão das amostras em 70% para treinamento e 30% para teste. Para o reconhecimento de emoções, foi implementada uma Rede Neural Convolucional (CNN), treinada com o banco de dados público FER2013. O fluxo do sistema opera em paralelo: enquanto o KNN classifica o gesto, a CNN categoriza a emoção do operador em "Positiva", "Neutra" ou "Negativa". A ação só é enviada ao robô se a emoção for "Positiva", servindo como um mecanismo de validação. A validação do classificador de gestos demonstrou um desempenho excelente, com acurácia geral de aproximadamente 95%. O classificador de emoções também se mostrou robusto, alcançando uma acurácia de cerca de 79,2%. Adicionalmente, as simulações da trajetória do robô no MATLAB, realizadas a partir de uma sequência de gestos, comprovaram o sucesso da integração. Os resultados mostraram que o deslocamento real do robô foi muito próximo dos pontos de referência desejados para cada gesto, validando a eficácia da comunicação via ROS e do sistema de controle implementado. Conclui-se que o sistema de reconhecimento bimodal proposto é uma ferramenta eficaz e inovadora. Os resultados positivos de ambos os classificadores, somados ao sucesso prático das simulações, validam a abordagem de dupla verificação e demonstram a viabilidade de se criar uma interface de controle segura e confiável. A integração de gestos e emoções representa um avanço significativo para a área de interação humano-robô, oferecendo uma solução robusta para o controle de veículos autônomos em ambientes colaborativos complexos.
Palavras-chave Interação Humano-Robô, Controle Multimodal, Inteligência Artificial
Forma de apresentação..... Painel
Link para apresentação Painel
Gerado em 0,64 segundos.