| Resumo |
A Quarta Revolução Industrial tem impulsionado a busca por sistemas produtivos mais autônomos, destacando a robótica colaborativa como campo essencial para otimizar a coexistência entre humanos e robôs. Um desafio central é o desenvolvimento de interfaces de comunicação intuitivas. Esta pesquisa aborda essa questão ao propor um sistema de controle multimodal para veículos autônomos, que integra o reconhecimento de gestos e emoções para criar uma interação mais natural e segura. O objetivo principal do trabalho é desenvolver e validar um sistema de controle bimodal que utilize gestos como comandos primários e o reconhecimento de emoções faciais como uma camada de validação, aumentando a robustez da interação humano-robô. Os objetivos específicos foram: (i) implementar um algoritmo para a classificação precisa de gestos e emoções; (ii) desenvolver uma arquitetura, utilizando a plataforma ROS (Robot Operating System), para integrar os subsistemas de reconhecimento e controle; e (iii) implementar os algoritmos de controle em MATLAB para traduzir os comandos validados em ações de movimentação. A metodologia empregou o robô móvel Pioneer 3-DX e o sensor Intel RealSense D435i para captura de dados. Para o reconhecimento de gestos, utilizou-se o classificador de aprendizado de máquina KNN (K-Nearest Neighbors), treinado com um banco de dados próprio de cinco classes de ações e aprimorado com a divisão das amostras em 70% para treinamento e 30% para teste. Para o reconhecimento de emoções, foi implementada uma Rede Neural Convolucional (CNN), treinada com o banco de dados público FER2013. O fluxo do sistema opera em paralelo: enquanto o KNN classifica o gesto, a CNN categoriza a emoção do operador em "Positiva", "Neutra" ou "Negativa". A ação só é enviada ao robô se a emoção for "Positiva", servindo como um mecanismo de validação. A validação do classificador de gestos demonstrou um desempenho excelente, com acurácia geral de aproximadamente 95%. O classificador de emoções também se mostrou robusto, alcançando uma acurácia de cerca de 79,2%. Adicionalmente, as simulações da trajetória do robô no MATLAB, realizadas a partir de uma sequência de gestos, comprovaram o sucesso da integração. Os resultados mostraram que o deslocamento real do robô foi muito próximo dos pontos de referência desejados para cada gesto, validando a eficácia da comunicação via ROS e do sistema de controle implementado. Conclui-se que o sistema de reconhecimento bimodal proposto é uma ferramenta eficaz e inovadora. Os resultados positivos de ambos os classificadores, somados ao sucesso prático das simulações, validam a abordagem de dupla verificação e demonstram a viabilidade de se criar uma interface de controle segura e confiável. A integração de gestos e emoções representa um avanço significativo para a área de interação humano-robô, oferecendo uma solução robusta para o controle de veículos autônomos em ambientes colaborativos complexos. |