“Bicentenário da Independência: 200 anos de ciência, tecnologia e inovação no Brasil e 96 anos de contribuição da UFV”.

8 a 10 de novembro de 2022

Trabalho 16002

ISSN 2237-9045
Instituição Universidade Federal de Viçosa
Nível Graduação
Modalidade Pesquisa
Área de conhecimento Ciências Exatas e Tecnológicas
Área temática Engenharia elétrica
Setor Departamento de Engenharia Elétrica
Bolsa PIBIC/CNPq
Conclusão de bolsa Sim
Apoio financeiro CNPq
Primeiro autor Denise Cristina Henrique de Freitas
Orientador KETIA SOARES MOREIRA
Outros membros Helena Cristo Martins
Título Análise da vulnerabilidade humana acerca da identificação de Deepfakes
Resumo Deepfake é uma junção dos termos Deep Learning (“Aprendizagem Profunda”) e Fake ("Falsidade") e consiste em uma tecnologia que utiliza Inteligência Artificial (IA), mais especificamente a aprendizagem profunda, para criar vídeos ou imagens falsas, com adulterações que, muitas vezes, passam despercebidas aos olhos humanos. A aprendizagem profunda é uma subárea da Aprendizagem de Máquina da IA que consiste na representação de dados que permite a criação de algoritmos que “aprendam” a identificar padrões e estruturas a partir de um imenso conjunto de dados. Assim, essa tecnologia possibilita a substituição dos rostos das pessoas com outros rostos e criação de animação em vídeo com falas e gestos, obtendo resultados verossímeis. Essa técnica, que já gerou desde conteúdos pornográficos com celebridades até discursos fictícios de políticos influentes, cresceu tanto nos últimos anos, de maneira descontrolada, que hoje se faz necessário estudos acerca de como é o seu funcionamento, a fim de desenvolver métodos capazes de combater a disseminação de informações falsas. Posto isso, esse trabalho estuda uma maneira de criação de deepfakes proposta no artigo “First Order Motion Model for Image Animation”, que segue uma estratégia auto-supervisionada inspirada na rede neural Monkey-Net, através da implementação de um código em Python e utilizando como base vídeos originais de uma pessoa e fotos com o rosto de outra pessoa, cria-se uma base de dados de vídeos adulterados. Posteriormente são realizadas análises, tanto objetivas, com a utilização da métrica PSNR (Peak Signal to Noise Ratio); como subjetivas, com uma pesquisa referenciada em cima da métrica MOS (Mean Opinion Score), que consiste na obtenção de um valor para determinar a qualidade de um vídeo através da opinião de um grupo de pessoas. Tudo isso com o propósito de se entender melhor a vulnerabilidade humana no julgamento desse procedimento. Tendo em vista que a técnica requer recursos avançados para o processamento de redes neurais, a qualidade média dos vídeos gerados acaba não sendo tão satisfatória, porém são o suficiente para enganar muitas pessoas, isto é, os resultados mostraram que com uma única foto é possível criar um vídeo manipulado suficientemente convincente, o que poderia colocar em risco a reputação do indivíduo. Posto isso, o trabalho cumpre com êxito seu objetivo, evidenciando a vulnerabilidade humana acerca da percepção e capacidade de julgamento sobre esse assunto.
Palavras-chave Deepfake, Inteligência Artificial, base de dados
Forma de apresentação..... Painel
Link para apresentação Painel
Gerado em 0,68 segundos.