“Bicentenário da Independência: 200 anos de ciência, tecnologia e inovação no Brasil e 96 anos de contribuição da UFV”.

8 a 10 de novembro de 2022

Trabalho 17086

ISSN 2237-9045
Instituição Universidade Federal de Viçosa
Nível Graduação
Modalidade Pesquisa
Área de conhecimento Ciências Exatas e Tecnológicas
Área temática Inteligência Artificial
Setor Instituto de Ciências Exatas e Tecnológicas - Campus Rio Paranaíba
Bolsa CNPq
Conclusão de bolsa Sim
Apoio financeiro CNPq
Primeiro autor Laura Guimarães Martins Arakaki
Orientador JOAO FERNANDO MARI
Outros membros André Ricardo Backes, LEANDRO HENRIQUE FURTADO PINTO SILVA, Mauricio Cunha Escarpinati
Título Análise de redes neurais convolucionais para segmentação e classificação de imagens de sensoriamento remoto
Resumo Imagens de sensoriamento remoto são um importante recurso para a obtenção de informações em aplicações de agricultura de precisão. Um problema comum neste tipo de imagem é a oclusão de regiões de interesse por nuvens. O objetivo deste trabalho é testar métodos baseados em redes neurais convolucionais (RNCs) para a segmentação de nuvens em imagens de satélite. Para isso, foram comparados três modelos de segmentação, todos baseados na arquitetura U-Net com diferentes backbones. A U-Net é uma arquitetura muito utilizada para segmentação semântica de imagens e é composta por blocos de contração e blocos de expansão. A camada de saída da U-Net é formada por n canais, sendo n o número de classes do problema. Métodos de segmentação semântica baseados em RNCs constituem o estado da arte deste tipo de problema. A segmentação semântica consiste em rotular todos os pixels em uma imagem de acordo com o objeto a qual eles pertencem. O primeiro modelo considerado é mais simples e consiste em três blocos de contração seguido de três blocos de expansão. O segundo modelo possui um backbone baseado na RNC VGG-16 e o terceiro na ResNet-18. Os métodos foram testados usando o conjunto de dados Cloud-38, composto por 8.400 imagens de satélite no conjunto de treinamento e 9.201 imagens no conjunto de testes, sendo que para cada imagem é fornecido uma imagem de referência com as nuvens delineadas. O conjunto de treinamento foi dividido em duas partes, uma para o treinamento dos modelos (6.000 imagens) e outra para a validação (2.400 imagens). Os modelos foram treinados usando otimizador Adam ao longo de 50 épocas. O modelo mais simples (U-Net) foi treinado do princípio, por não haver modelos pré-treinados disponíveis. Os modelos com backbones baseados na VGG-16 e na ResNet-18 foram treinados usando fine-tuning sobre modelos pré-treinados com a ImageNet. Os resultados demonstram que os modelos testados são capazes de segmentar as nuvens nas imagens de forma satisfatória. A U-Net alcançou acurácia de 0,96 no conjunto de validação e 0,95 no conjunto de teste, a U-Net com VGG-16 obteve 0,98 no conjunto de validação e 0,83 no conjunto de teste e a U-Net com ResNet-18 obteve 0,98 no conjunto de validação e 0,82 no conjunto de teste.
Palavras-chave Segmentação de nuvens, imagens de satélite, deep learning
Forma de apresentação..... Vídeo
Link para apresentação Vídeo
Gerado em 0,68 segundos.