Ciência para a Redução das Desigualdades

16 a 18 de outubro de 2018

Trabalho 11053

ISSN 2237-9045
Instituição Universidade Federal de Viçosa
Nível Graduação
Modalidade Pesquisa
Área de conhecimento Ciências Exatas e Tecnológicas
Área temática Teoria e Tecnologia da informação
Setor Instituto de Ciências Exatas e Tecnológicas
Conclusão de bolsa Não
Apoio financeiro FAPEMIG
Primeiro autor Lucas Costa de Faria
Orientador JOÃO FERNANDO MARI
Título Extração de características com descritores locais e Bag Of Visual Words para classificação de células em imagens de microscopia
Resumo Imagens de células obtidas por microscopia contém informações que podem auxiliar no diagnóstico de doenças. Diagnósticos precisos e rápidos de doenças como anemias hereditárias, leucemia linfoide aguda (LLA) e doenças autoimunes podem aumentar taxas de cura em tratamentos ou/e garantir qualidade de vida melhor aos pacientes diagnosticados. A área da visão computacional pode auxiliar nestes diagnósticos. O diagnóstico das doenças apresentadas pode ser realizado por um profissional capacitado, porém, é um trabalho cansativo e sujeito a erros. O objetivo deste trabalho é estudar métodos de extração de características e classificadores para o problema de classificação automatizada de células em imagens de microscopia. Foram utilizados três conjunto de imagens neste trabalho: 1) células HEP-2: utilizadas para diagnóstico de doenças autoimune; 2) eritrócitos: para diagnóstico de anemia falciforme e 3) leucócitos: para diagnósticos de leucemia linfoide aguda. Para extração de características das imagens foram utilizados quatro descritores locais de imagens: SIFT, SURF, DAISY e ORB, assim como uma combinação do SIFT com SURF. Com as informações dos descritores, utilizou-se o modelo de Bag of Visual Words (BoVW) com o mini-batch K-means, uma variação do algoritmo K-means, para o agrupamento dos dados e, dessa forma, gerar o dicionário de palavras visuais. Com isso, cada imagem possui um histograma associado para classificação de acordo com o dicionário gerado. Para avaliação dos resultados e comparação foi utilizada validação cruzada com o método k-fold, com k=5, que consiste em dividir o conjunto de dados em k subconjuntos, e iterando ao longo desses conjuntos utilizando um subconjunto para teste e o restante para treino, até que todas as imagens sejam testadas. Para a classificação foram utilizados os classificadores Support Vector Machine (SVM) e Multilayer Perceptron (MLP), sendo os dois classificadores supervisionados. Cada conjunto de dados foi processado separadamente e os resultados foram validados de acordo com os índices de acurácia, precisão, recall e F1-score. Todos os testes mostraram que a combinação dos descritores SIFT e SURF obtiveram melhores resultados nos conjuntos 2 e 3 e apenas o SIFT no conjunto 1, sendo estatisticamente equivalente à combinação de SIFT e SURF. O conjunto de imagens 1 apresentou acurácia de 84.97% com o descritor SIFT, mesmo sendo mais complexo, possuindo 6 classes. O conjunto de dados 2 possui 3 classes de células e obteve acurácia de 93.67% com a combinação de SIFT e SURF. O conjunto de dados 3, com 2 classes, resultou em uma acurácia de 97,22% com a combinação proposta.
Palavras-chave bag of words, visão computacional, classificação de celulas
Forma de apresentação..... Oral
Gerado em 0,66 segundos.