Das Montanhas de Minas ao Oceano: Os Caminhos da Ciência para um Futuro Sustentável

20 a 25 de outubro de 2025

Trabalho 20193

Instituição Universidade Federal de Viçosa
Nível Graduação
Modalidade Pesquisa
Área de conhecimento Ciências Exatas e Tecnológicas
Área temática Ciências Exatas e da Terra
Setor Instituto de Ciências Exatas e Tecnológicas
Bolsa FAPEMIG
Conclusão de bolsa Não
Primeiro autor Júlio César de Souza Oliveira
Orientador FABRICIO AGUIAR SILVA
Outros membros Letícia Oliveira Silva
Título Avanços no Desempenho, Privacidade e Explicabilidade para Modelos de Inteligência Artificial
Resumo O uso da Inteligência Artificial aumentou significativamente nos últimos anos, não apenas entre pessoas já inseridas no âmbito da Tecnologia da Informação, mas também alcançou públicos diversos, passando a ocupar vários ambientes profissionais e pessoais. Por outro lado, os grandes modelos de linguagem (LLMs), como ChatGPT ou o Gemini, ainda apresentam diversas limitações, tanto pela inviabilidade de serem treinados e utilizados com baixos custos computacionais quanto pelos desafios relacionados à privacidade dos dados. Dessa forma, o projeto tem como objetivo estudar métodos e implementações que viabilizem o uso de modelos menores (SLMs) para empresas e pessoas, de modo que tenham acesso a essa tecnologia mais acessível, segura e que atenda às suas demandas, preservando suas informações. No que diz respeito à privacidade, o uso local de modelos SLMs pré-treinados oferece maior segurança e privacidade de suas informações, uma vez que, ao utilizar uma API, especialmente de modelos closed source, como o ChatGPT, informações sensíveis podem ser coletadas e armazenadas em bancos de dados externos, que podem ser acessados e utilizados por terceiros, sem que o usuário tenha controle sobre esse processo. No entanto, esses SLMs, apesar do menor custo computacional e maior privacidade, perdem em qualidade e desempenho quando comparados às LLMs. Portanto, busca-se, neste Trabalho de Pesquisa, como melhorar a precisão e eficiência desses modelos menores, mantendo o baixo custo e a segurança dos dados. Para alcançar esse objetivo, foram testadas diferentes formas de reduzir o tamanho dos modelos por meio da Quantização e aumentar o desempenho com o Fine Tuning desses modelos. Para tanto, buscou-se na literatura científica o funcionamento das IAs por trás da camada que, usualmente, o usuário interage. Posteriormente, investigou-se formas já conhecidas de alcançar essa eficiência e comprimir os modelos. Dentre os métodos, foram experimentadas em distintos modelos diferentes técnicas de quantização, como o Quantization-Aware Training (QAT) e o Activation-Aware Weight Quantization (AWQ), além de técnicas de Fine Tuning, com o objetivo de coletar e analisar suas métricas de desempenho e custo computacional. A partir da análise dessas métricas, conclui-se que, embora os SLMs apresentem menor precisão nas inferências em comparação com os LLMs, esses modelos menores, que demandam menos recursos computacionais e menos dados para treinamento, conseguem alcançar um desempenho aceitável. Isso os torna viáveis para atender a demandas específicas, oferecendo maior privacidade e acessibilidade, tanto para empresas quanto para usuários individuais.
Palavras-chave inteligência artificial, IA Generativa, Privacidade de Dados
Apresentações
  • Painel: Local e horário não definidos.

Clique na forma de apresentação para ver a apresentação.

Link para apresentação Painel
Gerado em 0,73 segundos.