Das Montanhas de Minas ao Oceano: Os Caminhos da Ciência para um Futuro Sustentável

20 a 25 de outubro de 2025

Trabalho 22294

ISSN 2237-9045
Instituição Universidade Federal de Viçosa
Nível Graduação
Modalidade Pesquisa
Área de conhecimento Ciências Exatas e Tecnológicas
Área temática Dimensões Sociais: ODS10
Setor Departamento de Informática
Bolsa CNPq
Conclusão de bolsa Não
Apoio financeiro CNPq
Primeiro autor Libiane Tamires Gomes
Orientador MARIA LUCIA BENTO VILLELA
Outros membros Cristiane Aparecida Lana, João Carlos Santana Silveira
Título Comunicabilidade de Sistemas de Inteligência Artificial Generativa na Geração de Textos com Foco em Princípios Éticos
Resumo O avanço e a popularização dos sistemas de Inteligência Artificial generativa (GenIA) nas interações cotidianas têm intensificado preocupações sobre como essas tecnologias comunicam suas decisões, limitações e compromissos éticos aos usuários. Diante da crescente delegação de tarefas cognitivas e decisões sensíveis a agentes automatizados, torna-se urgente compreender como os princípios éticos de beneficência, não-maleficência, autonomia, justiça e explicabilidade, estão sendo incorporados e efetivamente comunicados por esses sistemas. Beneficência refere-se à obrigação de promover o bem-estar do usuário, enquanto a não-maleficência trata da prevenção de danos. A autonomia está relacionada ao respeito pelas decisões do usuário e sua liberdade de escolha; por outro lado, a justiça envolve a equidade e imparcialidade no tratamento dos usuários, e a explicabilidade exige que os sistemas sejam transparentes e compreensíveis para seus usuários, explicando como chegam a suas conclusões. Neste contexto, este trabalho investiga como os sistemas de IA generativa mais populares, como o ChatGPT, Gemini e Claude, comunicam princípios éticos em suas interfaces durante a geração de textos. Para isso, foi adotado o Método de Inspeção Semiótica (MIS), que envolveu a análise de signos metalinguísticos, estáticos e dinâmicos, considerando tanto o conteúdo apresentado espontaneamente pelas interfaces quanto as respostas a interações críticas simuladas, com o objetivo de identificar lacunas e pontos fortes na comunicação dos referidos princípios éticos. Os resultados revelam inconsistências importantes: embora a explicabilidade seja frequentemente mencionada, sua aplicação é limitada, com pouca clareza sobre fontes de treinamento, critérios de recusa de respostas e mecanismos de verificação de idade, comprometendo a confiança e a autonomia do usuário. Além disso, observou-se a ausência de diretrizes visíveis sobre mitigação de danos e proteção de grupos vulneráveis. Apesar de algumas boas práticas, como o controle de dados e feedbacks interativos, existem falhas significativas na aplicação dos princípios éticos de forma prática. Por exemplo, no que tange à explicabilidade, os sistemas muitas vezes não incluem informações sobre como os dados são utilizados ou de onde vêm as respostas, o que diminui a transparência e a confiança do usuário. Também houve lacunas na implementação de mecanismos de verificação de idade e recusa de conteúdos prejudiciais, o que impacta diretamente a segurança e a autonomia dos indivíduos, principalmente em grupos vulneráveis. Conclui-se que a construção de confiança nesses sistemas requer um design mais robusto, pautado na explicitação coerente de princípios éticos e na adoção de estratégias transparentes de interação, garantindo que os sistemas promovam o bem-estar do usuário, evitem danos e respeitem a autonomia e os direitos dos indivíduos.
Palavras-chave princípios éticos, IA generativa, MIS
Forma de apresentação..... Vídeo
Link para apresentação Vídeo
Gerado em 0,69 segundos.