| Resumo |
O avanço e a popularização dos sistemas de Inteligência Artificial generativa (GenIA) nas interações cotidianas têm intensificado preocupações sobre como essas tecnologias comunicam suas decisões, limitações e compromissos éticos aos usuários. Diante da crescente delegação de tarefas cognitivas e decisões sensíveis a agentes automatizados, torna-se urgente compreender como os princípios éticos de beneficência, não-maleficência, autonomia, justiça e explicabilidade, estão sendo incorporados e efetivamente comunicados por esses sistemas. Beneficência refere-se à obrigação de promover o bem-estar do usuário, enquanto a não-maleficência trata da prevenção de danos. A autonomia está relacionada ao respeito pelas decisões do usuário e sua liberdade de escolha; por outro lado, a justiça envolve a equidade e imparcialidade no tratamento dos usuários, e a explicabilidade exige que os sistemas sejam transparentes e compreensíveis para seus usuários, explicando como chegam a suas conclusões. Neste contexto, este trabalho investiga como os sistemas de IA generativa mais populares, como o ChatGPT, Gemini e Claude, comunicam princípios éticos em suas interfaces durante a geração de textos. Para isso, foi adotado o Método de Inspeção Semiótica (MIS), que envolveu a análise de signos metalinguísticos, estáticos e dinâmicos, considerando tanto o conteúdo apresentado espontaneamente pelas interfaces quanto as respostas a interações críticas simuladas, com o objetivo de identificar lacunas e pontos fortes na comunicação dos referidos princípios éticos. Os resultados revelam inconsistências importantes: embora a explicabilidade seja frequentemente mencionada, sua aplicação é limitada, com pouca clareza sobre fontes de treinamento, critérios de recusa de respostas e mecanismos de verificação de idade, comprometendo a confiança e a autonomia do usuário. Além disso, observou-se a ausência de diretrizes visíveis sobre mitigação de danos e proteção de grupos vulneráveis. Apesar de algumas boas práticas, como o controle de dados e feedbacks interativos, existem falhas significativas na aplicação dos princípios éticos de forma prática. Por exemplo, no que tange à explicabilidade, os sistemas muitas vezes não incluem informações sobre como os dados são utilizados ou de onde vêm as respostas, o que diminui a transparência e a confiança do usuário. Também houve lacunas na implementação de mecanismos de verificação de idade e recusa de conteúdos prejudiciais, o que impacta diretamente a segurança e a autonomia dos indivíduos, principalmente em grupos vulneráveis. Conclui-se que a construção de confiança nesses sistemas requer um design mais robusto, pautado na explicitação coerente de princípios éticos e na adoção de estratégias transparentes de interação, garantindo que os sistemas promovam o bem-estar do usuário, evitem danos e respeitem a autonomia e os direitos dos indivíduos. |