Informações da banca:
DISCENTE : ANDRÉ CARLOS SANTOS DE ASSIS
DATA : 15/12/2025
HORA: 16:00
LOCAL: Meet
TÍTULO:
Interpretabilidade e Confiança em Modelos de Aprendizado de Máquina
PALAVRAS-CHAVES:
IA Explicável, Interpretabilidade, Aprendizado de Máquina, Ambientes Inteligentes, Envelhecimento de Software
PÁGINAS: 85
RESUMO:
Sistemas de aprendizado de máquina têm apoiado cada vez mais a tomada de decisões em domínios nos quais transparência, confiabilidade e confiança do usuário são essenciais. À medida que os modelos se tornam mais complexos, a tensão entre desempenho preditivo e explicabilidade torna-se uma preocupação crítica para a adoção no mundo real. Embora diversas técnicas forneçam explicações localizadas ou a posteriori, a literatura ainda carece de abordagens integradas que avaliem como a interpretabilidade afeta o desempenho, apoiem a compreensão transparente dos modelos e fortaleçam a confiança em ambientes inteligentes. Esta dissertação aborda essas lacunas por meio de três investigações complementares. Primeiramente, analisa modelos transparentes e opacos sob diferentes cargas de trabalho, revelando trade-offs práticos entre acurácia, latência e a capacidade dos usuários de compreender o comportamento do modelo. Em segundo lugar, apresenta a Ferramenta de Análise de Modelos Interpretáveis (IMAT), uma solução de análise visual que representa o fluxo interno de computação de Perceptrons Multicamadas por meio de fluxogramas e artefatos textuais estruturados, ampliando a rastreabilidade e a transparência em tarefas como a análise de sentimentos. Em terceiro lugar, aplica explicabilidade à detecção de envelhecimento de software ao integrar diagramas visuais com explicações em linguagem natural geradas por Modelos de Linguagem de Grande Porte, permitindo que engenheiros examinem caminhos de decisão, identifiquem características influentes e aumentem a confiança em decisões de manutenção. Os resultados mostram que a interpretabilidade pode ser incorporada aos fluxos de trabalho de aprendizado de máquina com impacto controlado no desempenho. As principais contribuições incluem critérios empíricos para selecionar entre modelos transparentes e opacos, uma ferramenta visual para a análise interpretável de MLPs e uma abordagem baseada em explicabilidade que fortalece a transparência e a confiança na manutenção preditiva e em ambientes inteligentes.
MEMBROS DA BANCA:
Externo à Instituição - BRUNO COSTA E SILVA NOGUEIRA - UFAL
Interno - ERMESON CARNEIRO DE ANDRADE
Interno - FILIPE ROLIM CORDEIRO

