Ciência

Pesquisadores coreanos desenvolvem método para reduzir a superconfiança de sistemas de inteligência artificial em erros

04 de Maio de 2026 às 12:29

Pesquisadores do Korea Advanced Institute of Science and Technology criaram um método de treinamento com ruído aleatório para reduzir a superconfiança de sistemas de inteligência artificial em previsões incorretas. A técnica, detalhada na revista Nature Machine Intelligence, calibra a incerteza dos modelos sem a necessidade de processamentos adicionais. Testes indicaram maior precisão na relação entre a confiança indicada e a probabilidade real de acerto

Pesquisadores do Korea Advanced Institute of Science and Technology desenvolveram uma estratégia de treinamento para aumentar a confiabilidade de sistemas de inteligência artificial, focando na redução do excesso de confiança em previsões incorretas. O método, detalhado na revista Nature Machine Intelligence, introduz uma etapa de aquecimento com ruído aleatório antes do aprendizado com dados reais, visando corrigir a falha em que modelos atribuem altos índices de certeza a respostas erradas.

A técnica, criada por Jeonghwan Cheon e Se-Bum Paik, baseia-se em princípios de neurodesenvolvimento para promover a calibração de incerteza. Durante a fase inicial, a rede neural processa dados e saídas arbitrárias, sem relação lógica entre entrada e resposta. Somente após esse período o modelo inicia o treinamento convencional com bases de dados específicas. Essa sequência permite que a rede desenvolva uma estimativa de incerteza mais realista antes de processar padrões concretos.

O problema combatido reside no fato de que métodos comuns de inicialização em aprendizado profundo podem causar a superconfiança do sistema, fazendo com que a IA pareça segura mesmo diante de dados ambíguos ou desconhecidos. A nova abordagem soluciona essa questão sem a necessidade de pré ou pós-processamento adicional, simplificando a aplicação ao exigir apenas a sessão prévia de ruído e rótulos aleatórios.

Nos testes realizados, os modelos submetidos a esse processo apresentaram índices de confiança menores ao cometerem erros, mantendo, porém, níveis adequados de certeza em respostas corretas. A calibração mostrou-se eficaz tanto em dados dentro da distribuição esperada quanto em situações fora dela, o que aprimorou a capacidade das redes neurais de identificar entradas desconhecidas, frequentemente distintas das amostras de treinamento.

A precisão entre a confiança indicada e a probabilidade real de acerto é fundamental para a segurança de aplicações de alto risco, como veículos autônomos e ferramentas de diagnóstico clínico, onde previsões erradas com segurança elevada podem causar consequências graves. O método pode ser refinado e expandido para diversos modelos de inteligência artificial, permitindo a avaliação de seu potencial em cenários reais com diferentes níveis de complexidade.

Notícias Relacionadas