Preencha os campos abaixo para submeter seu pedido de música:

OpenAI descobre a causa das alucinações da IA ​​e até sugere uma solução

Últimos eventos

Publicidade AD

Achados Shopee

Por Debasish |12 de Setembro de 2025 Fonte: Gizmochina

 

Os chatbots de IA chegaram às salas de aula, aos escritórios e à vida cotidiana, mas ainda sofrem de uma falha frustrante: às vezes, simplesmente inventam coisas. Essas chamadas “alucinações” podem parecer convincentes, mas acabam se revelando completamente falsas. A OpenAI afirma ter descoberto por que isso acontece e acredita ter uma solução que pode tornar as futuras ferramentas de IA muito mais confiáveis.

A OpenAI publicou recentemente um artigo de 36 páginas, coautorado por Santosh Vempala, da Georgia Tech, e outros, que analisa o problema. Os pesquisadores argumentam que as alucinações não são causadas por um design de modelo ruim, mas pela forma como os sistemas de IA são testados e classificados. Os benchmarks atuais costumam recompensar um chatbot por responder a todas as perguntas, mesmo que erre algumas, enquanto punem modelos que hesitam quando não têm certeza. Pense nisso como uma prova de múltipla escolha que incentiva a adivinhação em vez de deixar lacunas.

Para combater isso, o artigo sugere inverter o sistema de pontuação: fazer com que respostas “confiantes, mas erradas” sejam fortemente desfavoráveis ​​a um modelo, recompensando-o por demonstrar cautela ou admitir incerteza. Exemplos iniciais destacam a diferença. Em um benchmark, um modelo cauteloso respondeu apenas metade das perguntas, mas acertou 74%, enquanto outro respondeu quase todas, mas teve alucinações em três de quatro tentativas.

Se adotada, essa abordagem pode mudar o comportamento diário dos assistentes de IA. Em vez de inventarem uma fonte ou estatística com confiança, eles seriam mais propensos a dizer: “Não sei”. Isso pode parecer menos impressionante, mas pode evitar que os usuários precisem verificar constantemente suas respostas. Para a OpenAI, essa pesquisa é um passo em direção a uma IA que valoriza a precisão e a confiança em detrimento de uma confiança ostensiva, mas pouco confiável.

Deixe seu comentário:

Regulamento geral de proteção de dados

A Lei Geral de Proteção de Dados (LGPD,  CPRA, GDPR, Espaço Econômico Europeu EEE)

© Web Rádio PQP 2008 – 2025

Equipe

Política de Privacidade Termos e Condições Política de Cookies