Alucinações de IAs representam perigo real para a ciência
As alucinações de inteligências artificiais (IA) generativas representam uma grande ameaça para a ciência, aponta um estudo da Universidade Oxford, no Reino Unido. Segundo o artigo, a ingenuidade dos usuários para as informações fornecidas por modelos pode ser um grande problema no futuro.
“As pessoas que usam LLMs frequentemente antropomorfizam [atribuem características humanas] à tecnologia, confiando nela como uma fonte de informação semelhante à humana”, pontuou o coautor do artigo, o professor Brent Mittelstadt.
Inteligência artificial pode ser um problema para a comunidade científica.Fonte: GettyImages
O que são alucinações?
A expressão “alucinação” se refere ao momento em que IAs apresentam informações imprecisas ou totalmente enganosas. Isso tende a acontecer com mais frequência ao solicitar informações muito profundas a partir de uma base de dados extensa, mas também pode acontecer em cenários mais comuns.
O principal fator para essa confusão seria a forma com que esses chatbots se apresentam: com textos coesos, acessíveis e semelhante ao discurso humano. Além disso, os modelos tendem a confiar na informação fornecida, mesmo quando não é verdade.
IAs apresentam informações com confiança
“O resultado disso é que os usuários podem ser facilmente convencidos de que respostas são precisas, mesmo quando não têm base em fatos ou apresentam uma versão tendenciosa, ou parcial da verdade”, disse o professor.
Essa junção de fatores, porém, é uma ameaça para a divulgação científica e educação. Além de serem divulgadores de informações imprecisas acessíveis por qualquer pessoa, a comunidade científica também é pressionada a utilizar IAs generativas como tradutores de conteúdo.
Na visão dos professores de Oxford envolvidos com o estudo, modelos de linguagem são importantes assistentes no fluxo de trabalho, especialmente em pesquisas, mas é indispensável que os utilizadores aproveitem a ferramenta com responsabilidade e cientes de seus defeitos.
Veja a matéria original no R7
Veja mais em