fbpx

Sim, IAs podem mentir; entenda por que isso ocorre e veja como evitar

Sim, IAs podem mentir; entenda por que isso ocorre e veja como evitar

Os chatbots de inteligência artificial, como ChatGPT e Google Bard, tornaram-se recursos comuns em nossa interação diária, mas recentemente têm sido alvo de discussões sobre suas limitações e propensão a fornecer respostas erradas.

Essas falhas, chamadas de “alucinações”, podem não apenas confundir os usuários, mas também disseminar desinformação e até mesmo propagar preconceitos e estereótipos.

Entenda o que são as ‘alucinações’ de IAs

Os chatbots de IA, em seu funcionamento, respondem a partir de uma aprendizagem de máquina, criando sequências de palavras para satisfazer as solicitações dos usuários.

Entretanto, as alucinações ocorrem quando essas ferramentas não têm informações suficientes para uma resposta adequada, resultando em respostas incorretas, mas apresentadas de maneira convincente.

Esses erros podem ser exacerbados por gatilhos como bases de dados insuficientes, desatualizadas ou de baixa qualidade, bem como pela falta de compreensão de comandos ambíguos ou complexos.

A falta de informação fomenta as alucinações de IAs – imagem: Shutterstock/Reprodução

Para além de confundir os usuários com informações imprecisas, essas falhas podem alimentar a propagação de conteúdos preconceituosos e fake news.

Experimentos realizados por instituições renomadas mostram que os chatbots podem gerar informações falsas mais convincentes que humanos e, em alguns casos, perpetuam estereótipos raciais e de gênero.

Embora a responsabilidade de evitar alucinações deva ser das empresas por trás dessas IAs, os usuários podem adotar algumas estratégias para reduzir a probabilidade desses erros.

Comandos precisos e específicos limitam os resultados possíveis, diminuindo o risco de alucinações. Solicitar respostas mais diretas, como “sim” ou “não”, e orientar a IA a não fornecer informações falsas são práticas úteis.

Estratégias de prevenção

  1. Instruções objetivas: ao dar comandos específicos, o usuário restringe os resultados possíveis, reduzindo o risco de alucinações.
  2. Função específica: atribuir um papel específico à IA, solicitando que ela responda como um especialista em um campo determinado, limitando assim as respostas.
  3. Critérios de exclusão: pedir à ferramenta que descarte dados desatualizados ou informações fictícias.
  4. Modelos de referência: gerar tabelas de dados ou modelos de referência para evitar ambiguidades em respostas numéricas ou complexas.

Embora a prevenção total desses erros seja responsabilidade das empresas que desenvolvem as IAs, a compreensão dessas limitações e a adoção de práticas para minimizar os riscos são passos essenciais na interação com chatbots de inteligência artificial.

Veja a matéria original no R7

Veja mais em

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *

Este site utiliza o Akismet para reduzir spam. Fica a saber como são processados os dados dos comentários.