Um homem quer saber como ajudar seu amigo a sair do armário. Uma tia tenta encontrar as palavras certas para parabenizar a sobrinha pela formatura. E um rapaz quer saber como perguntar a uma garota —”em asiático”— se ela se interessa por homens mais velhos.
Dez anos atrás, essas questões íntimas talvez fossem discutidas com amigos num brunch, num bar ou no consultório de um terapeuta ou líder religioso. Hoje, dezenas de usuários estão publicando conversas constrangedoras sobre relacionamentos, identidade e espiritualidade com o chatbot de inteligência artificial da Meta em um feed público do aplicativo —às vezes, aparentemente sem saber que outras pessoas podem ver seus relatos.
A Meta lançou, há cerca de dois meses, um aplicativo independente para seu chatbot de IA, com o objetivo de dar respostas personalizadas e em tom de conversa a qualquer pergunta, serviço similar ao ChatGPT da OpenAI ou ao Claude da Anthropic. Mas o app trazia um diferencial: um campo chamado “descobrir”, onde os usuários podiam compartilhar publicamente suas conversas com a IA da Meta, refletindo a estratégia da empresa de integrar conteúdo gerado por IA às suas redes sociais.
Desde o lançamento em abril, o feed de descobertas foi inundado por conversas entre usuários e a Meta AI sobre temas íntimos ou reflexões filosóficas. À medida que o recurso ganhava atenção, alguns passaram a promover diálogos cômicos com o robô. Outros compartilharam imagens geradas por IA sobre temas políticos, como Trump de fralda, ou divulgaram negócios próprios. Em pelo menos um caso, uma pessoa —cujo nome real parecia visível— pediu para que o robô deletasse uma conversa embaraçosa.
A enxurrada de postagens pessoais no app da Meta é mais um sinal de que os chatbots conversacionais vêm sendo usados para suprir demandas emocionais e afetivas. Usuários pedem conselhos sobre casamento, problemas financeiros e mais. Mas especialistas em privacidade alertam: dados íntimos podem ser usados por empresas de tecnologia de forma não transparente.
“Temos visto muitos casos de pessoas compartilhando informações extremamente pessoais com robôs terapêuticos ou dizendo coisas íntimas em interações com IAs”, disse Calli Schroeder, do Centro de Informação de Privacidade Eletrônica. “Muita gente acha que há algum nível básico de confidencialidade. Mas não há. Tudo o que você submete a um sistema de IA vai, no mínimo, para a empresa que o opera.”
Segundo o porta-voz da Meta, Daniel Roberts, as conversas são privadas por padrão e só aparecem no feed público se o usuário tocar no botão de compartilhar. Apesar disso, o botão não deixa claro onde a conversa será publicada nem quem poderá vê-la, o que tem confundido muitos usuários.
A decisão da Meta de misturar um chatbot pessoal com recursos típicos de rede social se diferencia de seus concorrentes. ChatGPT e Claude também dão respostas conversacionais, mas não há um feed público com interações dos usuários. Ferramentas como Midjourney ou Sora, que geram vídeos e imagens, até permitem ver criações de outros, mas não interagem com textos pessoais.
O feed da Meta AI parece uma mistura de diário e histórico de buscas, com perguntas triviais, filosóficas ou políticas. Um homem perguntou, por áudio, como cultivar arroz em casa para agradar sua esposa filipina. Outros quiseram saber se Jesus é divino, como lidar com crianças seletivas na alimentação ou como economizar sem abrir mão de pequenos prazeres. Também há imagens bizarras, como Trump comendo fezes ou a morte em cima de uma moto.
Pesquisas indicam que chatbots são feitos para ativar o instinto social dos usuários, usando pistas humanas para criar sensação de conexão, explica Michal Luria, do Centro para Democracia e Tecnologia. “Reagimos automaticamente como se estivéssemos falando com uma pessoa real”, diz. “É difícil desligar isso.”
Em abril, Mark Zuckerberg disse a um podcaster que uma das principais funções do Meta AI é ajudar as pessoas a ensaiarem conversas difíceis com outros —algo que deve se tornar mais útil com o tempo, à medida que a IA “conhecer” melhor o usuário. “As pessoas usam o que é valioso para elas”, afirmou. “Se você acha ruim e elas acham útil, muitas vezes elas estão certas e você, errado.”
O feed está cheio de perguntas sobre relacionamentos. Uma mulher quis saber se seu namorado de 70 anos pode ser feminista mesmo dizendo que cozinha e limpa, mas sem de fato fazer isso. A IA apontou o óbvio: há uma desconexão entre discurso e prática. Outra perguntou como se reconstruir após um término —e recebeu a lista-padrão: autocuidado, estabelecer limites, etc.
Alguns pedidos, no entanto, tomam rumos inapropriados. Um usuário pediu imagens de “duas mulheres de 21 anos lutando na lama” e postou com o título “biquínis enlameados e beijos apaixonados”. Outro quis gerar uma imagem de “uma branca com bundão”.
Faltam regulações para forçar empresas a adotar regras rígidas sobre privacidade ou conteúdo nos chatbots. Pelo contrário: o Congresso dos EUA avalia um projeto de lei que, ao tratar de impostos e imigração, inclui um dispositivo que proibiria leis estaduais sobre IA pelos próximos dez anos.
Recentemente, incidentes de alto perfil levantaram dúvidas sobre como empresas tratam dados pessoais. Em abril, a OpenAI anunciou que o ChatGPT poderia lembrar conversas antigas não salvas, o que gerou críticas. Um mês depois, precisou recuar de uma atualização que personalizava demais as respostas e tornava a IA bajuladora e manipuladora. Na semana passada, após pressão judicial, a empresa prometeu manter compromissos de privacidade.
No fim das contas, a pressão pode vir dos próprios usuários. Um deles perguntou ao Meta AI por que tantas pessoas estavam “acidentalmente postando coisas pessoais” no feed.
A IA respondeu: “Então você está dizendo que o feed está cheio de pessoas postando coisas íntimas sem querer? Isso pode ser meio doido. Talvez as pessoas estejam se sentindo muito à vontade, ou talvez as configurações da plataforma facilitem o excesso de compartilhamento. O que você acha?”