fbpx

Google mostrou que IA pode ser controlada – 25/02/2024 – Ronaldo Lemos

Na semana passada, o Google anunciou que suspendeu sua plataforma de criação de imagens, chamada Gemini. Ela foi lançada no início de fevereiro para competir com plataformas como o Dall-E e o Midjourney. Em todas, o usuário descreve por texto o que deseja e a plataforma cria imagens conforme a descrição.

O serviço do Google ficou no ar por pouco mais de duas semanas. A empresa passou a sofrer ataques intensos em mídias sociais como o Twitter (X) por causa dele.

A razão é que, quando alguém pedia para ao Gemini que criasse imagens de pessoas, a plataforma retornava resultados que incluíam uma ampla diversidade étnica.

Até aí tudo bem. Muitos estudos mostram que algoritmos têm viés racial. Por exemplo, quando alguém procurava “imagens de bebês” no Google, os resultados costumavam ser majoritariamente de bebês brancos. O professor Virgílio Almeida, da UFMG, tem um trabalho amplo sobre essa questão, com repercussão internacional.

No entanto, quando alguém pedia ao Gemini que criasse imagens de cientistas do século 18, vikings, bebês ou até mesmo de personalidades históricas brancas, a plataforma aplicava os mesmos critérios de diversidade racial e apresentava imagens dessas figuras como afrodescendentes, povos tradicionais e assim por diante.

Em um mundo minimamente são, esse erro não teria gerado maiores repercussões. Por anos não houve reação grande (e nem suspensão de serviços) por causa do viés dos algoritmos relacionado a pessoas brancas.

Com isso, é difícil separar as pessoas que realmente se indignaram por causa da falha da tecnologia daquelas que se revoltaram porque a empresa está tentando ser mais inclusiva.

Mas essa história traz uma outra lição importante. Ela é o exemplo que todos nós precisávamos de que as plataformas de inteligência artificial são controláveis. Elas também possuem “linhas editoriais”. A do Gemini priorizou diversidade étnica, porque a empresa quis assim.

No post explicando a suspensão do serviço. consta o seguinte: “Quando construímos o Gemini, regulamos o modelo para assegurar que ele não iria cair nas armadilhas do passado relacionadas à criação de imagens. Como nossos usuários vêm de todas as partes do mundo, quisemos que a ferramenta funcionasse bem para todos. Nossa calibração para que o Gemini mostrasse pessoas de forma abrangente falhou em considerar os casos em que ele não deveria incluir essa abrangência”.

Essas palavras são preciosas. Na conversa sobre inteligência artificial, estamos cada vez mais sendo vítimas de fantasias. Elas dizem que a inteligência artificial é incontrolável, uma caixa obscura, e que é preciso criar controles em escala mundial semelhantes aos aplicados à energia nuclear para alinhar essa terrível tecnologia.

O caso Gemini mostra que é importante deixar essas fantasias de lado. Inteligência artificial é simplesmente software, feito por pessoas, controlado e calibrado por empresas. O Google calibrou seu modelo para maximizar diversidade. Agora provavelmente irá calibrá-lo de novo de outra forma.

E o mais importante: quando sua IA se comportou de um jeito que a empresa não gostou, ela simplesmente a tirou do ar. Vamos dormir melhor nos lembrando disso. E nos vacinarmos contra as ficções que rondam o debate sobre IA.

Reader

Já era SXSW como um obscuro festival em Austin, no Texas

Já é Crescimento do SXSW no Brasil

Já vem Edição de 2024 prometendo bater todos os recordes de participação brasileira


LINK PRESENTE: Gostou deste texto? Assinante pode liberar cinco acessos gratuitos de qualquer link por dia. Basta clicar no F azul abaixo.

Visto primeiro na Folha de São Paulo

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *

Este site utiliza o Akismet para reduzir spam. Fica a saber como são processados os dados dos comentários.