Na semana passada, o Google anunciou que suspendeu sua plataforma de criação de imagens, chamada Gemini. Ela foi lançada no início de fevereiro para competir com plataformas como o Dall-E e o Midjourney. Em todas, o usuário descreve por texto o que deseja e a plataforma cria imagens conforme a descrição.
O serviço do Google ficou no ar por pouco mais de duas semanas. A empresa passou a sofrer ataques intensos em mídias sociais como o Twitter (X) por causa dele.
A razão é que, quando alguém pedia para ao Gemini que criasse imagens de pessoas, a plataforma retornava resultados que incluíam uma ampla diversidade étnica.
Até aí tudo bem. Muitos estudos mostram que algoritmos têm viés racial. Por exemplo, quando alguém procurava “imagens de bebês” no Google, os resultados costumavam ser majoritariamente de bebês brancos. O professor Virgílio Almeida, da UFMG, tem um trabalho amplo sobre essa questão, com repercussão internacional.
No entanto, quando alguém pedia ao Gemini que criasse imagens de cientistas do século 18, vikings, bebês ou até mesmo de personalidades históricas brancas, a plataforma aplicava os mesmos critérios de diversidade racial e apresentava imagens dessas figuras como afrodescendentes, povos tradicionais e assim por diante.
Em um mundo minimamente são, esse erro não teria gerado maiores repercussões. Por anos não houve reação grande (e nem suspensão de serviços) por causa do viés dos algoritmos relacionado a pessoas brancas.
Com isso, é difícil separar as pessoas que realmente se indignaram por causa da falha da tecnologia daquelas que se revoltaram porque a empresa está tentando ser mais inclusiva.
Mas essa história traz uma outra lição importante. Ela é o exemplo que todos nós precisávamos de que as plataformas de inteligência artificial são controláveis. Elas também possuem “linhas editoriais”. A do Gemini priorizou diversidade étnica, porque a empresa quis assim.
No post explicando a suspensão do serviço. consta o seguinte: “Quando construímos o Gemini, regulamos o modelo para assegurar que ele não iria cair nas armadilhas do passado relacionadas à criação de imagens. Como nossos usuários vêm de todas as partes do mundo, quisemos que a ferramenta funcionasse bem para todos. Nossa calibração para que o Gemini mostrasse pessoas de forma abrangente falhou em considerar os casos em que ele não deveria incluir essa abrangência”.
Essas palavras são preciosas. Na conversa sobre inteligência artificial, estamos cada vez mais sendo vítimas de fantasias. Elas dizem que a inteligência artificial é incontrolável, uma caixa obscura, e que é preciso criar controles em escala mundial semelhantes aos aplicados à energia nuclear para alinhar essa terrível tecnologia.
O caso Gemini mostra que é importante deixar essas fantasias de lado. Inteligência artificial é simplesmente software, feito por pessoas, controlado e calibrado por empresas. O Google calibrou seu modelo para maximizar diversidade. Agora provavelmente irá calibrá-lo de novo de outra forma.
E o mais importante: quando sua IA se comportou de um jeito que a empresa não gostou, ela simplesmente a tirou do ar. Vamos dormir melhor nos lembrando disso. E nos vacinarmos contra as ficções que rondam o debate sobre IA.
Reader
Já era SXSW como um obscuro festival em Austin, no Texas
Já é Crescimento do SXSW no Brasil
Já vem Edição de 2024 prometendo bater todos os recordes de participação brasileira