O X, antigo Twitter, de Elon Musk bloqueou pesquisas sobre Taylor Swift depois que imagens sexualmente explícitas da cantora pop, criadas usando inteligência artificial, se espalharam amplamente na plataforma.
O incidente é o exemplo mais recente de como os grupos de mídia social estão lutando para lidar com os chamados deepfakes: imagens e áudios realistas, gerados usando IA, que podem ser usados de forma abusiva para retratar indivíduos proeminentes em situações comprometedoras ou enganosas sem o consentimento deles.
Qualquer pesquisa por termos como “Taylor Swift” ou “Taylor IA” no X retornava uma mensagem de erro por várias horas durante o fim de semana, depois que imagens pornográficas geradas por IA da cantora proliferaram online nos últimos dias. O bloqueio continuava nesta segunda-feira (29).
A mudança significa que até mesmo conteúdo legítimo sobre uma das estrelas mais populares do mundo é mais difícil de ser visualizado no site.
“Esta é uma ação temporária e feita com muita cautela, pois priorizamos a segurança dessa questão”, disse Joe Benarroch, chefe de operações comerciais do X.
Swift não comentou publicamente sobre o assunto.
O X foi comprado por US$ 44 bilhões em outubro de 2022 pelo bilionário empreendedor Musk, que reduziu os recursos dedicados à moderação de conteúdo e flexibilizou suas políticas de moderação, citando seus ideais de liberdade de expressão.
Seu uso do mecanismo de moderação direta neste fim de semana ocorre enquanto o X e seus concorrentes Meta, TikTok e YouTube do Google enfrentam uma pressão crescente para combater o abuso da tecnologia deepfake, cada vez mais realista e de fácil acesso. Um mercado acelerado de ferramentas surgiu que permite a qualquer pessoa usar IA generativa para criar um vídeo ou imagem semelhante a uma celebridade ou político em apenas alguns cliques.
Embora a tecnologia deepfake esteja disponível há vários anos, avanços recentes na IA generativa tornaram as imagens mais fáceis de serem criadas e mais realistas. Especialistas alertam que a criação de imagens pornográficas falsas é um dos abusos emergentes mais comuns da tecnologia deepfake e também apontam seu uso crescente em campanhas de desinformação política durante um ano de eleições ao redor do mundo.
Em resposta a uma pergunta sobre as imagens de Swift na sexta-feira, a secretária de imprensa da Casa Branca, Karine Jean-Pierre, disse que a circulação das imagens falsas era “alarmante”, acrescentando: “Embora as empresas de mídia social tomem suas próprias decisões independentes sobre gerenciamento de conteúdo, acreditamos que elas têm um papel importante a desempenhar na aplicação de suas próprias regras”. Ela instou o Congresso a legislar sobre o assunto.
Na quarta-feira (31), executivos de mídia social, incluindo Linda Yaccarino, do X, Mark Zuckerberg, do Meta, e Shou Zi Chew, do TikTok, serão questionados em uma audiência do comitê judiciário do Senado dos EUA sobre exploração sexual infantil online, após preocupações crescentes de que suas plataformas não façam o suficiente para proteger as crianças.
Na sexta-feira (26), a conta oficial de segurança do X afirmou em um comunicado que a postagem de imagens de “nudez não consensual (NCN)” era “estritamente proibida” na plataforma, que tem uma “política de tolerância zero em relação a esse conteúdo”.
Eles acrescentaram: “Nossas equipes estão removendo ativamente todas as imagens identificadas e tomando medidas apropriadas contra as contas responsáveis por postá-las. Estamos monitorando de perto a situação para garantir que quaisquer violações adicionais sejam imediatamente tratadas e o conteúdo seja removido”.
No entanto, os recursos de moderação de conteúdo reduzidos do X não conseguiram impedir que as imagens falsas de Swift fossem visualizadas milhões de vezes antes de serem removidas, forçando a empresa a recorrer ao bloqueio de pesquisas de uma das maiores estrelas do mundo.
Um relatório do site de notícias de tecnologia 404 Media descobriu que as imagens pareciam ter origem no quadro de avisos anônimo 4chan e em um grupo no aplicativo de mensagens Telegram, dedicado ao compartilhamento de imagens abusivas geradas por IA de mulheres, frequentemente feitas com uma ferramenta da Microsoft.
A Microsoft disse que ainda está investigando as imagens, mas “reforçou nossos sistemas de segurança existentes para evitar que nossos serviços sejam usados para ajudar a gerar imagens como essas”. O Telegram não respondeu imediatamente aos pedidos de comentário.