fbpx

Nudes falsos de mulheres: apps ganham popularidade – 08/12/2023 – Tec

Aplicativos e sites que usam inteligência artificial para despir mulheres em fotos estão ganhando popularidade, de acordo com pesquisadores.

Somente em setembro, 24 milhões de pessoas acessaram esse tipo de ferramenta, de acordo com a empresa de análise de redes sociais Graphika.

Muitos desses serviços de criar nudes falsos anunciam em redes sociais populares, de acordo com a Graphika. Desde o início deste ano, por exemplo, o número de links anunciando aplicativos de despir aumentou mais de 2.400% nas redes sociais, incluindo X e Reddit, disseram os pesquisadores.

Os serviços usam inteligência artificial para recriar uma imagem de forma que a pessoa esteja nua. Muitos dos serviços funcionam apenas em mulheres.

Esses aplicativos fazem parte de uma tendência preocupante de pornografia não consensual sendo desenvolvida e distribuída devido aos avanços na inteligência artificial —um tipo de mídia conhecido como pornografia deepfake.

Sua proliferação enfrenta sérios obstáculos legais e éticos, pois as imagens muitas vezes são retiradas das redes sociais e distribuídas sem o consentimento, controle ou conhecimento das vítimas.

Uma imagem postada no X anunciando um aplicativo de nudes falsos usava linguagem que sugere que os clientes poderiam criar imagens nuas e enviá-las para a pessoa cuja imagem foi digitalmente manipulada, incitando assédio.

Enquanto isso, um dos aplicativos pagou por conteúdo patrocinado no YouTube do Google e aparece primeiro ao pesquisar com a palavra “nudify” [nudificar].

Um porta-voz do Google disse que a empresa não permite anúncios “que contenham conteúdo sexualmente explícito. Analisamos os anúncios em questão e estamos removendo aqueles que violam nossas políticas”. Nem o X nem o Reddit responderam aos pedidos de comentário.

A pornografia não consensual de figuras públicas há muito tempo é um problema da internet, mas especialistas em privacidade estão cada vez mais preocupados que os avanços na tecnologia de IA tenham tornado programas de deepfake mais acessíveis e eficazes.

“Estamos vendo cada vez mais isso sendo feito por pessoas comuns com alvos comuns”, disse Eva Galperin, diretora de cibersegurança da Electronic Frontier Foundation. “Você vê isso entre estudantes do ensino médio e pessoas que estão na faculdade”.

Muitas vítimas nunca descobrem sobre as imagens, mas mesmo aquelas que descobrem podem ter dificuldade em fazer com que as autoridades investiguem ou em encontrar recursos para buscar ações legais, disse Galperin.

Atualmente, não há uma lei federal nos Estados Unidos que proíba a criação de pornografia deepfake, embora o governo proíba a geração desses tipos de imagem de menores.

Em novembro, um psiquiatra infantil da Carolina do Norte foi condenado a 40 anos de prisão por usar aplicativos de nudes falsos em fotos de seus pacientes, a primeira acusação desse tipo sob a lei que proíbe a geração de material de abuso sexual infantil deepfake.

O TikTok bloqueou a palavra-chave “undress”, um termo de pesquisa popular associado aos serviços, alertando qualquer pessoa que pesquisar a palavra que ela “pode estar associada a comportamentos ou conteúdos que violam nossas diretrizes”, de acordo com o aplicativo.

Um representante do TikTok se recusou a dar mais detalhes. A Meta também disse que começou a bloquear palavras-chave associadas à busca por aplicativos denudes falsos. Um porta-voz se recusou a comentar.

Visto primeiro na Folha de São Paulo

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *

Este site utiliza o Akismet para reduzir spam. Fica a saber como são processados os dados dos comentários.