IA para imitar rostos e vozes fica popular e alimenta golpistas
Maioria dos anúncios são em inglês ou em russo e, por serem oferecidos em plataformas ilegais, não têm garantia de funcionamento. Entre as promessas dos serviços oferecidos estão a disponibilização de softwares que sincronizam expressões faciais e ferramentas de clonagem de voz.
Ainda assim, facilidade do uso do IA já mudou o mundo dos “crimes comuns” e levantou o alerta da polícia. A Polícia Civil de São Paulo emitiu, no começo do mês, um aviso sobre o perigo de ligações mudas, que antes eram feitas para verificar se números estavam ativos, e agora são usadas para captar a voz de vítimas e replicá-las em outros golpes.
Como se proteger de golpes com deepfake?
Para evitar deepfakes de áudio, é possível programar o aparelho para receber somente ligações de números conhecidos. A funcionalidade está disponível em androids e em iPhones. Veja como bloquear ligações de desconhecidos aqui.
Para não ter a voz clonada, uma das dicas é atender ligações em silêncio. A orientação da Polícia Civil de São Paulo é de que o usuário não fale nem “alô” nem “sim”, aguardando que o outro lado se pronuncie. Em caso de ligações suspeitas, nenhuma informação sensível deve ser passada.
Números que façam ligações mudas devem ser bloqueados e denunciados, diz polícia. A Polícia Civil também afirma que orientar amigos e familiares sobre golpes do tipo é essencial e, caso seja vítima de um crime envolvendo deepfake, um boletim de ocorrência deve ser registrado.