Em 2024 um funcionário da empresa de engenharia britânica Arup recebeu um email do diretor financeiro solicitando uma transferência urgente. Para confirmar, foi feita uma chamada de vídeo com o diretor e vários executivos da empresa.
O funcionário transferiu então US$ 25 milhões para 15 contas diferentes. Mal sabia que tinha caído em um golpe feito por inteligência artificial. O email era falso e os participantes da chamada de vídeo eram deepfakes. O incidente levou à demissão do responsável pela divisão da empresa onde o golpe aconteceu.
Também no ano passado, instituições de ensino online na Califórnia começaram a notar um tipo diferente de aluno se inscrevendo. Essas instituições, mantidas por programas públicos, oferecem treinamento gratuito para estudantes de baixa renda em habilidades como inglês, matemática e negócios. Golpistas criaram 223 mil perfis de alunos fantasmas feitos com IA. Os alunos frequentavam o curso e faziam as provas de forma automatizada. Assim que recebiam a bolsa (paga por um programa governamental), desapareciam. Cerca de US$ 11 milhões foram desviados. Em alguns cursos, 30% dos alunos matriculados eram fantasmas feitos por IA.
Já na Inglaterra uma mulher de 60 anos conheceu no Tinder um suposto coronel do exército. Eles começaram a se comunicar e fizeram diversas chamadas por vídeo em que ele aparecia de uniforme e conversava com ela, fazendo declarações de amor. O coronel deepfake chegou a mandar presentes e flores para a mulher. Até que pediu que ela contribuísse para a franquia do seu seguro de saúde. A mulher transferiu 20 mil libras para o “coronel” e ele sumiu.
No Brasil, operação da Polícia Federal prendeu um grupo que usava inteligência artificial para enganar sistemas de verificação facial. A quadrilha pegava fotos de pessoas nas redes sociais e usava IA para “animar” esses rostos. Com isso, conseguiu abrir contas bancárias, tomar empréstimos e realizar desvios. Cerca de R$ 50 milhões foram movimentados pelos bandidos.
Esses exemplos que hoje parecem pitorescos estão se tornando o novo normal. Hoje, ferramentas de inteligência artificial podem ser usadas para fraudes cada vez mais abrangentes. Não precisam nem ser deepfakes. É possível forjar imagens de documentos: comprovantes de residência, extratos bancários, recibos de restaurantes, notas fiscais, diplomas, cartas de recomendação, cartões de vacinação, cartões de embarque, ingressos, crachás e muito mais.
Em outras palavras, a inteligência artificial está colocando uma pressão enorme sobre todas as formas de identificação e de certificação. O relatório de identidade e fraude publicado pela Serasa em 2025 apontou que 51% dos brasileiros afirmam ter sido vítimas de algum tipo de fraude em 2024, ante 42% em 2023. Dentre as vítimas, 54% sofreram perda monetária.
O que fazer? De pronto, promover sempre identificação e certificação com mais de um fator. Investir em educação digital também ajuda. Mas são paliativos. Solução mesmo só virá reinventando o sistema de identidades para um mundo pós-inteligência artificial.
Já era – confiança
Já é –falsificar tudo, de pessoas a documentos
Já vem – necessidade de reinventar as certificações