Golpes de IA: saiba como se proteger
A Inteligência Artificial já é uma realidade no mundo. Em plena ascensão, ela deve evoluir muito ainda, com o surgimento de novos modelos e habilidades, mas já é capaz de garantir algumas facilidades para o dia a dia das pessoas.
Do outro lado dessa moeda, no entanto, fica a face sombria da tecnologia. A inteligência artificial também representa novos riscos e possibilidades de atuação criminosa, que exige ainda mais atenção da nossa parte.
Os cibercriminosos, por exemplo, já começaram a usar IAs para aplicar golpes e fraudes online. Alguns, inclusive, já ocorrem com certa frequência. É sobre isso que vamos falar nas linhas abaixo: golpes que usam Inteligência Artificial. Fique atento e saiba como se prevenir.
Tipos de golpe com uso de IA
Softwares de IA podem ser utilizados para diversos fins. Um deles, como é de se imaginar, é facilitar o trabalho dos golpistas. Existem várias formas e usos possíveis para forjar crimes. Algumas delas, são:
1) Golpes usando ChatGPT
O famoso chatbot da OpenAI, lançado no final de 2022, pode ser uma ferramenta para praticar crimes. É possível, por exemplo, treinar a ferramenta para automatizar a escrita e fazer com que a IA aprenda detalhes sobre o estilo de escrever de uma pessoa específica, tornando as mensagens mais verossímeis.
Um aspecto que ajuda muito nesse treinamento é o fato de que deixamos muitos rastros na internet, como redes sociais, sites, blogs, entre outros. Além de facilitar o acompanhamento dos nossos hábitos de rotina, permite também que os criminosos tenham acesso ao nosso jeito de falar e escrever.
2) Golpes que usam imagem ou voz gerada por IA
Um outro tipo de fraude bem comum é aquela em que uma pessoa finge ser outra e contata alguém da família via WhatsApp para pedir dinheiro ou algo assim. Com a chegada da IA, essa prática atingiu outros níveis de sofisticação.
Hackers e cibercriminosos, em geral, já reconhecem o potencial dos sistemas de IA para simular vozes e até imagens, o que torna tudo mais vulnerável, do ponto de vista de golpes possíveis.
Já imaginou, por exemplo, a sua mãe recebendo uma mensagem de voz como se fosse você falando, mas na verdade é a Inteligência Artificial? Será que ela saberia diferenciar? Fica aí a perturbadora pergunta.
3) Golpes com instalação Malwares
Malware é um tipo de software malicioso que pode ser instalado no seu equipamento para roubar dados, invadir contas e praticar vários tipos de crime. Geralmente, eles chegam camuflados em links suspeitos, seja por e-mail, WhatsApp ou mensagem SMS.
O malware pode chegar também pelas redes sociais, como aquelas publicações que dizem que você tem direito a um prêmio, mas para isso é preciso clicar em um link específico para garantir o recebimento. Ou seja: armadilha!
Como se proteger
Nesse cenário cada vez mais complexo dos golpes, ainda é possível adotar algumas táticas de prevenção. Vamos citar algumas, abaixo. Veja:
Conheça traços de linguagem da IA
As IAs generativas, como é o caso do ChatGPT, possuem alguns tipos de marcação de linguagem que podem ser reconhecidos por quem é mais atento. Entre eles, estão: muitos termos repetidos, linguagem muito simples e falhas de coesão entre frases.
Confronte e pergunte sobre as informações ditas
É provável que nas conversas geradas por IA apareçam informações falsas. Isso, porque quando um sistema de IA não sabe a resposta certa, ele cria algo para preencher a lacuna. A dica é sempre confrontar e prestar atenção ao que está sendo dito, pois acaba sendo um teste importante.
Combine uma palavra de segurança
Uma outra saída é combinar com familiares e amigos alguma senha para se precaver de golpes. Uma forma simples é estabelecer uma palavra de segurança e utilizá-la sempre que desconfiar da prática golpista para saber se a pessoa do outro lado é, realmente, quem está dizendo ser.
Duvide de áudios
Até então, uma tática comum era solicitar um áudio do interlocutor para confirmar a identidade. Agora, com o surgimento das IAs, nem isso é seguro mais. Desconfie dos áudios e procure outras formas de confirmação.
Veja a matéria original no R7
Veja mais em