Um espectro ronda a cidade de São Paulo. Trata-se do uso indiscriminado do reconhecimento facial em prédios, condomínios e outros lugares de frequência coletiva.
A situação virou comum. Você chega em um prédio para uma consulta ou reunião. Lá é obrigado a cadastrar o rosto e dados pessoais. Para entrar e sair a máquina precisa reconhecer o rosto com base no cadastro que acabou de fazer. Você vai embora. Mas o cadastro do seu rosto fica lá.
O que na superfície parece trazer conveniência e segurança logo se revela um problema. A coleta do próprio rosto não é algo banal, nem deveria ser tratado de forma tão leviana. Ao contrário. Trata-se de uma das informações mais sensíveis sobre uma pessoa, capaz de levar a golpes, fraudes e ameaças.
Quem diz isso é a própria lei. A LGPD define que os dados sobre o rosto são “sensíveis” e cria várias restrições para o seu uso. Exige, inclusive, que seja adotado o mais alto nível de proteção para sua coleta e uso.
Em outras palavras, qualquer estabelecimento que coleta rostos tem nas mãos uma dupla batata quente. Precisa adotar as medidas mais elevadas de proteção exigidas pela lei. Se não fizer isso, está sujeito a penalidades. E se houver vazamento, está sujeito às punições mais altas da lei, que podem chegar a R$ 50 milhões (por infração). É de se perguntar se tantos prédios, condomínios e clubes estão cientes dessas responsabilidades que vêm junto com aquisição dessa tecnologia.
Cada banco de dados com rostos é uma superfície de ataque das mais cobiçadas por criminosos, justamente por facilitar golpes. E lembrando: vazamentos são irreversíveis. Mudar uma senha ou um número que vazou é relativamente simples. Mudar o rosto não.
É só perguntar para a empresa australiana Outabox. Ela usava a tecnologia de reconhecimento facial para facilitar a entrada em bares, restaurantes e clubes. No início de 2024 atacantes entraram no sistema da empresa e, em poucas horas, os dados dos rostos estavam no submundo digital. O caso virou um escândalo. Até um site chamado “Fui Outaboxed?” foi criado para apoiar as vítimas. As penas da lei australiana para violações desse tipo chegam a 50 milhões de dólares australianos (R$ 184,69 milhões).
Outro ponto é que a tecnologia do reconhecimento facial é cheia de falhas. Por exemplo, tem dificuldades de reconhecer pessoas que usam barba ou de pele escura, já que nas bases que treinam os algoritmos (como a CASIA-WebFace) predominam rostos de pessoas de países asiáticos, brancas ou com poucos pêlos faciais. Além disso, há sempre o risco de falsos negativos (barrar alguém cadastrado) e falsos positivos (autorizar alguém sem cadastro).
Por fim, vale dizer que o reconhecimento facial é uma tecnologia importante para prevenir fraudes e para certificar a identidade das pessoas, especialmente em vista do caos das identidades no Brasil. Há inúmeros casos em que seu uso é legítimo e desejável. No entanto, sua banalização para controle de entrada, de forma desordenada, traz muito mais problemas do que soluções.
Já era: programar com código binário, com zeros e uns
Já é: programar com Python, C++ e outras linguagens de programação
Já vem: programar com a língua portuguesa, usando inteligência artificial