fbpx

Racismo: ‘prisão por erro tecnológico é inaceitável’ – 12/12/2023 – Tec

Pela primeira vez no Brasil, a professora de filosofia e direito da Universidade de Pensilvânia Anita Allen, 70, recordou o caso de Randal Reid, 28, preso por um erro de reconhecimento facial, para dizer que a hipervigilância gera abusos injustificáveis.

A primeira mulher negra a receber doutorados em filosofia (Universidade de Michigan) e direito (Harvard) é uma das principais teóricas sobre privacidade no mundo. Escreveu mais de 20 livros e, em 2010, foi nomeada pelo então presidente dos EUA Barack Obama para integrar o Comitê Presidencial da Bioética.

Nos EUA, o direito à privacidade foi o que garantiu, em 1973, o acesso legal ao aborto, a partir de decisão da Suprema Corte que considerou que o Estado não tinha o direito de violar a intimidade de mulheres. Esse entendimento foi derrubado em 2022, pela formação atual do tribunal constitucional.

Para Allen, é necessário garantir proteção especial da privacidade para grupos vulnerabilizados, como negros, mulheres e a comunidade LGBTQIA+.

A intelectual americana veio a São Paulo no final de novembro para participar do Data Privacy Global Conference, evento sobre proteção de dados.

Ela diz ter ficado surpresa ao ouvir que o Brasil tem problemas parecidos com os dos Estados Unidos. “O Brasil vende a imagem de não ter preconceitos, tem uma legislação forte de proteção de dados, mas, ao mesmo tempo, lida com projetos de vigilância, como o Smart Sampa, em São Paulo [projeto de monitoramento com reconhecimento facial que terá ao menos 20 mil câmeras distribuídas pela cidade].”

A sra. mencionou a primeira decisão de um juiz norte-americano a favor de privacidade, em 1906, em que ele compara a violação à privacidade com a situação de escravidão. Pode elaborar mais sobre essa analogia?

Nesse caso de 1906, do cidadão Pablo Popsish contra a seguradora New England Life Insurance Company, o tribunal concluiu que invasões de privacidade são como a escravidão, como privar alguém de um tipo muito importante de liberdade.

Se alguém não pode escolher se seu rosto, sua voz ou seu nome são usados sem sua permissão, essa pessoa é como um escravo, porque isso era o que a escravidão era. Não poder viver uma vida privada própria, tendo outras pessoas te usando para seus propósitos. Invasões de privacidade muitas vezes envolvem usar outras pessoas para nossos propósitos, porque queremos vender algo, para lucrar. Sob essa luz, as pessoas se tornam objetos. Esse é o problema.

Outro marco legal importante foi na década de 1820: o caso Estado versus Homem, na Carolina do Norte, em que uma escravizada foi alugada e baleada. A mulher foi alugada para outra pessoa que a baleou. Essa pessoa foi condenada, mas recorreu. O tribunal entendeu que “ninguém pode ser processado criminalmente por violar os direitos de um escravo ou prejudicar um escravo, porque isso interferiria na privacidade da relação mestre-escravo”.

Assim, a privacidade também foi construída nos Estados Unidos para proibir qualquer crítica a ameaças ao bem-estar do escravo.

A privacidade também pode ser evocada para causar omissões. Hannah Arendt usou esse argumento para argumentar contra a inclusão de crianças negras em escolas antes exclusivas para brancas, certo?

Sim, Arendt defendeu que não deveria haver interferência na privacidade da família, e isso significava que as escolas públicas não poderiam ser abertas para crianças negras. A privacidade é um conceito importante, mas tem sido usada historicamente para fins discriminatórios, e não podemos esquecer isso.

No caso de políticas públicas que violam a privacidade, como o reconhecimento facial, muitas vezes há argumentos de que elas buscam o bem público, mesmo em detrimento de liberdades individuais. Como contra-argumentar?

Muitas vezes são usados argumentos de segurança e saúde públicas para justificar intrusões na privacidade dos dados. Hoje, falamos muito sobre o uso de força policial e reconhecimento facial como dois domínios onde a privacidade parece ser violada em nome da segurança pública.

O mesmo vale para saúde pública, em que houve uma grande mudança nos Estados Unidos em como pensamos sobre saúde e privacidade genética. Na década de 1990, era praticamente um dogma: ninguém deveria abrir mão de seus dados de saúde, protegidos por amplas leis de privacidade.

Mas, agora, devido à tecnologia, porque a comunidade científica descobriu que é muito valioso ter o máximo de dados de saúde possível, as pessoas são encorajadas a abrir mão de seus dados de saúde, compartilhar dados genéticos.

Assim, seria possível encontrar novas curas, novos medicamentos e terapias. Mas os custos são enormes e são minimizados pelo lado beneficiado. Os benefícios imediatos ficam com empresas de big data, de análises de dados de saúde, de tecnologia e os governos. Com as pessoas comuns, nem tanto.

No Brasil, há dificuldades para implementar o arcabouço legal já estabelecido, que é bom no papel. Especialistas relacionam isso, em parte, a uma cultura permissiva em relação à privacidade. É necessário mais acesso à informação e educação?

Nós, a sociedade e nosso governo devemos valorizar e promulgar leis que protejam a privacidade, mesmo que as pessoas não se importem. Quando se trata de crianças, é muito comum proteger a privacidade mesmo que elas não se importem. Ainda assim, as protegemos na internet, porque não queremos que elas sejam prejudicadas.

Eu estendi esse conceito de proteger a privacidade não só para crianças, mas para todos nós, porque todos nós, acredito, temos coisas tremendas em jogo que podemos não apreciar ou nos importar subjetivamente. A privacidade é como um bem fundamental profundamente importante em que toda a nossa vida é baseada. Se queremos chamá-la de direito humano ou direito civil ou direito natural, é muito importante dar escolha às pessoas.

Mas as pessoas aceitam ceder seus dados às redes sociais em troca de serviços.

Não é preciso proibir ter uma conta em uma rede social. Mas é preciso regular Facebook, TikTok, Instagram, WhatsApp etc. para garantir que, ao usar esses aplicativos, a pessoa esteja protegida, quer você escolha ou não. É importante não deixar esse direito fundamental ao sabor dos caprichos das pessoas.

Modelos de IA para tomada de decisão, identificação de imagens e geração de conteúdo trazem à tona preconceitos latentes nos dados registrados. Isso aumenta a urgência de ter legislações antidiscriminatórias?

Eu pedi ao ChatGPT para encontrar cinco casos legais em que afro-americanos entraram com processos por violação de privacidade contra empresas ou governos. Ele me deu cinco casos. Então pedi mais cinco e ele me forneceu. Pedi mais cinco e ele me deu.

Pensei: há muitos processos de pessoas negras por invasões de privacidade. No dia seguinte, fui a um site jurídico verificar os 15 casos. Nenhum era um caso real, tudo era apenas uma reunião de palavras sem sentido. A IA generativa pode produzir resultados que frustram a capacidade dos advogados de fazer pesquisas orientadas para os direitos civis e justiça social, porque pode entregar lixo.

Nessas soluções tecnológicas há um problema geral envolvendo pessoas negras e trans por causa da falta de dados. Isso é um sinal de uma histórica falta de cuidado em relação à essa parcela da população e de como pessoas brancas são consideradas o padrão?

Com certeza. Seria maravilhoso se houvesse dados mais precisos, porque acredito que algumas pessoas negras são prejudicadas porque há tantos dados falsos que resultam em preconceito, estereotipação, exclusão, até mesmo score social [como no caso de bancos para ceder crédito], que são enganosos.

Há uma ênfase excessiva nos históricos criminais, nos problemas de crédito, esses tipos de dado são usados para minar os esforços das pessoas para escapar da pobreza, porque elas não podem escapar porque seu estereótipo é pertencer a uma classe de pessoas economicamente irresponsáveis ou sem recursos. Não é só uma falta de dados, é a necessidade de usar dados corretos.

A sociedade pode mudar essa situação?

Precisamos ser cautelosamente otimistas em relação ao surgimento do discurso dos direitos civis nos Estados Unidos, porque as experiências dos EUA e do Brasil mostraram que os benefícios para as comunidades marginalizadas das novas leis sempre serão limitados.

Podemos esperar por um dia em que as leis de privacidade ajudem mais pessoas, mas no momento temos que entender que ainda não temos leis de privacidade em andamento ou em vigor que protejam efetivamente os direitos das pessoas negras, indígenas e outras comunidades marginalizadas.

A sra. comentou que esperava mais debate contra a discriminação no Brasil. Por quê?

Olhamos para o Brasil como um país que tem menos problemas raciais do que os Estados Unidos, onde as pessoas têm uma variedade de origens, algumas parecem brancas, algumas parecem negras, algumas parecem miscigenadas, todos são iguais e não há o tipo de racismo profundo dos EUA.

Essa é a imagem idealizada que temos do Brasil. Há também no Brasil uma impressionante variedade de leis de proteção à privacidade, leis constitucionais, estatutos, incluindo a recente lei de 2020 [LGPD].

Tudo isso pode sugerir que há menos problemas de privacidade relacionados à raça no Brasil, no entanto, as pessoas estão profundamente preocupadas com as implicações do Smart Sampa, do monitoramento com câmeras em geral e especialmente com reconhecimento facial. No Brasil, as pessoas negras e indígenas terão problemas de privacidade diferentes das pessoas brancas e fiquei surpresa em saber disso. Acabei decepcionada que existam alguns dos mesmos problemas dos EUA em relação à cor e raça.


Raio-X – Anita Allen, 70

Professora de direito e de filosofia da Universidade da Pensilvânia, Anita Allen, 70, é uma das maiores teóricas feministas da privacidade, recebeu o prêmio Philip Quinn da American Philosophical Association em 2021.

Visto primeiro na Folha de São Paulo

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *

Este site utiliza o Akismet para reduzir spam. Fica a saber como são processados os dados dos comentários.