fbpx

Ficção científica ajudou a escrever regras de IA – 19/01/2024 – Tec

Pouco antes da cúpula internacional de inteligência artificial começar em Bletchley Park (Reino Unido), em novembro, fui pegar uma rápida refeição em um pub próximo. Um homem sentou-se em frente a mim e tirou um livro de bolso amassado. Na capa estava Isaac Asimov, um dos autores de ficção científica mais famosos. Certamente, isso não foi uma coincidência. Asimov estava à frente de seu tempo quando, durante meados do século XX, ele antecipou o papel poderoso que a IA teria em nossas vidas. Em seus livros, ele imaginou uma série de leis que garantiriam que os robôs não machucassem ou prejudicassem os humanos, mas os obedecessem.

Aquele homem com seu livro me lembrou da importância de nós, políticos, garantirmos um resultado semelhante quando me dirigi à cúpula para debater o futuro da IA segura. Durante minhas viagens a Londres, Tóquio, Washington, Pequim e, é claro, Bruxelas, no outono passado, refleti sobre o fato de estarmos escrevendo o primeiro livro de regras do mundo para regular processos de computador que são muito mais rápidos e poderosos do que os humanos.

Os negócios reais rapidamente superaram a ficção científica. Com políticos chineses em Pequim, discuti sua legislação modelo. Não difere tanto da nossa no que diz respeito ao lado técnico das coisas, mas sim no que pode contribuir para o controle estatal sobre a sociedade.

Representantes nos EUA, que anteriormente adotavam uma abordagem de regulamentação branda, apontaram para a ordem-executiva do governo Biden sobre IA no final de outubro. Mais perto de casa, em nome da UE, liderei negociações no grupo G7 de países. Lá conseguimos alcançar uma legislação pré-vinculante em nível global —um código voluntário para desenvolvedores de IA que incorpora responsabilidade pela segurança e compartilhamento de informações.

A Europa também respondeu rapidamente à demanda por IA segura. A estrutura proposta de 2021 ganhou ritmo à medida que a necessidade urgente de tornar a tecnologia segura e benéfica se tornou evidente. O chamado trílogo —o grande final entre a presidência espanhola, o parlamento e a comissão— durou 36 horas neste mês, mas acabou com um compromisso histórico.

As necessidades individuais guiaram cada parágrafo. A lei garante a segurança e a proteção dos direitos humanos básicos diante de sistemas superinteligentes, que no longo prazo podem se mostrar pensadores melhores do que nós. Criamos várias categorias de risco para a IA —as de baixo risco incluem jogos de vídeo e algoritmos para organizar nossos e-mails (coisas das quais todos nós certamente nos beneficiaríamos). As de alto risco terão que atender a requisitos mais rigorosos, seja dispositivos médicos ou influenciar o comportamento do eleitor na urna.

A lista do inaceitável inclui o que ameaça nossos direitos humanos fundamentais. Isso pode incluir sistemas de classificação biométrica baseados em religião ou raça, reconhecimento de emoções no local de trabalho ou extração não direcionada de rostos de câmeras em lugares públicos (exceções serão feitas para questões de segurança nacional).

Mas também estamos cientes das recompensas potenciais da IA segura e, de fato, queremos tornar a UE um centro para isso. É por isso que decidimos disponibilizar nossos supercomputadores para startups e PMEs de IA europeias. Também investiremos mais de 1 bilhão de euros (R$ 5,39 bilhões) por ano em pesquisa de IA do Horizon e do Digital Europe.

Nosso acordo político ainda precisa ser confirmado pelos Estados membros e pelo Parlamento Europeu. A lei entrará em vigor em fases, com a legislação completa prevista provisoriamente para 2026. Enquanto isso, a IA continuará transformando todas as nossas vidas. Vamos confiar a ela muitas atividades em que ela poderia substituir os humanos, mas não aquelas em que ela poderia assumir nossos direitos fundamentais, como a liberdade de expressão ou a proteção da propriedade intelectual.

Desde o início, acreditei que o conteúdo criado pela IA deve ser rotulado, para que o pensamento e a criatividade humanos fiquem com algo semelhante a um “direito autoral humano”. Já estamos aprendendo como a tecnologia pode mudar nossas percepções de realidade e verdade. A inteligência artificial trabalha com os dados que tem à disposição. Ela não sabe o que é verdadeiro. Em um mundo, onde deepfakes podem surgir do nada, estamos sempre em perigo de perder o controle sobre a realidade.

Foi isso que eu estava pensando quando o inglês do outro lado da mesa me lembrou das leis de Asimov. Essas leis agora foram transformadas, juntamente com outras medidas, na primeira norma jurídica europeia, que pode se tornar a base para todas as regulamentações semelhantes em todo o mundo. Devemos manter o controle dos robôs e da inteligência artificial, para garantir que a verdade e os direitos humanos possam prevalecer no futuro, em vez de se tornarem ficção científica.

Visto primeiro na Folha de São Paulo

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *

Este site utiliza o Akismet para reduzir spam. Fica a saber como são processados os dados dos comentários.