Google divulga escala de reclamações sobre conteúdo terrorista feito com IA

De acordo com a legislação australiana, as empresas de tecnologia devem fornecer periodicamente à Comissão de Segurança Eletrônica informações sobre os esforços de minimização de danos ou correm o risco de serem multadas. O período do relatório abrangeu abril de 2023 a fevereiro de 2024.
Desde que o ChatGPT, criado pela OpenAI se tornou popular no mundo no final de 2022, órgãos reguladores têm cobrado melhores proteções para que a IA não possa ser usada em atos de terrorismo, fraude, pornografia deepfake e outros abusos.
A Comissão Australiana de Segurança Eletrônica chamou a divulgação do Google de “primeiro insight mundial” sobre como os usuários podem estar explorando a tecnologia para produzir conteúdo ilegal.
“Isso ressalta como é fundamental que as empresas que desenvolvem produtos de IA incorporem e testem a eficácia de mecanismos de proteção para evitar que esse tipo de material seja gerado”, disse a comissária de segurança eletrônica, Julie Inman Grant, em comunicado.
No levantamento, o Google disse que recebeu 258 denúncias de usuários sobre suspeitas de conteúdo terrorista ou extremista violento deepfake gerado por IA usando o Gemini, e outras 86 denúncias alegando material de exploração ou abuso infantil gerado por IA. A empresa não informou quantas das reclamações foram verificadas, de acordo com o órgão regulador.
Um porta-voz do Google disse que a empresa não permite a geração ou distribuição de conteúdo relacionado à facilitação de extremismo violento ou terror, exploração ou abuso infantil ou outras atividades ilegais.