Famílias de vítimas processam dona do ChatGPT por massacre que deixou 8 mortos no Canadá

Famílias de vítimas processam dona do ChatGPT por massacre que deixou 8 mortos no Canadá
Table of Contents


Homenagem às vítimas do massacre que deixou nove mortos em uma escola de Tumbler Ridge, no Canadá, em fevereiro de 2026
Christinne Muschi/The Canadian Press via AP
Familiares das vítimas de um dos massacres mais mortais da história do Canadá entraram com um processo contra a OpenAI, dona do ChatGPT, e contra o CEO Altman, em um tribunal dos Estados Unidos, nesta quarta-feira (29).
No ataque que aconteceu em fevereiro, em Tumbler Ridge, na Colúmbia Britânica, uma atiradora matou oito pessoas, incluindo várias crianças, e cometeu suicídio em seguida.
📩 Assine a newsletter do Guia de Compras do g1 com testes e dicas de tecnologia
Segundo a alegação dos familiares, a empresa identificou a atiradora Jesse Van Rootselaar representava um risco oito meses antes do ataque, mas não alertou a polícia.
Na semana passada, um jornal de Tumbler Ridge publicou uma carta aberta em que Altman disse estar “profundamente arrependido” pelo fato de a conta da atiradora não ter sido comunicada às autoridades.
Vídeos em alta no g1
Veja mais:
Altman pede desculpas por não ter alertado a polícia sobre atiradora de massacre no Canadá
Flórida abre investigação contra ChatGPT por ataque a tiros que matou duas pessoas
Os processos, apresentados no tribunal federal de São Francisco, acusam os chefes da OpenAI de não avisarem a polícia para evitar que viesse à tona a quantidade de conversas violentas no ChatGPT.
Segundo deles, esse aviso também poderia prejudicar os planos da empresa de abrir capital na bolsa, com uma oferta pública inicial de quase US$ 1 trilhão.
Em um comunicado, a OpenAI classificou o tiroteio como “uma tragédia” e disse que a empresa tem uma política de tolerância zero para o uso de suas ferramentas na facilitação de atos violentos.
“Como compartilhamos com as autoridades canadenses, já fortalecemos nossas salvaguardas, incluindo a melhoria de como o ChatGPT responde a sinais de angústia, conectando pessoas com suporte local e recursos de saúde mental, reforçando como avaliamos e escalamos ameaças potenciais de violência e aprimorando a detecção de reincidência de violadores de políticas”, disse a empresa.
Onda de processos
Esses casos fazem parte de um aumento de ações judiciais contra empresas de inteligência artificial, acusadas de não impedir conversas em chatbots que, segundo os autores, levam à automutilação, problemas de saúde mental e violência.
Estas são as primeiras acusações nos Estados Unidos que afirmam que o ChatGPT contribuiu para a realização de um massacre.
Jay Edelson, advogado dos autores do processo, informou que pretende entrar com mais 20 ações judiciais contra a OpenAI nas próximas semanas, representando outras pessoas afetadas pelo ataque.
Vítimas do ataque em escola e casa em cidade do Canadá
Divulgação/RCMP.CA
Equipe de segurança da OpenAI foi ignorada, dizem ações
Jesse Van Rootselaar, que teve conversas com o ChatGPT citadas nos processos, atirou em sua mãe e meio-irmão em casa antes de matar uma assistente educacional e cinco alunos entre 12 e 13 anos em sua antiga escola, em 10 de fevereiro, segundo a polícia.
Van Rootselaar, que tinha 18 anos, cometeu suicídio em seguida.
Entre os autores do processo estão familiares das vítimas da escola e uma menina de 12 anos que sobreviveu após ser atingida por três tiros, mas permanece em terapia intensiva.
Segundo uma das denúncias, em junho de 2025, sistemas automáticos da OpenAI identificaram conversas no ChatGPT em que a atiradora falava sobre situações de violência com armas.
Integrantes da equipe de segurança sugeriram avisar a polícia depois de concluírem que ela era uma ameaça real e imediata, conforme a denúncia, que menciona um artigo do Wall Street Journal de fevereiro sobre debates internos na empresa.
No entanto, Sam Altman e outros dirigentes da OpenAI teriam desconsiderado a orientação da equipe de segurança, e a polícia não foi avisada, segundo o processo.
A conta da atiradora foi bloqueada, mas ela conseguiu abrir outra conta e continuou usando o ChatGPT para planejar o crime, de acordo com o processo.
Depois que o artigo do Wall Street Journal foi publicado, a empresa afirmou que a conta foi identificada por sistemas que detectam “usos indevidos de nossos modelos para atividades violentas”, mas que o caso não se encaixava nos critérios internos para avisar as autoridades.
Em um texto publicado na terça-feira (28) em seu blog, a OpenAI informou que prepara seus sistemas para rejeitar pedidos que possam “facilitar significativamente a violência” e avisa as autoridades quando as conversas mostram “um risco iminente e crível de dano a outros”, contando com especialistas em saúde mental para analisar situações mais delicadas.
A empresa declarou que está sempre melhorando seus sistemas e formas de identificação de riscos, levando em conta o uso da plataforma e opiniões de especialistas.
Os processos pedem uma indenização em valor não divulgado e uma decisão judicial que obrigue a OpenAI a mudar suas regras de segurança, incluindo a criação de procedimentos obrigatórios para avisar as autoridades.
Uma das vítimas chegou a entrar com um processo no Canadá, mas desistiu e optou por processar na Califórnia, disse o representante das famílias.
OpenAI enfrenta ações na Justiça
Os processos ligados ao tiroteio em Tumbler Ridge ocorrem após diversas ações judiciais contra a OpenAI em tribunais estaduais e federais dos EUA nos últimos meses, alegando que o ChatGPT incentivou comportamentos perigosos, suicídio e, em pelo menos um caso, um assassinato seguido de suicídio.
Esses casos, que ainda estão em fases iniciais, vão obrigar os tribunais a discutir qual é a responsabilidade de uma plataforma de IA na promoção da violência e se a empresa pode ser responsabilizada por seus próprios atos ou pelos atos de quem usa o serviço.
A OpenAI negou as acusações feitas nos processos e, no caso do assassinato seguido de suicídio, afirmou que o responsável já tinha um histórico de problemas mentais.
O procurador-geral da Flórida, James Uthmeier, informou no início deste mês que está investigando criminalmente o envolvimento do ChatGPT em um tiroteio que aconteceu em 2025 na Universidade Estadual da Flórida.

Matéria original

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *

This site uses Akismet to reduce spam. Learn how your comment data is processed.