fbpx

Uso mal sucedido de IA ChatGPT em batalha jurídica

ChatGPT passa dados incorretos e advogado que utilizou a ferramenta em caso e pode ser punido

O advogado veterano Steven Schwartz descreveu o ChatGPT, um sistema de inteligência artificial, como um recurso “não confiável”. Schwartz, um profissional da justiça com uma longa carreira no escritório de advocacia Levidow, Levidow & Oberman, fez essa declaração em um depoimento juramentado para a corte do estado de Nova York, Estados Unidos. Ele reconheceu que contou com a ajuda desta IA para a elaboração de uma apelação legal contra a Avianca, uma companhia aérea colombiana.

Schwartz representa Roberto Mata, um passageiro que iniciou um processo contra a Avianca, alegando ter sofrido um ferimento no joelho por um carrinho de serviço durante um voo para Nova York.

Ao decorrer do processo, a Avianca solicitou ao juiz federal de Manhattan que desconsiderasse o caso. No entanto, Schwartz, o advogado do cliente, se manifestou contrariamente, entregando um extenso documento de dez páginas contendo referências de casos judiciais relevantes. O dossiê listava veredictos que envolviam companhias aéreas, incluindo Martinez v. Delta Air Lines, Zicherman v. Korean Air Lines e Varghese v. China Southern Airline.

A defesa da Avianca, junto ao juiz, não tinha conhecimento dos casos mencionados. Assim, a autenticidade dos exemplos citados foi questionada. Neste ponto, Schwartz revelou que recorreu ao auxílio do ChatGPT, que acabou inventando os casos.

Schwartz, em depoimento juramentado ao juiz P. Kevin Castel, insistiu que nunca teve a intenção de ludibriar a corte ou a Avianca. Ele declarou que nunca antes havia usado o ChatGPT e, consequentemente, “não tinha ciência da possibilidade de seu conteúdo ser falso”.

Ele argumentou que sua intenção era utilizar a inteligência artificial para adicionar informações à sua pesquisa. Contudo, lamentou profundamente o uso da inteligência artificial generativa para complementar a investigação legal realizada no documento, garantindo que não fará uso dela no futuro sem uma confirmação rigorosa de sua veracidade.

Junto à sua declaração juramentada, Schwartz apresentou prints de sua conversa com o ChatGPT. Quando questionou a IA sobre a veracidade do caso Varghese, recebeu como resposta que sim. No entanto, ao questionar a fonte, o ChatGPT pediu desculpas pela confusão e afirmou que, após uma nova verificação, encontrou o caso na base de dados de um site jurídico.

Em outra interação, Schwartz pergunta: “os outros casos que você forneceu são falsos?”, ao que o ChatGPT respondeu: “Não, os outros casos que forneci são reais e podem ser encontrados em bancos de dados jurídicos respeitáveis”.

Steven Schwartz terá uma audiência em 8 de junho, onde poderá enfrentar sanções.

 

Veja a matéria original no R7

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *

Este site utiliza o Akismet para reduzir spam. Fica a saber como são processados os dados dos comentários.