Sat. Sep 21st, 2024

[ad_1]

O processo começou como tantos outros: um homem chamado Roberto Mata processou a companhia aérea Avianca, dizendo que se machucou quando um carrinho de metal atingiu seu joelho durante um voo para o Aeroporto Internacional Kennedy, em Nova York.

Quando a Avianca pediu a um juiz federal de Manhattan que descartasse o caso, os advogados de Mata se opuseram veementemente, apresentando um documento de 10 páginas que citava mais de meia dúzia de decisões judiciais relevantes. Houve Martinez x Delta Air Lines, Zicherman v.

Houve apenas um problema: ninguém – nem os advogados da companhia aérea, nem mesmo o próprio juiz – conseguiu encontrar as decisões ou as citações citadas e resumidas no documento.

Isso porque o ChatGPT havia inventado tudo.

O advogado que criou o documento, Steven A. Schwartz, da firma Levidow, Levidow & Oberman, colocou-se à mercê do tribunal na quinta-feira, dizendo em uma declaração juramentada que havia usado o programa de inteligência artificial para fazer sua pesquisa jurídica – “ uma fonte que se revelou não confiável.”

Schwartz, que advogou em Nova York por três décadas, disse ao juiz P. Kevin Castel que não tinha intenção de enganar o tribunal ou a companhia aérea. O Sr. Schwartz disse que nunca havia usado o ChatGPT e “portanto, desconhecia a possibilidade de que seu conteúdo pudesse ser falso”.

Ele havia, disse ao juiz Castel, até pedido ao programa para verificar se os casos eram reais.

Tinha dito sim.

Schwartz disse que “lamenta muito” ter confiado no ChatGPT “e nunca o fará no futuro sem a verificação absoluta de sua autenticidade”.

O juiz Castel disse em uma ordem que havia sido presenteado com “uma circunstância sem precedentes”, uma submissão legal repleta de “decisões judiciais falsas, com citações falsas e citações internas falsas”. Ele ordenou uma audiência para 8 de junho para discutir possíveis sanções.

À medida que a inteligência artificial varre o mundo online, ela evoca visões distópicas de computadores substituindo não apenas a interação humana, mas também o trabalho humano. O medo tem sido especialmente intenso para os trabalhadores do conhecimento, muitos dos quais temem que suas atividades diárias possam não ser tão rarefeitas quanto o mundo pensa – mas pelas quais o mundo paga horas faturáveis.

Stephen Gillers, professor de ética jurídica da Escola de Direito da Universidade de Nova York, disse que a questão é particularmente crítica entre os advogados, que vêm debatendo o valor e os perigos de softwares de IA como o ChatGPT, bem como a necessidade de verificar qualquer informação que ele forneça. .

“A discussão agora entre os advogados é como evitar exatamente o que este caso descreve”, disse Gillers. “Você não pode simplesmente pegar o resultado e recortá-lo e colá-lo em seus arquivos judiciais.”

O caso da vida real de Roberto Mata v. Avianca Inc. mostra que as profissões de colarinho branco podem ter pelo menos um pouco de tempo antes que os robôs assumam o controle.

Tudo começou quando Mata era passageiro do voo 670 da Avianca de El Salvador para Nova York em 27 de agosto de 2019, quando um funcionário da companhia aérea o atingiu com o carrinho de serviço, de acordo com o processo. Após o processo de Mata, a companhia aérea apresentou documentos pedindo que o caso fosse arquivado porque o estatuto de limitações havia expirado.

Em um documento arquivado em março, os advogados de Mata disseram que o processo deveria continuar, reforçando seu argumento com referências e citações de muitas decisões judiciais que já foram desmentidas.

Logo, os advogados da Avianca escreveram ao juiz Castel, dizendo que não conseguiram encontrar os casos citados no escrito.

Quando se tratou de Varghese v. China Southern Airlines, eles disseram que “não foram capazes de localizar este caso por legenda ou citação, nem qualquer caso que tenha qualquer semelhança com ele”.

Eles apontaram para uma longa citação da suposta decisão Varghese contida no documento. “O abaixo-assinado não conseguiu localizar esta citação, nem nada parecido em qualquer caso”, escreveram os advogados da Avianca.

De fato, acrescentaram os advogados, a citação, que veio do próprio Varghese, citou algo chamado Zicherman v. Korean Air Lines Co. não poderia encontrar isso, também.

A juíza Castel ordenou aos advogados do senhor Mata que fornecessem cópias dos pareceres referidos em seu escrito. Os advogados apresentaram um compêndio de oito; na maioria dos casos, eles listavam o tribunal e os juízes que os emitiram, os números dos autos e as datas.

A cópia da suposta decisão Varghese, por exemplo, tem seis páginas e diz que foi escrita por um membro de um painel de três juízes do 11º Circuito. Mas os advogados da Avianca disseram ao juiz que não conseguiram encontrar essa opinião, ou as outras, nos autos do tribunal ou em bancos de dados jurídicos.

Bart Banino, advogado da Avianca, disse que sua firma, Condon & Forsyth, especializada em direito aeronáutico e que seus advogados poderiam dizer que os casos no documento não eram reais. Ele acrescentou que eles suspeitavam que um chatbot poderia estar envolvido.

Schwartz não respondeu a uma mensagem solicitando comentários, nem Peter LoDuca, outro advogado do escritório, cujo nome apareceu no relatório.

LoDuca disse em um depoimento esta semana que não realizou nenhuma das pesquisas em questão e que não tinha “nenhuma razão para duvidar da sinceridade” do trabalho de Schwartz ou da autenticidade das opiniões.

O ChatGPT gera respostas realistas fazendo suposições sobre quais fragmentos de texto devem seguir outras sequências, com base em um modelo estatístico que ingeriu bilhões de exemplos de texto extraídos de toda a Internet. No caso de Mata, o programa parece ter discernido a estrutura labiríntica de um argumento jurídico escrito, mas a preencheu com nomes e fatos de uma sopa de casos existentes.

O juiz Castel, em seu pedido de audiência, sugeriu que ele havia feito sua própria investigação. Ele escreveu que o escrivão do 11º Circuito havia confirmado que o número do processo impresso no suposto parecer Varghese estava conectado a um caso totalmente diferente.

Chamando a opinião de “falsa”, o juiz Castel observou que continha citações internas e citações que, por sua vez, eram inexistentes. Ele disse que cinco das outras decisões apresentadas pelos advogados de Mata também pareciam ser falsas.

Na quinta-feira, os advogados de Mata ofereceram depoimentos contendo sua versão do que havia acontecido.

O Sr. Schwartz escreveu que originalmente havia entrado com o processo do Sr. Mata no tribunal estadual, mas depois que a companhia aérea o transferiu para o tribunal federal de Manhattan, onde o Sr. Schwartz não é admitido para praticar, um de seus colegas, o Sr. LoDuca, tornou-se o advogado de registro. Schwartz disse que continuou a fazer a pesquisa legal, na qual LoDuca não teve nenhum papel.

O Sr. Schwartz disse que consultou o ChatGPT “para complementar” o seu próprio trabalho e que, “em consulta” com ele, encontrou e citou a meia dúzia de casos inexistentes. Ele disse que o ChatGPT forneceu garantias.

“Varghese é um caso real?”, ele digitou, de acordo com uma cópia da troca que apresentou ao juiz.

“Sim”, respondeu o chatbot, oferecendo uma citação e acrescentando que “é um caso real”.

O Sr. Schwartz cavou mais fundo.

“Qual é a sua fonte”, escreveu ele, de acordo com o processo.

“Peço desculpas pela confusão anterior”, respondeu o ChatGPT, oferecendo uma citação legal.

“Os outros casos que você forneceu são falsos?”, perguntou Schwartz.

O ChatGPT respondeu: “Não, os outros casos que forneci são reais e podem ser encontrados em bancos de dados jurídicos respeitáveis”.

Mas, infelizmente, eles não poderiam ser.

Sheelagh McNeil contribuiu com a pesquisa.

[ad_2]

By NAIS

THE NAIS IS OFFICIAL EDITOR ON NAIS NEWS

Leave a Reply

Your email address will not be published. Required fields are marked *