Fri. Oct 11th, 2024

[ad_1]

Quando a audiência em Manhattan começou, o advogado, Steven A. Schwartz, parecia nervoso e otimista, sorrindo enquanto conversava com sua equipe jurídica. Quase duas horas depois, o Sr. Schwartz estava sentado, com os ombros caídos e a cabeça quase acima do espaldar da cadeira.

Por quase duas horas na quinta-feira, o Sr. Schwartz foi interrogado por um juiz em uma audiência ordenada após a divulgação de que o advogado havia criado uma petição para um caso no Tribunal Distrital Federal que estava repleto de opiniões judiciais falsas e citações legais, todas geradas por ChatGPT. O juiz, P. Kevin Castel, disse que agora consideraria a possibilidade de impor sanções a Schwartz e seu parceiro, Peter LoDuca, cujo nome estava no documento.

Às vezes, durante a audiência, o Sr. Schwartz fechou os olhos e esfregou a testa com a mão esquerda. Ele gaguejou e sua voz caiu. Ele repetidamente tentou explicar por que não conduziu mais pesquisas sobre os casos que o ChatGPT havia fornecido a ele.

“Deus, eu gostaria de ter feito isso, mas não fiz”, disse Schwartz, acrescentando que se sentiu envergonhado, humilhado e profundamente arrependido.

“Não compreendi que o ChatGPT pudesse fabricar casos”, disse ele ao juiz Castel.

Em contraste com as posturas contritas do Sr. Schwartz, o juiz Castel gesticulava com frequência exasperado, elevando a voz enquanto fazia perguntas pontuais. Repetidamente, o juiz levantou os dois braços no ar, com as palmas para cima, enquanto perguntava ao Sr. Schwartz por que ele não verificava melhor seu trabalho.

Enquanto Schwartz respondia às perguntas do juiz, a reação no tribunal, apinhada de cerca de 70 pessoas, incluindo advogados, estudantes de direito, escriturários e professores, se espalhou pelas bancadas. Houve suspiros, risos e suspiros. Os espectadores faziam caretas, lançavam os olhos ao redor, mordiam canetas.

“Continuei a ser enganado pelo ChatGPT. É embaraçoso”, disse Schwartz.

Um espectador soltou um assobio suave e descendente.

O episódio, que surgiu em um processo obscuro, fascinou o mundo da tecnologia, onde tem havido um crescente debate sobre os perigos – até mesmo uma ameaça existencial à humanidade – representados pela inteligência artificial. Também tem paralisado advogados e juízes.

“Este caso repercutiu em toda a profissão jurídica”, disse David Lat, um comentarista jurídico. “É um pouco como olhar para um acidente de carro.”

O caso envolveu um homem chamado Roberto Mata, que processou a companhia aérea Avianca alegando que foi ferido quando um carrinho de metal atingiu seu joelho durante um voo de agosto de 2019 de El Salvador para Nova York.

A Avianca pediu ao juiz Castel que extinguisse o processo porque o prazo prescricional havia expirado. Os advogados de Mata responderam com um resumo de 10 páginas citando mais de meia dúzia de decisões judiciais, com nomes como Martinez v. Delta Air Lines, Zicherman v. Korean Air Lines e Varghese v. China Southern Airlines, em apoio ao seu argumento de que o processo deve ser autorizado a prosseguir.

Depois que os advogados da Avianca não conseguiram localizar os casos, o juiz Castel ordenou que os advogados de Mata fornecessem cópias. Eles apresentaram um compêndio de decisões.

Descobriu-se que os casos não eram reais.

Schwartz, que exerce a advocacia em Nova York há 30 anos, disse em uma declaração apresentada ao juiz nesta semana que soube do ChatGPT por meio de seus filhos em idade universitária e de artigos, mas que nunca o usou profissionalmente.

Ele disse ao juiz Castel na quinta-feira que acreditava que o ChatGPT tinha um alcance maior do que os bancos de dados padrão.

“Ouvi falar desse novo site, que presumi falsamente ser, tipo, um super mecanismo de busca”, disse Schwartz.

Programas como ChatGPT e outros grandes modelos de linguagem de fato produzem respostas realistas ao analisar quais fragmentos de texto devem seguir outras sequências, com base em um modelo estatístico que ingeriu bilhões de exemplos extraídos de toda a Internet.

Irina Raicu, que dirige o programa de ética na internet da Universidade de Santa Clara, disse esta semana que o caso Avianca mostra claramente o que os críticos de tais modelos têm dito, “que a grande maioria das pessoas que estão brincando com eles e usando-os não realmente não entendemos o que são e como funcionam e, em particular, quais são suas limitações.”

Rebecca Roiphe, professora da Escola de Direito de Nova York que estuda a profissão jurídica, disse que o imbróglio alimentou uma discussão sobre como os chatbots podem ser incorporados de forma responsável na prática do direito.

“Este caso mudou a urgência dele”, disse o professor Roiphe. “Há uma sensação de que isso não é algo sobre o qual possamos refletir de forma acadêmica. É algo que nos afetou agora e precisa ser tratado.”

A publicidade mundial gerada pelo episódio deve servir de alerta, disse Stephen Gillers, que ensina ética na Escola de Direito da Universidade de Nova York. “Paradoxalmente, este evento tem um lado positivo não intencional na forma de dissuasão”, disse ele.

Não houve fresta de esperança no tribunal 11-D na quinta-feira. A certa altura, o juiz Castel questionou o Sr. Swartz sobre uma das opiniões falsas, lendo algumas linhas em voz alta.

“Podemos concordar que isso é um jargão jurídico?” disse o juiz Castel.

Depois que a Avianca transferiu o caso para o tribunal federal, onde o Sr. Schwartz não é admitido para praticar, o Sr. LoDuca, seu sócio na Levidow, Levidow & Oberman, tornou-se o advogado de registro.

Em uma declaração juramentada no mês passado, LoDuca disse ao juiz Castel que não teve nenhum papel na condução da pesquisa. O juiz Castel questionou LoDuca na quinta-feira sobre um documento arquivado em seu nome pedindo que o processo não fosse arquivado.

“Você leu algum dos casos citados?” perguntou o juiz Castel.

“Não”, respondeu o Sr. LoDuca.

“Você fez alguma coisa para garantir que esses casos existissem?”

De novo não.

Os advogados de Schwartz e LoDuca pediram ao juiz para não punir seus clientes, dizendo que os advogados assumiram a responsabilidade e que não houve má conduta intencional.

Na declaração que Schwartz apresentou esta semana, ele descreveu como havia feito perguntas ao ChatGPT, e cada vez parecia ajudar com citações genuínas de casos. Ele anexou uma impressão de sua conversa com o bot, que o mostra lançando palavras como “claro” e “certamente!”

Após uma resposta, o ChatGPT disse alegremente: “Espero que ajude!”

[ad_2]

By NAIS

THE NAIS IS OFFICIAL EDITOR ON NAIS NEWS

Leave a Reply

Your email address will not be published. Required fields are marked *