A IA é boa para muitas coisas — nomeadamente trapaças e fingir que você está mais produtivo do que realmente está. Recentemente, essa aflição se espalhou por várias profissões onde você pensaria que a ética de trabalho é um pouco melhor do que aparentemente é.
Caso em questão: advogados. Advogados aparentemente amam chatbots como o ChatGPT porque podem ajudá-los a superar a rotina maçante de escrever documentos legais. Infelizmente, como a maioria de nós sabe, os chatbots também são propensos a inventar coisas e, cada vez mais, isso está levando a erros legais com sérias implicações para todos envolvidos.
O New York Times publicou uma nova matéria sobre essa tendência infeliz, observando que, cada vez mais, punições estão sendo impostas a advogados que são pegos usando IA de maneira descuidada (essas punições podem envolver uma multa ou algum outro pequeno inconveniente). Aparentemente, devido à postura da American Bar Association, é aceitável que advogados usem IA no curso de seu trabalho legal. Eles apenas devem garantir que o texto gerado pelo chatbot seja, você sabe, correto e não cheio de casos legais fabricados — algo que parece continuar acontecendo. De fato, o Times observa:
…de acordo com documentos judiciais e entrevistas com advogados e estudiosos, a profissão jurídica nos últimos meses se tornou cada vez mais um caldeirão de erros de IA. Alguns deles decorrem do uso de chatbots em vez de contratar um advogado. Chatbots, com todas as suas armadilhas, podem ajudar aqueles que se representam a “falar em uma linguagem que os juízes entenderão”, disse Jesse Schaefer, um advogado baseado na Carolina do Norte… Mas um número crescente de casos se origina entre profissionais do direito, e os tribunais estão começando a mapear punições como pequenas multas e outras disciplinas.
Agora, alguns advogados estão aparentemente denunciando outros advogados por seus erros e tentando criar um sistema de rastreamento que pode compilar informações sobre casos envolvendo o uso indevido de IA. O Times destaca o trabalho de Damien Charlotin, um advogado francês que iniciou um banco de dados online para rastrear erros legais envolvendo IA. Rolando pelo site de Charlotin, é definitivamente meio aterrorizante, pois atualmente há 11 páginas de casos envolvendo essa besteira (os pesquisadores afirmam que identificaram 509 casos até agora).
O periódico observa que existe uma “rede crescente de advogados que rastreiam abusos de IA cometidos por seus pares” e os publicam online, em um aparente esforço para envergonhar o comportamento e alertar as pessoas para o fato de que isso está acontecendo. No entanto, não está claro que isso tenha o impacto necessário até agora. “Esses casos estão prejudicando a reputação da ordem”, disse Stephen Gillers, um professor de ética na New York University School of Law, ao jornal. “Advogados em toda parte deveriam sentir vergonha do que membros de sua profissão estão fazendo.”
