Um juiz federal em Oregon aplicou a maior penalidade até agora por uso indevido de IA em petições judiciais, multando dois advogados em US$ 110 mil após eles apresentarem 23 citações fabricadas e oito citações inventadas geradas por inteligência artificial. As sanções, impostas pela juíza distrital dos EUA Ann Aiken em Portland, marcam a primeira grande resposta judicial ao aumento da dependência de advogados em ferramentas de IA para redigir documentos judiciais. O caso foi subsequentemente arquivado, e os advogados — identificados como Steven A. Schwartz e Peter LoDuca — agora enfrentam escrutínio profissional.

Advogados em todo o país estão enfrentando consequências por usar IA sem supervisão adequada. No Alabama, uma família perdeu uma disputa de confiança no mês passado depois que seu advogado apresentou citações a casos que não existem. A Suprema Corte do Alabama rejeitou o recurso, classificando a conduta como grave, e proibiu o advogado de protocolar petições naquele tribunal sem aprovação de coadvogado. A decisão reforça os riscos da implementação descontrolada de IA na prática jurídica.

Em Manhattan, um juiz recentemente decidiu que um réu que usou um chatbot de IA de uso geral para ajudar a preparar sua defesa renunciou ao privilégio advogado-cliente. A decisão envia um alerta claro para litigantes e advogados que tratam ferramentas de IA como auxílios infalíveis. Os tribunais estão cada vez mais intolerantes a erros decorrentes de saídas de IA não validadas, sinalizando um acerto de contas mais amplo para a profissão jurídica.

Especialistas em direito alertam que as “alucinações” de IA — quando grandes modelos de linguagem geram informações falsas ou enganosas — representam uma ameaça crescente à integridade jurídica. As sanções em Oregon seguem um padrão de casos recentes em que erros gerados por IA levaram a sanções, pedidos arquivados ou repreensões profissionais. Advogados agora são instados a verificar cada citação e citação antes de protocolar, um padrão que alguns dizem que retardará o trabalho jurídico, mas é necessário para evitar erros judiciais.

A American Bar Association ainda não emitiu novas diretrizes, mas conselhos estaduais de classe estão começando a abordar o problema. A Ordem dos Advogados do Oregon está revisando o caso das sanções, enquanto outras associações estaduais discutem se as regras éticas existentes cobrem adequadamente o uso indevido de IA. A comunidade jurídica está dividida: alguns defendem regulamentações mais rígidas, enquanto outros afirmam que as regras atuais são suficientes se forem devidamente aplicadas.

À medida que as ferramentas de IA se tornam mais integradas aos fluxos de trabalho jurídicos, os tribunais estão estabelecendo precedentes que moldarão o uso futuro. O caso de Oregon, em particular, pode servir como um parâmetro para como os juízes lidam com má conduta relacionada à IA. Advogados que não implementarem salvaguardas correm o risco não apenas de penalidades financeiras, mas também de danos à reputação e possível exclusão da advocacia. A mensagem é clara: a IA pode auxiliar no trabalho jurídico, mas não pode substituir o julgamento humano e a devida diligência.

Consultores de tecnologia jurídica afirmam que as empresas devem adotar políticas de governança de IA que incluam revisão humana de todo o conteúdo gerado por IA antes de sua apresentação. A falha em fazê-lo pode levar a mais sanções, casos arquivados e erosão da confiança pública no sistema jurídico. Os próximos meses revelarão se a profissão jurídica consegue se adaptar com rapidez suficiente aos desafios impostos pela IA generativa.