Um importante caso judicial em São Paulo culminou na rejeição de um relatório produzido por ferramentas de inteligência artificial (IA) pelo Superior Tribunal de Justiça (STJ). Este foi o primeiro precedente sobre o uso de provas geradas por IA em processos judiciais, destacando a necessidade de confirmação pericial para a admissibilidade de tais evidências. A decisão ocorreu em um caso que envolvia uma acusação de ofensa racial feita pelo vice-prefeito de São José do Rio Preto, Fábio Marcondes, contra um segurança durante uma partida de futebol em fevereiro de 2024.
A acusação se baseou em um relatório elaborado com as ferramentas de IA Gemini e Perplexity, que concluiu que Marcondes havia proferido uma expressão ofensiva. A análise foi realizada após um vídeo da discussão entre o vice-prefeito e o segurança ser submetido a um exame pericial oficial pelo Instituto de Criminalística. No entanto, a perícia não conseguiu confirmar a presença da palavra supostamente ofensiva no áudio, apontando que não havia traços articulatórios que correspondessem ao termo mencionado na acusação.
O promotor José Silvio Codogno, que ofereceu a denúncia em agosto de 2025, argumentou que Marcondes havia praticado injúria racial após uma discussão provocada pela solicitação do segurança para que o filho do vice-prefeito se afastasse do caminho dos atletas do Palmeiras. Segundo o promotor, a reação de Marcondes foi desproporcional e ofensiva, atingindo a honra da vítima.
Ao analisar o caso, o relator Reynaldo Soares da Fonseca, da Quinta Turma do STJ, se deparou com a questão da confiabilidade do relatório produzido pela IA. Ele não questionou a legalidade da obtenção do documento, mas levantou sérias preocupações sobre a capacidade das ferramentas de IA de fornecer informações precisas e confiáveis. Fonseca destacou que um dos riscos associados ao uso de IA generativa é o fenômeno conhecido como “alucinação”, onde o sistema pode gerar informações que parecem verdadeiras, mas que são, na realidade, imprecisas ou fabricadas.
O ministro enfatizou que as ferramentas de IA operam com base em padrões estatísticos e probabilidades, o que pode levar à produção de dados incorretos. Por essa razão, a Quinta Turma decidiu excluir o relatório da análise do caso, obrigando o magistrado a reconsiderar a admissibilidade da acusação sem levar em conta a evidência gerada pela IA.
Essa decisão do STJ marca um momento significativo na intersecção entre tecnologia e justiça, destacando a necessidade de rigor na validação de provas geradas por inteligência artificial. O tribunal deixou claro que, para que um relatório baseado em IA seja aceito como evidência em processos judiciais, deve haver confirmação adicional por peritos, garantindo assim a integridade do sistema judicial e a proteção dos direitos dos acusados. As implicações dessa decisão poderão repercutir em futuros casos, levando a uma análise mais crítica sobre o uso da tecnologia na Justiça.
Fonte: Link original



























