STJ veta inteligência artificial como prova em processo penal

STJ rejeita uso de inteligência artificial como prova em ação penal

Um importante caso judicial em São Paulo culminou na rejeição de um relatório produzido por ferramentas de inteligência artificial (IA) pelo Superior Tribunal de Justiça (STJ). Este foi o primeiro precedente sobre o uso de provas geradas por IA em processos judiciais, destacando a necessidade de confirmação pericial para a admissibilidade de tais evidências. A decisão ocorreu em um caso que envolvia uma acusação de ofensa racial feita pelo vice-prefeito de São José do Rio Preto, Fábio Marcondes, contra um segurança durante uma partida de futebol em fevereiro de 2024.

A acusação se baseou em um relatório elaborado com as ferramentas de IA Gemini e Perplexity, que concluiu que Marcondes havia proferido uma expressão ofensiva. A análise foi realizada após um vídeo da discussão entre o vice-prefeito e o segurança ser submetido a um exame pericial oficial pelo Instituto de Criminalística. No entanto, a perícia não conseguiu confirmar a presença da palavra supostamente ofensiva no áudio, apontando que não havia traços articulatórios que correspondessem ao termo mencionado na acusação.

O promotor José Silvio Codogno, que ofereceu a denúncia em agosto de 2025, argumentou que Marcondes havia praticado injúria racial após uma discussão provocada pela solicitação do segurança para que o filho do vice-prefeito se afastasse do caminho dos atletas do Palmeiras. Segundo o promotor, a reação de Marcondes foi desproporcional e ofensiva, atingindo a honra da vítima.

Ao analisar o caso, o relator Reynaldo Soares da Fonseca, da Quinta Turma do STJ, se deparou com a questão da confiabilidade do relatório produzido pela IA. Ele não questionou a legalidade da obtenção do documento, mas levantou sérias preocupações sobre a capacidade das ferramentas de IA de fornecer informações precisas e confiáveis. Fonseca destacou que um dos riscos associados ao uso de IA generativa é o fenômeno conhecido como “alucinação”, onde o sistema pode gerar informações que parecem verdadeiras, mas que são, na realidade, imprecisas ou fabricadas.

O ministro enfatizou que as ferramentas de IA operam com base em padrões estatísticos e probabilidades, o que pode levar à produção de dados incorretos. Por essa razão, a Quinta Turma decidiu excluir o relatório da análise do caso, obrigando o magistrado a reconsiderar a admissibilidade da acusação sem levar em conta a evidência gerada pela IA.

Essa decisão do STJ marca um momento significativo na intersecção entre tecnologia e justiça, destacando a necessidade de rigor na validação de provas geradas por inteligência artificial. O tribunal deixou claro que, para que um relatório baseado em IA seja aceito como evidência em processos judiciais, deve haver confirmação adicional por peritos, garantindo assim a integridade do sistema judicial e a proteção dos direitos dos acusados. As implicações dessa decisão poderão repercutir em futuros casos, levando a uma análise mais crítica sobre o uso da tecnologia na Justiça.

Fonte: Link original

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Publicidade

Categorias

Publicidade
Publicidade

Assine nossa newsletter

Publicidade

Outras notícias