Por Liz Estudino e Julia Zanetti
A introdução da inteligência artificial no sistema de justiça promete eficiência, celeridade e padronização de decisões. No entanto, quando aplicada ao processo penal, essa mesma tecnologia desperta uma série de preocupações éticas, técnicas e jurídicas, especialmente quanto à possibilidade de erros judiciais decorrentes de vieses algorítmicos ou da falta de transparência nos sistemas automatizados.
No campo da investigação criminal, ferramentas de inteligência artificial vêm sendo empregadas para análise de dados massivos, reconhecimento facial e identificação de padrões de comportamento. Embora úteis para otimizar recursos e reduzir o tempo de apuração, esses sistemas muitas vezes operam com bancos de dados incompletos ou enviesados. O reconhecimento facial, por exemplo, tem sido responsável por prisões injustas em diversos países, sobretudo de pessoas negras, revelando um problema estrutural de discriminação algorítmica. No Brasil, já há registros de investigações baseadas em sistemas automatizados que associam erroneamente indivíduos a crimes, sem que se conheça o método de inferência utilizado, o que afronta diretamente o princípio constitucional da ampla defesa e contraditório.
Na fase decisória, a utilização de inteligência artificial para sugerir sentenças ou classificar o risco de reincidência do acusado também levanta questionamentos sérios sobre a imparcialidade e a fundamentação das decisões judiciais. Algoritmos de avaliação de risco, como o COMPAS, usado em alguns tribunais norte-americanos, demonstraram tendência a atribuir notas mais altas de periculosidade a réus negros. O problema central está na opacidade algorítmica, uma vez que juízes e advogados não conseguem compreender os critérios que levaram o sistema a determinada conclusão. No processo penal, essa falta de transparência viola frontalmente o dever de motivação das decisões e o controle judicial efetivo previsto no artigo 93, IX, da Constituição Federal.
Outro ponto sensível é a transferência de responsabilidade. Quando uma decisão judicial é influenciada ou parcialmente fundamentada em relatórios produzidos por inteligência artificial, surge a dúvida sobre quem responde por um erro, se o programador, o Estado ou o magistrado. O risco de um apagamento de autoria decisória compromete a essência do julgamento humano e o próprio princípio da dignidade da pessoa humana, que deve orientar toda persecução penal. Além disso, a dependência excessiva da tecnologia pode gerar uma perigosa automatização do raciocínio jurídico, afastando o julgador da análise meticulosa e da sensibilidade necessária à justiça criminal.
A solução não está em rejeitar a inteligência artificial, mas em estabelecer limites jurídicos claros para o seu uso. É necessário garantir transparência algorítmica, auditorias independentes e a possibilidade de contestação técnica dos resultados produzidos por sistemas automatizados. O Judiciário deve compreender a inteligência artificial como ferramenta auxiliar, e não substitutiva, preservando a centralidade do juízo humano nas decisões que envolvem liberdade e vida. O processo penal, por sua natureza garantista, exige controle, prudência e respeito às garantias fundamentais, sob pena de substituir os erros humanos pelos erros de código, igualmente injustos, mas muito mais difíceis de detectar.
Em suma, a inteligência artificial tem potencial para aprimorar a justiça criminal, mas somente se for usada sob um marco ético e jurídico rigoroso, que assegure que a busca por eficiência não suplante a proteção dos direitos individuais. O risco não é apenas o erro judicial em si, mas a naturalização de decisões desumanizadas em um sistema que, por definição, deve ser humano.