Decisão indeferir petições escritas com IA, visando medidas protetivas inexistente para induzir magistrados a erro.
Em decisão recente, a 5ª câmara Criminal do TJ/SC negou um pedido de revogação de medidas protetivas de urgência em caso de violência doméstica, destacando indícios de que a petição inicial teria sido criada por inteligência artificial. A medida foi motivada pela presença de citações de jurisprudências inexistentes.
A inteligência artificial tem avançado em diversas áreas, incluindo a ciência da inteligência, que estuda a natureza da inteligência e a possibilidade de desenvolver sistemas que a emulam. No entanto, essa ferramenta pode ser usada para criar conteúdo falso, como petições judiciais, o que pode levar a consequências graves. A inteligência artificial pode ser usada para fins legítimos, como o processamento de dados, mas também pode ser utilizada para criar conteúdo falso, como petições judiciais, que pode levar a consequências graves.
Inteligência Artificial em Tribunais: Uma Questão de Ética e Precisão
A utilização da inteligência artificial (IA) em processos jurídicos ganhou destaque recentemente, com casos de petições elaboradas com IA sendo identificadas como atos de má-fé e desrespeito ao tribunal. Em um desses casos, a desembargadora Cinthia Beatriz da Silva Bittencourt Schaefer, relatora do processo, enfatizou que os precedentes jurídicos apresentados como reforço argumentativo foram criados para induzir o julgador a erro, demonstrando uma falta de respeito pela integridade do processo.
O caso em questão envolveu uma petição escrita com o uso de IA, que foi indeferida pelo tribunal por ser baseada em fundamentos falsos. A desembargadora alertou o advogado impetrante sobre o uso de IA em processos jurídicos, destacando que a inteligência artificial não pode substituir a capacidade de julgamento humano. A decisão do tribunal considerou que a alegação de desproporcionalidade da prorrogação das medidas protetivas por tempo indeterminado era improcedente, uma vez que as medidas possuem abrangência limitada e devem garantir a segurança da vítima.
A utilização de IA em processos jurídicos não é isolada e é um problema mundial. Nos Estados Unidos, o advogado Steven A. Schwartz utilizou o ChatGPT para processar a Avianca, apresentando precedentes inexistentes. Após a repercussão, um juiz do Texas determinou que petições elaboradas com IA deveriam ser identificadas para verificação de precisão.
A advogada Ana Paula Ávila, vice-presidente da Comissão Especial de Proteção de Dados e Privacidade da OAB/RS, alertou que advogados têm dever ético e legal de checar informações geradas por ferramentas como ChatGPT, que podem fornecer dados falsos. Ela destaca que, embora as respostas da IA pareçam certeiras, podem ser incorretas, reforçando a importância da dupla verificação em fontes autênticas.
A utilização da IA em processos jurídicos apresenta riscos significativos, incluindo a perda de precisão e a possibilidade de causar danos irreparáveis. A inteligência artificial não pode substituir a capacidade de julgamento humano e deve ser utilizada com cautela e responsabilidade. A ética e a precisão são fundamentais em processos jurídicos, e a utilização da IA deve ser regida por esses princípios.
Impacto da Inteligência Artificial na Justiça Eleitoral
A inteligência artificial também tem impactado a Justiça Eleitoral, com casos de petições elaboradas com IA sendo identificadas como atos de má-fé e desrespeito ao tribunal. Em 2023, o ministro Benedito Gonçalves, corregedor-geral da Justiça Eleitoral, aplicou uma multa de R$ 2.604 por litigância de má-fé a um advogado que protocolou uma petição escrita com o ChatGPT no TSE. O advogado solicitava ingresso como amicus curiae em uma investigação eleitoral contra o ex-presidente Jair Bolsonaro, mas sua real intenção era criar uma ‘fábula escrita a duas mãos’ para protestar contra o uso de IA na Justiça.
O ministro destacou que a resolução do TSE já veda o uso do amicus curiae nesse tipo de processo e criticou o fato de a petição ser baseada exclusivamente em um diálogo com uma inteligência artificial, sem contribuição pessoal do requerente. Ele classificou a conduta como temerária e infundada, ressaltando que um advogado deve conhecer a inadequação do material apresentado.
A utilização de IA em processos jurídicos na Justiça Eleitoral é um problema grave, pois pode levar a decisões incorretas e danos irreparáveis. A inteligência artificial não pode substituir a capacidade de julgamento humano e deve ser utilizada com cautela e responsabilidade.
Problema Mundial: Petições Elaboradas com IA
O problema de petições elaboradas com IA não é isolado e é um problema mundial. Nos Estados Unidos, o advogado Steven A. Schwartz utilizou o ChatGPT para processar a Avianca, apresentando precedentes inexistentes. Após a repercussão, um juiz do Texas determinou que petições elaboradas com IA deveriam ser identificadas para verificação de precisão.
A advogada Ana Paula Ávila, vice-presidente da Comissão Especial de Proteção de Dados e Privacidade da OAB/RS, alertou que advogados têm dever ético e legal de checar informações geradas por ferramentas como ChatGPT, que podem fornecer dados falsos. Ela destaca que, embora as respostas da IA pareçam certeiras, podem ser incorretas, reforçando a importância da dupla verificação em fontes autênticas.
A utilização da IA em processos jurídicos apresenta riscos significativos, incluindo a perda de precisão e a possibilidade de causar danos irreparáveis. A inteligência artificial não pode substituir a capacidade de julgamento humano e deve ser utilizada com cautela e responsabilidade. A ética e a precisão são fundamentais em processos jurídicos, e a utilização da IA deve ser regida por esses princípios.
Inteligência Artificial e Ética Jurídica
A inteligência artificial tem um impacto significativo na ética jurídica, pois pode levar a decisões incorretas e danos irreparáveis. A utilização da IA em processos jurídicos apresenta riscos significativos, incluindo a perda de precisão e a possibilidade de causar danos irreparáveis.
A ética jurídica é fundamental em processos jurídicos, e a utilização da IA deve ser regida por esses princípios. A inteligência artificial não pode substituir a capacidade de julgamento humano e deve ser utilizada com cautela e responsabilidade.
A advogada Ana Paula Ávila, vice-presidente da Comissão Especial de Proteção de Dados e Privacidade da OAB/RS, alertou que advogados têm dever ético e legal de checar informações geradas por ferramentas como ChatGPT, que podem fornecer dados falsos. Ela destaca que, embora as respostas da IA pareçam certeiras, podem ser incorretas, reforçando a importância da dupla verificação em fontes autênticas.
A utilização da IA em processos jurídicos exige uma abordagem cuidadosa e responsável, com a consideração de todos os riscos e desafios envolvidos. A ética e a precisão são fundamentais em processos jurídicos, e a utilização da IA deve ser regida por esses princípios.
Fonte: © Migalhas
Comentários sobre este artigo