Imagine seu assistente virtual oferecendo conselhos jurídicos complexos sem qualquer credencial. É exatamente essa a acusação central que a OpenAI, desenvolvedora do popular chatbot ChatGPT, enfrenta em um processo nos Estados Unidos.
A ação judicial levanta sérias questões sobre os limites da inteligência artificial e a prática não autorizada da advocacia, marcando um precedente potencialmente histórico.
O Processo Milionário Contra a OpenAI
A empresa de seguros Nippon moveu uma ação contra a OpenAI, alegando que o ChatGPT incentivou uma de suas seguradas a prosseguir com um caso de invalidez que já estava resolvido.
Segundo a Nippon, a interação com o chatbot gerou uma série de pedidos que consumiram tempo e recursos significativos, acumulando honorários substanciais para a seguradora.
Acusações da Nippon
A Nippon afirma que, embora o ChatGPT possa ser aprovado em exames de ordem, ele não possui licença para exercer a advocacia em Illinois ou em qualquer outra jurisdição dos EUA.
O processo busca uma declaração de que a OpenAI violou a lei de prática não autorizada da advocacia de Illinois.
Os Pedidos da Ação Judicial
Além da declaração legal, a Nippon exige uma indenização significativa por danos. Os valores incluem:
- US$ 300.000 em indenização por danos compensatórios.
- US$ 10 milhões em indenização por danos punitivos.
Representantes de ambas as empresas não se manifestaram sobre o assunto até o momento.
Por Que o ChatGPT Não Pode Ser Advogado?
A questão central da ação judicial é clara: um chatbot, por mais avançado que seja, não é um profissional do direito legalmente habilitado.
A capacidade de uma IA de passar em um exame da ordem não se traduz em autorização para exercer a advocacia, que exige admissão formal e cumprimento de regulamentações éticas e profissionais.
Precedente Perigoso para a IA
Este processo parece ser um dos primeiros a acusar um grande desenvolvedor de IA de se envolver na prática não autorizada da advocacia por meio de um chatbot voltado para o consumidor.
A rápida adoção da tecnologia de IA no setor jurídico já tem gerado preocupações, especialmente com o fenômeno das “alucinações” da IA.
O Desafio das “Alucinações” da IA no Direito
A utilização de ferramentas de inteligência artificial em processos judiciais tem levado a um aumento de casos onde a IA produz informações falsas ou fabricadas.
Isso inclui citações inexistentes e outros materiais não verificados, que têm resultado em punições para litigantes e advogados por parte dos juízes.
Riscos da IA no Contexto Jurídico
Os desafios impostos pela IA no cenário jurídico são diversos e complexos. Entre os principais riscos, destacam-se:
- Geração de citações fabricadas e informações incorretas.
- Produção de materiais não verificados que podem comprometer a credibilidade de um caso.
- Possibilidade de sanções judiciais para profissionais que utilizam IA sem a devida checagem.
O caso da OpenAI e da Nippon sublinha a urgência de estabelecer diretrizes claras para o uso da inteligência artificial em campos profissionais regulamentados.
Leia mais sobre as últimas tendências em nossa categoria: Tecnologia no Observador Livre.
À medida que a IA se torna mais onipresente, a linha entre a assistência tecnológica e a prática profissional regulamentada precisa ser definida com maior clareza para evitar conflitos legais e proteger os consumidores.
👍 Este conteúdo foi útil? Clique abaixo para avaliar!
CURTIR AGORA