
A inteligência artificial invadiu escritórios de advocacia com promessas tentadoras: pesquisa jurisprudencial instantânea, redação de petições automatizada, análise de contratos em segundos. Advogados, historicamente cautelosos com mudanças, abraçaram essa revolução com entusiasmo inédito. Contudo, essa adoção acelerada trouxe dilemas éticos profundos que desafiam fundamentos centenários da profissão jurídica.
Quando um advogado utiliza IA para redigir uma petição, quem é realmente o autor? Se algoritmo comete erro factual grave, quem responde perante cliente e tribunal? Como garantir que ferramentas automatizadas não reproduzam preconceitos históricos do sistema de justiça? Estas questões não são meramente acadêmicas – já resultaram em sanções disciplinares e decisões judiciais que redefinem responsabilidades profissionais.
O caso Mata vs. Avianca, julgado em 2023 nos Estados Unidos, tornou-se marco global sobre responsabilidade profissional com IA. Advogados utilizaram ChatGPT para pesquisar precedentes em ação contra companhia aérea. A ferramenta inventou casos jurisprudenciais inexistentes, com nomes de juízes fictícios e citações falsas. Quando tribunal questionou autenticidade, descobriu-se que seis precedentes citados eram completamente fabricados.
As consequências foram severas: multa de cinco mil dólares para cada advogado, curso obrigatório sobre tecnologia jurídica e estabelecimento de precedente sobre responsabilidade por “alucinações” de IA. Este caso estabeleceu marco fundamental: ignorância sobre limitações tecnológicas não isenta responsabilidade profissional.
No Brasil, começamos a observar situações similares. Sistemas de IA utilizados para análise de risco processual demonstraram viés sistemático contra litigantes de baixa renda, interpretando endereço e ocupação como indicadores de menor probabilidade de sucesso. Em casos trabalhistas, algoritmos treinados com dados históricos replicaram padrões de decisões pró-empresa, enquanto em questões familiares, IA reproduziu estereótipos de gênero em recomendações de guarda.
O Código de Ética e Disciplina da OAB exige que advogados mantenham conhecimento necessário para representação adequada. Com IA, isso inclui compreender limitações básicas das ferramentas utilizadas, verificar sempre resultados produzidos por sistemas automatizados e manter-se atualizado sobre desenvolvimentos tecnológicos relevantes.
A supervisão direta permanece fundamental. Advogados respondem por todo trabalho realizado em nome de clientes, independentemente de automação. Isso demanda revisão crítica de documentos gerados por IA, verificação factual de alegações e citações, análise de adequação estratégica de argumentos e personalização conforme especificidades do caso.
A confidencialidade ganha dimensões complexas com IA. Dados em nuvem podem ser processados em servidores externos, existe risco de vazamento através de aprendizado não supervisionado de modelos, e logs de sistema podem conter informações protegidas pelo sigilo profissional.
A transparência com clientes tornou-se obrigatória. Advogados devem informar sobre utilização de ferramentas de IA no caso, limitações e riscos das tecnologias empregadas, custos adicionais ou economias resultantes, e políticas de proteção de dados do escritório.
Crescente número de jurisdições exige que advogados revelem uso de IA para tribunais, incluindo identificação de ferramentas utilizadas na produção de documentos, certificação de revisão humana adequada e declaração de verificação factual independente.
Escritórios precisam desenvolver políticas claras de uso responsável. Algumas tarefas podem ser consideradas apropriadas para IA, como pesquisa inicial, brainstorming e revisão gramatical. Outras exigem supervisão rigorosa, incluindo redação de minutas, análise de contratos e pesquisa jurisprudencial. Certas atividades devem permanecer exclusivamente humanas, como decisões estratégicas finais e comunicação direta com clientes sem revisão.
A verificação obrigatória estabelece protocolos sistemáticos:
O treinamento continuado assume importância crítica. Capacitação técnica deve abordar funcionamento básico de sistemas utilizados, identificação de limitações e pontos cegos, técnicas de prompt engineering eficaz e protocolos de verificação. Sensibilização ética requer discussão regular de casos problemáticos, simulações de dilemas com IA e atualização sobre desenvolvimentos regulatórios.
A OAB desenvolveu diretrizes preliminares sobre IA, reconhecendo benefícios potenciais da tecnologia mas enfatizando que responsabilidade profissional permanece inalterada. A necessidade de supervisão humana constante e proteção da confidencialidade são prioritárias.
Desenvolvimentos esperados incluem regulamentação específica sobre disclosure obrigatório, padrões mínimos de competência tecnológica, protocolos de investigação disciplinar para casos de IA e programas de educação continuada obrigatória.
Os tribunais estabelecem responsabilidade objetiva para advogados por erros de IA, independentemente de má-fé. Padrão de cuidado elevado cria expectativa de verificação mais rigorosa para trabalho automatizado. Transparência processual resulta em crescente exigência de disclosure sobre ferramentas utilizadas.
Escritórios maiores criam comitês internos de ética em tecnologia, estabelecem revisão periódica de políticas de IA, desenvolvem canais para reporte de problemas éticos e implementam protocolos de resposta a incidentes.
Identificar problemas requer atenção a sinais específicos: resultados consistentemente desfavoráveis a grupos específicos, recomendações que reproduzem estereótipos sociais, análises que ignoram nuances culturais ou sugestões que conflitam com princípios de justiça social.
Testes regulares incluem análise de resultados por categoria demográfica, comparação com padrões históricos de decisões, verificação cruzada com múltiplas ferramentas e revisão por profissionais de backgrounds diversos.
Medidas corretivas envolvem diversificação de fontes para evitar dependência excessiva de um único sistema com vieses específicos. Supervisão humana qualificada deve incluir profissionais com expertise na área específica, sensibilidade a questões de discriminação, conhecimento sobre limitações tecnológicas e autoridade para modificar ou rejeitar sugestões.
A propriedade intelectual sobre texto produzido por IA com input do advogado permanece em debate. Posições incluem direitos do cliente como beneficiário final, do advogado como diretor criativo, da empresa de IA como criadora da ferramenta, ou classificação como domínio público por ausência de criação humana.
Cenários problemáticos de responsabilidade civil incluem erro estratégico onde IA recomenda estratégia inadequada, violação de prazo por falha em identificar deadline crítico, vazamento de dados por falha de segurança ou discriminação causando tratamento prejudicial ao cliente.
A distribuição de responsabilidade pode recair sobre o advogado por supervisão inadequada, cliente por autorização de riscos conhecidos, fornecedor de IA por defeitos no produto ou terceiros como hackers.
A implementação responsável requer abordagem faseada. Inicialmente, auditoria de necessidades tecnológicas reais, identificação de riscos específicos e desenvolvimento de políticas preliminares. Na implementação controlada, teste em casos menos complexos com monitoramento intensivo. Expansão responsável permite ampliação gradual com refinamento de protocolos. Maturidade operacional estabelece operação rotineira com supervisão adequada e inovação contínua respeitando limites éticos.
O uso ético de IA no direito exige mudança cultural profunda que vai além da simples adoção tecnológica. Requer desenvolvimento de nova consciência profissional que integre competência técnica, responsabilidade ética e compromisso com justiça. O futuro da advocacia será determinado não pela capacidade de usar IA, mas pela sabedoria de controlá-la adequadamente, garantindo que tecnologia sirva à justiça, não o contrário. Profissionais que abraçarem essa responsabilidade não apenas evitarão problemas éticos, mas liderarão transformação que fortalecerá confiança pública na profissão jurídica.
Advogado, especialista em Redes de Computadores, Segurança da Informação e Proteção de Dados. Pesquisador de novas tecnologias e amante do estudo da evolução da sociedade com as novas demandas tecnológicas.
© 2025 Pod Acessar – Política de Privacidade
Desenvolvido por Querida Designer