A Caixa Negra da IA: Desafios para Advogados Portugueses
Compreender o funcionamento da inteligência artificial e a sua importância para Advogados e Juristas
Por Luís Nuno Perdigão
7/FEV/2026; atualizado em 8/FEV/2026
Powered by
Resumo Executivo
A adoção crescente de sistemas de Inteligência Artificial (IA) no setor jurídico e na administração pública apresenta um paradoxo fundamental: enquanto promete eficiência e celeridade processual, introduz riscos significativos relacionados com a opacidade algorítmica, fenómeno conhecido como "caixa negra".
Este artigo explora as bases do funcionamento da IA, especificamente o machine learning e as redes neuronais, para desmistificar a complexidade técnica que afasta muitos juristas. Analisa-se o problema da falta de interpretabilidade das decisões automatizadas e o seu conflito com princípios basilares do Direito, como o dever de fundamentação e o respeito pelo Estado de Direito.
Objetivo Central
Dotar os advogados portugueses de competências críticas para questionar, auditar e litigar num ambiente cada vez mais algorítmico, à luz do RGPD e do recente AI Act.
Um Ponto de Inflexão Histórico
A advocacia e o sistema judicial encontram-se num ponto de viragem histórico. A introdução de ferramentas de Inteligência Artificial (IA) na prática jurídica, desde a análise preditiva de sentenças até à automatização de triagem documental, deixou de ser uma promessa futurista para se tornar uma realidade tangível.
No entanto, esta revolução tecnológica traz consigo um desafio epistemológico e jurídico profundo: o problema da "caixa negra" (black box). Para os advogados portugueses, habituados à lógica dedutiva e à hermenêutica tradicional, a confrontação com sistemas que produzem resultados através de correlações matemáticas opacas, em vez de raciocínios causais explícitos, representa uma ameaça à integridade do mandato forense.
O problema central reside no facto de muitos dos algoritmos mais avançados, nomeadamente os baseados em aprendizagem profunda (deep learning), serem intrinsecamente ininteligíveis para o ser humano (Deeks, 2019).
A Urgência da Literacia Técnica
Opacidade Algorítmica
Sistemas processam milhões de parâmetros que nem sequer os programadores conseguem descodificar linearmente
Conflito Jurídico
Colisão frontal com o imperativo legal da fundamentação das decisões e transparência processual
Imperativo Legal
AI Act / Reglamento Inteligência Artificial (Regulamento UE 2024/1689) e o RGPD tornam a transparência algorítmica obrigatória
Este artigo realça que a ignorância tecnológica já não é opção. Com a entrada em vigor do Regulamento (UE) 2024/1689 (AI Act) e a consolidação do RGPD, a exigência de transparência algorítmica tornou-se lei. O advogado que não compreenda como funciona a "máquina" não estará apto a defender o seu constituinte contra ela nem a usá-la devidamente.
Fundamentos Técnicos: O que é Inteligência Artificial
Definição OCDE (2024) de Sistema de IA
Um sistema de IA é um sistema baseado em máquinas que, para objetivos explícitos ou implícitos, infere, a partir das entradas que recebe, como gerar saídas, tais como previsões, conteúdos, recomendações ou decisões que podem influenciar ambientes físicos ou virtuais. Diferentes sistemas de IA variam nos seus níveis de autonomia e de capacidade de adaptação após a sua implementação.
Definição do AI Act
Por sua vez, o artigo 3/1 do REgulamento Inteligência Artifical define sistema de IA da seguinte forma:
"sistema baseado em máquinas concebido para operar com graus variados de autonomia e que pode apresentar adaptabilidade após a implementação, e que, para objetivos explícitos ou implícitos, infere, a partir dos dados de entrada recebidos, como gerar resultados tais como previsões, conteúdo, recomendações ou decisões que podem influenciar ambientes físicos ou virtuais".
Definições Complementares de IA
Definição de IA do HIGH-LEVEL EXPERT GROUP ON ARTIFICIAL INTELLIGENCE da UE
A inteligência artificial (IA) refere-se a sistemas concebidos por humanos que, tendo em conta um objetivo complexo, atuam no mundo físico ou digital, percebendo o seu ambiente, interpretando os dados recolhidos, estruturados ou não estruturados, raciocinando sobre o conhecimento deles derivado ou processando informação a partir desses dados e decidindo as melhores ações a tomar para atingir o objetivo definido.
Software Tradicional vs. IA
Ao contrário do software tradicional, que segue regras estritas de "se-então" (if-then) codificadas por humanos, a IA moderna baseia-se predominantemente em Machine Learning (Aprendizagem Automática).
No Machine Learning, o programador não dita as regras de decisão; em vez disso, fornece ao sistema grandes volumes de dados e um algoritmo que permite à máquina identificar padrões e construir o seu próprio modelo lógico (Coglianese & Lehr, 2019).

Conceito-chave: Esta capacidade de autoaprendizagem confere autonomia ao sistema, mas é também a génese da sua opacidade.
Redes Neuronais e Deep Learning
O Processo de Aprendizagem: Como a IA "Aprende"
O "conhecimento" de uma IA reside nos "pesos" (weights) e "vieses" (biases) matemáticos atribuídos às conexões entre os neurónios. Durante o processo de treino, o sistema é alimentado com exemplos (dados de treino). Se a previsão do sistema for incorreta, um algoritmo de "retropropagação" ajusta ligeiramente os pesos das conexões para reduzir o erro. (Note-se que, neste contexto técnico, bias e biases, viés e veses, nada tem a ver com a questão de existirem biases / vieses algorítmicos - vieses nos resultados dos algoritmos quiando, por exemplo, podem discriminar em função do género ou da etnia ou de estrato social. Neste contexto de treino de IA, "bias" e "viés" tem um sentido puramente matemático.)
Após processar milhões de exemplos, o sistema afina estes pesos para realizar previsões com alta precisão. Contudo, o resultado final é uma matriz numérica gigantesca, ininteligível sem ferramentas de descodificação.
Para um jurista, isto significa que a "lógica" da decisão não está escrita em linguagem natural nem em código lógico, mas dispersa em milhões de parâmetros numéricos.
O Problema da Caixa Negra
O termo "caixa negra" (black box) é utilizado na literatura para descrever sistemas cujos processos internos são desconhecidos ou incompreensíveis para o observador (Deeks, 2019). No contexto jurídico, isto traduz-se num cenário onde se conhecem os dados de entrada (ex: antecedentes criminais, idade, gravidade do delito) e se obtém um resultado (ex: alto risco de reincidência), mas o nexo de causalidade entre ambos permanece oculto.
Como observa Zednik (2021), não se trata apenas de não saber "o quê", mas de não conseguir responder ao "porquê".
Três Causas da Opacidade Algorítmica
1
Opacidade Legal ou Intencional
Decorrente da proteção da propriedade intelectual e segredos comerciais. Empresas que desenvolvem software jurídico (Legal Tech) frequentemente recusam abrir o código-fonte, alegando segredo de negócio, o que impede o escrutínio público e judicial (Hassija et al., 2024).
2
Opacidade Técnica ou Iliteracia
Mesmo que o código fosse aberto, a vasta maioria dos advogados e juízes não possui o conhecimento técnico necessário para o interpretar. A linguagem de programação cria uma barreira de acesso à justiça para quem não domina a tecnologia.
3
Opacidade Intrínseca
Refere-se aos modelos de Deep Learning. Nestes casos, mesmo os programadores que criaram o sistema não conseguem explicar, em termos causais simples, por que razão o algoritmo tomou uma decisão específica num caso concreto (Pêcego & Teixeira, 2024; Deeks, 2019). A decisão emerge de correlações estatísticas complexas e não-lineares, não de raciocínio dedutivo.
Fonte: Sistematização de Pêcego e Teixeira (2024)
Porque a Opacidade é um Veneno Processual
Vieses Ocultos
Impede a identificação de vieses algorítmicos (bias) que penalizam injustamente minorias
Impossibilidade de Recurso
Anula a possibilidade de contestar eficazmente uma decisão sem conhecer os fundamentos
Violação de Direitos
Potencial violação do direito a um processo equitativo e tutela jurisdicional efetiva
Para o Direito, a opacidade é um veneno processual. Impede a identificação de vieses algorítmicos (bias) — por exemplo, um algoritmo que penaliza injustamente minorias com base em correlações espúrias nos dados de treino.
Se não sabemos quais os fatores que pesaram na decisão, não podemos aferir se foram utilizados critérios discriminatórios proibidos por lei. Além disso, a opacidade anula a possibilidade de contestar eficazmente uma decisão.
Como pode um advogado recorrer de uma sentença ou ato administrativo se não conhece os fundamentos de facto e de direito (ou neste caso, de cálculo) que a motivaram?
Explainable AI (xAI): A Solução
Em resposta ao problema da opacidade, surgiu o campo da Explainable AI (XAI). Deeks (2019) define XAI como um conjunto de métodos e técnicas que visam tornar os resultados dos sistemas de IA compreensíveis para os seres humanos. O objetivo não é necessariamente entender toda a complexidade matemática interna, mas fornecer uma justificação inteligível que permita validar a decisão.
Caixa Negra
Sistema opaco e ininteligível
xAI
Métodos de explicação
Justificação
Decisão compreensível e validável
Abordagens de xAI: Modelos e Técnicas
A) Modelos Intrinsecamente Explicáveis (Glass Box)
São modelos mais simples, como árvores de decisão ou regressões lineares, onde a relação entre input e output é transparente. A vantagem é a clareza; a desvantagem é que, frequentemente, estes modelos têm menor capacidade preditiva do que o Deep Learning para problemas complexos. Existe, portanto, um trade-off entre precisão e interpretabilidade (Zednik, 2021).
B) Abordagens Exógenas ou Post-hoc
Estas técnicas tentam explicar modelos de caixa negra sem os abrir. Deeks (2019) subdivide-as em:
  • Model-centric (Interpretabilidade Global): Foca-se em explicar o comportamento geral do modelo, auditando os dados de treino e a lógica global
  • Subject-centric (Interpretabilidade Local): Foca-se em explicar uma decisão específica usando contrafactuais (ex: "Se o rendimento fosse 500€ superior, o empréstimo teria sido aprovado?")
Fonte: Sistematização de Hassija et al. (2024) e Deeks (2019)
Ferramentas Práticas de xAI
SHAP
SHapley Additive exPlanations - calcula a contribuição de cada variável para a decisão final
LIME
Local Interpretable Model-agnostic Explanations - cria modelos substitutos simplificados localmente
Dashboards Jurídicos
Visualizações que indicam peso de cada fator (ex: idade 20%, histórico 50%)
Existem ferramentas técnicas como o SHAP e o LIME que criam "modelos substitutos" simplificados para aproximar e explicar o comportamento de modelos complexos numa vizinhança local (Hassija et al., 2024). Para juristas, estas ferramentas podem traduzir-se em visualizações que permitem uma base racional para a litigância.
Enquadramento Regulatório Europeu
1
RGPD (2016/679)
Artigos 13.º, 14.º, 15.º e 22.º estabelecem o "direito à explicação" para decisões automatizadas que afetem significativamente a esfera jurídica do indivíduo
2
AI Act (2024/1689)
Artigo 50.º impõe obrigações de transparência. Para sistemas de "alto risco" (justiça e administração), exige registos técnicos detalhados e rastreabilidade (Pavlidis, 2024)
Princípios Constitucionais Portugueses
No ordenamento jurídico português, a opacidade algorítmica encontra barreiras constitucionais. O dever de fundamentação das decisões judiciais e administrativas (Artigo 205.º e 268.º da Constituição da República Portuguesa) não se compadece com respostas do tipo "o computador disse que sim".
A fundamentação deve ser acessível, clara e congruente. Uma decisão baseada numa caixa negra viola o princípio do contraditório, uma vez que a parte vencida não pode contra-argumentar uma lógica que desconhece.
Pêcego e Teixeira (2024) argumentam que a explicabilidade não é apenas uma característica técnica desejável, mas um requisito de validade jurídica do ato decisório.
Conclusão: A Ponte Entre Eficiência e Justiça
A integração da Inteligência Artificial no domínio jurídico é irreversível, mas a sua legitimidade depende inteiramente da capacidade de iluminar a "caixa negra". Para os advogados portugueses, a opacidade algorítmica não é um mero detalhe técnico, mas uma questão de soberania jurídica e defesa dos direitos fundamentais. A tecnologia não pode ser um manto de invisibilidade para o arbítrio.
XAI como Ponte
A explicabilidade traduz complexidade matemática em linguagem jurídica, restaurando contraditório e fundamentação
Papel Ativo
A classe jurídica deve exigir sistemas "transparentes por design" (transparent by design)
Armas do Século XXI
Formação contínua, vigilância ética e domínio do AI Act garantem que a Justiça continue humana
Conclui-se que a explicabilidade (XAI) é a ponte necessária entre a eficiência computacional e a justiça humana. No entanto, a tecnologia por si só não basta. É imperativo que a classe jurídica portuguesa assuma um papel ativo para garantir que, na era dos algoritmos, a Justiça continue a ser feita por e para humanos.

Referências Bibliográficas
IBM (2024). What Is a Neural Network? IBM Think Topics. https://www.ibm.com/think/topics/neural-networks
IBM (2024). What is Explainable AI (XAI)? IBM Think Topics. https://www.ibm.com/think/topics/explainable-ai
OECD (2019). Artificial Intelligence in Society. OECD Publishing. https://doi.org/10.1787/eedfee77-en
União Europeia (2016). Regulamento (UE) 2016/679 (RGPD). Jornal Oficial da União Europeia, L 119.
União Europeia (2024). Regulamento (UE) 2024/1689 (AI Act). Jornal Oficial da União Europeia, L 1689.

Juristech.pt — Onde a Tecnologia encontra o Direito
© 2026 Luís Nuno Perdigão