O Panótico Digital
Como a IA está a transformar a supervisão de
infratores em Portugal
Por Luís Nuno Perdigão
28/JAN/2026
Powered by
Contexto
Uma Transição Paradigmática na Justiça Criminal
A administração da justiça criminal encontra-se num ponto de inflexão histórica, impulsionada pela convergência entre a digitalização massiva de dados e o avanço das capacidades preditivas da Inteligência Artificial (IA). Em Portugal, tal como no resto da Europa, a gestão de penas e a supervisão de infractores estão a transitar de modelos puramente reativos e baseados no confinamento físico para modelos proativos, fundamentados na análise de dados e na avaliação algorítmica de riscos.
Este fenómeno não representa apenas uma modernização técnica, mas uma reconfiguração profunda das relações de poder e vigilância dentro do Estado de Direito. A transição digital oferece promessas de eficiência e reinserção social, mas também levanta questões fundamentais sobre autonomia individual, transparência dos mecanismos de controlo estatal e a proteção dos direitos fundamentais.

Objetivo do Artigo
Examinar como as novas tecnologias de IA estão a ser integradas na supervisão de infractores, analisando não apenas as promessas de eficiência, mas também os riscos éticos e jurídicos evidenciados pela experiência internacional.
Teoria
Do Panótico de Bentham ao Panótico Digital
01
Panótico Original (Séc. XVIII)
Jeremy Bentham (1748-1832) idealizou uma estrutura arquitetónica onde um único vigilante podia observar todos os reclusos sem que estes soubessem se estavam a ser observados. A disciplina era mantida pela interiorização da vigilância.
02
Teoria Foucaultiana (1975)
Michel Foucault (1925-1984), em Vigiar e Punir, descreveu como esta estrutura induzia um estado consciente de visibilidade permanente que assegurava o funcionamento automático do poder.
03
Panótico Digital (Séc. XXI)
A arquitetura física dissolveu-se em redes de dados. A vigilância baseia-se na recolha, agregação e análise contínua de dados digitais, dispersa e omnipresente.
04
IA e Previsão (Atualidade)
Não se trata apenas de vigiar o presente, mas de prever o futuro — a reincidência, o risco de fuga ou o comportamento violento. O sujeito vigiado torna-se um conjunto de dados estatísticos.
"O 'olhar' do algoritmo é invisível e, frequentemente, inescrutável, transformando o sujeito vigiado num conjunto de dados estatísticos (dataficação), cujas variáveis determinam o seu grau de liberdade."
Portugal
Da Pulseira ao Algoritmo: A Evolução Portuguesa
Portugal possui um histórico consolidado na utilização de tecnologias de monitorização, sendo pioneiro na Europa na implementação da vigilância eletrónica (comumente conhecida como "pulseira eletrónica") como alternativa à prisão preventiva e para a execução de penas. A Direção-Geral de Reinserção e Serviços Prisionais (DGRSP) gere um sistema robusto que tem permitido reduzir a sobrelocação prisional e promover a reinserção social em meio livre.
Vigilância Eletrónica Tradicional
Sistema de pulseiras eletrónicas gerido pela DGRSP como alternativa à prisão
Transição para IA
Salto qualitativo impulsionado pela inovação no setor privado
Gestão Inteligente
Sistemas que acompanham todo o ciclo de vida da pena
Horus 360°: O Sistema Português de IA
O sistema Horus 360°, desenvolvido pela empresa portuguesa IPS – Innovative Prison Systems, sediada na Covilhã, apresenta-se como uma solução inteligente de gestão de infractores (iOMS – Intelligent Offender Management System), desenhada para acompanhar todo o ciclo de vida da pena, desde a detenção até à reinserção.
Nota de atualização (janeiro de 2026): Em dezembro de 2025, foi anunciado que a primeira implementação real do Horus 360° terá lugar em janeiro de 2026 na América do Sul, após vários pilotos bem-sucedidos na Europa. O investimento global no projeto ascende a cerca de 11 milhões de euros até 2028.
Funcionalidades
Capacidades do Horus 360°
Avaliação de Riscos
Análise de grandes volumes de dados para apoiar a tomada de decisão dos profissionais de justiça
Programas Personalizados
Sugestão de programas de reabilitação adaptados ao perfil individual
Predição de Eventos
Antecipação de tentativas de suicídio, violência entre reclusos ou risco de fuga
Integração de Dados
Criação de perfis dinâmicos através de informações comportamentais, clínicas e criminais
Segundo Pedro das Neves, CEO da IPS, ferramentas como o Horus 360° não visam substituir o juízo humano, mas sim capacitá-lo com evidências baseadas em dados, contribuindo para uma sociedade mais segura e justa. No entanto, a implementação de tais sistemas coloca Portugal na fronteira da chamada "justiça preditiva", uma área que acarreta riscos substanciais.
Casos Internacionais
Lições do Estrangeiro: Os Perigos da "Caixa Negra"
Para avaliar criticamente o impacto da IA na justiça criminal portuguesa, é imperativo analisar as experiências internacionais onde estas tecnologias já foram amplamente testadas. Dois casos paradigmáticos servem como alertas sobre os perigos da implementação acrítica de algoritmos de avaliação de risco.
COMPAS (EUA)
Sistema de avaliação de risco de reincidência com viés racial comprovado
HART (Reino Unido)
Ferramenta com discriminação geográfica baseada em códigos postais
O Caso COMPAS: Viés Racial nos EUA
O sistema COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) é utilizado em vários estados norte-americanos para avaliar o risco de reincidência de réus, influenciando decisões sobre fianças e sentenças.
Em 2016, uma investigação da ProPublica revelou que o algoritmo exibia um viés racial significativo:
  • Réus negros eram frequentemente classificados como de "alto risco" de reincidência, mesmo quando não voltavam a cometer crimes (falsos positivos)
  • Réus brancos eram mais frequentemente classificados como de "baixo risco", mesmo quando reincidiam (falsos negativos)
O problema era agravado pela opacidade do algoritmo — uma "caixa negra" proprietária cujos mecanismos internos não podiam ser auditados pelo público ou pelos advogados de defesa.
45%
Falsos Positivos
Réus negros incorretamente classificados como alto risco
23%
Falsos Positivos
Réus brancos incorretamente classificados como alto risco

Fonte: Angwin, J., Larson, J., Mattu, S., & Kirchner, L. (2016). Machine Bias. ProPublica.
O Caso HART: Discriminação Geográfica no Reino Unido
No Reino Unido, a Polícia de Durham implementou a ferramenta HART (Harm Assessment Risk Tool) para auxiliar na decisão de manter suspeitos sob custódia ou encaminhá-los para programas de reabilitação.
1
Implementação Inicial
O algoritmo utilizava dados demográficos baseados em códigos postais fornecidos pela empresa de marketing Experian através do sistema "Mosaic"
2
Denúncia (2018)
A organização Big Brother Watch denunciou que a utilização destes dados introduzia um viés socioeconómico, penalizando indivíduos de áreas mais pobres
3
Correção (Abril 2018)
Após a investigação, a Polícia de Durham removeu os dados da Experian do sistema HART
"O sistema aprendia com dados históricos de policiamento, que já continham preconceitos implícitos sobre quais as comunidades mais 'criminosas'."
Fonte: Big Brother Watch (2018, 2019). Police use Experian Marketing Data for AI Custody Decisions.
Desafios Éticos
Três Riscos Fundamentais da IA na Justiça
1. Opacidade e Explicabilidade
Se um sistema sugere que um recluso tem alto risco de suicídio ou de violência, com base em correlações complexas que nem os programadores conseguem explicar totalmente, como pode essa decisão ser contestada? A opacidade algorítmica colide com o direito ao devido processo legal e ao dever de fundamentação das decisões judiciais e administrativas.
2. Vieses e Discriminação
Os algoritmos de IA são treinados com dados históricos. Se o sistema de justiça criminal português tiver, historicamente, policiado ou condenado desproporcionalmente certos grupos (como minorias étnicas ou comunidades desfavorecidas), a IA irá aprender e amplificar esses padrões. Existe o risco real de automatizar o preconceito sob uma capa de neutralidade tecnológica e científica.
3. Determinismo Tecnológico
A CEPEJ (2018), na sua Carta Ética, alerta para o risco do determinismo. A utilização de estatísticas para prever o comportamento individual pode minar o princípio da individualização da pena. Tratar um ser humano com base no que "pessoas como ele" fizeram no passado, e não com base nos seus atos concretos, é uma afronta à dignidade humana e à presunção de inocência.
Regulação
O Enquadramento Legal Europeu
A União Europeia tem liderado o esforço global para regular a Inteligência Artificial, estabelecendo um quadro jurídico que procura equilibrar inovação e direitos fundamentais.
RGPD (Vigente)
O Regulamento Geral sobre a Proteção de Dados estabelece salvaguardas importantes, nomeadamente no Artigo 22.º, que confere o direito de não ficar sujeito a decisões tomadas exclusivamente com base no tratamento automatizado.
AI Act (2024)
Regulamento Inteligência Artificial (Regulamento (UE) 2024/1689) classifica os sistemas de IA utilizados na administração da justiça e na aplicação da lei como sistemas de "Risco Elevado" , impondo obrigações rigorosas.
Carta Ética CEPEJ (2018)
Carta Ética Europeia sobre o Uso da Inteligência Artificial em Sistemas Judiciais estabelece princípios fundamentais para a implementação responsável.
Obrigações do AI Act para Sistemas de Risco Elevado
O AI Act impõe obrigações rigorosas aos desenvolvedores e utilizadores de sistemas de IA na justiça criminal:
1
Qualidade dos Dados
Garantia de qualidade e governança dos dados para evitar vieses discriminatórios
2
Transparência
Prestação de informações claras aos utilizadores sobre o funcionamento do sistema
3
Supervisão Humana
Supervisão humana efetiva durante todo o funcionamento do sistema
4
Robustez e Segurança
Garantias de robustez, precisão e cibersegurança em todas as operações

Nota Importante: O Parlamento Europeu tem manifestado preocupações específicas sobre o uso de IA no direito criminal, defendendo a proibição de certas práticas de "policiamento preditivo" que se baseiem exclusivamente em perfis ou características de personalidade (Resolução 2020/2016(INI), 2021).
Portugal
Implicações para Portugal
Para Portugal, o enquadramento europeu significa que a adoção de sistemas como o Horus 360° não pode ser feita de forma leviana. A implementação de IA nas prisões portuguesas deverá ser precedida de avaliações de impacto rigorosas (DPIA) e garantir que a decisão final sobre a liberdade ou as condições de detenção de um cidadão permaneça inequivocamente humana.
A Comissão Nacional de Proteção de Dados (CNPD) tem mantido uma postura vigilante, alertando frequentemente para os riscos da videovigilância e do tratamento de dados sensíveis.
DPIA Obrigatória
Avaliações de impacto sobre a proteção de dados antes da implementação
Vigilância da CNPD
Supervisão contínua sobre tratamento de dados sensíveis
Alerta
O Viés de Automação
Um dos riscos mais subtis e perigosos da implementação de IA na justiça criminal é o chamado viés de automação — a tendência humana para confiar excessivamente nas recomendações de sistemas automatizados.
Sistema Recomenda
O algoritmo sugere uma decisão baseada em dados
Humano Confia
O profissional tende a aceitar sem questionar
Decisão Automatizada
Na prática, a máquina decide, o humano apenas carimba
Ciclo Reforça-se
O padrão perpetua-se e amplifica-se
"A supervisão de infrações envolve frequentemente uma interação homem-máquina onde o humano pode, na prática, limitar-se a carimbar a decisão da máquina."
Dataficação do Ser Humano
A introdução da IA na justiça criminal transforma fundamentalmente a forma como os indivíduos são percebidos e tratados pelo sistema. O conceito de dataficação descreve o processo pelo qual um ser humano complexo, com história, contexto e potencial de mudança, é reduzido a um conjunto de variáveis estatísticas.
1
2
3
4
5
1
Identidade
2
Contexto Social
3
História Pessoal
4
Dados Comportamentais
5
Variáveis Estatísticas
Esta redução levanta questões profundas sobre dignidade humana, autonomia e o direito a ser tratado como indivíduo único, não como membro de uma categoria estatística. A capacidade de mudança e redenção — fundamental para qualquer sistema de justiça que se pretenda reabilitador — pode ser negada por algoritmos que veem apenas padrões do passado.
Conclusões
O Panótico Digital é uma Realidade Emergente
A transição digital dos serviços prisionais e de reinserção em Portugal oferece oportunidades inegáveis para melhorar a eficiência administrativa e, potencialmente, humanizar o cumprimento de penas através de uma melhor adequação das medidas de reabilitação. No entanto, a tecnologia não é neutra.
Oportunidades
  • Eficiência administrativa melhorada
  • Personalização de programas de reabilitação
  • Redução da sobrelocação prisional
  • Melhor alocação de recursos
Riscos
  • Perpetuação de desigualdades existentes
  • Opacidade decisória e falta de transparência
  • Erosão da privacidade e dignidade
  • Automatização da discriminação
A análise dos casos internacionais e da literatura teórica demonstra que a introdução da IA na justiça criminal acarreta riscos elevados. Em Portugal, a fascinação pela modernização tecnológica não deve sobrepor-se aos imperativos constitucionais.
Recomendações
Quatro Pilares para uma IA Ética na Justiça
1
Supervisão Humana Significativa
Garantir que os sistemas de IA funcionem apenas como ferramentas de apoio e nunca como substitutos do juízo humano, com mecanismos claros para os profissionais divergirem das recomendações algorítmicas.
2
Auditoria Algorítmica Independente
Estabelecer a obrigatoriedade de auditorias externas regulares aos algoritmos utilizados pelo Estado, verificando a existência de vieses discriminatórios e a qualidade dos dados de treino.
3
Transparência Radical
Assegurar que os advogados de defesa e os arguidos tenham acesso à lógica de funcionamento dos sistemas que avaliam o seu risco, combatendo o efeito "caixa negra".
4
Formação Especializada
Capacitar magistrados, guardas prisionais e técnicos de reinserção para compreenderem as limitações da IA e evitarem o viés de automação.
Reflexão Final: Libertar ou Aprisionar?
"Apenas através de uma regulação ética e jurídica robusta será possível garantir que a IA na justiça portuguesa sirva para libertar e reabilitar, e não apenas para aperfeiçoar, digitalmente, as jaulas do panóptico."
O desafio que se coloca a Portugal não é tecnológico, mas fundamentalmente ético e político. A questão não é se devemos usar IA na justiça criminal, mas como fazê-lo de forma que respeite a dignidade humana, proteja os direitos fundamentais e promova uma sociedade verdadeiramente justa.
A história demonstra que as ferramentas de controlo social, por mais sofisticadas que sejam, podem servir tanto a opressão como a libertação. A escolha é nossa.
Referências
Referências Bibliográficas (1/2)
  • AI Act (2024). Regulamento (UE) 2024/1689 do Parlamento Europeu e do Conselho, de 13 de junho de 2024, que estabelece regras harmonizadas em matéria de inteligência artificial. Jornal Oficial da União Europeia, L 2024/1689.
  • Das Neves, P. (2024). Entrevistas e declarações sobre o Horus 360° iOMS. Justice Trends Magazine e ECO. https://prisonsystems.eu/
Referências
Referências Bibliográficas (2/2)
  • Foucault, M. (1975/2013). Vigiar e Punir: Nascimento da prisão (R. Ramalhete, Trad.). Petrópolis: Vozes.
  • Parlamento Europeu (2021, 6 de outubro). Resolução 2020/2016(UNI) sobre a inteligência artificial no direito penal e a sua utilização pelas autoridades policiais e judiciárias em matéria penal. Jornal Oficial da União Europeia, C 456/34.

Juristech.pt - Onde a Tecnologia encontra o Direito
© 2026 Luís Nuno Perdigão