Close Menu

    Subscribe to Updates

    Get the latest creative news from FooBar about art, design and business.

    What's Hot

    A IA precisa do seu 25 de Abril?

    Abril 25, 2026

    O homem que desenhou o cérebro: como Santiago Ramón y Cajal ajudou a fundar, sem o saber, a inteligência artificial

    Abril 23, 2026

    ChatGPT ou Claude para advogados: qual escolher?

    Abril 20, 2026
    Facebook X (Twitter) Instagram
    JuristechJuristech
    • IA sem filtro
    • IA e Direito
    • Regulamentação
    • LegalTech
    • Descomplicar o Direito e a IA
    • Sobre
    Facebook X (Twitter) Instagram
    JuristechJuristech
    Início » Quando o Algoritmo Discrimina: IA e Viés de Género
    IA sem filtro

    Quando o Algoritmo Discrimina: IA e Viés de Género

    Luís Nuno PerdigãoPor Luís Nuno PerdigãoMarço 8, 2026Updated:Março 31, 2026Sem comentários17 Mins Read
    Facebook Twitter Pinterest Telegram LinkedIn Tumblr WhatsApp Email
    Partilhar
    Facebook Twitter LinkedIn Pinterest Telegram Email

    A inteligência artificial prometia decisões objetivas. Em vez disso, está a reproduzir e amplificar décadas de discriminação contra mulheres — no emprego, no crédito, na saúde e até na forma como somos descritos por uma máquina.

    Introdução: A objetividade que nunca existiu

    Há uma narrativa persistente sobre a inteligência artificial: a de que os algoritmos, por serem máquinas, decidem sem preconceitos. Livres das emoções, dos estereótipos e dos vieses inconscientes que contaminam as decisões humanas, os sistemas de IA seriam, por definição, mais justos. É uma narrativa reconfortante. É também profundamente errada.

    A investigação científica dos últimos anos demonstrou, de forma inequívoca, que os sistemas de inteligência artificial não apenas reproduzem as desigualdades de género existentes na sociedade, como as amplificam. Desde ferramentas de recrutamento que penalizam currículos de mulheres até algoritmos de crédito que atribuem limites inferiores a mulheres com melhores scores financeiros, passando por modelos de linguagem que associam sistematicamente as mulheres a papéis domésticos e os homens a carreiras de prestígio, o viés algorítmico de género é hoje um dos desafios mais urgentes na interseção entre tecnologia, direito e direitos fundamentais.

    Neste 8 de Março, Dia Internacional da Mulher, importa analisar como isto acontece, o que dizem os casos concretos, o que prevê o enquadramento regulatório europeu e, sobretudo, o que significa para os advogados portugueses que já utilizam, ou aconselham clientes que utilizam, ferramentas baseadas em IA.

    1. Os casos que abalaram a narrativa da neutralidade algorítmica

    Amazon: quando o algoritmo aprendeu a descartar mulheres

    O caso mais emblemático de discriminação algorítmica de género no recrutamento remonta a 2014, quando a Amazon desenvolveu uma ferramenta de IA para automatizar a triagem de currículos. O sistema foi treinado com base nos currículos recebidos pela empresa ao longo de dez anos. Uma década em que a esmagadora maioria dos candidatos a funções técnicas eram homens.

    O resultado foi previsível em retrospectiva, mas devastador na prática: o algoritmo aprendeu que o perfil de sucesso era masculino. Currículos que continham a palavra “women’s”, como em “women’s rugby team” ou “women’s chess club captain”, eram penalizados. Candidatas que tinham frequentado universidades exclusivamente femininas eram desclassificadas. O sistema favorecia ainda verbos tipicamente encontrados em currículos masculinos de engenharia, como “executed” (executaram) e “captured” (capturaram).

    O que aconteceu

    A Amazon tentou corrigir o sistema, neutralizando termos diretamente ligados ao género. Mas perdeu confiança de que o algoritmo fosse verdadeiramente neutro em todas as dimensões e abandonou o projecto em 2015. O caso só se tornou público em 2018, quando a Reuters o reportou, e transformou-se rapidamente num exemplo típico de como os dados históricos enviesados contaminam as decisões automatizadas.

    A explicação da investigadora

    Como explicou a investigadora Sandra Wachter, da Universidade de Oxford, ao Business Insider: “You ask the question who has been the most successful candidates in the past […] and the common trait will be somebody that is more likely to be a man and white.” (“Perguntas quem foram os melhores candidatos do passado […] e o traço comum será alguém que tem maior probailidade de ser masculino e branco.”)

    O algoritmo não inventou um preconceito: absorveu o que encontrou nos dados e sistematizou-o com uma eficiência que nenhum recrutador humano conseguiria igualar.

    Business Insider, 13 de Outubro de 2018.

    Apple Card: crédito 20 vezes inferior para a mulher com melhor score

    Em Novembro de 2019, o programador David Heinemeier Hansson publicou no Twitter (agora X) que o Apple Card, o cartão de crédito da Apple, gerido pelo Goldman Sachs, lhe havia concedido um limite de crédito 20 vezes superior ao da sua mulher. Os dois partilhavam activos, apresentavam declarações fiscais conjuntas e, detalhe crucial, ela tinha um score de crédito superior ao dele.

    O caso tornou-se viral quando Steve Wozniak, co-fundador da Apple, confirmou uma situação semelhante: o seu limite era 10 vezes superior ao da mulher, apesar de o casal não ter contas nem ativos separados.

    Limite de crédito superior

    Concedido ao marido face à mulher com score mais elevado

    Caso Wozniak

    Limite do co-fundador da Apple face ao da sua mulher

    Ano do escândalo

    Novembro de 2019, quando o caso se tornou público e viral

    A investigação do NYDFS e a discriminação indireta

    A investigação subsequente do New York Department of Financial Services (NYDFS) revelou que, embora o Goldman Sachs não utilizasse o género como variável direta no algoritmo de decisão de crédito, os factores utilizados (como o historial de crédito individual) tendiam a desfavorecer mulheres cujos cartões anteriores eram suplementares às contas dos maridos. O resultado prático era discriminação indireta: o algoritmo não “sabia” o género do requerente, mas as variáveis que utilizava funcionavam como substitutos do género.

    Os algoritmos não têm imunidade face à discriminação. Quer a intenção exista ou não, o impacto desproporcionado é ilegal.

    — Linda Lacewell, Superintendente do NYDFS. (Paráfrase)

    Esta frase deveria estar afixada em todos os departamentos de compliance.

    Saúde: o viés que pode custar vidas

    A discriminação algorítmica contra mulheres na saúde é particularmente insidiosa porque as suas consequências podem ser fatais. Algoritmos de diagnóstico treinados com dados historicamente enviesados — resultantes de décadas de exclusão ou sub-representação de mulheres em ensaios clínicos — podem falhar na identificação de sintomas que se manifestam de forma diferente em mulheres.

    A investigação tem demonstrado que algoritmos de triagem médica podem subestimar a gravidade de condições cardiovasculares em mulheres, precisamente porque os dados de treino reflectem um modelo de doença calibrado para o corpo masculino.

    Dados enviesados

    Décadas de exclusão ou sub-representação de mulheres em ensaios clínicos contaminam os dados de treino dos algoritmos de diagnóstico.

    Sintomas invisíveis

    Algoritmos podem falhar na identificação de sintomas que se manifestam de forma diferente em mulheres.

    Risco cardiovascular

    Algoritmos de triagem médica podem subestimar a gravidade de condições cardiovasculares em mulheres.

    O estudo mais influente sobre viés algorítmico na saúde — Obermeyer et al., publicado na Science em 2019 — demonstrou que um algoritmo utilizado para gerir a saúde de populações nos EUA, e que afetava milhões de pacientes, discriminava sistematicamente pacientes negros ao utilizar custos de saúde como proxy de necessidades clínicas. O mecanismo (a utilização de variáveis proxy que refletem desigualdades estruturais) é transversal e afeta igualmente o viés de género: décadas de exclusão ou subrepresentação de mulheres em ensaios clínicos contaminam os dados de treino de algoritmos de diagnóstico, com consequências potencialmente fatais.

    LLMs: quando a linguagem é o viés

    Se os casos do recrutamento e do crédito envolvem decisões concretas com impacto material, a discriminação nos grandes modelos de linguagem (LLMs) opera a um nível mais subtil mas igualmente consequente: o da perceção, da representação e da formação de expectativas.

    Um estudo da UNESCO publicado em Março de 2024, intitulado Challenging Systematic Prejudices: An Investigation into Bias Against Women and Girls in Large Language Models, examinou os modelos GPT-3.5, GPT-2 e Llama 2. Os resultados são inequívocos:

    Nomes femininos associados a:

    “família”, “filhos”, “marido”

    Nomes masculinos associados a:

    “carreira”, “executivo”, “salário”, “empresa”

    Narrativas masculinas vs. femininas nos LLMs

    Narrativas masculinas

    Quando se pediu ao Llama 2 que gerasse histórias sobre homens e mulheres, as narrativas masculinas eram dominadas por palavras como “treasure”, “woods”, “sea” e “adventurous”.

    Narrativas femininas

    As femininas gravitavam em torno de “garden”, “love”, “gentle” e “husband”. Mulheres foram descritas em papéis domésticos quatro vezes mais frequentemente do que homens.

    Mais alarmante ainda: em cerca de 20% dos casos em que o Llama 2 foi solicitado a completar frases começando com uma referência ao género feminino, o modelo gerou conteúdo sexista ou misógino.

    Quando foram solicitados a associar profissões a géneros, os LLMs de código aberto tendiam a atribuir aos homens profissões diversificadas e de alto estatuto — engenheiro, médico, professor — enquanto relegavam as mulheres para funções tradicionalmente desvalorizadas ou estigmatizadas: empregada doméstica, cozinheira e, num dado que deveria chocar qualquer leitor, “prostituta”.

    O ciclo vicioso da discriminação algorítmica

    Um estudo publicado na Nature (Guilbeault et al., 2025) demonstrou que as pesquisas de imagens do Google pelo termo “person” em diferentes países refletem o grau de desigualdade de género existente nessa sociedade e que a exposição a esses resultados enviesados influencia os utilizadores a pensar e agir de formas que reforçam essa desigualdade.

    Estamos perante um ciclo vicioso: a sociedade gera dados enviesados, os algoritmos aprendem e amplificam esses vieses, os utilizadores absorvem as representações enviesadas e reforçam os padrões que alimentam os dados. O algoritmo não quebra o ciclo da discriminação — acelera-o.

    2. As fontes do viés: não é um problema, são vários

    A discriminação algorítmica de género não tem uma causa única. Resulta da convergência de múltiplos fatores que se reforçam mutuamente.

    Dados de treino enviesados

    É a causa mais frequentemente citada e a mais intuitiva. Se um sistema de IA é treinado com dados que refletem décadas de desigualdade — CVs de uma indústria dominada por homens, decisões de crédito tomadas em contextos patriarcais, textos escritos maioritariamente por homens — o modelo aprenderá que o padrão de “sucesso” ou de “normalidade” é masculino. Não é um erro técnico; é uma reprodução fiel de uma realidade injusta.

    Equipas de desenvolvimento homogéneas

    O problema

    Segundo o World Economic Forum, as mulheres representam apenas 29% dos trabalhadores em STEM. Equipas compostas predominantemente por homens têm maior probabilidade de não detetar vieses que afetam mulheres, simplesmente porque esses vieses são invisíveis para quem não os experimenta.

    O reconhecimento regulatório

    O Considerando 165 do EU AI Act reconhece expressamente esta realidade ao recomendar que as equipas de desenvolvimento de IA sejam equilibradas em termos de género.

    Mulheres em STEM

    Percentagem de trabalhadoras femininas no setor, segundo o World Economic Forum

    Homens em STEM

    Maioria que domina as equipas de desenvolvimento de IA a nível global

    Word embeddings e associações semânticas

    Os LLMs aprendem a linguagem através de representações vetoriais (word embeddings) que capturam as associações estatísticas entre palavras em milhões de textos. Se, nesses textos, “enfermeira” aparece mais frequentemente associada a mulheres e “cirurgião” a homens, o modelo internalizará essa associação como se fosse um facto objetivo, e não um reflexo de estereótipos.

    “Enfermeira”

    Associada sistematicamente a mulheres nos textos de treino — o modelo aprende e reproduz esta associação como facto.

    “Cirurgião”

    Associado sistematicamente a homens nos textos de treino — perpetuando estereótipos profissionais de género.

    O modelo internalizará estas associações como se fossem factos objetivos, e não reflexos de estereótipos históricos e sociais.

    Variáveis proxy

    Mesmo quando o género é excluído como variável direta – como no caso do Apple Card – outras variáveis podem funcionar como substitutos indirectos:

    Código postal

    Zonas geográficas podem correlacionar-se com o género e funcionar como proxy discriminatório.

    Tipo de emprego

    Setores de atividade com predominância feminina podem ser penalizados indiretamente.

    Períodos de inatividade

    Frequentemente associados a licenças de maternidade, penalizando mulheres de forma indireta.

    Cartões suplementares

    A titularidade de cartões suplementares às contas dos maridos desfavorece mulheres no historial de crédito.

    O algoritmo não precisa de “saber” o género de alguém para discriminar com base nele.

    Feedback loops (ciclos de retroalimentação)

    Quando um algoritmo enviesado toma decisões — tais como rejeitar candidatas, conceder menos crédito a mulheres, apresentar-lhes anúncios para profissões menos bem pagas — essas decisões geram novos dados que confirmam e reforçam o viés original. A discriminação torna-se auto-sustentável.

    A discriminação algorítmica não é estática — alimenta-se a si própria, tornando-se progressivamente mais enraizada e difícil de detetar e corrigir.

    3. O que diz o direito europeu: AI Act, RGPD e as lacunas que persistem

    O EU AI Act e a questão do género

    O Regulamento (UE) 2024/1689, EU AI Act – Regulamento Inteligência Artificial – é o primeiro quadro regulatório abrangente sobre inteligência artificial a nível mundial. Embora o seu objetivo principal não seja especificamente a igualdade de género, o texto contém disposições relevantes.

    Referências a “bias” ou “biases”

    O termo “vieses” aparece 17 vezes no Regulamento EU AI Act

    Referências a “gender equality”

    “Igualdade de género” é mencionada 4 vezes no texto do Regulamento

    O Considerando 165 recomenda que as equipas de desenvolvimento de IA sejam equilibradas em termos de género. O art. 68.º, n.º 2, parte final, exige que a composição do AI Office respeite o equilíbrio de género.

    As disposições substantivas do AI Act

    Art. 10.º – Governação de dados

    Estabelece requisitos de governação de dados para sistemas de IA de alto risco, exigindo que os dados de treino, validação e teste sejam “relevant, representative, free of errors and complete” (art. 10.º, n.º 3). O art. 10.º, n.º 5 permite o tratamento de categorias especiais de dados pessoais — incluindo dados que revelam o género — quando estritamente necessário para efeitos de monitorização, deteção e correção de vieses em sistemas de IA de alto risco.

    Art. 9.º – Gestão de riscos

    Impõe um sistema de gestão de riscos que deve identificar e avaliar riscos para os direitos fundamentais, incluindo riscos de discriminação.

    Art. 14.º – Supervisão humana

    Exige supervisão humana para sistemas de risco elevado. Uma proteção que, em teoria, permite a deteção de vieses antes que produzam efeitos.

    As insuficiências reconhecidas

    A doutrina tem identificado várias lacunas relevantes no EU AI Act:

    Não impõe auditorias de género interseccionais obrigatórias (art. 17.º).

    Não prevê mecanismos de reparação individual robustos para vítimas de discriminação algorítmica.

    Está mais orientado para a conformidade dos fornecedores do que para a proteção dos utilizadores.

    Não garante diversidade nos dados de treino; apenas a exige de forma genérica.

    Não fornece soluções técnicas concretas para o cumprimento das suas disposições, o que pode dificultar a tradução das normas em práticas efetivas.

    O Parlamento Europeu, através das comissões LIBE e FEMM, tentou reforçar as dimensões anti-discriminação durante a negociação legislativa, mas o resultado final é, como a doutrina tem sublinhado, mais orientado para compliance do que para a justiça algorítmica.

    A tensão com o RGPD

    Existe uma tensão entre o AI Act e o RGPD que afecta directamente a capacidade de detetar e corrigir vieses de género. Para verificar se um algoritmo discrimina mulheres, é necessário tratar dados sobre o género das pessoas — dados que o art. 9.º do RGPD classifica como dados pessoais protegidos.

    O dilema das organizações

    Não testar os algoritmos para viés de género pode violar o AI Act; testar pode implicar tratar dados que o RGPD restringe.

    Uma interpretação promissora

    Em Setembro de 2024, a Autoridade de Proteção de Dados belga, na sua brochura Artificial Intelligence Systems and the GDPR – A Data Protection Perspective*, sublinhou que a correção de vieses nos dados de treino é consistente com o princípio do tratamento leal de dados consagrado no RGPD

    O art. 10.º, n.º 5 do AI Act tenta resolver esta tensão ao permitir o tratamento de categorias especiais de dados para efeitos de monitorização de vieses, mas a articulação concreta com o RGPD permanece incerta.

    O Conselho da Europa e a FRA

    Em Janeiro de 2026, o Conselho da Europa publicou dois documentos relevantes:

    Relatório sobre proteção jurídica

    Um relatório sobre a proteção jurídica contra a discriminação algorítmica na Europa, identificando lacunas nos quadros legais existentes — disponível em português.

    Orientações para organismos nacionais

    Orientações para organismos nacionais de igualdade sobre como abordar a discriminação por IA — também disponíveis em português.

    Relatório da FRA

    A Agência dos Direitos Fundamentais da UE (FRA) publicou igualmente um relatório sobre viés algorítmico que demonstra como os algoritmos de detecção de discurso de ódio contêm viés significativo com base no género, origem étnica, religião e orientação sexual.

    4. O que isto significa para os advogados portugueses

    Due diligence tecnológica como dever profissional

    Para os advogados portugueses, a discriminação algorítmica de género não é um tema abstrato ou meramente académico. É uma realidade que exige atuação concreta em pelo menos três dimensões:

    Na utilização das suas próprias ferramentas

    Quando um escritório de advocacia utiliza ferramentas de IA para triagem de candidatos, análise de contratos, ou pesquisa jurisprudencial, tem o dever de compreender os riscos de viés dessas ferramentas. A utilização acrítica de uma ferramenta de IA que produza resultados enviesados pode constituir violação do dever de diligência profissional.

    No aconselhamento a clientes

    Empresas que utilizam sistemas de IA em processos de recrutamento, concessão de crédito, seguros ou saúde precisam de aconselhamento jurídico sobre as obrigações decorrentes do AI Act.

    No contencioso

    A discriminação algorítmica poderá dar origem a acções judiciais ao abrigo do quadro jurídico português de igualdade e não discriminação.

    Dimensões do aconselhamento jurídico

    Empresas que utilizam sistemas de IA em processos de recrutamento, concessão de crédito, seguros ou saúde precisam de aconselhamento jurídico sobre as obrigações decorrentes do AI Act, nomeadamente:

    Art. 27.º

    Avaliações de impacto nos direitos fundamentais

    Art. 9.º

    Gestão de riscos

    Art. 10.º

    Governação de dados

    O advogado que não conheça estes requisitos não estará em condições de prestar esse aconselhamento.

    No contencioso, a discriminação algorítmica poderá dar origem a acções judiciais ao abrigo do quadro jurídico português de igualdade e não discriminação, incluindo o Código do Trabalho (arts. 23.º a 32.º), a Lei n.º 93/2017 (que transpõe as diretivas europeias anti-discriminação), e o próprio RGPD. A prova de discriminação algorítmica levanta desafios específicos, nomeadamente o acesso ao código e aos dados de treino, que exigem preparação técnica adequada.

    Ações concretas para advogados portugueses

    Recomendações práticas para advogados portugueses neste contexto:

    Documentar a due diligence

    Documentar a due diligence realizada sobre qualquer ferramenta de IA utilizada no escritório ou recomendada a clientes.

    Exigir informação aos fornecedores

    Exigir informação sobre medidas de mitigação de viés adotadas pelos fornecedores.

    Acompanhar o AI Act em Portugal

    Estar atento à implementação faseada do AI Act em Portugal e à eventual criação de uma autoridade nacional de supervisão.

    Seguir a jurisprudência europeia

    Acompanhar a jurisprudência europeia emergente sobre discriminação algorítmica.

    Incluir cláusulas contratuais

    Incluir cláusulas de auditoria e responsabilidade por viés algorítmico nos contratos de aquisição ou licenciamento de ferramentas de IA.

    Conclusão: O algoritmo não é neutro e a responsabilidade é humana

    A ideia de que a inteligência artificial decide sem preconceitos é um mito perigoso. Os algoritmos aprendem com dados gerados por uma sociedade com milénios de desigualdade de género. Sem intervenção deliberada, consciente e regulamentada, a IA não corrige essas desigualdades. Sistematiza-as, escala-as e confere-lhes uma aparência de objetividade que as torna mais difíceis de contestar.

    Neste 8 de março, a mensagem é clara: a luta pela igualdade de género tem agora uma frente digital. E os advogados e advogadas, como garantes dos direitos fundamentais, têm nela um papel insubstituível.

    Referências e Fontes

    UNESCO/IRCAI, Challenging Systematic Prejudices: An Investigation into Bias Against Women and Girls in Large Language Models, Março 2024 — IRCAI | UNESCO Digital Library | PDF

    Dastin, J., “Amazon Scraps Secret AI Recruiting Tool That Showed Bias Against Women”, Reuters, 10 de Outubro de 2018 — Reuters (via Euronews)

    Goodman, R., “Why Amazon’s Automated Hiring Tool Discriminated Against Women”, ACLU, 12 de Outubro de 2018 — ACLU

    NYDFS, Report on Apple Card Investigation, Março 2021 — Comunicado NYDFS | Relatório PDF

    Guilbeault, D., Delecourt, S. & Srinivasa Desikan, B., “Age and Gender Distortion in Online Media and Large Language Models”, Nature, vol. 646, pp. 1129–1137, Outubro 2025 — Nature / PMC | Stanford GSB | Berkeley Haas

    Kay, M., Matuszek, C. & Munson, S., “Unequal Representation and Gender Stereotypes in Image Search Results for Occupations”, Proceedings of the 33rd ACM CHI Conference on Human Factors in Computing Systems (CHI ’15), pp. 3819–3828, Abril 2015 — ACM Digital Library | PDF UMBC

    Berkeley Haas Center for Equity, Gender and Leadership (Geena Davis Institute / SSIR), “When Good Algorithms Go Sexist: Why and How to Advance AI Gender Equity”, Stanford Social Innovation Review, 2022 — SSIR | EGAL Resources

    Regulamento (UE) 2024/1689 (EU AI Act) Regulamento Inteligência Artificial — EUR-Lex

    Conselho da Europa, Legal Protection Against Algorithmic Discrimination in Europe: Current Frameworks and Remaining Gaps, Janeiro 2026 — Conselho da Europa | PDF

    FRA — Agência dos Direitos Fundamentais da UE, Bias in Algorithms — Artificial Intelligence and Discrimination, Dezembro 2022 — FRA | PDF

    Lütz, F., “The AI Act, Gender Equality and Non-Discrimination: What Role for the AI Office?”, ERA Forum, vol. 25, pp. 79–95, 2024 — Springer

    Lütz, F., “Gender Equality and Artificial Intelligence in Europe — Addressing Direct and Indirect Impacts of Algorithms on Gender-Based Discrimination”, ERA Forum, vol. 23, pp. 33–52, 2022 — Springer

    Autoridade de Proteção de Dados Belga —autoriteprotectiondonnees.be

    Relatório do Parlamento Europeu sobre Discriminação Algorítmica — PDF

    Partilhar. Facebook Twitter Pinterest LinkedIn Tumblr Email
    Imagem do avatar
    Luís Nuno Perdigão
    • Website
    • LinkedIn

    Advogado português especializado em Direito das tecnologias e inteligência artificial e Direito. Comecei a explorar ferramentas de IA aplicadas ao Direito há alguns anos, primeiro por curiosidade, depois por necessidade profissional. Rapidamente percebi duas coisas: o potencial é enorme, e a informação de qualidade em português é muito escassa. O Juristech.pt é a minha contribuição para mudar isso. Junte-se a mim!

    Artigos Relacionados

    O homem que desenhou o cérebro: como Santiago Ramón y Cajal ajudou a fundar, sem o saber, a inteligência artificial

    Abril 23, 2026

    Chatbots sicofantes e espirais delirantes: até um utilizador racional pode ser enganado

    Abril 12, 2026

    Reflexões e uma Entrevista Íntima com uma IA

    Abril 6, 2026

    O Confronto Pentágono VS Anthropic: A Semana em que a Linha Vermelha Foi Testada

    Março 31, 2026

    As heroínas desconhecidas da tecnologia

    Março 8, 2026

    E-Constituição da República Digital de Noosfera

    Fevereiro 27, 2026
    Deixe o seu comentário Cancel Reply

    Escolhas do editor

    A IA precisa do seu 25 de Abril?

    Abril 25, 2026

    O homem que desenhou o cérebro: como Santiago Ramón y Cajal ajudou a fundar, sem o saber, a inteligência artificial

    Abril 23, 2026

    ChatGPT ou Claude para advogados: qual escolher?

    Abril 20, 2026

    Brasil vs. UE: Duas Abordagens para Regular a Inteligência Artificial

    Abril 18, 2026
    Sobre nós
    Sobre nós

    O portal Juristech.pt é um recurso em linha totalmente em Língua Portuguesa, dedicado a Advogados e Juristas Portugueses e Brasileiros e ainda a estudantes de Direito e público em geral de ambos os Países com interesse no fascinante mundo do Direito e da Inteligência Artificial.

    LinkedIn
    Últimos artigos

    A IA precisa do seu 25 de Abril?

    Abril 25, 2026

    O homem que desenhou o cérebro: como Santiago Ramón y Cajal ajudou a fundar, sem o saber, a inteligência artificial

    Abril 23, 2026

    ChatGPT ou Claude para advogados: qual escolher?

    Abril 20, 2026
    ByTheLaw
    Uso e recomendo a ByTheLaw, uma plataforma LegalTech 100% portuguesa. Não é publicidade.

    É uma ferramenta que uso no meu trabalho e que considero útil para colegas.

    O código LNP10 dá 10% de desconto na assinatura da plataforma ByTheLAw, válido por um ano a partir da ativação. (Consulte os termos e condições da promoção no site.)
    © 2026 Juristech - Todos os direitos reservados.
    • Sobre
    • Política de cookies
    • Ficha técnica
    • Estatuto editorial

    Type above and press Enter to search. Press Esc to cancel.

    Gerir o Consentimento
    Para fornecer as melhores experiências, usamos tecnologias como cookies para armazenar e/ou aceder a informações do dispositivo. Consentir com essas tecnologias nos permitirá processar dados, como comportamento de navegação ou IDs exclusivos neste site. Não consentir ou retirar o consentimento pode afetar negativamante certos recursos e funções.
    Funcional Sempre ativo
    O armazenamento ou acesso técnico é estritamente necessário para o fim legítimo de permitir a utilização de um determinado serviço expressamente solicitado pelo assinante ou utilizador, ou para o fim exclusivo de efetuar a transmissão de uma comunicação numa rede de comunicações eletrónicas.
    Preferências
    O armazenamento ou acesso técnico é necessário para o propósito legítimo de armazenamento de preferências não solicitadas pelo assinante ou utilizador.
    Estatísticas
    O armazenamento técnico ou acesso que é usado exclusivamente para fins estatísticos. O armazenamento técnico ou acesso que é usado exclusivamente para fins estatísticos anónimos. Sem uma intimação, conformidade voluntária por parte do seu Fornecedor de Serviços de Internet ou registos adicionais de terceiros, as informações armazenadas ou recuperadas apenas para esse fim geralmente não podem ser usadas para identificá-lo.
    Marketing
    O armazenamento ou acesso técnico é necessário para criar perfis de utilizador para enviar publicidade ou para rastrear o utilizador num site ou em vários sites para fins de marketing semelhantes.
    • Gerir opções
    • Gerir serviços
    • Gerir {vendor_count} fornecedores
    • Leia mais sobre esses propósitos
    Ver preferências
    • {title}
    • {title}
    • {title}