Este artigo surge no seguimento de uma reportagem recente da SIC Notícias, intitulada “Mulheres estão a ser prejudicadas pela Inteligência Artificial no mercado de trabalho”, que levanta questões fundamentais sobre enviesamentos algorítmicos, desigualdade e o impacto real da IA nos processos de recrutamento e decisão profissional.

https://sicnoticias.pt/especiais/inteligencia-artificial/2025-12-14-video-mulheres-estao-a-ser-prejudicadas-pela-inteligencia-artificial-no-mercado-de-trabalho-1b4e5e5e

Esta reportagem contribui de forma relevante para um debate que consideramos essencial: o facto de os sistemas de inteligência artificial refletirem, e por vezes amplificarem, desigualdades já existentes na sociedade. É a partir desta reflexão que partilhamos a nossa perspetiva enquanto empresa tecnológica que desenvolve e implementa soluções de IA em contexto empresarial.

A inteligência artificial não surge num vazio. Ela aprende connosco, a partir dos nossos dados, das nossas decisões e, inevitavelmente, da nossa história. Por isso, em certa medida, a IA é um reflexo da sociedade que a cria. E é precisamente aí que reside tanto o seu enorme potencial como os seus maiores riscos.

Nos últimos anos, temos assistido a uma adoção acelerada de modelos de IA para executar tarefas, otimizar processos e apoiar decisões críticas dentro das empresas. Esta dependência crescente levanta uma questão essencial: se a IA aprende connosco, o que acontece quando aprende também os nossos enviesamentos, desigualdades e erros históricos?

A IA não cria vieses, mas sim pode amplificá-los

É importante ser claro: a inteligência artificial não cria preconceitos do nada. Ela aprende padrões existentes. O problema surge quando esses padrões refletem desigualdades históricas ou decisões injustas que, se não forem controladas, podem ser amplificadas à escala.

Quando modelos de IA são usados para recrutamento, avaliação de desempenho, atribuição de crédito ou priorização de oportunidades, o risco deixa de ser teórico. Passa a ser real, mensurável e, muitas vezes, invisível.

Essa leitura é, aliás, partilhada por vários especialistas do setor. Nesta reportagem,um membro da equipa da ManPowerGroup em Portugal sintetizou de forma clara aquilo que muitas organizações estão hoje a começar a reconhecer:

“Os enviesamentos algorítmicos são um reflexo dos próprios enviesamentos sociais e humanos. Hoje estamos a discuti-los no mundo digital precisamente porque os modelos de inteligência artificial aprendem com os dados que lhes incorporamos e que podem utilizar. Nesse sentido, se os dados já trazem desigualdades, a IA tende a amplificar essas desigualdades.”

Concordamos plenamente com esta visão. O debate em torno da IA não é apenas tecnológico, é social. O facto de estas questões estarem agora mais visíveis no contexto digital não significa que sejam novas; significa apenas que a escala e o impacto se tornaram impossíveis de ignorar.

A responsabilidade continua a ser humana

Cabe-nos a nós, enquanto pessoas, líderes e organizações, corrigir problemas de desigualdade e garantir que todos são tratados de forma justa e equitativa. A tecnologia pode, e deve, ser uma ferramenta para esse progresso, mas nunca uma desculpa para abdicar da responsabilidade.

Na Genesis Digital Solutions, este princípio não é apenas teórico, mas sim prático e cultural. Um exemplo simples, mas significativo: a melhor pessoa que encontrámos para liderar toda a área tecnológica da empresa foi, não por coincidência, mas por mérito absoluto, a Isabel Rosa. A decisão foi baseada em competência, visão e resultados, exatamente como todas deveriam ser.

Como refere a nossa CTO:

“É importante reconhecer que os modelos fundamentais de inteligência artificial não são neutros por defeito. Eles são treinados com dados que refletem contextos históricos e sociais imperfeitos, o indroduz enviesamentos, incluindo em temas como género, representação e oportunidades. Além disso, as equipas que desenvolvem estas tecnologias nem sempre refletem a diversidade de perspetivas existente na sociedade. Reconhecer esta realidade não é um ato de crítica, é um ponto de partida essencial para construir sistemas de IA mais justos, responsáveis e alinhados com o futuro que queremos criar.”

– Isabel Rosa, CTO

IA em empresas exige safeguards, não apenas performance

À medida que mais empresas recorrem a agentes de inteligência artificial para apoiar processos e decisões, torna-se essencial implementar safeguards claros. Estes mecanismos existem para garantir que os sistemas não reproduzem partes da história da humanidade que queremos, ativamente, deixar para trás.

Falar de ética em IA não é falar de travões à inovação. É falar de qualidade, confiança e sustentabilidade. Um sistema rápido, eficiente e enviesado é, a médio prazo, um risco: legal, reputacional e humano.

Genesis AI: imparcialidade por design

Foi com esta visão que desenvolvemos o Genesis AI. A nossa abordagem parte de um princípio simples, mas rigoroso: a IA deve basear-se apenas nos dados e métricas que lhe são explicitamente fornecidos, e em mais nada.

Isto significa eliminar variáveis irrelevantes, reduzir enviesamentos implícitos e garantir que cada decisão pode ser auditada, explicada e ajustada.

A imparcialidade não é um extra. É uma decisão de arquitetura.

O futuro da IA não é apenas tecnológico


O futuro da inteligência artificial não será definido apenas por modelos mais avançados ou maior capacidade computacional. Será definido pelas escolhas humanas que fazemos hoje: que dados usamos, que decisões automatizamos e que valores incorporamos nos sistemas que construímos.

A IA pode amplificar o melhor de nós, ou o pior. A diferença está na responsabilidade que assumimos ao criá-la, treiná-la e colocá-la em produção.

E essa responsabilidade continua, e continuará sempre, a ser humana.