Com a crescente utilização de inteligência artificial no recrutamento, levantam‑se questões legais e éticas cada vez mais relevantes. O SAPO falou com Catarina Lima Soares, Diretora Jurídica e de Compliance da Adecco Portugal, para perceber como a legislação europeia está a evoluir.
A responsável da Adecco Portugal alerta que o recrutamento é considerado uma área de alto risco pelo AI Act e exige supervisão humana efetiva, auditorias regulares e equipas multidisciplinares capazes de garantir responsabilidade, equidade e cumprimento legal. Defende também que a implementação destas tecnologias deve ser acompanhada de transparência, formação e controlo rigoroso, sobretudo para evitar erros que a inteligência artificial (IA) pode perpetuar de forma permanente.
Ao longo da conversa, Catarina Lima Soares explicou como a lei está a acompanhar o avanço da tecnologia, quais os riscos mais críticos da automação no recrutamento e que cuidados as empresas devem ter na adoção de ferramentas de IA.
Do ponto de vista jurídico e de compliance, como avalia a evolução da utilização da inteligência artificial nos processos de recrutamento em Portugal?
Do ponto de vista jurídico, isto é quase uma armadilha. A inteligência artificial veio para ficar e tem trazido grandes vantagens, sobretudo no recrutamento, mas também apresenta riscos reais. A Europa é muitas vezes criticada por uma hiper regulação, sobretudo quando comparada com países como a China e os Estados Unidos, que estão muito avançados tecnologicamente, mas onde a regulação deixa muitas vezes a desejar, com consequências que são conhecidas.
A Europa foi a primeira a querer regulamentar esta matéria com o Regulamento de Inteligência Artificial, aprovado em 2024. Quase todas as obrigações principais estavam previstas para 2026, e o recrutamento é uma das áreas consideradas de alto risco pelo AI Act. No entanto, há dois meses houve uma desaceleração. A Europa deu se conta de que esta hiper regulação podia trazer desvantagem competitiva face a sistemas vindos da China e dos Estados Unidos e comprometeu se a tentar simplificar o que tinha regulamentado.
Numa primeira fase hiper regulamentou e agora dá um passo atrás para tentar dar dois em frente. Muitas das obrigações que estavam previstas para 2026 vão entrar em vigor de forma faseada e foram adiadas para 2027. Temos algumas bases jurídicas, mas ainda são poucas. Por muito que possamos achar que a Europa legisla com muita regularidade, a verdade é que a lei tem dificuldade em acompanhar o avanço da tecnologia e a regulação desta matéria, mas vamos fazendo esse caminho.
Em Portugal, no final de 2025 foi publicada a Agenda da Inteligência Artificial, uma agenda com princípios programáticos. Falta perceber como será feita a regulamentação prática, porque apesar de existir uma agenda, são apenas princípios que precisam de ser contextualizados e aplicados às empresas.
Do ponto de vista legal e regulatório, há ainda outra dificuldade: a nova reforma da lei laboral perdeu uma grande oportunidade. Há mais de 100 alterações ao Código do Trabalho previstas nesta reforma, que está por dias ou meses de sair, e mesmo assim não regulamentou nada nesta área. Em resposta concreta à sua pergunta, é muito importante estarmos alinhados o mais possível para aproveitar as oportunidades e vantagens que a inteligência artificial traz, mas também para perceber que os riscos legais existem, têm de ser acompanhados com estrutura e não podem ficar só no papel. No recrutamento, a vigilância e a supervisão humana têm de ser efetivas e tem de haver uma aplicação da lei efetiva.
As empresas portuguesas, sobretudo as PME, estão preparadas para implementar soluções de inteligência artificial nos processos de recrutamento? Que desafios específicos enfrentam?
Numa empresa multinacional será sempre mais fácil, mas o tecido empresarial português é constituído por mais de 95% de PME e é muito difícil dizer que, do ponto de vista legal e de compliance, estas empresas estão preparadas para a implementação da inteligência artificial. Adaptando ao caso português, ou tendo em conta o contexto português, a inteligência artificial é uma mais-valia, mas é também um useful thinking. As empresas têm de se ir trabalhando, têm de se ir estruturando, mas toda esta teoria será sempre mais fácil para grandes empresas e multinacionais do que para as empresas que constituem o tecido empresarial português. Para essas, vai existir um grande desafio.
E não é tanto o investimento financeiro na aplicação da inteligência artificial. É a parte da estruturação e da aculturação que é necessária do ponto de vista legal, de ter em conta todos os riscos jurídicos e, do ponto de vista de compliance, ter todas estas questões asseguradas. Isso vai ser um verdadeiro desafio. Não quero parecer pessimista, mas a lei andar de mãos dadas com a tecnologia já por si é um desafio, mas vai ser necessário.
As empresas vão ter de olhar para estas mãos dadas de forma consciente e estruturada, porque muitas questões se vão levantar quanto mais se avança na inteligência artificial. E, mesmo numa ótica de arriscar, é preciso ter noção do outro lado, que muitas vezes as empresas não querem ter em conta. Não pode ser só eficiência, tem de ser vantagem competitiva, e essa vantagem competitiva só se consegue com empresas que procuram andar lado a lado com a legalidade e com a compliance, aplicado também à tecnologia que implementam.
Quais são os benefícios que a inteligência artificial pode trazer ao recrutamento sem comprometer princípios como a equidade, a não discriminação e a proteção de dados?
Vantagens tem muitas. No recrutamento são evidentes e, ao dia de hoje, já existem várias ferramentas de apoio e nunca de decisão. A Adecco, onde trabalho, tem uma ferramenta revolucionária, o CV Maker, que permite, através de uma aplicação, até num smartphone, ditar as características da pessoa e criar um currículo. O sistema organiza de forma sistemática a informação em cinquenta línguas, o que é muito importante para candidatos que não falam português e que não tinham experiência em fazer currículos. Permite criar um currículo uniforme e válido.
Temos também ferramentas de triagem de currículos que permitem identificar palavras chave, competências e experiências. Isto é uma vantagem gigante para os recrutadores porque lhes tira muito tempo e lhes permite dedicar se ao que é realmente uma mais-valia: a avaliação dos currículos, a avaliação das pessoas e os primeiros contactos num verdadeiro recrutamento. Liberta os de tarefas administrativas que não eram uma mais-valia.
Existem ainda ferramentas como chatbots para agendamento de entrevistas e até para identificação de candidatos. Há, portanto, uma série de ferramentas que já se usam no recrutamento e que são uma vantagem técnica muito importante. Melhoram a experiência de quem recruta, mas também a experiência de quem é recrutado. Melhoram bastante essa experiência, reduzem tempos de resposta e criam a tal mais-valia para quem utiliza um serviço como é o recrutamento.
Um recrutamento mexe na vida de uma pessoa. Tem um papel quase social reforçado. É uma atividade de pessoas com dados. Um recrutador lida com dados pessoais de manhã à noite e tem de ter muito cuidado. A proteção de dados pessoais é, ao dia de hoje, uma necessidade que tem de acompanhar esta tecnologia.
Os benefícios existem do lado de quem usa e do lado de quem recebe, com benefícios potenciais que são quase reais, mas há riscos. Na promoção da equidade é uma vantagem muito grande, mas há riscos, sobretudo os riscos dos enviesamentos, dos viés dos algoritmos. É um risco muito presente e é preciso perceber exatamente o que fazer e como atuar para não perpetuar estes enviesamentos e erros que podem ser fatais para uma empresa de recrutamento.
Um erro humano acontece. O maior risco não é errar uma vez ou duas vezes. O maior risco é um erro para sempre, e a inteligência artificial é capaz de o fazer. Se não detetarmos esse erro para sempre, ele perpetua se. Esse é o grande risco da substituição do julgamento humano, da decisão humana ou da atuação humana, se deixarmos a inteligência artificial tratar por nós.
Como é que as empresas podem preparar se para esses riscos?
O Regulamento de Inteligência Artificial em recrutamento dá muitas dicas, muitas sugestões e até obrigações. São regras ou orientações que têm de estar padronizadas e usadas por todos. É importante perceber que estas obrigações não vão ser só legais nem só de compliance. Não vão estar associadas apenas ao departamento jurídico, de compliance ou de IT. Vão ter de incluir equipas multidisciplinares. Só uma equipa com alguém de IT, alguém de recursos humanos e alguém de compliance vai conseguir ajustar todas as orientações necessárias.
A primeira orientação é uma identificação exaustiva do que já existe e do que já está a acontecer a nível da inteligência artificial. Muitas vezes, uma coisa é o inventário que já está feito e outra coisa é o inventário paralelo, ou seja, as aplicações que muitos colaboradores utilizam sem que a empresa tenha conhecimento. Depois de identificar todos estes sistemas, é preciso fazer uma auditoria muito completa em colaboração com os fornecedores. Um grande risco é a opacidade da informação que os fornecedores podem transmitir, não permitindo a quem utiliza a inteligência artificial ter a noção completa do que está a usar. Estas parcerias com os fornecedores têm de funcionar muito bem.
Depois de implementados os sistemas, tem de haver auditorias regulares para perceber se está tudo a funcionar bem, se os algoritmos estão a funcionar e se não há enviesamentos. E perceber se há enviesamento ou não é obrigatório através de uma equipa multidisciplinar, porque se as equipas não estiverem preparadas para identificar estas situações, o erro vai ser um erro para sempre, como falávamos há pouco.
Outra forma de mitigar estes riscos é a formação, a literacia em inteligência artificial e, sobretudo, a literacia na utilização da inteligência artificial com responsabilidade e com ética. A sustentabilidade da inteligência artificial vai ser o desfecho de uma empresa. Vai comprometer ou desafiar uma empresa. É muito importante que esta noção não esteja compartimentada em departamentos, mas que seja conhecida e trabalhada por todos, para que todos consigam aplicar a mais-valia onde são realmente importantes.
Por fim, tem de haver uma supervisão humana que seja efetiva e que saia do papel. Em recrutamento, que é uma atividade de alto risco classificada pelo Regulamento Europeu de Inteligência Artificial, tem de haver uma supervisão que saiba o que está a fazer, que saiba onde atuar, que tenha, de três em três meses, uma auditoria programada, que verifique o sistema, verifique o algoritmo e compreenda se os enviesamentos ou estereótipos não estão a ser perpetuados. É preciso validar aquilo que foi implementado, muitas vezes com a melhor das intenções, mas que não está totalmente controlado. Para estar o mais controlado possível tem de haver este controlo. Mas nunca vamos conseguir controlar a 100%. E isso é um desafio.
Que práticas considera essenciais para garantir a transparência e a equidade nas decisões automatizadas?
Na transparência, em recrutamento, o nosso Código do Trabalho, em maio de 2023, com a Agenda do Trabalho Digno, já introduziu uma obrigação legal de informar os candidatos sobre a utilização de inteligência artificial nos processos de recrutamento e seleção. Essa obrigação já existe. A transparência é tornar claro, tornar informado, tornar transparente que isso existe.
Como é que se faz? Através das políticas que estão publicadas, das políticas de consentimento e das políticas de informação sobre a utilização da inteligência artificial. Mas não basta, porque não sei quantos candidatos vão ler a política de confidencialidade ou a política sobre a utilização da inteligência artificial num website. Estamos a falar de empresas grandes, com websites e com políticas muito bem compostas a nível de compliance e regulatório. Para aquelas que não têm essas estruturas, vai ser muito importante que, no início e durante o processo, haja transparência para com os candidatos.
É preciso explicar-lhes que usam inteligência artificial e onde usam. Não é preciso entrar em pormenores técnicos, porque um recrutador não será capaz de explicar essa parte técnica, mas é preciso explicar que pode haver uma refutação humana, ou seja, onde pode intervir de forma humana na seleção, se se considerar ou se entender que está a ser prejudicado. Esta clareza vai dar explicabilidade aos candidatos e vai dar coerência, porque a explicação para um vai ser a mesma explicação para todos. O contacto humano também vai ser mais acessível, porque se vai deixar às ferramentas o que elas podem fazer muito bem e muito rápido, deixando tempo de qualidade e de mais-valia entre um recrutador e um candidato. Essa possibilidade de transformar a transparência em responsabilidade vai ser uma vantagem para as empresas.
Relativamente à equidade, acho que também é promovida dessa forma, porque vamos ter mais coerência e mais tratamento uniforme. Isso permite que a equidade esteja muito mais garantida a todos os níveis e em todas as fases do processo.
Que salvaguardas legais e éticas devem existir para garantir que a inteligência artificial não compromete políticas de diversidade e inclusão?
A inteligência artificial não é uma forma automática de respeitar a diversidade e a inclusão. Deve ser uma parceira, uma aliada, mas não de forma automática. Pode permitir alargar a pesquisa e o recrutamento para perfis fora dos circuitos tradicionais e permitir um benefício para a diversidade e inclusão. Permite ir buscar a outros caminhos que não eram os tradicionais e onde, de outra forma, não conseguiríamos chegar. Essa é uma das grandes vantagens da inteligência artificial nesse caminho, mas vai ter de ter muitas preocupações legais.
Falávamos há pouco dos dados que têm de ser representativos, dos dados que têm de ser transparentes e dos dados que têm de ser monitorizados continuamente. Tem de haver a supervisão humana, que tem de ser regular. Tudo isto são mais do que obrigações legais, que também o são naturalmente, porque a não discriminação é um princípio legal presente no nosso Código do Trabalho, mas são sobretudo orientações e condições que vão permitir promover a diversidade e a inclusão ou, pelo menos, ser uma aliada nessa promoção de forma bastante favorável, satisfatória e mais rápida do que de outra forma.
De forma automática não vai ser possível, porque vai ser sempre preciso controlo. Em campos sensíveis como a diversidade e a inclusão, vai ter de haver um reforço adicional. Se não houver controlo, aquela supervisão humana vai ser essencial para evitar o maior risco, que é um erro para sempre. O maior risco não é haver um erro duas, três ou quatro vezes, porque isso são os humanos. O maior risco é um erro para sempre, e isso é a máquina.
O reforço das exclusões, historicamente ou de sistema, é o grande perigo de não haver controlo. Pode haver o reforço, o revés exatamente daquilo que se pretendia promover, haver o reforço do contrário.
Deve existir sempre supervisão humana nas decisões de recrutamento?
Não é uma questão de existir sempre. No recrutamento, o próprio Regulamento de Inteligência Artificial define como obrigatória a supervisão humana. Tem de ser uma supervisão efetiva. Não basta estar no papel. No recrutamento, andar a selecionar e fazer a triagem de currículos não pode ser feito sem intervenção humana. Para além de ser proibido legalmente, eticamente seria um desastre. É quase um imperativo que essa supervisão não seja só da ferramenta, do algoritmo ou dos viés, mas sim de todo o processo.
Claro que isto depende de algumas atividades e de algumas ferramentas. Haverá ferramentas e atividades que não são de alto risco em que a supervisão humana não é tão necessária nem tão obrigatória a nível ético. Por exemplo, em atividades de logística, as ferramentas que se podem introduzir não vão exigir uma supervisão humana tão constante e tão necessária do ponto de vista ético.
Se falarmos em recrutamento, a supervisão humana e a intervenção humana nas decisões críticas têm de existir com certeza. E também noutras decisões ao longo do caminho e do processo, diria que são muitíssimo importantes. Noutras ferramentas e noutras atividades pode deixar se a supervisão humana mais para as decisões críticas, porque isso é tratar a inteligência artificial com responsabilidade e ética. Sendo concreta, vai depender da atividade que estamos a analisar.
Como é que a Adecco integra princípios éticos na implementação destas tecnologias?
A Adecco é uma multinacional com sede na Suíça e isso, por si só, diz muito sobre o rigor e o controlo que tem a este nível. É uma multinacional presente em sessenta países que se dedica, para além do recrutamento e seleção, também à responsabilidade social. O recrutamento é a vida de uma pessoa, é empregar alguém. São as empresas e os candidatos com quem lidamos todos os dias. Mas, para além disso, temos o outro lado, que são os dados pessoais, e isso tem uma exigência acrescida muito relevante.
A Adecco já começou este caminho há muito tempo. Tem um comité internacional que depois tem ramificações locais a nível da inteligência artificial. Tem vários grupos de trabalho já desenhados. Relativamente à Adecco, é uma estrutura que pouco me preocupa a esse nível, porque o trabalho de inventário e de todas as aplicações que o grupo permite e que são usadas pelo grupo já começou a ser feito há anos. Há grupos de trabalho que definem, com regularidade e periodicidade, onde vão atuar, porquê e quando, e depois são feitas as auditorias.
A Adecco faz um trabalho muito relevante de auditoria aos parceiros que escolhe. A opacidade da informação, ao dia de hoje, é muita e é preocupante, por isso escolhe parceiros que transmitem confiança, não só aos candidatos, mas também a quem compra um serviço de inteligência artificial. Mas a transparência tem de ser explicável. Eu, que sou jurista, não vou entender toda uma explicação técnica de uma aplicação, mas vou ter de entender o suficiente para poder entrar num grupo de trabalho e aportar a mais-valia na tal equipa multidisciplinar de que falava há pouco. É muito importante que a explicabilidade seja ao alcance de todos, que seja traduzida de forma simples e que haja uma parceria muito importante de transparência entre o fornecedor da ferramenta de inteligência artificial e quem a utiliza.
Se não tivermos este contexto humano, se não tivermos a noção de que, no final do dia, para a Adecco, são as pessoas que contam, vamos estar mal estruturados. A Adecco já fez esse caminho e está a fazê lo de forma muito estruturada e muito robusta. O que me preocupa são as empresas com menos capacidade de o fazer.
Catarina Lima Soares, Diretora Jurídica e de Compliance da Adecco Portugal em entrevista ao SAPO
