Uma estudante indiana, Bhuvana Chilukuri, tornou-se alvo de críticas após relatar que foi rejeitada por um sistema de inteligência artificial em apenas dois minutos, após 100 tentativas de emprego. O caso, que gerou debate sobre a transparência e eficácia dos algoritmos no recrutamento, levanta questões sobre o impacto da automação no mercado de trabalho.
Rejeições rápidas e falta de transparência
Bhuvana Chilukuri, que reside em Portugal, relatou que utilizou plataformas de emprego que empregam sistemas de IA para triagem de candidatos. Segundo ela, em 100 tentativas, todas foram rejeitadas sem qualquer explicação, com o processo de seleção finalizando em menos de dois minutos. A estudante destacou que, apesar de ter experiência e qualificações, o sistema não ofereceu feedback sobre os motivos das rejeições.
“É brutal. Você envia o currículo e, em segundos, é descartado. Não há oportunidade de entender o que está errado”, afirmou Bhuvana em uma entrevista. O caso evidencia a falta de transparência dos algoritmos, que muitas vezes operam como "caixas pretas", sem explicar como tomam decisões.
Impacto da IA no mercado de trabalho em Portugal
O uso de sistemas de IA no recrutamento está crescendo em Portugal, com empresas adotando ferramentas que analisam currículos e perfis de redes sociais para selecionar candidatos. Apesar de prometer eficiência, o método levanta preocupações sobre viés algorítmico e falta de humanização no processo.
Segundo uma pesquisa da Universidade de Lisboa, cerca de 30% das empresas portuguesas já utilizam softwares de triagem automatizada. No entanto, muitos profissionais, especialmente jovens e imigrantes, relatam dificuldades em entender os critérios de seleção, o que pode afetar a inclusão no mercado de trabalho.
Críticas e apelos por regulamentação
Organizações de defesa dos direitos dos trabalhadores e especialistas em tecnologia estão exigindo maior transparência e regulamentação dos sistemas de IA no recrutamento. “A automação pode ser útil, mas precisa ser feita com responsabilidade e com direitos garantidos”, afirmou uma representante do Sindicato dos Trabalhadores de Informática.
“A história de Bhuvana é um alerta. Ela não foi rejeitada por falta de qualificação, mas por um sistema que não explica suas decisões”, destacou um especialista em ética digital. O caso também reacendeu debates sobre como a IA pode reforçar desigualdades, especialmente em contextos de imigração e diversidade.
Como While afeta Portugal
O caso de Bhuvana Chilukuri ilustra como ferramentas como o While, uma plataforma de triagem automatizada, estão se tornando comuns no mercado de trabalho português. O sistema, que analisa currículos e perfis, é utilizado por empresas de diversos setores, mas tem sido criticado por sua falta de clareza e possíveis vieses.
“O While é apenas uma das ferramentas, mas sua implementação sem regulamentação pode gerar desigualdades”, disse um analista de mercado. A questão se torna ainda mais relevante em um contexto em que o emprego jovem e de imigrantes enfrenta desafios estruturais.
O que vem por aí
Diante das críticas, especialistas sugerem que as empresas devem ser mais transparentes sobre os critérios utilizados em seus sistemas de IA e oferecer feedback aos candidatos. Além disso, há apelos para que o governo português regulamente o uso dessas tecnologias, garantindo direitos e transparência.
“O futuro do recrutamento precisa equilibrar eficiência com justiça”, afirmou um representante do Instituto de Tecnologia e Trabalho. Enquanto isso, casos como o de Bhuvana Chilukuri servem como alerta sobre os riscos de uma automação sem regulamentação.


