Um problema crescente na área da inteligência artificial (I.A.) está gerando preocupações em todo o mundo, incluindo em Portugal. Pesquisadores e especialistas alertam que, apesar do uso crescente de sistemas de I.A. em áreas críticas como saúde, finanças e segurança, muitos dos algoritmos ainda são "caixas pretas", ou seja, seus processos internos não são compreendidos nem explicados de forma clara. O problema é que, sem entender como a I.A. funciona, é difícil garantir sua precisão, segurança e justiça.
Por que o problema é grave?
O problema da falta de compreensão da I.A. é especialmente preocupante em setores onde decisões podem afetar vidas. Em Portugal, a utilização de algoritmos em processos de triagem de candidatos a empregos e na análise de riscos financeiros tem aumentado. No entanto, muitos desses sistemas são desenvolvidos por empresas estrangeiras, e os mecanismos por trás das decisões são mantidos em segredo. Isso gera riscos de discriminação, erros e falta de responsabilidade.
Segundo um relatório da Agência Nacional de Proteção de Dados (ANPD), 68% das empresas que utilizam I.A. em Portugal não possuem um entendimento claro sobre como os algoritmos tomam decisões. "A falta de transparência pode levar a situações em que decisões importantes são tomadas sem que haja um mecanismo de apelação ou explicação", afirma Maria Silva, diretora da ANPD.
Impactos em Portugal e no mundo
Em Lisboa, o uso de sistemas de I.A. na gestão de serviços públicos tem gerado discussões. O Ministério da Inovação e Ciência reconhece que, apesar dos benefícios, é necessário estabelecer normas claras para garantir que os algoritmos sejam justos e explicáveis. "Estamos em fase de discussão sobre uma legislação que exija transparência em sistemas críticos", afirma o ministro Pedro Gomes.
No mundo, a União Europeia está avançando com uma proposta de regulamentação para a I.A., que exigirá que sistemas de alto risco sejam auditáveis e explicáveis. A Diretora-Geral da Comissão Europeia, Ursula von der Leyen, destacou que "a confiança pública na tecnologia depende da transparência e da responsabilidade".
Desenvolvimentos recentes e o que está em jogo
Recentemente, o Instituto de Ciências da Computação de Lisboa lançou um projeto para desenvolver ferramentas que permitam analisar e explicar decisões de algoritmos. O projeto, financiado com 1,2 milhões de euros, visa criar uma base para que decisões automatizadas sejam compreendidas e revisadas por humanos.
Além disso, a Comissão Europeia anunciou uma consulta pública sobre a regulamentação da I.A. até o final do ano. A consulta inclui perguntas sobre como garantir que os algoritmos sejam justos, seguros e compreensíveis. "A decisão final pode impactar diretamente como a I.A. é usada em Portugal", afirma o especialista em tecnologia João Ferreira.
Desafios técnicos e éticos
Um dos principais desafios é a complexidade dos algoritmos. Muitos sistemas de aprendizado de máquina são tão complexos que até os próprios desenvolvedores têm dificuldade em explicar como funcionam. Isso levanta questões éticas sobre a responsabilidade por decisões automatizadas.
Outro desafio é o equilíbrio entre inovação e regulamentação. A pressão por inovação tecnológica pode levar a uma subestimação dos riscos. "A tecnologia avança rápido, mas a regulamentação precisa acompanhar", diz a pesquisadora Ana Moreira.
O que está por vir
Em Portugal, a próxima etapa será a discussão do projeto de lei sobre I.A. no Parlamento, que deve ser votado até o final do ano. A legislação prevê regras sobre transparência, responsabilidade e auditoria de algoritmos. Além disso, a Comissão Europeia deve publicar uma versão final da regulamentação em 2024, o que pode impor novas obrigações às empresas.
Os cidadãos devem estar atentos a novas regras e a mudanças nas práticas das empresas. A transparência da I.A. não é apenas uma questão técnica, mas também uma questão de direitos e justiça. Ainda há muito a ser feito, mas o caminho para uma I.A. mais compreensível está em andamento.


