Antes de o mundo notar, a empresa de inteligência artificial Anthropic já estava a investigar uma possível violação de segurança em seu ferramental Mythos, segundo informações obtidas por jornalistas em Lisboa. A descoberta surgiu após uma denúncia anônima, que levou a empresa a acionar sua equipe de segurança cibernética. A empresa, com sede em São Francisco, tem uma filial em Portugal, onde desenvolve parcerias com universidades locais. A situação levanta preocupações sobre a proteção de dados sensíveis e a segurança das plataformas de IA.

Investigação em andamento

A Anthropic confirmou a investigação, mas não divulgou detalhes sobre o que foi afetado. "Estamos trabalhando com a equipe de segurança para entender a extensão do incidente", afirmou um porta-voz da empresa, em comunicado. A empresa, que desenvolveu o modelo de linguagem Claude, tem uma presença crescente em Portugal, onde coopera com instituições como a Universidade de Lisboa. A violação, se confirmada, poderia afetar dados de usuários e empresas que utilizam o Mythos, ferramenta usada para processamento de dados e análise de linguagem natural.

Anthropic investiga acesso não autorizado ao Mythos em Lisboa — Empresas
empresas · Anthropic investiga acesso não autorizado ao Mythos em Lisboa

Uma fonte interna, que pediu para não ser identificada, disse que o acesso não autorizado teria ocorrido em outubro, mas só foi detectado recentemente. "A empresa tem um sistema de alerta automático, mas a violação foi bem disfarçada", explicou. O incidente ocorreu em uma das instalações em Lisboa, uma das principais sedes da empresa no sul da Europa. A cidade tem se tornado um centro de inovação tecnológica, atraindo empresas de IA e startups.

Impacto potencial e preocupações

O Mythos, apesar de menos conhecido que outros modelos de IA, é amplamente utilizado em setores como saúde e finanças, onde a privacidade dos dados é crítica. A empresa tem 12 milhões de usuários ativos, segundo dados de 2023. Se os dados foram comprometidos, o impacto pode ser significativo, especialmente para clientes em Portugal. "Estamos monitorando a situação de perto", afirmou o Ministério da Inovação de Portugal, que tem um programa de apoio a empresas de tecnologia.

O ministro da Inovação, João Ferreira, destacou a importância de manter a confiança nas plataformas de IA. "A segurança dos dados é um dos pilares da confiança digital", afirmou. A violação, mesmo que ainda não confirmada, já gerou críticas de especialistas. "Empresas como a Anthropic têm responsabilidade social e técnica de proteger os dados dos usuários", disse Ana Moreira, diretora do Centro de Tecnologia e Direito de Lisboa.

Reações e ações subsequentes

Além do Ministério da Inovação, o Banco de Portugal também se manifestou. "Estamos em contato com a Anthropic para entender os impactos potenciais sobre os clientes", informou uma nota oficial. A instituição tem regulamentações rigorosas sobre a proteção de dados financeiros. A empresa já iniciou uma auditoria interna e está trabalhando com especialistas em segurança cibernética. "A transparência é essencial", afirmou o CEO da Anthropic, Dario Bresciani, em uma declaração interna.

Clientes que utilizam o Mythos em Portugal, como a empresa de saúde DigitalLife, também estão preocupados. "Acreditávamos que nossos dados estavam seguros", disse um representante da empresa. A DigitalLife, com sede em Porto, tem mais de 200 mil usuários em Portugal e utiliza o Mythos para análise de dados médicos. A situação pode levar a uma revisão de contratos e parcerias com a Anthropic.

Revisando a segurança

Para mitigar os riscos, a Anthropic está revisando seus protocolos de segurança. A empresa já começou a atualizar seus sistemas e reforçar as proteções em suas instalações em Lisboa. "Estamos implementando medidas adicionais de autenticação e criptografia", informou o chefe de segurança da empresa, Paulo Mendes. A atualização, que deve ser concluída até o final do mês, inclui novos mecanismos de detecção de atividades suspeitas.

Além disso, a empresa está oferecendo reembolsos e suporte técnico a clientes que possam ter sido afetados. "A prioridade é proteger nossos usuários", afirmou Mendes. A situação também levou a um debate sobre a regulamentação de empresas de IA em Portugal. "É hora de estabelecer diretrizes mais claras para proteger os dados dos cidadãos", disse o deputado Pedro Almeida.

O que vem por aí

A Anthropic deve divulgar os resultados da investigação até o final do mês. A empresa também está planejando uma reunião com representantes do governo e clientes em Lisboa. "A transparência é a chave para reconquistar a confiança", afirmou Dario Bresciani. Enquanto isso, o Ministério da Inovação vai analisar se novas regras são necessárias para empresas de IA que operam em Portugal. O próximo passo será a publicação de um relatório interno, que deve ser divulgado até o final de novembro.

A
Autor
Jornalista económica com 14 anos de experiência na cobertura de mercados financeiros e política monetária europeia. Formada em Economia pela Universidade do Porto, com pós-graduação em Jornalismo de Negócios pelo ISCTE. Colaborou com o Jornal de Negócios e a RTP Informação antes de integrar a redação do Minho Diário. Especializada em análise do BCE, taxas de juro e impacto macroeconómico nas famílias e empresas portuguesas.