Os pesquisadores de cibersegurança descobriram uma falha crítica de segurança em um provedor de inteligência artificial (AI)-as-a-service chamado Replicate, que poderia ter permitido que atores maliciosos tivessem acesso a modelos de IA proprietários e informações sensíveis.
O problema decorre do fato de que os modelos de IA geralmente são empacotados em formatos que permitem a execução de código arbitrário, que um atacante poderia usar para realizar ataques entre inquilinos por meio de um modelo malicioso.
Replicate faz uso de uma ferramenta de código aberto chamada Cog para containerizar e empacotar modelos de aprendizado de máquina que podem então ser implantados em um ambiente auto-hospedado ou no Replicate.
Wiz criou um contêiner Cog fraudulento e o enviou para Replicate, ultimamente usando-o para alcançar a execução de código remoto na infraestrutura do serviço com privilégios elevados.
A técnica de ataque desenvolvida pela empresa, então, alavancou uma conexão TCP já estabelecida associada a uma instância do servidor Redis dentro do cluster Kubernetes hospedado na Google Cloud Platform para injetar comandos arbitrários.
Além disso, com o servidor Redis centralizado sendo usado como uma fila para gerenciar várias solicitações de clientes e suas respostas, poderia ser abusado para facilitar ataques entre inquilinos por meio da manipulação do processo para inserir tarefas fraudulentas que poderiam impactar os resultados dos modelos de outros clientes.
Essas manipulações fraudulentas não apenas ameaçam a integridade dos modelos de IA, mas também representam riscos significativos para a precisão e confiabilidade das saídas baseadas em IA.
A vulnerabilidade, que foi divulgada de forma responsável em janeiro de 2024, desde então foi resolvida pela Replicate. Não há evidências de que a vulnerabilidade tenha sido explorada na natureza para comprometer dados do cliente.
A divulgação ocorre pouco mais de um mês depois que Wiz detalhou riscos agora corrigidos em plataformas como Hugging Face, que poderiam permitir que atores maliciosos escalassem privilégios, obtivessem acesso entre inquilinos aos modelos de outros clientes e até assumissem os pipelines de integração e implantação contínuas (CI/CD).
“Os modelos maliciosos representam um grande risco para os sistemas de IA, especialmente para os provedores de AI-as-a-service, porque os atacantes podem aproveitar esses modelos para realizar ataques entre inquilinos”, concluíram os pesquisadores.
“O impacto potencial é devastador, já que os atacantes podem ter acesso aos milhões de modelos de IA privados e aplicativos armazenados nos provedores de AI-as-a-service.”