Microsoft Processa Grupo de Hackers que Explora IA do Azure para Criação de Conteúdo Prejudicial

A Microsoft revelou que está tomando medidas legais contra um “grupo de ameaças de origem estrangeira” por operar uma infraestrutura de hacking como serviço para contornar intencionalmente os controles de segurança de seus serviços de inteligência artificial (IA) generativa e produzir conteúdo ofensivo e prejudicial.

A unidade de crimes digitais da gigante da tecnologia afirmou ter observado que os atores de ameaças “desenvolveram software sofisticado que explorou credenciais de clientes expostas coletadas de sites públicos” e “procuraram identificar e acessar ilegalmente contas com determinados serviços de IA generativa e alterar intencionalmente as capacidades desses serviços.”

Os adversários então utilizaram esses serviços, como o Azure OpenAI Service, e monetizaram o acesso vendendo-os para outros atores maliciosos, fornecendo-lhes instruções detalhadas sobre como usar essas ferramentas personalizadas para gerar conteúdo prejudicial. A Microsoft disse ter descoberto a atividade em julho de 2024.

A fabricante do Windows afirmou ter revogado o acesso do grupo de ameaças, implementado novas contramedidas e fortalecido suas salvaguardas para evitar que tal atividade ocorra no futuro. A empresa também disse ter obtido uma ordem judicial para apreender um site (“aitism[.]net”) que era central para a operação criminosa do grupo.