Na última quinta-feira, a OpenAI revelou ter tomado medidas para interromper cinco operações de influência encobertas originadas da China, Irã, Israel e Rússia, que buscavam usar suas ferramentas de inteligência artificial (IA) para manipular o discurso público ou resultados políticos online, enquanto ocultavam sua verdadeira identidade.
Essas atividades, detectadas nos últimos três meses, usaram seus modelos de IA para gerar comentários curtos e artigos mais longos em vários idiomas, criar nomes e bios para contas em redes sociais, realizar pesquisas de código aberto, depurar códigos simples e traduzir e revisar textos.
A organização de pesquisa em IA informou que duas das redes estavam ligadas a atores na Rússia, incluindo uma operação anteriormente não documentada chamada Bad Grammar, que usava principalmente pelo menos uma dúzia de contas Telegram para direcionar audiências na Ucrânia, Moldávia, Estados Bálticos e Estados Unidos com conteúdo descuidado em russo e inglês.
“A rede usou nossos modelos e contas no Telegram para configurar um pipeline de spam de comentários”, disse a OpenAI. “Primeiro, os operadores usaram nossos modelos para depurar um código que aparentemente foi projetado para automatizar a postagem no Telegram. Em seguida, eles geraram comentários em russo e inglês em resposta a postagens específicas no Telegram.”
Os operadores também usaram seus modelos para gerar comentários sob a aparência de várias personas fictícias pertencentes a diferentes demografias de ambos os lados do espectro político nos EUA.
Outra operação relacionada à Rússia correspondia à prolífica rede Doppelganger (também conhecida como Recent Reliable News), que foi sancionada pelo Departamento do Tesouro dos EUA anteriormente em março deste ano por se envolver em operações de influência cibernética.
A rede teria usado os modelos da OpenAI para gerar comentários em inglês, francês, alemão, italiano e polonês, que foram compartilhados em X e 9GAG; traduzir e editar artigos do russo para inglês e francês que foram postados em sites falsos mantidos pelo grupo; gerar manchetes; e transformar artigos de notícias postados em seus sites em postagens no Facebook.
Essa atividade visava as audiências na Europa e na América do Norte e focava na geração de conteúdo para sites e redes sociais. A maioria do conteúdo que essa campanha publicava online se concentrava na guerra na Ucrânia, retratando Ucrânia, EUA, OTAN e UE de forma negativa e a Rússia de forma positiva.
Os outros três clusters de atividades foram os seguintes:
– Uma rede de origem chinesa conhecida como Spamouflage, que usou seus modelos de IA para pesquisar a atividade pública em redes sociais, gerar textos em chinês, inglês, japonês e coreano para postar em X, Medium e Blogger, propagar conteúdo criticando dissidentes chineses e abusos contra nativos americanos nos EUA, depurar códigos para gerenciar bancos de dados e sites.
– Uma operação iraniana conhecida como União Internacional de Mídia Virtual (IUVM), que usou seus modelos de IA para gerar e traduzir artigos longos, manchetes e tags de website em inglês e francês para publicação subsequente em um site chamado iuvmpress.co.
– Uma rede referida como Zero Zeno, proveniente de um ator de ameaça israelense à procura, um escritório de inteligência comercial chamado STOIC, que usou seus modelos de IA para gerar e disseminar conteúdo anti-Hamas, anti-Catar, pró-Israel, anti-BJP e pró-Histadrut em Instagram, Facebook, X e seus sites afiliados, direcionando usuários no Canadá, EUA, Índia e Gana.
“A operação [Zero Zeno] também usou nossos modelos para criar personas e bios fictícias para redes sociais baseadas em certas variáveis como idade, gênero e localização, e para pesquisar pessoas em Israel que comentaram publicamente sobre o sindicato Histadrut em Israel”, disse a OpenAI, acrescentando que seus modelos se recusaram a fornecer dados pessoais em resposta a essas solicitações.
O desenvolvedor do ChatGPT enfatizou em seu primeiro relatório de ameaças sobre operações de influência que nenhuma dessas campanhas “aumentou significativamente o engajamento ou alcance de sua audiência” explorando seus serviços.
Esses recentes acontecimentos surgem em meio ao levantamento de preocupações de que ferramentas de IA generativas poderiam facilitar a vida de atores mal-intencionados para gerar texto, imagens e até conteúdo de vídeo realistas, tornando desafiador detectar e responder a operações de desinformação e inflexão.
“Até agora, a situação é de evolução, não de revolução”, disse Ben Nimmo, investigador principal de inteligência e investigações na OpenAI. “Isso pode mudar. É importante continuar observando e compartilhando.”
Meta Destaca STOIC e Doppelganger
Separadamente, o Meta em seu Relatório Quadrimestral de Ameaças Adversárias, também compartilhou detalhes das operações de influência da STOIC, dizendo que removeu uma mistura de quase 500 contas comprometidas e falsas em contas do Facebook e Instagram usadas pelo ator para direcionar usuários no Canadá e nos EUA.
“Esta campanha demonstrou uma disciplina relativa na manutenção da OpSec, incluindo o uso de infraestrutura de proxy norte-americana para anonimizar sua atividade”, disse o gigante das mídias sociais.
Meta também disse ter removido centenas de contas, compostas por redes enganosas de Bangladesh, China, Croácia, Irã e Rússia, por se envolverem em comportamento inautêntico coordenado com o objetivo de influenciar a opinião pública e empurrar narrativas políticas sobre eventos atuais.
A rede maligna vinculada à China, por exemplo, focava principalmente na comunidade sique global e consistia em várias dezenas de contas, páginas e grupos no Instagram e Facebook usados para espalhar imagens manipuladas e postagens em inglês e hindi relacionadas a um movimento pró-siquismo inexistente, ao movimento separatista Khalistan e críticas ao governo indiano.
A empresa apontou que até o momento não detectou nenhum uso novo e sofisticado de táticas impulsionadas por GenAI, destacando instâncias de leitores de notícias em vídeo gerados por IA que foram anteriormente documentados pela Graphika e GNET, indicando que, apesar da natureza amplamente ineficaz dessas campanhas, os atores de ameaças estão ativamente experimentando com a tecnologia.
Doppelganger, segundo o Meta, continuou seus esforços de “impacto e fuga”, embora com uma grande mudança de táticas em resposta a relatórios públicos, incluindo o uso de obfuscação de texto para evitar detecção (por exemplo, usando “U. kr. ai. n. e” em vez de “Ucrânia”) e abandonando sua prática de vincular a domínios typosquatted disfarçados de publicações de mídia desde abril.
“A campanha é apoiada por uma rede com dois tipos de sites de notícias: sites legítimos de mídia typosquatted e organizações, e sites de notícias independentes”, disse a Sekoia em um relatório sobre a rede adversária pró-russa publicado na semana passada.
“Artigos de desinformação são publicados nesses sites e depois são disseminados e amplificados por meio de contas inautênticas em várias plataformas, especialmente as de hospedagem de vídeos como Instagram, TikTok, Cameo e YouTube.”
Esses perfis em redes sociais, criados em grande número e em ondas, utilizam campanhas pagas de anúncios no Facebook e Instagram para direcionar usuários para sites de propaganda. As contas do Facebook também são chamadas de contas temporárias devido ao fato de serem usadas para compartilhar apenas um artigo e depois serem abandonadas.
A empresa francesa de cibersegurança descreveu como campanhas em escala industrial – voltadas tanto para os aliados da Ucrânia quanto para o público de língua russa em nome do Kremlin – são de várias camadas, usando uma botnet social para iniciar uma cadeia de redirecionamento que passa por dois sites intermediários para levar os usuários à página final.
Doppelganger, junto com outra rede coordenada de propaganda pró-russa designada como Portal Kombat, também foi observado amplificando conteúdo de uma rede de influência nascente chamada CopyCop, demonstrando um esforço conjunto para promulgar narrativas que projetem a Rússia de forma positiva.
A Recorded Future, em um relatório lançado este mês, disse que a CopyCop é provavelmente operada da Rússia, aproveitando-se de veículos de mídia inautênticos nos EUA, Reino Unido e França para promover narrativas que minam a política doméstica e externa ocidental e espalham conteúdo relacionado à guerra Russo-Ucraniana em curso e ao conflito entre Israel e Hamas.
“A CopyCop usou extensivamente a IA generativa para plagiar e modificar conteúdo de fontes de mídia legítimas para adaptar mensagens políticas com viés específico”, disse a empresa. “Isso incluiu conteúdo crítico das políticas ocidentais e favoráveis às perspectivas russas em questões internacionais como o conflito Ucrânia e as tensões Israel-Hamas.”
TikTok Interrompe Operações de Influência Encobertas
No início de maio, a TikTok, de propriedade da ByteDance, disse ter descoberto e derrotado várias redes desse tipo em sua plataforma desde o início do ano, incluindo aquelas que rastreou de volta a Bangladesh, China, Equador, Alemanha, Guatemala, Indonésia, Irã, Iraque, Sérvia, Ucrânia e Venezuela.
O TikTok, que está atualmente sob escrutínio nos EUA após a aprovação de uma lei que forçaria a empresa chinesa a vender a empresa ou enfrentar uma proibição no país, tornou-se uma plataforma cada vez mais preferida para contas afiliadas do Estado russo em 2024, de acordo com um novo relatório da Instituição Brookings.
Além disso, o serviço de hospedagem de vídeo social emergiu como um terreno fértil para o que foi caracterizado como uma complexa campanha de influência conhecida como Emerald Divide (também chamada de Storm-1364), que se acredita ser orquestrada por atores alinhados ao Irã desde 2021 e que visa a sociedade israelense.
“Emerald Divide é notada por sua abordagem dinâmica, adaptando rapidamente suas narrativas de influência à paisagem política evoluída de Israel”, disse a Recorded Future.
“Ela alavanca ferramentas digitais modernas como deepfakes geradas por IA e uma rede de contas de redes sociais operadas estrategicamente, que visam públicos diversos e muitas vezes opostos, estimulando efetivamente divisões sociais e incentivando ações físicas como protestos e a disseminação de mensagens anti-governo.”