A OpenAI divulgou na quinta-feira que tomou medidas para cortar cinco operações de influência encobertas originárias da China, Irã, Israel e Rússia que buscavam abusar de suas ferramentas de inteligência artificial (IA) para manipular o discurso público ou resultados políticos on-line enquanto ocultavam sua verdadeira identidade.
Essas atividades, detectadas nos últimos três meses, usaram seus modelos de IA para gerar comentários curtos e artigos mais longos em uma variedade de idiomas, inventar nomes e biografias para contas de mídias sociais, conduzir pesquisas de código aberto, depurar código simples e traduzir e revisar textos.
A organização de pesquisa de IA disse que duas das redes estavam ligadas a atores na Rússia, incluindo uma operação não documentada anteriormente, denominada Má Gramática, que usou pelo menos uma dúzia de contas no Telegram para segmentar audiências na Ucrânia, Moldávia, Estados Bálticos e Estados Unidos com conteúdo descuidado em russo e inglês.
“A rede usou nossos modelos e contas no Telegram para configurar um pipeline de spams de comentários”, disse a OpenAI. “Primeiro, os operadores usaram nossos modelos para depurar o código que aparentemente foi projetado para automatizar a postagem no Telegram. Eles então geraram comentários em russo e inglês em resposta a postagens específicas no Telegram.”
Os operadores também usaram seus modelos para gerar comentários sob a aparência de diversas personas fictícias pertencentes a diferentes segmentos demográficos de ambos os lados do espectro político nos EUA.
A outra operação de informações vinculada à Rússia correspondeu à prolífica rede Doppelganger (também conhecida como Recent Reliable News), que foi sancionada pelo Escritório de Controle de Ativos Estrangeiros do Departamento do Tesouro dos EUA em março por participar de operações de influência cibernética.
A rede usava os modelos da OpenAI para gerar comentários em inglês, francês, alemão, italiano e polonês que eram compartilhados em X e 9GAG; traduzir e editar artigos do russo para inglês e francês, que eram então postados em sites falsos mantidos pelo grupo; gerar manchetes; e transformar artigos de notícias postados em seus sites em postagens no Facebook.
“Essa atividade mirava nas audiências europeias e norte-americanas e se concentrava em gerar conteúdo para sites e redes sociais”, disse a OpenAI. “A maioria do conteúdo que essa campanha publicou on-line se concentrou na guerra na Ucrânia. Ela retratava a Ucrânia, os EUA, a OTAN e a UE de forma negativa e a Rússia de forma positiva.”
Os outros três clusters de atividades estão descritos abaixo:
– Uma rede de origem chinesa conhecida como Spamouflage que usava seus modelos de IA para pesquisar a atividade pública de mídias sociais; gerar textos em chinês, inglês, japonês e coreano para postagem em X, Medium e Blogger; propagar conteúdo criticando dissidentes chineses e abusos contra os nativos americanos nos EUA; e depurar código para gerenciar bancos de dados e websites.
– Uma operação iraniana conhecida como União Internacional de Mídias Virtuais (IUVM) que usava seus modelos de IA para gerar e traduzir artigos longos, manchetes e tags de websites em inglês e francês para publicação subsequente em um site chamado iuvmpress.co.
– Uma rede conhecida como Zero Zeno proveniente de um ator de ameaças israelense sob encomenda, uma empresa de inteligência comercial chamada STOIC, que usava seus modelos de IA para gerar e disseminar conteúdo anti-Hamas, anti-Qatar, pró-Israel, anti-BJP e pró-Histadrut, direcionando usuários no Canadá, nos EUA, na Índia e em Gana.
“A operação [Zero Zeno] também usou nossos modelos para criar personas e bios fictícias para mídias sociais com base em certas variáveis como idade, gênero e localização, e para pesquisar pessoas em Israel que comentavam publicamente sobre a união comercial Histadrut em Israel”, disse a OpenAI, acrescentando que seus modelos se recusaram a fornecer dados pessoais em resposta a essas solicitações.
O fabricante do ChatGPT enfatizou em seu primeiro relatório de ameaças IO que nenhuma dessas campanhas “aumentou significativamente o engajamento ou alcance de suas audiências” ao explorar seus serviços.
O desenvolvimento ocorre em meio a preocupações de que ferramentas de IA generativa (GenAI) possam facilitar para atores maliciosos gerar textos, imagens e até conteúdos em vídeo realistas, tornando desafiador detectar e responder a operações de desinformação e propaganda.
“Até o momento, a situação é de evolução, não de revolução”, disse Ben Nimmo, investigador-chefe de inteligência e investigações da OpenAI. “Isso pode mudar. É importante continuar observando e compartilhando.”
Meta destaca STOIC e Doppelganger
Separadamente, o Meta, em seu Relatório Trimestral de Ameaças Adversárias, também compartilhou detalhes das operações de influência da STOIC, dizendo que removeu um mix de quase 500 contas comprometidas e falsas em contas do Facebook e Instagram usadas pelo ator para alvejar usuários no Canadá e nos EUA.
“Esta campanha demonstrou uma relativa disciplina na manutenção de OpSec, incluindo o uso de infraestrutura proxy norte-americana para anonimizar sua atividade”, disse a gigante das mídias sociais.
O Meta também disse que removeu centenas de contas, compreendendo redes enganosas de Bangladesh, China, Croácia, Irã e Rússia, por envolverem-se em comportamento coordenado inautêntico (CIB) com o objetivo de influenciar a opinião pública e impulsionar narrativas políticas sobre eventos atuais.
A rede maligna vinculada à China, por exemplo, mirava principalmente na comunidade Sikh global e consistia em várias dezenas de contas, páginas e grupos no Instagram e no Facebook que eram usados para espalhar imagens manipuladas e postagens em inglês e hindi relacionadas a um movimento pró-Sikh inexistente, o movimento separatista Khalistan e críticas ao governo indiano.
É importante destacar que até agora não foram detectadas novas e sofisticadas táticas impulsionadas por GenAI, com a empresa destacando exemplos de leitores de notícias de vídeo gerados por IA que foram documentados anteriormente pela Graphika e pela GNET, indicando que, apesar da natureza em grande parte ineficaz dessas campanhas, os atores de ameaças estão experimentando ativamente com a tecnologia.
Doppelganger, o Meta disse, continuou seus esforços de “smash-and-grab”, embora com uma grande mudança de táticas em resposta a relatórios públicos, incluindo o uso de obfuscação de texto para evitar detecção (por exemplo, usando “U. kr. ai. n. e” em vez de “Ucrânia”) e abandonando sua prática de vincular a domínios typosquatted disfarçados de veículos de mídia desde abril.
“A campanha é apoiada por uma rede com duas categorias de sites de notícias: veículos de mídia legítimos typosquatted e organizações e sites de notícias independentes”, disse a Sekoia em um relatório sobre a rede adversária pró-russa publicado na semana passada.
“Artigos de desinformação são publicados nesses sites e depois disseminados e amplificados por meio de contas inautênticas de mídias sociais em várias plataformas, especialmente as de hospedagem de vídeos como Instagram, TikTok, Cameo e YouTube.”
Esses perfis de mídia social, criados em grande número e em ondas, utilizam campanhas de anúncios pagos no Facebook e Instagram para direcionar os usuários a sites de propaganda. As contas do Facebook também são chamadas de contas temporárias, pois são usadas para compartilhar apenas um artigo e são posteriormente abandonadas.
A empresa francesa de cibersegurança descreveu as campanhas em escala industrial – direcionadas aos aliados da Ucrânia e aos públicos domésticos de língua russa em nome do Kremlin – como multi-camadas, usando bots sociais para iniciar uma cadeia de redirecionamento que passa por dois sites intermediários para levar os usuários à página final.
Doppelganger, juntamente com outra rede coordenada de propaganda pró-russa designada como Portal Kombat, também foi observada amplificando conteúdo de uma rede nascente de influência apelidada de CopyCop, demonstrando um esforço concertado para propagar narrativas que projetem a Rússia de forma favorável.
Segundo a Recorded Future, em um relatório divulgado neste mês, o CopyCop é provavelmente operado da Rússia, aproveitando-se de veículos de mídia inautênticos nos EUA, no Reino Unido e na França para promover narrativas que minam as políticas domésticas e estrangeiras ocidentais e espalham conteúdo relacionado à guerra Russo-Ucraniana em andamento e ao conflito Israel-Hamas.
“O CopyCop usou extensivamente a IA generativa para plagiar e modificar conteúdo de fontes de mídia legítimas para personalizar mensagens políticas com viés específico”, disse a empresa. “Isso incluiu conteúdo crítico das políticas ocidentais e favorável às perspectivas russas sobre questões internacionais como o conflito na Ucrânia e as tensões entre Israel e o Hamas.”
O TikTok interrompe operações de influência encobertas
No início de maio, o TikTok, de propriedade da ByteDance, anunciou que descobriu e eliminou várias dessas redes em sua plataforma desde o início do ano, incluindo aquelas que rastreou até Bangladesh, China, Equador, Alemanha, Guatemala, Indonésia, Irã, Iraque, Sérvia, Ucrânia e Venezuela.
O TikTok, que atualmente está sob escrutínio nos EUA após a aprovação de uma lei que forçaria a empresa chinesa a vender a empresa ou enfrentar uma proibição no país, tornou-se uma plataforma cada vez mais preferida para contas afiliadas ao estado russo em 2024, de acordo com um novo relatório da Brookings Institution.
Além disso, o serviço de hospedagem de vídeos sociais emergiu como um terreno fértil para o que tem sido caracterizado como uma campanha de influência complexa conhecida como Divisão Esmeralda, que se acredita ser orquestrada por atores alinhados com o Irã desde 2021 visando a sociedade israelense.
“A Divisão Esmeralda é notada por sua abordagem dinâmica, adaptando rapidamente suas narrativas de influência ao panorama político em evolução de Israel”, disse a Recorded Future.
“Ele aproveita ferramentas modernas digitais, como deepfakes gerados por IA e uma rede de contas de mídias sociais operadas estrategicamente, que visam públicos diversos e frequentemente opostos, alimentando efetivamente divisões sociais e incentivando ações físicas, como protestos e disseminação de mensagens anti-governo.”
Encontrou este artigo interessante? Siga-nos no Twitter e LinkedIn para ler mais conteúdo exclusivo que publicamos.