Você está visualizando atualmente OpenAI, Meta, e TikTok Combatem Campanhas de Influência Secreta, Algumas com Tecnologia de IA

OpenAI, Meta, e TikTok Combatem Campanhas de Influência Secreta, Algumas com Tecnologia de IA

Na quinta-feira, a OpenAI revelou que tomou medidas para interromper cinco operações de influência secreta originadas da China, Irã, Israel e Rússia que buscavam abusar de suas ferramentas de inteligência artificial (IA) para manipular o discurso público ou resultados políticos online, enquanto ocultavam sua verdadeira identidade.

Essas atividades, detectadas nos últimos três meses, utilizaram seus modelos de IA para gerar comentários curtos e artigos longos em uma variedade de idiomas, criar nomes e biografias para contas de mídia social, realizar pesquisas de código aberto, depurar códigos simples, e traduzir e revisar textos.

A organização de pesquisa em IA disse que duas das redes estavam ligadas a atores na Rússia, incluindo uma operação anteriormente não documentada, codinome Bad Grammar, que usava pelo menos uma dúzia de contas no Telegram para direcionar o público na Ucrânia, Moldova, Estados Bálticos e Estados Unidos com conteúdo descuidado em russo e inglês.

“A rede usou nossos modelos e contas no Telegram para estabelecer um canal de spam de comentários”, disse a OpenAI. “Primeiro, os operadores usaram nossos modelos para depurar um código que aparentemente foi projetado para automatizar a postagem no Telegram. Eles então geravam comentários em russo e inglês em resposta a postagens específicas no Telegram.”

Os operadores também usaram seus modelos para gerar comentários sob a aparência de várias personas fictícias pertencentes a diferentes segmentos demográficos de ambos os lados do espectro político nos EUA.

A outra operação russa correspondia à prolífica rede Doppelganger (também conhecida como Recent Reliable News), que foi sancionada pelo Departamento do Tesouro dos Estados Unidos em março por se envolver em operações de influência cibernética.

A rede teria usado os modelos da OpenAI para gerar comentários em inglês, francês, alemão, italiano e polonês que eram compartilhados no X e 9GAG, traduzir e editar artigos do russo para o inglês e francês que eram então postados em sites falsos mantidos pelo grupo, gerar manchetes e converter artigos de notícias postados em seus sites em postagens do Facebook.

“Essa atividade visou o público na Europa e na América do Norte e focou em gerar conteúdo para sites e mídias sociais”, disse a OpenAI. “A maioria do conteúdo que esta campanha publicou online se concentrava na guerra na Ucrânia. Ela retratava a Ucrânia, os EUA, a OTAN e a UE de forma negativa e a Rússia de forma positiva.”

As outras três redes de atividades são listadas abaixo:

– Uma rede de origem chinesa conhecida como Spamouflage, que usou seus modelos de IA para pesquisar a atividade pública nas mídias sociais; gerar textos em chinês, inglês, japonês e coreano para postagem no X, Medium e Blogger; propagar conteúdo criticando dissidentes chineses e abusos contra nativos americanos nos EUA; e depurar código para gerenciar bancos de dados e sites.

– Uma operação iraniana conhecida como União Internacional de Mídias Virtuais (IUVM), que usou seus modelos de IA para gerar e traduzir artigos longos, manchetes e tags de sites em inglês e francês para posterior publicação em um site chamado iuvmpress.co.

– Uma rede chamada Zero Zeno, proveniente de um ator ameaças israelense por contrato, uma empresa de inteligência de negócios chamada STOIC, que usou seus modelos de IA para gerar e disseminar conteúdo anti-Hamas, anti-Qatar, pró-Israel, anti-BJP e pró-Histadrut em Instagram, Facebook, X e seus sites afiliados visando usuários no Canadá, EUA, Índia e Gana.

“A operação [Zero Zeno] também usou nossos modelos para criar personas fictícias e biografias para redes sociais com base em certas variáveis como idade, gênero e localização, e para pesquisar pessoas em Israel que comentaram publicamente sobre o sindicato dos trabalhadores Histadrut em Israel”, disse a OpenAI, acrescentando que seus modelos se recusaram a fornecer dados pessoais em resposta a essas solicitações.

O fabricante do ChatGPT enfatizou em seu primeiro relatório de ameaças sobre as operações de influência que nenhuma dessas campanhas “aumentou significativamente o engajamento ou alcance de seu público” explorando seus serviços.

O desenvolvimento ocorre enquanto preocupações estão sendo levantadas de que as ferramentas de IA generativa (GenAI) possam tornar mais fácil para atores maliciosos gerar textos, imagens e até conteúdos de vídeo realistas, tornando desafiador detectar e responder a operações de desinformação e desinformação.

“Até agora, a situação é de evolução, não de revolução”, disse Ben Nimmo, investigador principal de inteligência e investigações da OpenAI. “Isso pode mudar. É importante continuar observando e compartilhando.”

Meta destaca STOIC e Doppelganger

Separadamente, o Meta, em seu Relatório Trimestral de Ameaças Adversárias, também compartilhou detalhes das operações de influência da STOIC, dizendo que removeu uma mistura de quase 500 contas comprometidas e falsas em contas do Facebook e Instagram usadas pelo ator para segmentar usuários no Canadá e nos EUA.

“Essa campanha demonstrou uma disciplina relativa em manter a OpSec, incluindo a alavancagem de infraestrutura de proxy norte-americana para anonimizar sua atividade”, disse a gigante das redes sociais.

Meta disse ainda que removeu centenas de contas, compreendendo redes enganosas de Bangladesh, China, Croácia, Irã e Rússia, por envolver-se em comportamento inautêntico coordenado (CIB) com o objetivo de influenciar a opinião pública e promover narrativas políticas sobre eventos atuais.

A rede maligna vinculada à China, por exemplo, visava principalmente a comunidade sikh global e consistia em várias dezenas de contas do Instagram e Facebook, páginas e grupos que eram usados para espalhar imagens manipuladas e posts em inglês e hindi relacionados a um movimento pró-sikh inexistente, ao movimento separatista Khalistan e críticas ao governo indiano.

A empresa apontou que até agora não detectou o uso de táticas inovadoras e sofisticadas impulsionadas por GenAI, com a empresa destacando instâncias de apresentadores de notícias em vídeo gerados por IA que foram previamente documentados pela Graphika e GNET, indicando que, apesar da natureza em grande parte ineficaz dessas campanhas, os atores de ameaças estão ativamente experimentando com a tecnologia.

Doppelganger, conforme o Meta disse, continuou seus esforços de “ataque e fuga”, embora com uma grande mudança de táticas em resposta à divulgação pública, incluindo o uso de ofuscação de texto para evitar detecção (por exemplo, usando “U. kr. ai. n. e” em vez de “Ucrânia”) e abandonando sua prática de vincular a domínios typosquatted que se disfarçam de meios de comunicação desde abril.

“A campanha é apoiada por uma rede com duas categorias de sites de notícias: sites de notícias legítimos typosquatted e organizações de mídia, e sites de notícias independentes”, disse o Sekoia em um relatório sobre a rede adversária pró-russa publicado na semana passada.

“Artigos de desinformação são publicados nesses sites e depois disseminados e ampliados por meio de contas inautênticas em várias plataformas, especialmente aquelas de hospedagem de vídeos como Instagram, TikTok, Cameo e YouTube.”

Esses perfis de mídia social, criados em grande número e em ondas, aproveitam campanhas de anúncios pagos no Facebook e Instagram para direcionar os usuários para sites de propaganda. As contas do Facebook também são chamadas de contas temporárias devido ao fato de serem usadas para compartilhar apenas um artigo e posteriormente abandonadas.

A empresa de cibersegurança francesa descreveu as campanhas em escala industrial – que são direcionadas tanto aos aliados da Ucrânia quanto ao público de fala russa em nome do Kremlin – como multi-camadas, aproveitando a botnet social para iniciar uma cadeia de redirecionamento que passa por dois sites intermediários para levar os usuários à página final.

Doppelganger, juntamente com outra rede coordenada de propaganda pró-russa designada como Portal Kombat, também foi observado amplificando o conteúdo de uma rede de influência incipiente chamada CopyCop, demonstrando um esforço coordenado para propagar narrativas que projetam a Rússia de forma favorável.

O Recorded Future, em um relatório lançado neste mês, disse que a CopyCop provavelmente é operada a partir da Rússia, aproveitando meios de comunicação inautênticos nos EUA, Reino Unido e França para promover narrativas que minam a política interna e externa ocidental, e difundir conteúdo relacionado à guerra russo-ucraniana em curso e ao conflito Israel-Hamas.

“A CopyCop usou extensivamente a IA generativa para plagiar e modificar conteúdo de fontes legítimas de mídia para adaptar mensagens polít…