A OpenAI revelou que tomou medidas para interromper cinco operações de influência encobertas originadas da China, Irã, Israel e Rússia que buscavam abusar de suas ferramentas de inteligência artificial para manipular o discurso público ou resultados políticos online, enquanto ocultavam sua verdadeira identidade. Essas atividades, detectadas nos últimos três meses, utilizavam seus modelos de IA para gerar comentários curtos e artigos mais longos em vários idiomas, criar nomes e bios para contas de mídia social, realizar pesquisa de código aberto, depurar código simples e traduzir e revisar textos. A organização de pesquisa em IA afirmou que duas das redes estavam ligadas a atores na Rússia, incluindo uma operação anteriormente não documentada denominada Gramática Ruim, que, principalmente, usava pelo menos uma dúzia de contas no Telegram para direcionar audiências na Ucrânia, Moldávia, Estados Bálticos e Estados Unidos com conteúdo inadequado em russo e inglês. A outra operação ligada à Rússia corresponde à prolífica rede Doppelganger (também conhecida como Recent Reliable News), que foi sancionada pelo Departamento do Tesouro dos EUA em março por se envolver em operações de influência cibernética. A rede usou os modelos da OpenAI para gerar comentários em inglês, francês, alemão, italiano e polonês, que foram compartilhados em X e 9GAG; traduzir e editar artigos do russo para o inglês e francês, que foram então postados em sites falsos mantidos pelo grupo; gerar manchetes; e transformar artigos de notícias postados em seus sites em postagens no Facebook. As outras três operações estão listadas abaixo: uma rede de origem chinesa conhecida como Spamouflage, uma operação iraniana conhecida como União Internacional de Mídia Virtual (IUVM) e uma rede israelense chamada Zero Zeno, proveniente de uma empresa de inteligência de negócios chamada STOIC. Todas essas operações exploraram os modelos de IA da OpenAI para diversos fins de influência. A OpenAI enfatizou que nenhuma das operações aumentou significativamente seu alcance ao explorar seus serviços. Muitas dessas atividades foram confirmadas e desmanteladas por empresas de tecnologia como Meta, TikTok e outras, que também têm enfrentado problemas semelhantes. A inteligência artificial tem sido utilizada de várias maneiras para gerar desinformação e manipular discursos online, o que levanta questões sobre a capacidade de detectar e responder a tais operações no futuro.