O Debate de IA: Diretrizes da Google, Disputa da GDPR da Meta, Repercussão do Recall da Microsoft.

O Google está instando os desenvolvedores de aplicativos Android de terceiros a incorporar recursos de inteligência artificial generativa (GenAI) de maneira responsável.
A nova orientação do gigante das pesquisas e da publicidade é um esforço para combater conteúdos problemáticos, incluindo conteúdo sexual e discurso de ódio, criados por meio dessas ferramentas.
Para isso, os aplicativos que geram conteúdo usando IA devem garantir que não criem Conteúdo Restrito, ter um mecanismo para que os usuários relatem ou sinalizem informações ofensivas e comercializá-los de maneira que represente com precisão as capacidades do aplicativo. Os desenvolvedores de aplicativos também estão sendo recomendados a testar rigorosamente seus modelos de IA para garantir que respeitem a segurança e a privacidade dos usuários.
“Asegure-se de testar seus aplicativos em vários cenários de usuários e protegê-los contra prompts que possam manipular o recurso de IA generativa para criar conteúdos prejudiciais ou ofensivos”, disse Prabhat Sharma, diretor de confiança e segurança do Google Play, Android e Chrome.
O desenvolvimento surge após uma recente investigação da 404 Media ter encontrado vários aplicativos na Apple App Store e no Google Play Store que anunciavam a capacidade de criar imagens nuas não consensuais.
O uso de dados públicos pela Meta para IA levanta preocupações
A adoção rápida de tecnologias de IA nos últimos anos também levou a preocupações mais amplas com a privacidade e segurança relacionadas aos dados de treinamento e à segurança do modelo, fornecendo a atores maliciosos uma maneira de extrair informações sensíveis e adulterar os modelos subjacentes para retornar resultados inesperados.
Além disso, a decisão da Meta de usar informações públicas disponíveis em seus produtos e serviços para ajudar a melhorar suas ofertas de IA e ter a “melhor tecnologia de recomendação do mundo” levou o grupo de privacidade austríaco noyb a entrar com uma reclamação em 11 países europeus alegando violação das leis de privacidade do GDPR na região.
Essas informações incluem coisas como postagens públicas ou fotos públicas e suas legendas”, a empresa anunciou no final do mês passado. “No futuro, também podemos usar as informações que as pessoas compartilham ao interagir com nossos recursos de IA generativa, como Meta AI, ou com uma empresa, para desenvolver e melhorar nossos produtos de IA.”
Especificamente, o noyb acusou a Meta de transferir o ônus para os usuários (ou seja, tornando-o opt-out em vez de opt-in) e não fornecer informações adequadas sobre como a empresa planeja usar os dados dos clientes.
A Meta, por sua vez, informou que estará “confiando na base legal de ‘Interesses Legítimos’ para processar determinados dados de primeira e terceira partes na Região Europeia e no Reino Unido” para melhorar a IA e criar melhores experiências. Os usuários da UE têm até 26 de junho para optar por não processar, o que podem fazer enviando uma solicitação.
Enquanto o gigante das redes sociais fez questão de salientar que a abordagem está alinhada com a forma como outras empresas de tecnologia estão desenvolvendo e melhorando suas experiências de IA na Europa, a autoridade de proteção de dados da Noruega, Datatilsynet, disse que está “dubitativa” sobre a legalidade do processo.
“Em nossa opinião, o mais natural seria pedir o consentimento dos usuários antes que suas postagens e fotos sejam usadas dessa maneira”, disse a agência em um comunicado.
“O Tribunal de Justiça da União Europeia já deixou claro que a Meta não tem ‘interesse legítimo’ em substituir o direito dos usuários à proteção de dados quando se trata de publicidade”, disse Max Schrems, do noyb. “Ainda assim, a empresa está tentando usar os mesmos argumentos para o treinamento de ‘tecnologia de IA’ indefinida.”
Microsoft enfrenta escrutínio adicional em relação ao Recall
O mais recente desentendimento regulatório da Meta chega em um momento em que o próprio recurso alimentado por IA da Microsoft chamado Recall recebeu uma reação rápida devido a riscos de privacidade e segurança que poderiam surgir como resultado da captura de capturas de tela das atividades dos usuários em seus PCs com Windows a cada cinco segundos e transformá-las em um arquivo pesquisável.
O pesquisador de segurança Kevin Beaumont, em uma nova análise, descobriu que é possível para um ator mal-intencionado implantar um ladrão de informações e extrair o banco de dados que armazena as informações analisadas das capturas de tela. O único requisito para executar isso é que o acesso aos dados exija privilégios de administrador na máquina de um usuário.