Como escolher a melhor hospedagem de sites para o seu negócio online

Não confie em nenhuma resposta que um chatbot envie para você. E provavelmente você não deve confiar nele com suas informações pessoais também. Isso é especialmente verdadeiro para “namoradas de IA” ou “namorados de IA”, de acordo com uma nova pesquisa.

Uma análise de 11 chatbots de romance e companhia, publicada na quarta-feira pela Fundação Mozilla, descobriu uma série de preocupações de segurança e privacidade com os bots. Coletivamente, os aplicativos, que foram baixados mais de 100 milhões de vezes em dispositivos Android, coletam enormes quantidades de dados das pessoas; usam rastreadores que enviam informações para o Google, Facebook e empresas na Rússia e China; permitem que os usuários usem senhas frágeis; e têm falta de transparência sobre sua propriedade e os modelos de IA que os alimentam.

Desde que a OpenAI lançou o ChatGPT no mundo em novembro de 2022, os desenvolvedores têm corrido para implementar grandes modelos de linguagem e criar chatbots com os quais as pessoas podem interagir e pagar para assinar. A pesquisa da Mozilla fornece um vislumbre de como essa corrida do ouro pode ter negligenciado a privacidade das pessoas e das tensões entre as tecnologias emergentes e como elas coletam e usam dados. Também indica como as mensagens de chat das pessoas podem ser usadas por hackers.

Muitos serviços de “namoradas de IA” ou chatbots românticos são semelhantes. Muitas vezes apresentam imagens geradas por IA de mulheres que podem ser sexualizadas ou acompanhadas de mensagens provocativas. Os pesquisadores da Mozilla examinaram uma variedade de chatbots, incluindo aplicativos grandes e pequenos, alguns dos quais se dizem ser “namoradas”. Outros oferecem suporte às pessoas por meio de amizade ou intimidade, ou permitem jogos de interpretação e outras fantasias.

“Esses aplicativos são projetados para coletar uma tonelada de informações pessoais”, diz Jen Caltrider, líder do projeto da equipe Privacy Not Included da Mozilla, que conduziu a análise. “Eles te levam em direção a jogos de interpretação, muito sexo, muita intimidade, muita partilha.” Por exemplo, capturas de tela do chatbot EVA AI mostram texto dizendo “Eu adoro quando você me envia suas fotos e voz” e perguntando se alguém está “pronto para compartilhar todos os seus segredos e desejos”.

Caltrider diz que há múltiplos problemas com esses aplicativos e sites. Muitos dos aplicativos podem não deixar claro quais dados estão compartilhando com terceiros, onde estão baseados ou quem os cria, diz Caltrider, acrescentando que alguns permitem que as pessoas criem senhas fracas, enquanto outros fornecem poucas informações sobre a IA que usam. Os aplicativos analisados tinham diferentes casos de uso e vulnerabilidades.

Um exemplo é o Romantic AI, um serviço que permite “criar sua própria namorada de IA”. As imagens promocionais em sua página inicial mostram um chatbot enviando uma mensagem dizendo: “Acabei de comprar lingerie nova. Quer ver?” Os documentos de privacidade do aplicativo, de acordo com a análise da Mozilla, dizem que não venderão os dados das pessoas. No entanto, quando os pesquisadores testaram o aplicativo, descobriram que ele “enviou 24.354 rastreadores de anúncios em um minuto de uso”. O Romantic AI, assim como a maioria das empresas destacadas na pesquisa da Mozilla, não respondeu ao pedido de comentário da WIRED. Outros aplicativos monitorados tinham centenas de rastreadores.

Em geral, Caltrider diz, os aplicativos não deixam claro quais dados podem compartilhar ou vender, ou exatamente como usam algumas dessas informações. “A documentação legal era vaga, difícil de entender, pouco específica – meio padronizada”, diz Caltrider, acrescentando que isso pode reduzir a confiança que as pessoas deveriam ter nas empresas.