Os benefícios da prática regular de atividades físicas

Não confie em nenhuma resposta que um chatbot envie para você. E provavelmente não deve confiar a ele suas informações pessoais. Isso é especialmente verdadeiro para “namoradas virtuais” ou “namorados virtuais” de acordo com uma nova pesquisa.

Uma análise sobre 11 chatbots de romance e companhia, publicada pela Fundação Mozilla, descobriu uma série de preocupações com segurança e privacidade dos bots. Coletivamente, os aplicativos, que foram baixados mais de 100 milhões de vezes em dispositivos Android, coletam enormes quantidades de dados das pessoas; usam rastreadores que enviam informações para o Google, Facebook e empresas na Rússia e China; permitem que os usuários usem senhas fracas; e não são transparentes sobre sua propriedade e os modelos de IA que os alimentam.

Desde o lançamento do ChatGPT pela OpenAI em novembro de 2022, os desenvolvedores têm corrido para implantar grandes modelos de linguagem e criar chatbots com os quais as pessoas possam interagir e pagar para assinar. A pesquisa da Mozilla traz uma visão de como essa corrida pode ter negligenciado a privacidade das pessoas, e de tensões entre tecnologias emergentes e a forma como coletam e usam dados. Também indica como as mensagens de chat das pessoas podem ser abusadas por hackers.

Muitos serviços de “namoradas virtuais” ou chatbots românticos parecem semelhantes. Eles muitas vezes apresentam imagens geradas por IA de mulheres que podem ser sexualizadas ou acompanhadas de mensagens provocativas. Os pesquisadores da Mozilla examinaram diversos chatbots, incluindo aplicativos grandes e pequenos, alguns que se dizem “namoradas”. Outros oferecem suporte por meio de amizade ou intimidade, ou permitem jogos de interpretação e outras fantasias.

“Há vários problemas com esses aplicativos e sites”, diz Jen Caltrider, líder do projeto da equipe Privacy Not Included da Mozilla, que conduziu a análise. “Eles te incentivam ao jogo de interpretação, muito sexo, muita intimidade, muita compartilhação.” Por exemplo, capturas de tela do chatbot EVA AI mostram textos dizendo “Adoro quando você me envia suas fotos e voz” e perguntando se alguém está “pronto para compartilhar todos os seus segredos e desejos”.

Caltrider diz que há várias questões com esses aplicativos e sites. Muitos deles podem não ser claros sobre quais dados estão compartilhando com terceiros, onde estão localizados ou quem os cria, acrescentando que alguns permitem que as pessoas criem senhas fracas, enquanto outros fornecem poucas informações sobre a IA que usam. Os aplicativos analisados tinham todos diferentes casos de uso e fraquezas.

Pegue o Romantic AI, um serviço que permite “criar sua própria namorada virtual”. Imagens promocionais em sua página inicial mostram um chatbot enviando uma mensagem dizendo “Acabei de comprar lingerie nova. Quer ver?”. Os documentos de privacidade do aplicativo, de acordo com a análise da Mozilla, afirmam que não venderão os dados das pessoas. No entanto, quando os pesquisadores testaram o aplicativo, descobriram que ele “enviou 24.354 rastreadores de anúncios em um minuto de uso.” O Romantic AI, como a maioria das empresas destacadas na pesquisa da Mozilla, não respondeu ao pedido de comentário do WIRED. Outros aplicativos monitorados tinham centenas de rastreadores.

Em geral, Caltrider diz que os aplicativos não são claros sobre quais dados podem compartilhar ou vender, ou exatamente como usam algumas dessas informações. “A documentação legal era vaga, difícil de entender, não muito específica – meio lugar-comum”, diz Caltrider, acrescentando que isso pode reduzir a confiança que as pessoas deveriam ter nas empresas.