Dicas para melhorar sua redação acadêmica

Não confie em nenhuma resposta enviada por um chatbot. E provavelmente não confie nele com suas informações pessoais também. Isso é especialmente verdadeiro para “namorados ou namoradas AI”, de acordo com uma nova pesquisa.

Uma análise de 11 chatbots de romance e companhia, publicada na quarta-feira pela Fundação Mozilla, descobriu uma série de preocupações com segurança e privacidade com os bots. Coletivamente, os aplicativos, que foram baixados mais de 100 milhões de vezes em dispositivos Android, coletam grandes quantidades de dados das pessoas; usam rastreadores que enviam informações para o Google, Facebook e empresas na Rússia e China; permitem que os usuários utilizem senhas fracas; e carecem de transparência sobre sua propriedade e os modelos de IA que os alimentam.

Desde que a OpenAI lançou o ChatGPT no mundo em novembro de 2022, os desenvolvedores têm corrido para implementar grandes modelos de linguagem e criar chatbots com os quais as pessoas possam interagir e pagar para assinar. A pesquisa da Mozilla fornece um vislumbre de como essa corrida do ouro pode ter negligenciado a privacidade das pessoas e as tensões entre tecnologias emergentes e como elas coletam e usam dados. Também indica como as mensagens de chat das pessoas poderiam ser abusadas por hackers.

Muitos serviços de “namorados AI” ou chatbot românticos parecem semelhantes. Muitas vezes apresentam imagens geradas por IA de mulheres que podem ser sexualizadas ou aparecem ao lado de mensagens provocativas. Os pesquisadores da Mozilla examinaram uma variedade de chatbots, incluindo aplicativos grandes e pequenos, alguns dos quais afirmam ser “namoradas”. Outros oferecem apoio às pessoas por meio de amizade ou intimidade, ou permitem jogos de interpretação e outras fantasias.

“Esses aplicativos são projetados para coletar muitas informações pessoais”, diz Jen Caltrider, líder do projeto da equipe “Privacidade não incluída” da Mozilla, que conduziu a análise. “Eles te empurram para a interpretação, muito sexo, muita intimidade, muito compartilhamento.” Por exemplo, capturas de tela do chatbot EVA AI mostram texto dizendo “Eu adoro quando você me envia suas fotos e sua voz” e perguntando se alguém está “pronto para compartilhar todos os seus segredos e desejos”.

Caltrider diz que existem vários problemas com esses aplicativos e sites. Muitos dos aplicativos podem não ser claros sobre quais dados estão compartilhando com terceiros, onde estão baseados ou quem os cria, diz Caltrider, acrescentando que alguns permitem que as pessoas criem senhas fracas, enquanto outros fornecem pouca informação sobre a IA que usam. Os aplicativos analisados tinham todos usos e vulnerabilidades diferentes.

Leve AI Romântico, um serviço que permite que você “crie sua própria namorada IA”. Imagens promocionais em sua página inicial retratam um chatbot enviando uma mensagem dizendo “Acabei de comprar lingerie nova. Quer ver?” Os documentos de privacidade do aplicativo, de acordo com a análise da Mozilla, dizem que não venderão os dados das pessoas. No entanto, quando os pesquisadores testaram o aplicativo, descobriram que ele “enviou 24.354 rastreadores de anúncios em um minuto de uso”. Leve AI Romântico, como a maioria das empresas destacadas na pesquisa da Mozilla, não respondeu ao pedido de comentário da WIRED. Outros aplicativos monitorados tinham centenas de rastreadores.

Em geral, Caltrider diz, os aplicativos não são claros sobre quais dados podem compartilhar ou vender, ou exatamente como usam algumas dessas informações. “A documentação legal era vaga, difícil de entender, não muito específica – uma espécie de modelo padrão”, diz Caltrider, acrescentando que isso pode reduzir a confiança que as pessoas devem ter nas empresas.