Boas vindas ao Nanobits, um site sem publicidade, sem pop ups chatos e sem vídeo que reproduz sozinho. Já está carregado. Boa leitura!

Cuidado com trends de IA: busca por likes entrega seus dados a criminosos

Vale a pena trocar seus dados pessoais e colocar sua segurança em risco em troca de alguns likes nas redes sociais? Uma nova tendência viralizou no Instagram, TikTok e LinkedIn: você manda uma foto pessoal e pedem à inteligência artificial para criar uma imagem baseada em “tudo o que ela sabe” sobre sua vida e trabalho. O resultado gera engajamento, mas especialistas da Kaspersky alertam que a brincadeira facilita o acesso de informações sensíveis por golpistas para usá-las em golpes na web.

Para que ferramentas como ChatGPT ou Gemini criem sua ilustração personalizada e fiel no escritório ou com a família, é preciso fornecer um grande volume de dados no comando — o prompt. O problema não é a imagem gerada, mas o caminho para obtê-la.

Segundo a empresa de cibersegurança, para que a inteligência artificial consiga atender ao pedido de “desenhar tudo o que sabe”, os usuários enviam voluntariamente muitos dados sensíveis, como o nome da empresa, cargo exato ocupado e detalhes visuais do ambiente de trabalho; rotinas diárias, hobbies e locais frequentados; fotos de alta resolução e nomes de familiares.

Com esses dados em mãos, criminosos podem criar mensagens falsas altamente realistas para aplicarem golpes no WhatsApp ou email. Ao citar detalhes específicos da sua vida — como o nome do chefe ou um hábito rotineiro —, o golpista ganha a confiança de seus amigos e familiares para roubar dinheiro ou credenciais.

“O maior risco não está na ilustração criada, mas em tudo o que as pessoas revelam para obtê-la. Quando alguém compartilha detalhes sobre seu trabalho, sua família ou sua rotina, sem perceber está facilitando informações que podem ser usadas para fraudes altamente direcionadas ou suplantação de identidade”, afirma Fabio Assolini, diretor da equipe global de pesquisa e análise da Kaspersky.

Dados que não desaparecem

Outro ponto crítico é a retenção de dados. Ao interagir com essas plataformas sem as devidas configurações de privacidade, você autoriza que textos, fotos e endereços IP sejam armazenados para treinar os modelos de IA. O conteúdo não desaparece após a geração da caricatura e passa a integrar o banco de dados da ferramenta.

Pesquisas da Kaspersky apontam que 36% dos brasileiros não revisam permissões de aplicativos e 14% não sabem identificar uma mensagem falsa. Com a munição fornecida pelas próprias vítimas nas trends, a detecção de fraudes torna-se ainda mais complexa.

Como se proteger

A recomendação dos especialistas não é necessariamente abandonar o uso da IA, mas limitar a exposição de dados sensíveis. Entre as ações de proteção estão o uso de modo temporário do navegador ou do app de IA, usar informações mais vagas e tomar cuidado com informações de amigos e familiares.

Entenda melhor os pontos abaixo:

  • Use o Modo Temporário: ative configurações que não salvam o histórico de conversa para treinamento da IA, como o chato temporário do ChatGPT ou modo incógnito.
  • Seja vago: evite citar nomes reais de empresas, endereços, horários específicos ou locais frequentados no comando de texto.
  • Cuidado com terceiros: não envie fotos ou dados de crianças e familiares que não consentiram com a exposição.

Também é recomendável analisar as permissões e verificar a lista de dados coletados pelos apps que você tem instalados em seu celular. Nanobits tem uma lista com o que as principais IAs coletam, de acordo com as próprias lojas do Android e do iOS.

Gostou do conteúdo? Conta pra gente nos comentários, fique à vontade para deixar sua opinião (com bom senso e respeito, claro). E siga as redes sociais e o canal no YouTube:

Deixe uma resposta

Este site utiliza o Akismet para reduzir spam. Saiba como seus dados em comentários são processados.