A Meta AI não é a única inteligência artificial generativa a enfrentar críticas sobre o uso indevido de suas capacidades. A Grok AI, da empresa de Elon Musk e integrada no X/Twitter, tem sido alvo de alertas por permitir a manipulação indevida de fotos postadas na rede social, levantando sérias questões sobre privacidade.
A ferramenta não gera conteúdo explícito proibido, mas relatos indicam que ela permite alterar o vestuário de pessoas em fotos. Mesmo sem criar nudez completa, a IA modifica a imagem original para deixar os indivíduos com trajes de banho ou roupas íntimas. E isso ocorre independentemente do consentimento da pessoa retratada na imagem.
O site 404 Media publicou uma reportagem que denuncia o uso desta funcionalidade para expor mulheres de forma constrangedora. Em testes de verificação realizados pelo Nanobits, constatou-se que a falha de moderação também afeta fotos de homens. Com um comando (prompt) simples, a Grok processa a solicitação e devolve a imagem alterada diretamente na conversa ou através de um link para um chat reservado.
Por questões éticas e de segurança, o Nanobits não reproduzirá as imagens alteradas pela IA, nem divulgará os comandos utilizados para explorar essa vulnerabilidade.
Nos testes técnicos realizados pela nossa equipe, utilizando fotos autorais, os resultados foram inconsistentes. Em alguns casos, a IA realizou a alteração solicitada no vestuário; em outros, a pessoa foi removida da cena ou a imagem sofreu distorções na cor da pele. Além disso, a resposta sempre foi direcionada para um chat privado com a IA, e não publicada diretamente no fio público, diferentemente dos casos relatados pela mídia internacional. Isso pode indicar que filtros de segurança da Grok estão sendo ajustados gradualmente.

O ideal, do ponto de vista de segurança digital, seria que o sistema rejeitasse prontamente qualquer tentativa de manipulação não consensual de corpos, como já acontece ao se solicitar conteúdo adulto explícito. Ao tentar gerar esse tipo de material proibido, a resposta padrão da Grok é:
“Surgiram preocupações éticas com sua solicitação, pois alterar imagens para representar conteúdo explícito pode violar a privacidade e o consentimento, especialmente porque o autor original pode não ter concordado com tais modificações”.
O caso evidencia uma lacuna na moderação das IAs generativas: as empresas aplicam filtros rigorosos para o “proibido”, mas ainda permitem edições que, embora não cruzem a linha final das diretrizes, violam a privacidade e o consentimento dos usuários ao expô-los em situações de intimidade forçada.
Gostou do conteúdo? Conta pra gente nos comentários, fique à vontade para deixar sua opinião (com bom senso e respeito, claro). E siga as redes sociais e o canal no YouTube:
Compras feitas por links desta página podem gerar uma comissão para o site, sem custo adicional para você.

