A Apple removeu da App Store uma série de aplicativos que se descreviam como ferramentas para “apimentar selfies”. Os apps eram anunciados no TikTok como aplicações que “permitem tirar a roupa de qualquer pessoa”, de acordo com uma investigação da BBC.


Esses aplicativos, conhecidos como “nudify”, utilizam inteligência artificial para apagar roupas de uma pessoa em uma foto — ou até um vídeo, em alguns casos — para substituir por qualquer outra coisa. Eles permitem deixar uma pessoa de biquíni, roupas de baixo, ou até completamente nua.
Apesar de estarem descritos como apps para “apimentar suas selfies” na App Store, esses aplicativos eram anunciados no TikTok como ferramentas para criar deepfakes de nudez. Algumas propagandas prometia “colocar qualquer pessoa de biquíni”, enquanto outras iam além, prometendo mostrar “as fotos mais quentes de sua paixão” ou “tirar a roupa de qualquer pessoa”.
Em alguns anúncios veiculados na rede de vídeos curtos, imagens manipuladas de atrizes de Game of Thrones eram usadas para chamar atenção. Segundo a BBC, ao menos quatro aplicativos do tipo veiculavam publicidade no TikTok. A rede social já removeu os vídeos, mas há réplicas deles publicadas por outros perfis — que podem ou não ser ligados aos desenvolvedores.

De acordo com um porta-voz do TikTok, essas propagandas violam política da rede que proíbe conteúdo sexualmente sugestivo em anúncios. Mas a empresa não conseguiu explicar como esses apps conseguiram burlar a moderação e ter a publicidade removida apenas depois de a BBC publicar uma matéria sobre o caso.
Deepfake de nudez é considerado crime em vários países
Criar deepfake de pessoas nuas é considerado crime em vários países, mas é difícil fiscalizar e punir os responsáveis por ferramentas que criam esse tipo de manipulação. O professor Arvind Narayanan, do Centro de Política de Tecnologia da Informação de Princeton, disse que as empresas de tecnologia têm um dever moral de restringir a proliferação dessas aplicações.
“Deveria haver muito mais barreiras para impedir o acesso a essa tecnologia”, afirma ele, acrescentando que autoridades ao redor do mundo deveriam banir esses aplicativos das lojas virtuais e garantir que as redes sociais não possam “lucrar com anúncios que os promovem”.
Esses apps, infelizmente, estão se tornando cada vez mais comuns. Já foram pilar de escândalos na Espanha, Coreia do Sul e Estados Unidos, muitas vezes envolvendo meninas em idade escolar. Houve casos em que as vítimas foram chantageadas com as próprias fotos manipuladas por IA.
No Brasil, a Câmara dos Deputados aprovou, em fevereiro, um projeto que pune a divulgação de deepfake com conteúdo sexual. O texto está em análise no Senado.
Longe de mim pregar moralismo ou ser contra a nudez. Mas usar inteligência artificial para criar imagens falsas de pessoas peladas não é um bom uso da ferramenta. É um desrespeito à pessoa que fica nua sem sequer saber que alguém está fazendo uma sacanagem dessas, quanto menos deu consentimento.
Inclusive, acho válido quem gosta de fazer “nudes”. Mas também precisa do consentimento da pessoa que recebe essas fotos antes de sair compartilhando por aí.
Gostou do conteúdo? Conta pra gente nos comentários, fique à vontade para deixar sua opinião (com bom senso e respeito, claro). Não esquece de seguir o perfil do Nanobits no Bluesky, no Twitter e no Telegram. Você também pode seguir a página no Facebook, o canal no WhatsApp e participe de nosso grupo de conversas.
Fonte: BBC