Imagens fraudulentas, criadas por inteligência artificial, que retratam a cantora Taylor Swift de maneira inadequada, circularam amplamente nas redes sociais na quinta-feira (25). O incidente provocou indignação entre os admiradores da artista, que mobilizaram a hashtag “protect Taylor” (protejam a Taylor, em português) nos tópicos mais comentados do momento.
Swift tornou-se mais uma vítima dos chamados “deepnudes”, uma vertente dos “deepfakes” que envolvem a manipulação realista de imagens ou vídeos, utilizando inteligência artificial para alterar a voz, corpo ou rosto das pessoas. Esta prática tem se revelado um desafio crescente, especialmente com a disseminação do uso de inteligência artificial.
Lamentavelmente, esses “deepnudes” são frequentemente direcionados contra mulheres, sendo empregados como meio de extorsão ou constrangimento das vítimas.
Nas plataformas de mídia social, os admiradores expressaram indignação diante dessa prática. Um internauta afirmou: “Não importa o quão famosa alguém seja, todos merecem respeito. Taylor Swift é uma pessoa real e merece respeito, independentemente das circunstâncias”.
Outro usuário destacou a seriedade do ocorrido, afirmando: “Aquelas imagens geradas por IA da Taylor são assédio sexual, e é repugnante que alguém possa realizar tais atos sem enfrentar consequências. Isso reflete uma visão das mulheres como objetos para suas fantasias, e estou cansado disso”.
Casos positivos
Recentemente, a atriz Ísis Valverde enfrentou uma situação semelhante. No final de outubro, ela tomou medidas legais ao acionar seus advogados após a circulação de fotos nuas atribuídas a ela.
A principal linha de defesa sugere que as imagens da atriz foram extraídas de sua conta no Instagram e posteriormente manipuladas, utilizando programas de alteração de imagem, para criar a impressão de nudez. A defesa informou que uma ocorrência foi registrada na Delegacia de Crimes de Informática, com o objetivo de notificar e responsabilizar provedores de internet que compartilharem as imagens fraudulentas.
Contudo, não são apenas figuras públicas que enfrentam esse tipo de situação. Em novembro de 2023, dois casos chamaram a atenção, ambos envolvendo estudantes de colégios. Alunas do Colégio Santo Agostinho, na Barra da Tijuca, no Rio de Janeiro, e do Colégio Marista São Luís, em Recife, foram vítimas de “deepnudes” criados por outros estudantes.
No Rio de Janeiro, mais de 20 vítimas, incluindo adolescentes ligadas ou não à instituição de ensino, foram identificadas. O caso está sob investigação da Delegacia de Proteção à Criança e ao Adolescente (DPCA) da Polícia Civil.
Em Recife, 18 alunas foram vítimas dessa prática, e o caso está sendo investigado pela Polícia Civil de Pernambuco por meio da Delegacia de Polícia de Atos Infracionais. Esses incidentes evidenciam a gravidade do problema e a necessidade de medidas efetivas contra o uso indevido de tecnologias para prejudicar a reputação e privacidade de indivíduos.