A inteligência artificial transformou a pornografia sem consentimento em um tipo de violência acessível. Em 2026, o debate não se limita mais à sofisticação técnica das ferramentas, mas também à facilidade com que plataformas e serviços oferecem esse tipo de abuso como um produto.
Em janeiro, mais de 50 aplicativos para manipulação de rostos estavam disponíveis no Google Play, e 47 na App Store, nos Estados Unidos. Esses serviços, que têm interface em lojas de aplicativos, tornam o abuso algo conveniente, fazendo com que o ato deixe de ser uma exceção e se torne um consumo fácil.
Nos sites adultos, é comum encontrar anúncios que oferecem serviços de manipulação de imagem. Empresas estão criando ‘gêmeas digitais’ de atrizes pornô utilizando inteligência artificial. A lógica se aplica tanto a celebridades quanto a pessoas comuns, transformando imagens íntimas sintéticas não consensuais em mercadorias.
O problema vai além da falsidade visual; o modelo de negócio que vende intimidade forjada como serviço é preocupante. Sem exigir conhecimento técnico, plataformas permitem que usuários enviem fotos de colegas, conhecidas ou ex-parceiras, convertendo a proximidade social em valor de consumo e circulação.
Esse modelo sugere que quanto maior a familiaridade do usuário com a vítima, maior o valor do conteúdo para quem consome ou compartilha. A adesão ao mercado é sustentada por crenças que minimizam o dano, como a ideia de que figuras públicas são alvos legítimos e que não há violência ou crime na manipulação de imagem.
Uma pesquisa da University College Cork (UCC), realizada no início do ano com mais de dois mil participantes, confirmou que a crença nesses mitos aumenta a propensão de usuários a assistir, criar ou compartilhar esse tipo de material. A instituição defende que o combate a essa prática exige mais regulação e educação do usuário.
Um projeto lançado em fevereiro pelo instituto alemão ITAS-KIT, em parceria com universidades locais, estima que 98% dos deepfakes sejam pornográficos. O dano causado não depende de a imagem ser considerada verdadeira; a violência ocorre porque a agressão reencena a intimidade da vítima, expondo seu corpo de forma sexualizada sem consentimento e retirando o controle sobre a própria imagem.
A pesquisa do ITAS-KIT conclui que as punições não avançam, pois os agressores permanecem anônimos e as vítimas evitam a denúncia formal. O avanço das punições é limitado não apenas pela falta de resposta institucional, mas também pela dificuldade de aplicar regras existentes em contextos marcados por anonimato, circulação rápida e subnotificação.


