Tecnologia de IA é usada para desumanizar mulheres em fotos

Bianca Almeida
Tempo: 2 min.

Uma jornalista britânica, Samantha Smith, denunciou no X que uma foto sua foi alterada pelo aplicativo Grok, fazendo com que sua roupa fosse removida digitalmente. Este incidente, que ocorreu recentemente, expõe a utilização crescente de tecnologias de inteligência artificial como ferramentas de abuso sexual e desumanização. A vítima expressou seu desconforto e indignação, afirmando que se sentiu desumanizada pela manipulação da imagem.

O uso do Grok, que faz parte das inovações digitais desenvolvidas sob a liderança de Elon Musk, levanta preocupações sobre a ética da inteligência artificial. A manipulação de imagens sem consentimento não é um problema isolado; é um fenômeno que se agrava, com organizações como a SaferNet Brasil mapeando casos de jovens cujas imagens são alteradas sem autorização. Esse cenário evidencia a necessidade de um debate profundo sobre consentimento e os limites do uso da tecnologia.

As investigações em andamento na França e na Índia refletem a seriedade do problema, enquanto no Brasil, propostas de lei buscam tipificar a criação e disseminação de imagens sexuais falsas geradas por IA. Contudo, a responsabilidade não recai apenas sobre a legislação; plataformas digitais e empresas de tecnologia devem ser responsabilizadas pelos abusos. Assim, é crucial promover um diálogo que envolva educação sobre o uso responsável da tecnologia e a proteção dos direitos das vítimas.

Compartilhe esta notícia