Destaques:
- TikTok baniu 20 contas após denúncia da BBC sobre uso de IA para criar conteúdo sexualizado.
- Imagens de mulheres negras geradas por IA eram usadas para direcionar usuários a sites com conteúdo explícito.
- Um dos casos envolveu o roubo e manipulação de vídeos de uma criadora de conteúdo real.
O TikTok anunciou o banimento de 20 contas em sua plataforma após uma investigação da BBC revelar o uso de imagens de mulheres negras geradas por Inteligência Artificial (IA) com fins de sexualização e direcionamento a conteúdo explícito. A denúncia expôs uma tendência preocupante de exploração e desinformação, que levanta questões sobre racismo, ética da IA e a segurança de criadores de conteúdo online.
A reportagem da BBC, em colaboração com pesquisadores da Riddance, uma publicação independente focada em IA, identificou dezenas de perfis no Instagram e TikTok que utilizavam avatares digitais de mulheres negras de forma altamente sexualizada. Essas imagens, geradas por IA, não eram identificadas como tal, violando as diretrizes das plataformas e perpetuando estereótipos raciais e linguagem ofensiva.
A investigação da BBC e as ações do TikTok
A investigação conjunta da BBC e dos analistas Jeremy Carrasco e Angel Nulani, da Riddance, rastreou cerca de 60 contas, predominantemente no Instagram, que continham links ou cadeias de links para conteúdo sexualmente explícito pago em sites de terceiros. Embora esses sites rotulassem as imagens como geradas por IA, as contas nas redes sociais não o faziam, criando uma fachada de autenticidade.
Após o contato da BBC, o TikTok agiu prontamente, removendo o conteúdo e banindo as 20 contas identificadas por violarem suas regras. A plataforma afirmou ter “tolerância zero para conteúdo que promova serviços sexuais fora da plataforma” e que proíbe o uso de conteúdo gerado por IA de indivíduos sem permissão. Além disso, o TikTok exige que usuários rotulem conteúdo realista criado por IA e aplicou essa rotulagem a diversos vídeos.
Características das imagens de IA e a exploração racial
Os avatares digitais frequentemente apresentavam trajes de banho mínimos ou roupas reveladoras, com formas corporais exageradas. Muitos exibiam tons de pele artificialmente escurecidos, manipulados digitalmente para criar uma aparência irreal. Nomes de contas como “preto”, “noir”, “escuro” e “ébano” eram comuns, e algumas postagens incluíam comentários racializados, como “amo homens brancos” ou “por que preciso de um cara branco na minha vida”, evidenciando uma clara fetichização.
Angel Nulani, uma das pesquisadoras, enfatiza que essas contas são racistas, pois perpetuam uma longa história de exploração de pessoas negras. Ela argumenta que o uso de caricaturas e terminologia de “jogo racial” demonstra que o objetivo não é o bem-estar das mulheres negras, mas sim a capitalização de sua imagem como parte da indústria de pornografia online. Jeremy Carrasco acrescenta que a IA confere uma nova força a esse fetiche, facilitando a manipulação de tons de pele e a criação de efeitos que antes exigiriam animação ou pintura corporal, sem as consequências sociais que uma pessoa real enfrentaria.
O caso de Riya Ulan: Roubo de identidade e desinformação
Um dos casos mais chocantes revelados pela investigação envolveu a criadora de conteúdo Riya Ulan, uma modelo da Malásia. Uma das contas desativadas pelo TikTok, que acumulou três milhões de seguidores em poucas semanas, roubou e modificou vídeos de Riya. O rosto de um avatar com tom de pele artificialmente escuro foi sobreposto ao corpo de Riya, replicando seus movimentos, roupas e cenários.
Riya expressou sua fúria à BBC, destacando que, embora seus vídeos sejam públicos, isso não justifica o roubo e a publicação como se fossem de outra pessoa. Um dos vídeos manipulados atingiu mais de 35 milhões de visualizações no TikTok e 173 milhões no Instagram, superando em muito as visualizações da publicação original de Riya. Embora os vídeos diretamente roubados não fossem sexuais, outros conteúdos na mesma conta de IA mostravam o personagem digital em roupas reveladoras ou realizando ações provocativas, com links para conteúdo adulto pago.
A modelo relatou sua preocupação com a dificuldade crescente de distinguir conteúdo real de IA, e com o fato de as pessoas continuarem a acreditar nesses modelos. Apesar de suas denúncias repetidas às plataformas, o conteúdo só foi removido do TikTok após o contato da BBC. A Meta, controladora do Instagram, afirmou estar investigando o conteúdo, e nove contas do Instagram rastreadas pela BBC parecem ter sido desativadas.
Implicações e o debate sobre a ética da IA
A modelo e criadora de conteúdo marroquina Houda Fonone descreve a tendência como um “apagamento”, onde a beleza negra só é aceita quando “refinada” com “cabelos sedosos, corpos extremamente magros e pele impecavelmente perfeita”. Ela alerta que isso reforça estereótipos e substitui as histórias e experiências de vida reais por uma imagem artificial.
O incidente sublinha a urgência de um debate mais amplo sobre a ética na criação e uso da IA, especialmente em plataformas de mídia social. A facilidade com que a tecnologia pode ser usada para criar e disseminar conteúdo enganoso e prejudicial, sem a devida identificação, representa um desafio significativo para a moderação de conteúdo e a proteção dos usuários e criadores de conteúdo reais. A necessidade de transparência sobre o uso de IA e a responsabilização das plataformas por garantir um ambiente seguro e respeitoso tornam-se cada vez mais evidentes. Para mais informações sobre o tema, consulte a reportagem original da BBC News Brasil.
Fonte: bbc.com

































