IA: Golpistas mudaram boca e voz da influencer em anúncio – 26/03/2025 – Tec

Автор
14 Leitura mínima

O vídeo diz tudo ao contrário do que Tânia Carvalho defende. O rosto é o dela, o quarto é o dela, as pernas são a dela, a voz parece ser a dela, mas a mensagem é algo que ela nunca promoveria.

“Eu tenho lipedema, e eu já estava no grau dois. E eu vou te contar como eu saí disso aqui, para esse resultado aqui em apenas sete dias”, diz o vídeo disponível como anúncios no Instagram. Nas imagens, um antes e depois das pernas de Tânia.

Lipedema é uma doença que vem sendo “descoberta” nos últimos anos. Ela causa acúmulo de gordura nas pernas e braços de aproximadamente 10% das mulheres em todo o mundo. Os nódulos se assemelham a celulite e podem causar dor.

O vídeo falso continua até começar a promover um milagroso “chá especial”.

“Eu só precisava tomar ele toda manhã durante sete dias”, diz no vídeo a falsa Tânia.

“O chá vai agir na sua corrente sanguínea, liberando toda a gordura adiposa, tecidos inflamados e retenção de líquidos.”

Não há qualquer comprovação de que um chá possa fazer tal efeito. E Tânia sabe bem disso.

Há menos de um ano, a carioca de 31 anos começou a compartilhar sua rotina após ser diagnosticada com lipedema, com a intenção de reunir mulheres que sofrem com o mesmo problema.

Ela estava se preparando para fazer uma cirurgia de lipoaspiração específica para retirar as células de gordura afetadas pela doença e queria compartilhar seu pós-operatório.

No processo de descoberta e cuidado, a carioca aprendeu que o tratamento de lipedema é um processo multidisciplinar, envolvendo exercícios, alimentação, tratamentos.

Ou seja, nada de um chá milagroso.

No vídeo verdadeiro, inclusive, Tânia justamente defende que não é “só fazer alguma coisa que vai ter resultado”, contando que seu tratamento envolveu a intervenção cirúrgica.

“Tudo é muito mais complexo do que malhar um ano, tem muitos fatores, como hormonal, idade. A doença não é tão simples quanto parece”, explicou no vídeo para as seguidoras.

Os vídeos de Tânia chamaram a atenção no Instagram e acabaram reunindo uma pequena comunidade de mulheres. No Instagram, em março de 2025, eram pouco mais de 6 mil seguidoras.

Mas o tamanho da conta não impediu que Tânia acabasse sendo vítima do chamado deepfake, um vídeo com sua imagem criado por uma IA (inteligência artificial) baseado em sua voz, gestos e expressões faciais.

Há plataformas on-line que oferecem com facilidade a criação desse tipo de conteúdo, também conhecido como mídia sintética.

Pessoas famosas já têm sido vítimas desse tipo de vídeo há algum tempo. A imagem do médico Drauzio Varella, por exemplo, tem sido usada em vídeos que promovem tratamentos especiais ou medicamentos para resolver problemas de saúde. Todos falsos.

Celebridades como a cantora Ivete Sangalo e as apresentadoras Ana Maria Braga e Xuxa também já foram vítimas

Mas o caso como o de Tânia chama atenção por ser de uma pessoa com pouca visibilidade. Ou seja, a maioria das pessoas que viu o anúncio provavelmente não sabe reconhecer como ela fala originalmente ou como ela pensa.

Também é sinal de que muitas pessoas podem estar tendo suas imagens usadas sem nem saber.

Até a publicação dessa reportagem, o anúncio seguia disponível, apesar da denúncia de Tânia ao Instagram. A usuária recebeu uma mensagem que diz que o vídeo “segue os padrões da comunidade”.

Em nota à BBC News Brasil, a Meta, dona do Instagram, apenas afirmou que “atividades que tenham como objetivo enganar, fraudar ou explorar terceiros não são permitidas”, orientando pessoas a denunciarem na plataforma – algo que Tânia diz já ter feito. A empresa não disse se vai tirar o conteúdo do ar.

Tânia diz ainda não saber se vai prosseguir com alguma ação judicial, já que isso demandaria “energia e dinheiro”.

‘ATÉ AGORA SEM ACREDITAR’

Essa não foi a primeira vez que a imagem de Tânia foi usada num vídeo para promover algum produto on-line. Há alguns meses, imagens das pernas dela apareceram numa montagem junto ao depoimento de um médico para vender um “protocolo de desinflamação” de combate ao lipedema.


Dessa vez, porém, a tecnologia foi mais sofisticada, com a própria imagem dela falando do chá milagroso.

“No primeiro vídeo, achei que era o máximo que podiam me atingir. Quando me mandaram isso (o deepfake), eu fiquei muito chocada e até agora estou sem acreditar”, diz Tânia.

“O fato de ver os dentes que não são meus, naquela boca que não é minha, me ouvindo falar algo que é absurdo, me fez pensar ‘meu Deus, eu posso realmente ser vítima de algo muito pior’.”

Foram duas amigas que alertaram Tânia sobre o golpe com o vídeo, já que conheciam o conteúdo original e sabiam que ela não postaria aquilo que estavam vendo.

Por seguirem páginas relacionadas ao lipedema, provavelmente as amigas entraram como um público-alvo do anúncio falso.

O vídeo está vinculado a uma página do Facebook, de uma suposta médica sem posts ou seguidores. A foto usada nesse perfil pode ser rastreada a outras páginas de saúde e até a um blog da Costa do Marfim que alerta que essa é uma imagem frequentemente usada em sites por golpistas.

Ao final do vídeo deepfake, há um link que leva a um site com uma pesquisa sobre sintomas do lipedema, para se chegar ao “método caseiro que mulheres estão eliminando a gordura de forma natural em sete dias”.

Na medida em que se avança nas perguntas, há relatos de celebridades como a modelo Yasmin Brunet, que recentemente divulgou ter a doença.

Ao final, é vendido por R$ 37 um pacote de “produtos”. Entre eles, a “receita secreta do chá detox anti-inflamatório de lipedema” e um “acompanhamento personalizado via WhatsApp”.

Tânia não chegou a ser procurada por alguém que tenha de fato caído no golpe.

Mas, após saber que estavam usando sua imagem, a carioca postou um vídeo reagindo ao deepfake. Foi aí que ela ficou assustada. Muitas pessoas comentaram que demoraram para perceber a diferença entre a “Tânia fake” e ela.

“Porque uma coisa são as pessoas que me conhecem, sabem o que eu falo, minha voz, o vídeo original. Mas as pessoas que não me conhecem vendo aquele vídeo, no desespero, podem cair”, diz.

Essa busca por soluções ao lipedema vem aumentando nos últimos anos devido a mais conhecimento sobre o assunto.

Em 2019, a Organização Mundial da Saúde (OMS) reconheceu o lipedema como uma doença distinta. Em 2022, o quadro foi incluído na Classificação Internacional de Doenças (CID-11), um manual amplamente utilizado como referência global para identificação e registro de condições de saúde.

No Brasil, entretanto, a adoção da CID-11, prevista inicialmente para 2025, foi adiada para 2027 pelo Ministério da Saúde, que justificou a decisão com a necessidade de treinar profissionais e atualizar os sistemas.

O lipedema é considerado “novo” não só pela falta de familiaridade de profissionais de saúde com o quadro – que ainda persiste mesmo após 85 anos da primeira descrição – mas também porque faltam respostas importantes sobre o mecanismo da doença.

“Ainda falta entender o mecanismo do acúmulo diferenciado da gordura do lipedema e suas vias metabólicas, ou seja, os processos bioquímicos responsáveis pela produção, armazenamento e mobilização dessa gordura no organismo”, explicou à BBC o cirurgião vascular Mauro de Andrade.


‘PRECISAMOS NOS ACOSTUMAR A NÃO ACREDITAR’, DIZ ADVOGADA

Para Tânia, o que preocupa não é apenas o caso em que ela foi vítima.

“Eu sou uma ‘Zé ninguém’ e usaram minha imagem. E eu fico imaginando crianças sendo expostas, mulheres que têm a imagem delas usada para coisas piores. É algo bem preocupante”, diz.

Na avaliação da advogada Andressa Bizutti, mestre na Universidade Harvard, nos EUA, e pesquisadora de mídia sintética na USP (Universidade de São Paulo), esse avanço na tecnologia com a IA, na verdade, escancara problemas sociais anteriores, como golpes, informações falsas ou até o uso do corpo da mulher em casos de deepfakes pornô que se espalham pela internet.

A advogada defende que o que aconteceu com deepfake é que a tecnologia mexeu em um lugar que a sociedade ainda não sabia que era possível: o vídeo. Já estávamos acostumados a lidar com montagem de fotos, por exemplo, sabendo que nem tudo o que vemos é verdade.

“Vídeo sempre teve um consenso na filosofia de transparência: você via e achava que estava vendo a realidade”, diz Bizutti, sócia do escritório b/luz.

“A mídia sintética dá um passo adicional por conta desse aspecto cultural que a gente ainda não se acostumou como sociedade.”

Apesar dos avançados deepfakes, Bizutti explica que casos como o de Tânia já são contemplados na legislação vigente sobre direitos à personalidade (imagem, nome e voz).

“Esses direitos estão protegidos no Brasil, estão presentes na Constituição Federal, no Código Civil e são inalienáveis [não se pode transferir]”, conta.

A lei já diz que não se pode usar a imagem de uma pessoa “se o uso for atingir a honra, a boa fama, a respeitabilidade ou se destinarem a fins comerciais”.

Há um projeto de lei avançando no Congresso, o PL 2338, que trata sobre Inteligência Artificial. A respeito de deepfake, ele diz, ainda sem dar detalhes, que vídeos alterados precisariam ser identificados de alguma forma. Ou seja, trata mais sobre a transparência do uso de IA do que regula o que pode ou não fazer com a imagem das pessoas.

Para a advogada especializada no tema, os passos que a sociedade e o direito precisam dar é “mais uma questão sobre como vamos lidar com esses usos do que necessariamente uma regulamentação”.

“O problema não é a IA ou deepfake. O problema é você ver um vídeo e ser enganado por esse vídeo. A gente tem que se acostumar com o fato que a gente não pode acreditar no que a gente está vendo”.

Para Bizutti, com o aprimoramento da tecnologia, vai adiantar cada vez menos a busca por “sinais” de que o vídeo é falso, como uma voz robótica ou uma boca que mexe de maneira esquisita.

“Você tem saber de onde o vídeo vem, a fonte. Da mesma forma, quando começamos a usar internet nas pesquisas da escola, a gente aprendeu que não podia pegar informação de qualquer lugar no Google, de um site aleatório. O mesmo passo a gente vai precisar dar com os vídeos”, conta.

Caso a vítima se sentir lesada, o ideal procurar os mecanismos judiciais. O Marco Civil da Internet, por exemplo, tem mecanismos para o usuário pedir a identificação de quem realizou as postagens e requerer indenização, por exemplo. O Judiciário também pode determinar que as plataformas tirem o conteúdo do ar.

Texto publicado originalmente aqui

Compartilhe este artigo
Deixe um comentário

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *