04 de Dezembro de 2024

Drauzio Varella vendendo colágeno? Como deep fakes estão sendo usados para golpes


Aquele velho ditado “só acredito vendo” já não é o bastante nos dias atuais quando, graças ao uso de Inteligência Artificial (IA), pode-se facilmente criar e adulterar áudios e vídeos com cada vez mais qualidade e semelhança ao original. É preciso desconfiar dos conteúdos encontrados na internet e recebidos por aplicativos de mensagens.

Prova disso, é um vídeo em que o médico Drauzio Varella aparece supostamente indicando gotinhas milagrosas para manter a pele jovem e bonita, que passou a circular no TikTok há pouco mais de uma semana.

No vídeo, de quase 30 segundos, o médico aparece - em vários momentos sem que se veja a boca dele - narrando os benefícios do suposto medicamento enquanto fotos de pessoas famosas, que supostamente usam o produto, aparecem na tela.

Apesar da voz ser muito semelhante à de Drauzio Varella, o vídeo é falso e se trata de uma montagem com uso de IA para clonar a voz do médico, que é colocada em um vídeo produzido por ele, mas que originalmente abordava outro assunto.

E essa não foi a primeira vez. Por constantemente ter a sua a imagem atrelada a indicação de um remédio ou propaganda de algum produto, o médico publicou um vídeo em seu Instagram oficial explicando a situação.

“Toda hora aparece na internet a minha imagem ou alguma coisa que eu teria dito em defesa de um tratamento especial ou de um medicamento para resolver problemas de saúde e você é jogado para um site onde te vendem alguma coisa. São falsários, gente que não presta. Um bando de bandidos que usa a imagem dos outros para tentar enganar as pessoas”, explicou o médico.

“As coisas vão ficando mais sofisticadas, às vezes eles pegam uma frase que eu disse em um contexto que não tem nada a ver com aquele e recortam essa frase como se eu estivesse defendendo essas porcarias que eles vendem, que a gente não tem nem ideia do que é. Infelizmente não vai acabar e até vai piorar com a Inteligência Artificial, eles chegam a imitar a minha voz, eu defendendo um remédio qualquer”, acrescentou na publicação.

Mariana Varella, filha do médico, ressalta que o pai não faz propagandas de medicamentos, que Drauzio fica preocupado com esses conteúdos usando sua imagem e que esse é um problema que ele considera de saúde pública.

“O problema é que tem pessoas acreditando, comprando produtos totalmente desconhecidos. Não sabe o que tem dentro, qual a segurança dessas medicações, quem está vendendo. A gente ainda não entrou com processo nem nada disso, mas estamos estudando com os nossos advogados qual vai ser a melhor estratégia para isso”, diz Mariana.

Após a BBC entrar em contato com o TikTok, o vídeo citado pela reportagem e o perfil que havia feito a publicação foram tirados do ar pela plataforma. No entanto, vários outros com o mesmo teor, permanecem disponíveis aos usuários.

Questionado sobre os conteúdos inverídicos publicados, o TikTok explicou que usa uma combinação de tecnologia e profissionais para detectar aqueles que possam violar as diretrizes de comunidade. E que os conteúdos são removidos assim que identificados.

“Nossas políticas de mídia sintética e manipulada deixam claro que não permitimos mídia sintética que contenha a imagem de qualquer pessoa real que não seja pública e não permitimos mídia sintética de figuras públicas se o conteúdo for usado para endossar ou violar qualquer outra política”, diz nota enviada pela plataforma.

E acrescentou que vem testando ferramentas que permitem ao usuário identificar quando um conteúdo é criado por inteligência artificial.

“Começaremos a testar um rótulo que indica quando um conteúdo é 'gerado por IA' que, eventualmente, planejamos aplicar automaticamente ao conteúdo que detectamos ter sido editado ou criado com inteligência artificial. Para aumentar a clareza em relação aos produtos do TikTok alimentados por IA, também renomeamos todos os efeitos de inteligência artificial do TikTok para incluir explicitamente 'IA' em seu nome e no rótulo de efeito correspondente, e atualizamos nossas diretrizes para que os criadores do Effect House façam o mesmo.”

Conteúdos como esse são chamados de deep fake. Eles são produzidos em softwares que usam IA para recriar a voz de pessoas, trocar o rosto em vídeos e sincronizar movimentos labiais e expressões.

Diogo Cortiz, professor da PUC-SP e pesquisador do NIC.br (Núcleo de Informação e Coordenação do Ponto BR) explica que, com o avanço da tecnologia e da Inteligência Artificial, é cada vez mais comum surgirem programas que conseguem reproduzir a voz de uma pessoa, criando frases completas e imitando até mesmo os trejeitos de fala dela e sotaque, caso tenha, em poucos minutos.

Se tratando de pessoas famosas ou que tenham conteúdos disponíveis na internet, como no caso de Drauzio Varella, é ainda mais fácil fazer essa clonagem, já que a IA é usada para aprender com esses áudios e gerar novos arquivos com a voz clonada.

“O primeiro passo é ensinar a voz para inteligência artificial, então você faz ela escutar alguns minutos. Quanto mais dados você tiver, melhor o resultado e a partir disso você pode escrever um texto - e a inteligência artificial vai recriar um áudio, com a voz da pessoa, falando aquilo que você escreveu”, explica Cortiz.

Mas mesmo quem não é famoso ou não têm conteúdos disponíveis na internet também está sujeito a ter a voz clonada, já que para isso é necessário apenas poucos segundos de uma voz, como, por exemplo, um áudio enviado por aplicativo de mensagem.

Distinguir se um conteúdo é verdadeiro ou criado pela tecnologia, segundo o especialista, é o desafio que o setor tem pela frente. Além disso, pode demorar para ser criada e regulamentada uma maneira de esses conteúdos serem diferenciados dos originais.

“Existe um debate enorme a nível internacional sobre como fazer para identificar esse tipo de conteúdo sintético [criado por IA]. Uma estratégia é colocar uma marca d'água nesse conteúdo, mas não aquela marca visível ao olho humano, mas sim uma identificada pelos algoritmos, fazendo com que as plataformas consigam fazer esse rastreamento e não permita a disseminação de conteúdos falsos”, explica.

Especialistas ouvidos pela BBC são unânimes em dizer que é preciso ter cautela quanto ao avanço dessa tecnologia e que as regras para o seu uso deveriam existir global e localmente. Também é preciso encontrar um equilíbrio entre promover a inovação e proteger os interesses públicos para que essa tecnologia não se torne uma arma nas mãos de golpistas e até mesmo de disseminadores de notícias e informações falsas.

O projeto de Lei 2338/23 de autoria do senador Rodrigo Pacheco (PSD/MG) tramita no Senado e dispõe sobre o uso da Inteligência Artificial no país e quais diretrizes deverão ser seguidas.

Entre seus fundamentos, o projeto visa garantir a “confiabilidade e robustez dos sistemas de inteligência artificial e segurança da informação”, garantindo que o usuário saiba claramente quando ele está interagindo ou consumindo um conteúdo criado com o auxílio dessa tecnologia.

“O uso de IA precisa ser analisado com cautela e de forma ampla, analisando os riscos que essa tecnologia pode gerar nos mais diversos setores como saúde, transporte e administrativo, por exemplo. Para se criar regulamentações é necessário olhar para a tecnologia como um todo e ter dados que comprovem que a IA é confiável”, diz Estela Aranha, secretária de Direitos Digitais do Ministério da Justiça e Segurança Pública.

Mas esse não é o único projeto que trata do assunto que vem sendo analisado. O Projeto de Lei 4025/23 exige autorização expressa das pessoas envolvidas para o uso de imagens e de obras por sistemas de inteligência artificial (IA).

O documento aborda o uso dessa tecnologia para recriar imagens e a voz de pessoas falecidas e propõe que esse mecanismo só poderá ser usado com autorização de parentes próximos, como cônjuge, filhos e pais.

No caso das obras, o texto garante que cabe ao autor autorizar a utilização do conteúdo para treinamento de sistemas de IA e estabelece que obras produzidas com o uso dessa tecnologia não gera direitos autorais.

Para Cortiz, estabelecer regras para controlar o uso desses programas é uma tarefa complexa, uma vez que a própria tecnologia da IA ainda passa por transformações.

“Hoje há um desafio não só de regulação, mas um desafio técnico no desenvolvimento desse tipo de método para marcação e identificação desses conteúdos criados por IA que funcione em todas as modalidades – áudio, vídeo, texto e imagem – e que seja reconhecido em todas as plataformas. Isso é um desafio global”, diz o professor.

Gustavo Tadeu Zaniboni, presidente da Coordenação de Inteligência Artificial da Associação Brasileira de Governança Pública de Dados Pessoais, analisa que mesmo com a regulamentação, as deep fakes não deixarão de existir e já fazem parte do mundo atual.

“A pessoa que quer usar a IA para aplicar golpes e enganar outras pessoas vai continuar fazendo. O uso da marca d'água não vai resolver porque essas pessoas vão arrumar uma maneira de burlar isso”, diz.

Ainda segundo Zaniboni, uma maneira eficaz de inibir as deep fakes é a identificação e punição de quem produz, vincula e até mesmo compartilha esse tipo de conteúdo.

“No vídeo do Drauzio Varella, por exemplo, podemos enxergar indícios de estelionato e uso da imagem dele sem autorização. Mas, precisamos criar punições próprias para esse tipo de situação que usa a ferramenta da inteligência artificial. Para punir essas pessoas, as solicitações de dados na hora de abertura de uma conta em um aplicativo devem ser mais rigorosas e obrigatórias”, acrescenta.

Celebridades como Ivete Sangalo, Ana Maria Braga e Xuxa também foram vítimas de deep fake e tiveram suas vozes clonadas e inseridas em vídeos em que supostamente elas indicam colágenos para a pele.

Nesses casos, a tecnologia foi usada também em fotos para envelhecê-las, deixando as personalidades com mais rugas e marcas de expressão e, assim, fazer um comparativo mostrando que o produto realmente funcionaria.

Em outra situação, o jornalista William Bonner, âncora do Jornal Nacional, também foi vítima de deep fake.

Em um vídeo de poucos segundos, que circula nas redes sociais, o âncora aparece dizendo: "O encontro de dois bandidos". A gravação corta para imagens do presidente Lula e seu vice, Geraldo Alckmin, se abraçando, com a narração do jornalista: "Perdão, imagem errada. A imagem seria de outro ladrão, digo, de um ladrão de verdade”.

Também foi comprovado que o material se trata de uma montagem feita com o uso dessa tecnologia.

Fonte: correiobraziliense

Participe do nosso grupo no whatsapp clicando nesse link

Participe do nosso canal no telegram clicando nesse link

Assine nossa newsletter
Publicidade - OTZAds
Whats

Utilizamos cookies próprios e de terceiros para o correto funcionamento e visualização do site pelo utilizador, bem como para a recolha de estatísticas sobre a sua utilização.