Os perigos do Face Swap

Ainda abordando o receio do público em relação à evolução da inteligência artificial, neste ensaio discutirei outro tópico bastante polêmico: o 𝗙𝗮𝗰𝗲 𝗦𝘄𝗮𝗽. No ensaio anterior, falei sobre os modelos 𝗡𝗦𝗙𝗪 (𝗡𝗼𝘁 𝗦𝗮𝗳𝗲 𝗙𝗼𝗿 𝗪𝗼𝗿𝗸) e sua capacidade de gerar conteúdos sensíveis. Entre essas capacidades, destaca-se o 𝗙𝗮𝗰𝗲 𝗦𝘄𝗮𝗽, que é a tecnologia de aplicar o rosto de uma pessoa no lugar do rosto de outra em fotos ou vídeos. Essa inovação tem sido amplamente utilizada em aplicativos de edição de imagem, redes sociais e projetos de deepfake, gerando uma série de 𝗱𝗲𝗯𝗮𝘁𝗲𝘀 e 𝗽𝗿𝗲𝗼𝗰𝘂𝗽𝗮𝗰õ𝗲𝘀.
Embora fascinante, o Face Swap apresenta 𝗿𝗶𝘀𝗰𝗼𝘀 significativos, principalmente no contexto de 𝗱𝗲𝗲𝗽𝗳𝗮𝗸𝗲𝘀. A tecnologia pode ser usada para criar vídeos falsos de figuras públicas ou privadas, colocando palavras ou ações que nunca aconteceram. Isso tem implicações graves, como disseminação de 𝗱𝗲𝘀𝗶𝗻𝗳𝗼𝗿𝗺𝗮𝗰ã𝗼, 𝗰𝘆𝗯𝗲𝗿𝗯𝘂𝗹𝗹𝘆𝗶𝗻𝗴 e até mesmo 𝗲𝘅𝘁𝗼𝗿𝘀ã𝗼. Além disso, a facilidade de acesso a ferramentas de Face Swap torna a tecnologia acessível a qualquer pessoa, aumentando os riscos de uso indevido.
Recentemente, veio à tona o caso de uma designer de interiores francesa que foi 𝘃í𝘁𝗶𝗺𝗮 de um 𝗴𝗼𝗹𝗽𝗲 sofisticado, levada a acreditar que estava em um relacionamento amoroso com o ator Brad Pitt. Um perfil falso do ator iniciou contato, enviando mensagens carinhosas e fotos manipuladas por inteligência artificial do tipo Face Swap, que mostravam Brad Pitt em um leito de hospital. O golpista, utilizando o perfil falso, alegou estar enfrentando problemas financeiros, o que levou a vítima a transferir aproximadamente €830.000 para a conta dos criminosos.
Além disso, o uso do Face Swap para a geração de material controverso representa um perigo significativo, especialmente quando se trata de criar deepfakes que inserem rostos de artistas ou pessoas comuns em conteúdos delicados. Essa prática viola grave
mente a privacidade, a dignidade e os direitos das vítimas, muitas vezes levando a consequências emocionais, sociais e profissionais devastadoras. Em adição, a facilidade com que essas tecnologias estão acessíveis nos próprios smartphones permite que qualquer pessoa com habilidades básicas manipule vídeos ou imagens, aumentando o risco de difamação e extorsão.
Para se 𝗽𝗿𝗼𝘁𝗲𝗴𝗲𝗿 contra os perigos do Face Swap, algumas medidas são essenciais. Primeiro, é importante verificar a autenticidade de imagens e vídeos, especialmente em contextos sensíveis. Plataformas de redes sociais e organizações devem implementar tecnologias de detecção de deepfake, como o uso de assinaturas digitais em vídeos originais. Além disso, educar o público sobre os riscos e sinais de conteúdos manipulados é fundamental. Por fim, regular o uso dessa tecnologia, estabelecendo limites éticos e legais, é crucial para minimizar os impactos negativos.