Saltar para o conteúdo

O caso de Collien Fernandes mostra que até celebridades já não controlam a sua própria imagem.

Mulher asiática a participar numa videochamada num laptop junto a uma janela, com smartphone e auriculares na mesa.

A enxurrada de imagens de nudez artificiais - os chamados deepfakes - apareceu de repente por toda a Internet: partilhadas em fóruns, comentadas por desconhecidos, arquivadas por algoritmos. Enquanto a vítima tenta defender-se em público, há quem, ao nosso lado no autocarro, deslize o dedo pelo mesmo conteúdo como se fosse apenas mais uma coisa no feed. Sem pestanejar. Sem perguntar quem é que está, de facto, a ser exposto. Há um instante em que se percebe: isto é maior do que uma história de celebridades. Diz algo sobre todos nós - sobre o nosso olhar, sobre poder e impotência na era digital. E é precisamente aí, no brilho intermitente do ecrã, que começa a parte essencial desta história.

Quando o próprio rosto se torna mercadoria

Imagine a cena, de forma crua e concreta: acorda, pega no telemóvel ainda a meio do sono - um gesto automático - e encontra mensagens de amigos, colegas e desconhecidos. Ligações. Capturas de ecrã. “És tu?” Collien Fernandes descreveu uma invasão deste tipo, com uma escala amplificada por jornais, sites de entretenimento e redes sociais. O rosto dela, o corpo dela, a intimidade dela - tudo montado de forma sintética, mas “suficientemente convincente” para muita gente à primeira vista. De um momento para o outro, o corpo deixa de ser privado e passa a ser um conjunto de dados: um ficheiro que se copia, se redistribui e se distorce sem descanso. Sem controlo. Sem retorno.

O que aconteceu com Collien não é uma anomalia estranha: é um sinal de algo estrutural. Estudos norte-americanos já indicavam, há alguns anos, que mais de 90% dos deepfakes analisados eram de cariz pornográfico - e, na esmagadora maioria, com mulheres como “protagonistas” involuntárias. À medida que a tecnologia fica mais barata e as aplicações mais fáceis, muitos destes conteúdos já não circulam apenas em espaços obscuros: criam-se com dois ou três toques no smartphone. Uma espécie de cultura de “brincadeira” que descamba para o extremo. No caso de Collien, juntaram-se alcance, rosto conhecido e curiosidade voyeurista numa combinação tóxica. E o retrato é duro: hoje, a visibilidade traz aplausos - e traz também uma vulnerabilidade inédita.

A mecânica por trás disto é fria e eficiente. Tudo o que entra online - uma fotografia, uma entrevista, uma aparição pública - pode transformar-se em matéria-prima. Algoritmos recolhem milhares de imagens e constroem modelos capazes de encaixar um rosto em praticamente qualquer fantasia. Pessoas públicas como Collien são alvos frequentes porque existe muito material acessível. O verdadeiro abalo, porém, vem de outro lado: a barreira técnica desceu tanto que este mesmo mecanismo pode atingir qualquer pessoa que publique selfies. E sejamos honestos: quase ninguém lê “termos e condições” antes de um upload, nem pensa em geradores de imagem por IA. Publicamos, reagimos, fazemos scroll - e, em pano de fundo, a máquina continua a aprender.

Como nos protegermos num mundo sem controlo total sobre as imagens (deepfakes)

Por mais assustador que pareça, há formas concretas de aumentar a margem de manobra. O primeiro passo é surpreendentemente simples: consciência prática. Não é moralismo - é inventário. Que fotografias minhas são públicas? Que perfis estão abertos e quais estão privados? Quem já pesquisou o próprio nome numa pesquisa por imagens conhece aquele desconforto. É aqui que entra o auto‑cuidado digital: encerrar contas antigas esquecidas, rever fotografias de perfil, remover metadados (EXIF) quando as imagens são sensíveis, limitar quem pode descarregar ou reutilizar conteúdos. Não é um escudo perfeito, claro - mas é “arrumação digital” que reduz a superfície de ataque.

O segundo passo é mais difícil do ponto de vista emocional: não acreditar automaticamente no que se vê. Parece óbvio, mas já funciona como regra de sobrevivência. Se surgirem imagens de conhecidos, colegas ou figuras públicas em contextos duvidosos, um segundo de ceticismo faz diferença. Não partilhar por impulso, não julgar de imediato. E vale a pena falar disto em casa e na escola, sobretudo com adolescentes, que crescem num ecossistema visual onde o “falso” muitas vezes só é reconhecido depois do estrago estar feito. Todos conhecemos aquele clique interno quando aparece uma miniatura escandalosa. Resistir a esse automatismo pode parecer pouco - mas não é.

Há também um nível de proteção que raramente se discute: o papel das plataformas. Não basta pedir cautela ao utilizador final quando a distribuição é amplificada por recomendação algorítmica. Medidas como marcação clara de conteúdo sintético, respostas rápidas a denúncias, equipas de moderação treinadas e bloqueios eficazes a reuploads são parte do mesmo problema - e da mesma solução. Sem isto, a responsabilidade cai sempre em quem já está fragilizado.

Outra camada, igualmente importante, é conhecer o terreno legal e institucional na Europa e em Portugal. Entre o RGPD, direitos de personalidade e mecanismos de denúncia das plataformas, existe um caminho - ainda que por vezes lento. A nível europeu, o Regulamento da IA (AI Act) e a pressão por transparência em conteúdos gerados artificialmente apontam para novas obrigações e para uma maior responsabilização. Na prática, esta evolução só terá impacto real se for acompanhada de recursos: apoio jurídico acessível, canais de remoção eficazes e resposta rápida a reincidências.

Collien Fernandes, por seu lado, escolhe avançar: fala sobre o assunto, dá nome à injustiça e procura vias legais. Ao fazê-lo, quebra o padrão antigo do silêncio, onde muitas vítimas se enterram por vergonha. Num momento assim, uma posição como esta soa plausível e necessária:

“Isto não é apenas um ataque a mim; é um ataque ao direito de cada pessoa decidir como quer ser vista.”

Desta postura saem orientações práticas e imediatas:

  • Não cair na armadilha da culpa - a responsabilidade é de quem cria e distribui, e também de quem permite a circulação.
  • Documentar o mais cedo possível - guardar links, capturas de ecrã e registos de data/hora antes de o conteúdo desaparecer.
  • Procurar aliados - advogados (incluindo especialistas em media e proteção de dados), entidades de apoio e uma rede de confiança para não enfrentar isto sozinho.
  • Usar a exposição pública com medida - quem quiser falar deve controlar ritmo, formato e limites.
  • Consumir com consciência - não abrir, não reenviar, não “debater de forma neutra” conteúdos que humilham e ferem.

O que o caso de Collien Fernandes nos diz sobre o futuro que partilhamos

O caso de Collien Fernandes funciona como um holofote sobre uma transformação que já vinha a acontecer em silêncio. Atinge alguém que vive sob atenção pública e mostra o que acontece quando visibilidade e perda de controlo colidem. Mas, ao mesmo tempo, empurra uma pergunta que é de todos: a quem pertence o nosso rosto quando existe como ficheiro? A nós? Ao Estado, quando aparece em documentos? Ou às plataformas que absorvem imagens para treinar sistemas de IA sem que se note? Entre direitos de privacidade, direitos de personalidade e realidade técnica, a distância está a aumentar.

O mal‑estar que muita gente sente ao ler esta história é um sinal relevante. Indica que ainda temos intuição para limites - mesmo quando a tecnologia os desloca mais depressa do que as leis conseguem acompanhar. Talvez este tipo de caso se torne um ponto de viragem, como aconteceu com as primeiras grandes discussões sobre ciberbullying e divulgação não consentida de intimidade. E talvez nasça daí uma consciência dupla: proteger quem é atingido e reconhecer o papel de quem assiste. Se clicamos ou não. Se contrariamos ou calamos.

É possível que, daqui a alguns anos, olhemos para trás e digamos: quando os deepfakes saíram da margem e entraram no quotidiano, aprendemos que as imagens já não significam automaticamente verdade. Sim, figuras públicas perderam ainda mais controlo sobre a própria imagem - mas a questão central é outra: o controlo nunca pode ser apenas individual. Depende de direito, tecnologia e cultura ao mesmo tempo. É nesse cruzamento que se decide se a história de Collien fica como um aviso que se apaga… ou como o início de uma ética digital mais exigente, e verdadeiramente urgente.

Ponto-chave Detalhe Valor para o leitor
Deepfakes como nova forma de agressão O caso de Collien Fernandes mostra como imagens geradas por IA, sem consentimento, podem violar a esfera íntima. Perceber porque isto não é “escândalo”, mas violência digital.
Controlo limitado sobre a própria imagem Fotografias públicas tornam-se material de treino para algoritmos e podem ser usadas fora do contexto. Gerir melhor as próprias imagens e avaliar riscos com mais realismo.
Estratégias e postura prática Higiene digital, ceticismo no consumo de imagens e solidariedade com vítimas. Passos concretos para proteger-se e proteger outros.

FAQ

  • Pergunta 1 - O que aconteceu exatamente no caso de Collien Fernandes?
    Foram divulgadas online imagens de nudez geradas artificialmente (deepfakes), que colocavam o rosto dela em corpos de outras pessoas. O material foi criado e partilhado sem consentimento e disseminou-se em larga escala.

  • Pergunta 2 - Estes deepfakes são puníveis por lei?
    Em muitos cenários entram em jogo direitos de personalidade, proteção de dados, direito de autor e, em certos casos, normas penais - sobretudo quando há pornografia ou divulgação de conteúdo íntimo sem autorização. O enquadramento legal está a ser reforçado, mas ainda existem zonas cinzentas e diferenças de aplicação.

  • Pergunta 3 - Isto pode acontecer também a pessoas “comuns”?
    Sim. Quanto mais fotografias acessíveis existirem, mais fácil é tecnicamente encaixar um rosto noutros cenários. Pessoas conhecidas são visadas com mais frequência, mas qualquer pessoa pode ser alvo.

  • Pergunta 4 - O que devo fazer se for vítima?
    Guardar provas, obter aconselhamento jurídico, denunciar o conteúdo às plataformas, considerar participação às autoridades e procurar apoio de pessoas de confiança ou serviços especializados. O isolamento tende a agravar o impacto.

  • Pergunta 5 - Como posso agir de forma mais responsável no dia a dia?
    Não abrir, não partilhar e não reenviar “por diversão”. Manter ceticismo quando a imagem parece demasiado escandalosa e explicar no seu círculo que deepfakes não são uma tendência inocente - são uma forma de violência digital.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário