Selfies perigosas: o futuro dos conteúdos falsos pode depender do seu perfil no Instagram
Se você não aguenta mais ouvir falar em fake news segure a sua onda, parça, pois essa treta toda ainda nem começou!
A série documental do BuzzFeed News em parceria com a Netflix, “Seguindo os Fatos”, revela no episódio “O Futuro dos Conteúdos Falsos” que o que vem por aí é ainda muito pior.
No episódio, o repórter Charlie Warzel, especialista em escrever o que chama de “coisas estranhas da internet”, destaca a simplicidade que há no fenômeno em que uma pessoa escreve uma notícia falsa, compartilha, e ela se torna viral.
Apesar de termos nos habituado a pensar que veículos tradicionais só falam a verdade, grande parte da população começou a questionar isso. Tanto que, segundo o Datafolha, 47% da população brasileira acreditou nas notícias (falsas ou não) veiculadas em grupos do Whatsapp, durante as eleições de 2018.
Se esse número já assusta, imagine se ao invés de apenas a notícia em texto com foto (editada ou não), as pessoas recebessem um vídeo mostrando a cena:
“Atriz de Harry Potter faz revelação bombástica: ‘Na verdade meu nome é Sofia Vergara!'”
Ok, aí fica evidente para a maioria das pessoas que é uma brincadeira. Mas e se a notícia for mais problemática:
“Barack Obama diz que jamais contrataria pessoas brancas”
Ou então…
“Atriz de Mulher-Maravilha fez vídeo adulto no início da carreira”
Não há uma pesquisa sobre o assunto, mas é certo que apenas as pessoas mais atentas ou os especialistas iriam desconfiar de tais vídeos, também conhecidos como deepfake, tanto que a polêmica envolvendo o “filme adulto de Gal Gadot” se tornou um marco na nossa história recente. Falamos sobre isso aqui.
E isso está presente ao alcance dos dedos, por exemplo, pela tecnologia chamada de Face Swap (troca de cara), que muitos de nós estamos habituados a utilizar no Instagram e outros aplicativos, para trocar nosso rosto de lugar com nossos amigos,
O algoritmo desses aplicativos é capaz de pegar um vídeo e separar cada um de seus frames (imagens, que postas em sequência dão a noção de movimento), converter cada um e juntá-los em um novo vídeo, que mantém as expressões do original, reproduzindo-as no rosto inserido.
Ou seja, sua tia não tem culpa alguma dos vídeos que vai mandar para você a partir de agora.
Para John Knoll, mestre dos efeitos especiais que ficou conhecido pela saga Star Wars e por ser um dos desenvolvedores do Photoshop, as ferramentas são fantásticas, cabe a sociedade cobrar seu uso ético.
O que já está disponível para qualquer pessoa?
Existe o Lyre Bird, que é capaz de reproduzir vozes. Para isso, basta repetir algumas frases prontas para a inteligência artificial aprender sua voz e pronto: é só digitar um texto que ele gera o áudio de sua voz falando.
O repórter testou o resultado com sua própria mãe pelo telefone. Para sua surpresa, ela não percebeu que estava falando com um aplicativo.
Mas e o Instagram?
Segundo Hao Li, da Pinscreen, empresa especializada em criar avatares realistas de pessoas para games, para reproduzir o rosto em movimento de uma pessoa basta que se tenha em mãos uma foto com a expressão neutra. Ou seja, uma selfie.
Isso é possível porque a empresa treinou uma inteligência artificial com milhares de expressões de diferentes pessoas, traçando dessa forma uma previsão de reação facial para cada tipo de sentimento.
Só que o mais bizarro disso é que para que aconteça, basta usar, por exemplo, uma foto de perfil do Facebook, que é pública.
Pelo potencial de impacto, isso faz com que celebridades e figuras públicas sejam o grande alvo, ainda mais pela quantidade de vídeos e áudios disponíveis nas redes. Quanto mais exposto, mais vulnerável você está.
O que as redes sociais dizem sobre isso?
O jornalista entrou em contato com algumas das principais redes sociais, como Facebook/Instagram e Reddit, tentando marcar uma reunião, mas de todas recebeu uma resposta quase pronta dizendo que os desenvolvedores das empresas estão trabalhando para garantir a nossa privacidade. A gente sabe, Zuckerberg…
Oh, e agora quem poderá nos defender?
Apesar do próprio fundador do Facebook dizer que está mexendo os pauzinhos para melhorar a privacidade dos usuários, sobre o uso das imagens e sons (deep fake) até agora ninguém se pronunciou.
Por isso Aviv Ovadya, chefe de tecnologia do Centro de Responsabilidade para Mídias Sociais, que previu o “Infocalipse”, apocalipse das notícias falsas, alerta que é preciso criar uma infraestrutura de responsabilização nessas empresas.
O documentário encerra com uma triste constatação: do jeito que as coisas vão, muito mais em breve do que pensávamos, não seremos mais capazes de distinguir realidade e ficção. Por isso o que acontecerá no futuro, depende do que fizermos agora.