• Colabore!
  • Sobre nós
  • Contato
  • Anuncie

Setor Bugiganga

Deepfake: Mostre isso para as pessoas mais velhas da sua família (é sério!)

A forma como compreendemos a verdade vai mudar em pouco tempo.

Se você nunca acreditou em fake news, é bem provável que algum familiar ou conhecido já tenha acreditado. Apesar de a gente ser inundado por notícias falsas o tempo todo, é mais comum que pessoas mais velhas, que não acompanharam a evolução da internet, acreditem em praticamente tudo que veem por aí.

E não dá para simplesmente criticar quem acredita, porque a tecnologia está alcançando níveis cada vez mais realistas. Algorítimos recentes desenvolvidos pelo Centro de Inteligência Artificial da Samsung e pelo Instituto Skolkovo de Ciência e Tecnologia, localizados em Moscou, são capazes de criar uma animação crível utilizando apenas uma imagem como ponto de partida:

Conhecido como vídeo deepfake, esse tipo de animação já era possível, mas utilizando uma sequência de imagens. Acontece que, com uma simples imagem, o novo algoritmo possibilita animar até mesmo uma pintura ou uma foto de revista, por exemplo. O que aumenta – e muito – a dificuldade para distinguir conteúdos reais dos falsos (fake).

Segundo os engenheiros, a ideia de criar avatares animados “democratizará a educação e melhorará a qualidade de vida das pessoas com deficiência“, bem como facilitará sistemas de telepresença. Em seu site, a Samsung afirma que a Inteligência Artificial “se tornará o mais potente facilitador da vantagem competitiva em muitas áreas da sociedade e da economia“.

Mas, convenhamos, não é ‘só’ isso que pode acontecer.

Aqui no SOS publicamos um artigo bastante completo sobre o uso de selfies (do instagram) para criar conteúdos falsos, os vídeos deepfake; como vimos, não é necessário obter várias imagens, uma só já é suficiente para quem quiser editar vídeos falsos sobre qualquer pessoa – e o que não falta pela internet são imagens pessoais.

Aliado ao fato de já existirem ferramentas simples capazes de reproduzir vozes humanas (como também foi explicado na matéria), possibilita o uso de qualquer imagem para criar uma animação ainda mais realista; basta inserir o áudio criado pelo software, que é extremamente parecido com a voz real da pessoa, e pronto. Vídeo falso com som, ao alcance dos dedos.

É muito interessante esses avanços tecnológicos, claro. Mas precisamos estar alertas de que a verdade como a conhecemos está em cheque. Aquela história: “cadê o vídeo para eu ver se é verdade?“, já não fará mais o mesmo sentido. A facilidade de criar ‘provas’ falsas vai transformar a forma como nos relacionamos. Se é para o bem ou para o mal, só o tempo vai responder. De qualquer maneira, é bom estar ligado!

Sobre os deepfake, os engenheiro da Samsung se justificam:

“Percebemos que nossa tecnologia pode ter um uso negativo para os chamados vídeos “deepfake”. No entanto, é importante perceber que Hollywood tem feito vídeos falsos (também conhecidos como “efeitos especiais”) há um século, e que tecnologias com capacidades semelhantes já estão disponíveis nos últimos anos. Nosso trabalho (e alguns trabalhos paralelos) levará à democratização de certas tecnologias de efeitos especiais. E a democratização das tecnologias sempre teve efeitos negativos.

A democratização de ferramentas de edição de som levou ao surgimento de brincalhões e áudios falsos, democratizando a gravação de vídeos levou ao aparecimento de gravações feitas sem o consentimento. Em cada um dos casos anteriores, o efeito da democratização no mundo tem sido positivo, e mecanismos para conter os efeitos negativos foram desenvolvidos.

Acreditamos que o caso da tecnologia de avatar neural não será diferente. Nossa opinião é apoiada pelo desenvolvimento contínuo de ferramentas para detecção de vídeos falsos e da falsificação de rostos, juntamente com a mudança em andamento para a segurança de privacidade e dados nas principais empresas de TI”, escreveram na descrição do vídeo promocional.

Fato curioso: no vídeo criado pelos criadores da tecnologia (assista abaixo), usado para divulgação da nova ferramenta com potencial dramático em relação a forma como compreendemos a verdade, foi utilizado uma trilha sonora bastante tranquila, em outras palavras, uma música super fofinha – algo no mínimo irônico.

Assista ao vídeo:

Fonte(s): Vice, Science Alert
Daiane Oliveira
Jornalista, feminista e mãe. Discute religião, política, sexo e hábitos sustentáveis. Não discute futebol porque não entende. Quem sabe um dia.

Tá na rede!

Em caso de chefe
clique aqui