O que é Deepfake?


O que é deepfake? Inteligência artificial é usada pra fazer vídeo falso

Inteligência artificial é usada para fazer montagem com famosos e políticos, substituindo rostos e vozes em vídeos realistas; novidade traz preocupações éticas

Por Isabela Cabral, para o TechTudo

28/07/2018 07h00  Atualizado há um ano

O deepfake é uma tecnologia que usa inteligência artificial (IA) para criar vídeos falsos, mas realistas, de pessoas fazendo coisas que elas nunca fizeram na vida real. A técnica que permite fazer as montagens de vídeo já gerou desde conteúdos pornográficos com celebridades até discursos fictícios de políticos influentes. Circulam agora debates sobre a ética e as consequências da tecnologia, para o bem e para o mal.

O termo deepfake apareceu em dezembro de 2017, quando um usuário do Reddit com esse nome começou a postar vídeos de sexo falsos com famosas. Com softwares de deep learning, ele aplicava os rostos que queria a clipes já existentes. Os casos mais populares foram os das atrizes Gal Gadot e Emma Watson. A expressão deepfake logo passou a ser usada para indicar uma variedade de vídeos editados com machine learning e outras capacidades da IA.

Em vídeo falso, movimentos e falas e de Obama são controlados pelo ator Jordan Peele — Foto: Reprodução/BuzzFeed

Em vídeo falso, movimentos e falas e de Obama são controlados pelo ator Jordan Peele — Foto: Reprodução/BuzzFeed

Efeitos especiais de computador que criam rostos e cenas no audiovisual não são nenhuma novidade; o cinema faz isso há muitos anos. A grande virada do chamado deepfake está na facilidade com que ele pode ser produzido. Comparado ao que costumava ser necessário, o método atual é simples e barato. Qualquer um com acesso a algoritmos e conhecimentos de deep learning, um bom processador gráfico e um amplo acervo de imagens pode criar um vídeo falso convincente.

 

Como os deepfakes são criados

 

São utilizados softwares baseados em bibliotecas de código aberto voltadas ao aprendizado de máquina. Segundo entrevista ao site Motherboard, o usuário do Reddit usou TensorFlow aliado ao Keras, uma API de deep learning escrita em linguagem Python. O programador fornece centenas e até milhares de fotos e vídeos das pessoas envolvidas, que são automaticamente processadas por uma rede neural. É como um treinamento, no qual o computador aprende como é determinado rosto, como ele se mexe, como ele reage a luz e sombras.

Esse “treino” é feito com o rosto do vídeo original e com o novo rosto, até que o programa seja capaz de encontrar um ponto comum entre as duas faces e “costurar” uma sobre a outra. O procedimento envolve uma espécie de truque, em que o software recebe uma imagem da pessoa A e a processa como se fosse a pessoa B.

O deepfake é muito recente e sua definição é fluida. O fenômeno se confunde na discussão pública com tecnologias com funções similares ou complementares. Há, por exemplo, um programa anunciado pela Adobe que consegue criar falas com a voz de uma pessoa a partir de amostras reais. Existem ainda experimentos de reencenação facial, com a recriação das mesmas falas e expressões de uma pessoa no rosto de outra, e de sincronização labial, vídeos de alguém falando gerado com áudio e imagens de seu rosto.

Além dos clipes pornográficos, outros vídeos falsos criados com inteligência artificial que ganharam notoriedade mostram o ex-presidente americano Obama. Em um deles, ele chama o atual presidente dos EUA, Donald Trump, de “um completo m*rda”. Em outro, faz discursos que só existiam em áudio ou na forma escrita. Há também um vídeo de Trump produzido com imagens e falas de uma paródia do presidente no programa de humor Saturday Night Live.

 

Riscos e consequências

 

Normalmente, vídeos desse tipo não são perfeitos, mas são realistas o suficiente para enganar muita gente. Má intenção não faz parte do conceito dos deepfakes, mas está na equação. A manipulação das imagens e vozes de políticos se mostra como um alerta. Com ferramentas tão acessíveis, fica mais fácil espalhar informações falsas de acordo com interesses próprios, fundamentadas por supostas provas em vídeo. Isso pode representar um perigo para a democracia e a sociedade, inclusive ameaçando a credibilidade de tudo o que é publicado.

No caso dos vídeos pornô fictícios, inclui-se ainda problemas éticos e legais complexos, de teor mais individual. As criações enganosas podem prejudicar a vida de uma pessoa, seja ela famosa ou anônima, e, por enquanto, não se sabe ao certo o que a Justiça pode fazer a respeito. Os vídeos divulgados não são reais; é a face de um inserida no corpo de outro. Porém, se as imagens conseguem se passar como verdadeiras e não há consentimento do indivíduo em questão, como lidar?

 

Rosto da atriz Gal Gadot foi inserido em clipes ponográficos — Foto: Reprodução/SendVideos

Alguns já levantam também questionamentos sobre a possível banalização do termo, de modo semelhante ao que aconteceu com a expressão fake news. A preocupação é que a palavra deepfake passe a ser usada de maneira muito vaga e casual e se torne onipresente, mais forte que o real impacto da tecnologia. Assim, pessoas mal intencionadas podem se aproveitar para lançar dúvidas sobre evidências verdadeiras que não as agradam.

 

Usos benéficos da tecnologia

 

Não há só pessimismo no mundo dos deepfakes. Existem exemplos de uso positivo dos algoritmos de machine learning que deram vida ao novo fenômeno. O princípio da tecnologia está no reconhecimento e na reconstrução facial, o que indica um enorme potencial. Na verdade, funções semelhantes já são empregadas em recursos presentes no dia a dia dos usuários da Internet.

Os animojis da Apple e os AR emojis da Samsung mapeiam a face de uma pessoa e reproduzem em tempo real suas expressões em bonecos virtuais. No Instagram Stories e no Snapchat, diversos filtros detectam e transformam os rostos dos usuários. Há inclusive um filtro de troca de rostos entre as pessoas de uma foto.

 

Animojis do iPhone X — Foto: Reprodução/YouTube

O cinema e toda a indústria audiovisual também poderia se beneficiar de um método mais simples de executar efeitos especiais com faces, especialmente no caso de produtores de conteúdo independentes com baixos orçamentos. Celebridades e influenciadores digitais poderiam vender suas imagens para anunciantes sem precisarem comparecer a filmagens.

Em entrevista ao site Mashable, porém, o diretor da MultiComp Lab, parte da Universidade de Carnegie Mellon, afirmou que essa tecnologia pode vir a ter aplicações importantes para além do entretenimento. De acordo com o pesquisador, se desenvolvidos com qualidade suficiente para operarem em tempo real, os softwares poderiam servir para oferecer terapia por videoconferência — útil a indivíduos que não se sentem confortáveis em mostrar o rosto. Ou para fazer entrevistas de emprego sem vieses de gênero ou raça.

 

Como reconhecer um deepfake

 

Agora que os deepfakes fazem parte da nossa realidade, é essencial aprender a identificá-los. Pode ser que cheguemos a um ponto em que isso seja impossível ou muito difícil, mas hoje ainda existem alguns detalhes que ajudam a revelar um vídeo falso. Preste atenção nos movimentos da boca, se eles correspondem bem ao que está sendo dito. Fique atento também para a própria voz: a entonação e o tom soam normais?

Verifique os olhos para notar se eles estão piscando. Na maioria das vezes, os algoritmos não reproduzem bem esse aspecto nem a respiração da pessoa. Veja ainda se ela se mexe de forma natural como um todo. As recriações podem ter dificuldade em encaixar todas as partes do rosto e do resto do corpo e duplicar certos movimentos orgânicos. E se a pessoa no vídeo em questão é alguém que você não conhece bem, procure outros clipes, de preferência em que haja certeza de veracidade, para comparar.

 

Fonte: 

https://www.techtudo.com.br/noticias/2018/07/o-que-e-deepfake-inteligencia-artificial-e-usada-pra-fazer-videos-falsos.ghtml

 

Afinal, o que são deepfakes?

O Facebook anunciou recentemente que vai banir vídeos com manipulação da plataforma. Entenda como eles funcionam – e por que podem ser perigosos.

Por Rafael Battaglia

access_time8 jan 2020, 10h07 - Publicado em 7 jan 2020, 20h15

chat_bubble_outlinemore_horiz

 (Pinscreen/Reprodução)

Nesta terça-feira (7), o Facebook anunciou que vai começar a banir vídeos com deepfake da sua plataforma. O anúncio, divulgado em um blog da empresa, afirma que conteúdos do tipo manipulam a realidade, e são um grande desafio para a indústria tecnológica.

A nova política acontece em ano de eleições presidenciais nos Estados Unidos. Os vídeos serão excluídos caso as edições não estejam óbvias para o usuário ou se levarem o espectador a acreditar que uma pessoa tenha dito coisas que, na verdade, nunca disseram. 55 checadores, que falam 45 idiomas diferentes, serão os responsáveis por analisar e sinalizar os vídeos falsos – a medida não inclui sátiras e outros produções humorísticas.

Não é a primeira vez que o Facebook se envolve no combate aos deepfakes. Em setembro de 2019, a empresa doou US$ 10 milhões para um fundo voltado a aprimorar as tecnologias de detecção desse tipo de material. Mas a companhia já também recebeu críticas por se recusar a retirar um vídeo falso da presidente da Câmara dos Deputados dos EUA, Nancy Pelosi, que viralizou no país no ano passado.

Deepfakes podem ser inofensivos. Neste vídeo, por exemplo, o rosto do ator Harrison Ford foi rejuvenescido e colocado em algumas cenas de Solo: Uma História Star Wars, do qual ele não participou. Mas, em muitos casos, podem ser perigosos e aumentar a desinformação, como manipular discursos de personalidades e chefes de Estado.

 

Até o próprio Mark Zuckerberg já foi vítima dos softwares de deepfake. No vídeo, o presidente do Facebook, em uma versão criada em computador, afirmava que o sucesso de sua plataforma era devido a uma parceria feita com uma organização secreta.

Mas afinal, o que são deepfakes?

Os deepfakes nada mais são do que vídeos criados a partir de inteligência artificial e que reproduzem a aparência, as expressões e até a voz de alguém do mundo real. O nome vem da junção de duas expressões em inglês: “deep learning” (“aprendizado profundo”) e “fake” (“falso”). Aprendizado o quê?

O “deep learning” é uma evolução das metodologias de aperfeiçoamento de inteligência artificial. Ela deriva do “machine learning”. O conceito, que veio junto com os primeiros avanços em inteligência artificial, nos anos 1950, quer dizer, literalmente, colocar um computador para aprender. A ideia é fazer o cérebro eletrônico estudar algoritmos até que entenda como ler dados e tomar decisões acertadas. É como se, vendo um mesmo filme várias vezes, ele pudesse reproduzir o que aprendeu fazendo uma história totalmente nova. A técnica possui várias aplicações, de um programa de recomendação de filmes e séries (alô, Netflix) aos vídeos manipulados.

“Os deepfakes surgiram nos anos 1990, ganharam fama por volta de 2014 e atingiram um pico de popularidade em 2017″, explica Hao Li, professor de Ciência da Computação na Universidade do Sul da Califórnia. Em dezembro do ano passado, ele participou da VFXRio, evento brasileiro sobre tecnologia e efeitos visuais.

Como eles são feitos?

Hao é um dos precursores da área, e trabalha há 15 anos no desenvolvimento de tecnologias que aumentem o realismo das projeções virtuais. Ele já atuou em empresas de efeitos visuais como a Weta Digital (de filmes como O Senhor dos Anéis) e a Industrial Light & Magic (Star Wars), além de comandar uma startup especializada em criar avatares do tipo.

No geral, os deepfakes são criados em duas etapas. Na primeira, o software capta imagens de referência da pessoa que será usada no vídeo (o presidente Donald Trump, por exemplo). Quanto mais imagens, maior será a precisão. “O ideal é criar um banco de dados com várias formas e ângulos do rosto”, diz Hao.

Depois, é a vez de gravar os movimentos de uma segunda pessoa, que será a base (ou o molde) para o deepfake. Por fim, a inteligência artificial tem a missão de unir as duas coisas para criar o vídeo falso. No exemplo abaixo (cujo vídeo você pode conferir clicando na imagem), as imagens captadas de Trump foram inseridas no molde, feito a partir do vídeo de imitação:

 (Pinscreen/Reprodução)

No passado, a manipulação de rostos digitais era uma técnica restrita a profissionais de efeitos visuais. A ideia do deepfake é que, com inteligência artificial, todo o trabalho seja feito por meio de softwares. Um programa da Samsung, por exemplo, consegue criar vídeos falsos com apenas uma imagem de referência. Já o Zao é um app chinês que faz com que o seu rosto seja transportado para uma cena de filme ou série – basta tirar uma selfie.

Quais as suas aplicações?

A aplicação mais famosa para este tipo de manipulação são os efeitos cinematográficos. Em 2019, filmes como Projeto Gemini e O Irlandês usaram técnicas similares para rejuvenescer os atores. Gemini, em especial, criou uma versão mais jovem do ator Will Smith, que contracenou com sua versão mais velha, de carne e osso.

“Os deepfakes podem ser usados também em dispositivos de realidade virtual, ou para criar sistemas de chats com interações mais realistas”, lembra Hao. A Fundação Carnegie, em um vídeo sobre o tema, diz que a tecnologia também pode ser usada para dar acessibilidade a pessoas com esclerose lateral amiotrófica, permitindo que pacientes criem cópias digitais da sua voz para ajudá-los quando não conseguirem mais falar.

Quais são os perigos envolvendo deepfakes?

A alta na popularidade dos deepfakes em 2017 apontada por Hao tem motivo. Naquele ano, um usuário do fórum Reddit criou um software de deep learing que permitia ao usuário trocar o rosto de uma atriz de filme pornô pelo de celebridades. O programa analisava milhares de imagens de atrizes, modelos e cantoras para criar um padrão de rosto para cada uma. Depois, era só jogar no video desejado e ter um filme protagonizado por quem quer que fosse.

A partir daí, diversas campanhas surgiram para alertar sobre os perigos da tecnologia, que se tornou uma espécie de versão turbinada das já conhecidas fake news (“notícias falsas”, em inglês). Esta aqui, por exemplo, foi feita pelo BuzzFeed, e é “estrelada” por uma versão falsa do ex-presidente dos EUA Barack Obama.

Os vídeos falsos, então, possuem uma série de maus usos: eles podem humilhar, chantagear ou difamar alguém, atacar organizações, incitar violência política, cancelar acordos diplomáticos e até fraudar eleições.

Deepfakes devem ser proibidos?

Apesar do desenvolvimento até aqui, vamos que combinar que, olhando com atenção, mesmo os vídeos falsos falsos mais convincentes conseguem ser desmascarados. Em setembro de 2019, Hao deu uma entrevista ao canal norte-americano CNBC, em que afirmava que deepfakes “perfeitamente reais” começariam a surgir dali a seis meses. “Eu mantenho essa previsão e digo mais: isso já está acontecendo.”

Para o professor, o grande entrave dos deepfakes é a resolução: em baixa qualidade, eles podem confundir, mas quando a resolução aumenta, as imperfeições ficam expostas. “No entanto, já existem pesquisas em desenvolvimento para criar deepfakes em alta definição”, disse Hao. Ele cita um teste feito pelo sua própria empresa, a Pinscreen – também com Donald Trump, feita a partir de uma imitação do ator Alec Baldwin. Veja abaixo:

 

Em meio a isso, surge o debate: se os deepfakes podem ser tão perigosos, eles não deveriam ser proibidos?

“Eu sou contra a generalização, e acho que nem tudo deve ser proibido”, defende Hao, que traz como exemplo o seu trabalho no filme Velozes e Furiosos 7, no qual ele foi um dos responsáveis pela reencenação digital do ator Paul Walker, que morreu durante as gravações. “A família de Paul estava de acordo e ajudou durante o processo. Tudo foi feito como uma forma de homenageá-lo – e funcionou”.

A tecnologia dos vídeos falsos evolui em uma velocidade muito maior que a lei – o que impede a criação de uma única norma que os regule. Dessa forma, Hao, assim como boa parte dos especialistas, defende que mais de uma medida deve ser tomada em relação os deepfakes. “O ideal seria que os países criassem organizações que digam o que é aceitável e o que deve ser proibido.” Deepfakes em vídeos pornôs, nem pensar.

Além disso, é preciso aprimorar os algoritmos e técnicas de reconhecimento de vídeos falsos, o que facilitaria o combate a conteúdos nocivos. Projetos de lei que determinem os parâmetros para o compartilhamento também poderão ajudar plataformas de mídias sociais a atualizar suas políticas internas. Se organizar direito, ninguém cai em mentira.

Fonte: 

https://super.abril.com.br/tecnologia/afinal-o-que-sao-deepfakes/

 


Categorias:

Tecnologia | Política | Fake News |