fix bar
fix bar
fix bar
fix bar
fix bar
fix bar

Fake videos of real people -- and how to spot them | Supasorn Suwajanakorn

TED

Alterar formato do vídeo:

Ocultar legendas incorporadas

Tela 21:9 (Cinema)

Alterar modo de reprodução

Modo atual: Tocar normalmente

Tocar e Pausar

Lento Devagar Normal
Rápido
Acelerado
Frenético
 


. . .



 


. . .



 

00:00...
...

[1] 00:12Look at these images.
Olhem para estas imagens.

[2] 00:14Now, tell me which Obama here is real.
Agora, digam-me qual desses Obama aqui é real.

[3] 00:16(Video) Barack Obama: To help families refinance their homes,
(Vídeo) Barack Obama: Para ajudar a refinanciar moradias,

[4] 00:19to invest in things like high-tech manufacturing,
para investir em coisas como produção de alta tecnologia,

[5] 00:22clean energy
energia limpa

[6] 00:23and the infrastructure that creates good new jobs.
e a infraestrutura que cria bons novos empregos.

[7] 00:26Anyone?
Alguém?

[8] 00:28The answer is none of them.
A resposta é: nenhum deles.

[9] 00:30(Laughter)
(Risos)

[10] 00:31None of these is actually real.
Nenhum deles é, na verdade, real.

[11] 00:33So let me tell you how we got here.
Vou contar a vocês como chegamos até aqui.

[12] 00:35My inspiration for this work
Minha inspiração por este trabalho

[13] 00:37was a project meant to preserve our last chance for learning about the Holocaust
foi um projeto para preservar nossa última chance de aprender sobre o holocausto

[14] 00:42from the survivors.
a partir dos sobreviventes.

[15] 00:44It's called New Dimensions in Testimony,
É chamado "New Dimensions in Testimony",

[16] 00:47and it allows you to have interactive conversations
e permite conversas interativas

[17] 00:50with a hologram of a real Holocaust survivor.
com um holograma de um sobrevivente real do holocausto.

[18] 00:53(Video) Man: How did you survive the Holocaust?
(Vídeo) Homem: Como o senhor sobreviveu ao holocausto?

[19] 00:55(Video) Hologram: How did I survive?
(Vídeo) Holograma: Como sobrevivi?

[20] 00:57I survived,
Eu sobrevivi,

[21] 01:00I believe,
creio eu,

[22] 01:01because providence watched over me.
porque Deus me protegeu.

[23] 01:05SS: Turns out these answers were prerecorded in a studio.
SS: Acontece que essas respostas foram pré-gravadas em um estúdio.

[24] 01:09Yet the effect is astounding.
Mas o efeito é surpreendente.

[25] 01:11You feel so connected to his story and to him as a person.
Você se sente muito ligado à história dele e a ele como pessoa.

[26] 01:16I think there's something special about human interaction
Acredito que há algo especial sobre a interação humana

[27] 01:19that makes it much more profound
que a torna muito mais profunda

[28] 01:22and personal
e pessoal

[29] 01:24than what books or lectures or movies could ever teach us.
do que os livros, as palestras ou os filmes jamais poderiam nos ensinar.

[30] 01:28So I saw this and began to wonder,
Vi isso e comecei a me perguntar:

[31] 01:30can we create a model like this for anyone?
"Será que podemos criar um modelo como esse para qualquer um,

[32] 01:33A model that looks, talks and acts just like them?
um modelo que se pareça, fale e aja exatamente como eles?"

[33] 01:37So I set out to see if this could be done
Comecei a ver se isso poderia ser feito

[34] 01:39and eventually came up with a new solution
e, finalmente, propus uma nova solução

[35] 01:41that can build a model of a person using nothing but these:
para construir um modelo de uma pessoa usando nada além disso:

[36] 01:45existing photos and videos of a person.
fotos e vídeos existentes de uma pessoa.

[37] 01:48If you can leverage this kind of passive information,
Se for possível aprimorar esse tipo de informação passiva,

[38] 01:51just photos and video that are out there,
fotos e vídeos que estão por aí,

[39] 01:53that's the key to scaling to anyone.
esse é o segredo para representar qualquer um.

[40] 01:56By the way, here's Richard Feynman,
A propósito, esse é Richard Feynman,

[41] 01:57who in addition to being a Nobel Prize winner in physics
que, além de ser ganhador do Prêmio Nobel de física,

[42] 02:01was also known as a legendary teacher.
também era conhecido como um professor extraordinário.

[43] 02:05Wouldn't it be great if we could bring him back
Não seria ótimo se pudéssemos trazê-lo de volta

[44] 02:07to give his lectures and inspire millions of kids,
para dar suas palestras e inspirar milhões de crianças,

[45] 02:10perhaps not just in English but in any language?
talvez não apenas em inglês, mas em qualquer idioma?

[46] 02:14Or if you could ask our grandparents for advice and hear those comforting words
Ou se pudéssemos pedir conselhos a nossos avós e ouvir palavras de conforto

[47] 02:19even if they're no longer with us?
mesmo que não estejam mais conosco?

[48] 02:21Or maybe using this tool, book authors, alive or not,
Ou talvez, usando essa ferramenta, os autores de livros, vivos ou não,

[49] 02:25could read aloud all of their books for anyone interested.
poderiam ler todos os seus livros em voz alta para qualquer interessado.

[50] 02:29The creative possibilities here are endless,
As possibilidades criativas aqui são infinitas,

[51] 02:31and to me, that's very exciting.
e, para mim, isso é muito empolgante.

[52] 02:34And here's how it's working so far.
E é assim que está funcionando até agora.

[53] 02:36First, we introduce a new technique
Primeiro, apresentamos uma nova técnica que pode reconstruir

[54] 02:38that can reconstruct a high-detailed 3D face model from any image
um modelo facial em 3D altamente detalhado a partir de qualquer imagem,

[55] 02:42without ever 3D-scanning the person.
sem nunca fazer um exame em 3D da pessoa.

[56] 02:45And here's the same output model from different views.
Aqui está o mesmo modelo de saída a partir de visões diferentes.

[57] 02:49This also works on videos,
Também funciona para vídeos,

[58] 02:51by running the same algorithm on each video frame
executando o mesmo algoritmo para cada quadro de vídeo

[59] 02:54and generating a moving 3D model.
e gerando um modelo em 3D em movimento.

[60] 02:57And here's the same output model from different angles.
Aqui está o mesmo modelo de saída a partir de ângulos diferentes.

[61] 03:01It turns out this problem is very challenging,
Acontece que esse problema é muito desafiador,

[62] 03:04but the key trick is that we are going to analyze
mas o truque principal é que iremos analisar de antemão

[63] 03:07a large photo collection of the person beforehand.
uma grande coleção de fotos da pessoa.

[64] 03:10For George W. Bush, we can just search on Google,
Para George W. Bush, podemos simplesmente procurar no Google,

[65] 03:14and from that, we are able to build an average model,
e, a partir daí, podemos construir um modelo médio,

[66] 03:16an iterative, refined model to recover the expression
iterativo e refinado para recuperar a expressão

[67] 03:19in fine details, like creases and wrinkles.
em detalhes distintos, como marcas e rugas.

[68] 03:23What's fascinating about this
O fascinante sobre isso

[69] 03:24is that the photo collection can come from your typical photos.
é que a coleção de fotos pode vir de suas fotos comuns.

[70] 03:28It doesn't really matter what expression you're making
Não importa realmente que expressão você esteja fazendo

[71] 03:30or where you took those photos.
ou onde você tirou aquelas fotos.

[72] 03:32What matters is that there are a lot of them.
O que importa é que haja muitas delas.

[73] 03:35And we are still missing color here,
Ainda falta cor aqui.

[74] 03:36so next, we develop a new blending technique
Então, a seguir, desenvolvemos uma nova técnica de mistura

[75] 03:39that improves upon a single averaging method
que aperfeiçoa um método único de obter a média

[76] 03:42and produces sharp facial textures and colors.
e produz texturas faciais e cores definidas.

[77] 03:45And this can be done for any expression.
Isso pode ser feito para qualquer expressão.

[78] 03:49Now we have a control of a model of a person,
Agora temos o controle de um modelo de uma pessoa,

[79] 03:52and the way it's controlled now is by a sequence of static photos.
por meio de uma sequência de fotos estáticas.

[80] 03:55Notice how the wrinkles come and go, depending on the expression.
Reparem como as rugas vêm e vão dependendo da expressão.

[81] 04:00We can also use a video to drive the model.
Também podemos usar um vídeo para conduzir o modelo.

[82] 04:02(Video) Daniel Craig: Right, but somehow,
(Vídeo) Daniel Craig: Certo, mas, por alguma razão,

[83] 04:05we've managed to attract some more amazing people.
temos conseguido atrair algumas das pessoas mais incríveis.

[84] 04:10SS: And here's another fun demo.
SS: Aqui está outra demo divertida.

[85] 04:11So what you see here are controllable models
O que vemos aqui são modelos controláveis

[86] 04:13of people I built from their internet photos.
de pessoas criadas a partir de suas fotos da internet.

[87] 04:16Now, if you transfer the motion from the input video,
Agora, se transferirmos o movimento do vídeo de entrada

[88] 04:19we can actually drive the entire party.
podemos, na verdade, conduzir o grupo todo.

[89] 04:21George W. Bush: It's a difficult bill to pass,
George W. Bush: É uma conta difícil de aprovar,

[90] 04:23because there's a lot of moving parts,
porque há muitas partes móveis,

[91] 04:26and the legislative processes can be ugly.
e os processos legislativos podem ser desagradáveis.

[92] 04:31(Applause)
(Aplausos)

[93] 04:32SS: So coming back a little bit,
SS: Voltando um pouquinho,

[94] 04:34our ultimate goal, rather, is to capture their mannerisms
nosso objetivo final, ao contrário, é capturar seus trejeitos

[95] 04:38or the unique way each of these people talks and smiles.
ou a maneira única como cada uma dessas pessoas fala e sorri.

[96] 04:41So to do that, can we actually teach the computer
Para isso, será que conseguimos ensinar o computador

[97] 04:43to imitate the way someone talks
a imitar a maneira como alguém fala

[98] 04:45by only showing it video footage of the person?
mostrando apenas imagens de vídeo da pessoa?

[99] 04:48And what I did exactly was, I let a computer watch
O que fiz exatamente foi deixar um computador assistir

[100] 04:5114 hours of pure Barack Obama giving addresses.
a 14 horas do autêntico Barack Obama dando palestras.

[101] 04:55And here's what we can produce given only his audio.
Aqui está o que podemos produzir apenas com o áudio dele.

[102] 04:58(Video) BO: The results are clear.
(Vídeo) BO: Os resultados são claros.

[103] 05:00America's businesses have created 14.5 million new jobs
Os negócios dos Estados Unidos criaram 14,5 milhões de novos empregos

[104] 05:05over 75 straight months.
mais de 75 meses consecutivos.

[105] 05:07SS: So what's being synthesized here is only the mouth region,
SS: O que está sendo combinado aqui é apenas a região da boca,

[106] 05:10and here's how we do it.
e é assim que fazemos.

[107] 05:12Our pipeline uses a neural network
Nosso canal usa uma rede neural

[108] 05:14to convert and input audio into these mouth points.
para converter e entrar com áudio nestes pontos da boca.

[109] 05:18(Video) BO: We get it through our job or through Medicare or Medicaid.
(Vídeo) BO: Conseguimos isso por meio do trabalho, do Medicare ou do Medicaid.

[110] 05:22SS: Then we synthesize the texture, enhance details and teeth,
SS: Então, combinamos a textura, aprimoramos os detalhes e os dentes,

[111] 05:26and blend it into the head and background from a source video.
e integramos isso no início e no fundo de um vídeo de origem.

[112] 05:29(Video) BO: Women can get free checkups,
(Vídeo) BO: As mulheres têm direito a exames gratuitos

[113] 05:31and you can't get charged more just for being a woman.
e não se pode cobrá-las a mais por serem mulheres.

[114] 05:34Young people can stay on a parent's plan until they turn 26.
Os jovens podem permanecer no plano dos pais até completarem 26 anos.

[115] 05:39SS: I think these results seem very realistic and intriguing,
SS: Considero esses resultados muito realistas e intrigantes,

[116] 05:42but at the same time frightening, even to me.
mas, ao mesmo tempo, assustadores, até para mim.

[117] 05:45Our goal was to build an accurate model of a person, not to misrepresent them.
Nosso objetivo foi construir um modelo exato de uma pessoa e não desvirtuá-la.

[118] 05:49But one thing that concerns me is its potential for misuse.
Mas uma coisa que me preocupa é o seu potencial para uso indevido.

[119] 05:53People have been thinking about this problem for a long time,
As pessoas têm considerado esse problema há muito tempo,

[120] 05:56since the days when Photoshop first hit the market.
desde que o Photoshop chegou ao mercado.

[121] 05:59As a researcher, I'm also working on countermeasure technology,
Como pesquisador, também trabalho com tecnologia de medida preventiva,

[122] 06:03and I'm part of an ongoing effort at AI Foundation,
e faço parte de um esforço contínuo na AI Foundation,

[123] 06:06which uses a combination of machine learning and human moderators
que usa uma combinação de aprendizado de máquina e moderadores humanos

[124] 06:10to detect fake images and videos,
para detectar imagens e vídeos falsos,

[125] 06:12fighting against my own work.
lutando contra meu próprio trabalho.

[126] 06:14And one of the tools we plan to release is called Reality Defender,
Uma das ferramentas que planejamos lançar é chamada "Reality Defender",

[127] 06:17which is a web-browser plug-in that can flag potentially fake content
um "plug-in" de navegador da web que pode sinalizar conteúdo potencialmente falso

[128] 06:21automatically, right in the browser.
automaticamente, direto no navegador.

[129] 06:24(Applause)
(Aplausos)

[130] 06:28Despite all this, though,
Apesar de tudo isso, vídeos falsos podem causar muitos prejuízos,

[131] 06:30fake videos could do a lot of damage,
mesmo antes de alguém ter a chance de verificar.

[132] 06:32even before anyone has a chance to verify,
Por isso, é muito importante

[133] 06:35so it's very important that we make everyone aware
que conscientizemos todos do que é possível atualmente

[134] 06:38of what's currently possible
para que possamos supor de forma correta e ser críticos sobre o que vemos.

[135] 06:40so we can have the right assumption and be critical about what we see.
Ainda há um longo caminho a percorrer antes de podermos modelar as pessoas

[136] 06:44There's still a long way to go before we can fully model individual people
e garantir a segurança dessa tecnologia.

[137] 06:49and before we can ensure the safety of this technology.
Mas estou animado e esperançoso,

[138] 06:53But I'm excited and hopeful,
porque, se usarmos de forma correta e cuidadosa,

[139] 06:54because if we use it right and carefully,
essa ferramenta pode permitir

[140] 06:58this tool can allow any individual's positive impact on the world
que o impacto positivo de qualquer indivíduo no mundo

[141] 07:02to be massively scaled
seja medido em larga escala

[142] 07:04and really help shape our future the way we want it to be.
e ajude a modelar nosso futuro como queremos que ele seja.

[143] 07:07Thank you.
Obrigado.

[144] 07:08(Applause)
(Aplausos)