[2] 00:19And by that, I mean
E com isso, quero dizer
[3] 00:21that I develop robots that are characters,
que eu desenvolvo robôs que são personagens,
[4] 00:23but also robots that will eventually
mas também robôs que eventualmente
[5] 00:26come to empathize with you.
vão criar laços de empatia com você.
[10] 00:39and begin to model how you're feeling
e começam a modelar como você se sente,
[12] 00:46I developed a series of technologies
Eu desenvolvi uma série de tecnologias
[16] 00:57So, it's a full range of facial expressions
Então, é um leque de expressões faciais
[18] 01:01running on very small batteries,
usando baterias bem pequenas,
[19] 01:03extremely lightweight.
extremamente leves.
[21] 01:08is a material that we call Frubber,
é um material que nós chamamos de Frubber,
[22] 01:10and it actually has three major innovations
e esse material tem três inovações principais
[23] 01:12in the material that allow this to happen.
que permitiram que isto acontecesse.
[24] 01:14One is hierarchical pores,
A primeira são os poros hierárquicos
[26] 01:20There he's starting to walk.
Ali está ele começando a andar.
[28] 01:26I built the head. They built the body.
Eu construí a cabeça. Eles construíram o corpo.
[30] 01:33and not just sentience, but empathy.
e não só isso, mas também a empatia.
[32] 01:39at the U.C. San Diego.
da Universidade de San Diego
[34] 01:44that recognizes facial expressions,
que reconhece expressões faciais,
[35] 01:46what facial expressions you're making.
quais expressões faciais você está fazendo.
[38] 01:53and then controlling it with the software
e controlando-as com software
[39] 01:55that we call the Character Engine.
o qual nós chamamos de Motor de Personalidade.
[43] 02:12Okay. So I'm smiling.
Certo. Então eu estou sorrindo.
[45] 02:19Now I'm frowning.
Agora estou franzindo a testa.
[46] 02:21And this is really heavily backlit.
E estamos contra a luz.
[47] 02:25Okay, here we go.
Certo, aqui vamos nós.
[48] 02:27Oh, it's so sad.
Ah, está tão triste.
[49] 02:29Okay, so you smile, frowning.
Certo, então sorri, franzindo a testa.
[50] 02:32So his perception of your emotional states
Então a percepção do seu estado emocional
[53] 02:41of things like killing. Right?
de coisas como matar. Certo?
[54] 02:45Those machines have no place for empathy.
Estas máquinas não podem ter empatia.
[57] 02:51for robots that actually have empathy.
para robôs que tenham empatia de verdade.
[62] 03:06And then I started Hanson Robotics,
e então eu criei a empresa Hanson Robotics,
[64] 03:12This is one of our robots
Este é um dos nossos robôs
[66] 03:16And it sees multiple people in a scene,
E ele vê várias pessoas em uma cena,
[67] 03:19remembers where individual people are,
lembra de cada indivíduo,
[69] 03:25So, we're involving two things.
Então, nós estamos envolvendo duas coisas.
[70] 03:27One, the perception of people,
Primeira, a percepção de pessoas,
[71] 03:29and two, the natural interface,
e segunda, a interface natural,
[72] 03:33the natural form of the interface,
a forma natural da interface,
[77] 03:47of science-fiction writer Philip K. Dick,
do escritor de ficção científica Philip K. Dick,
[80] 03:54In these stories, robots often think
Nestas histórias, os robôs por vezes pensam
[82] 03:59So we put his writings, letters,
Então colocamos seus escritos, cartas,
[83] 04:02his interviews, correspondences,
entrevistas, correspondências,
[85] 04:07and then used some natural language processing
e usamos processamento natural de linguagem
[93] 04:27We specked it out to actually be doable
Nós o desenhamos para ser fabricável
[99] 04:45(Applause)
(Aplausos)