Alterar formato do vídeo:Ocultar legendas incorporadasTela 4:3 ou 16:9 (Padrão) |
Alterar modo de reproduçãoModo atual: Tocar normalmenteTocar e Pausar |
[2] 00:19And by that, I mean
Sou o Dr. David Hanson e construo robôs com personalidade.
[5] 00:26come to empathize with you.
Estamos a começar com uma série de tecnologias
[10] 00:39and begin to model how you're feeling
quem somos, e a construir uma relação connosco.
[11] 00:43and who you are, and build a relationship with you.
Desenvolvi uma série de tecnologias
[16] 00:57So, it's a full range of facial expressions
que simulam os principais músculos do rosto,
[19] 01:03extremely lightweight.
é um material chamado Frubber.
[21] 01:08is a material that we call Frubber,
que permitiram tornar isso possível.
[22] 01:10and it actually has three major innovations
A primeira são os poros hierárquicos
[24] 01:14One is hierarchical pores,
Ai está ele, a começar a andar.
[26] 01:20There he's starting to walk.
Eu construí a cabeça. Eles construíram o corpo.
[28] 01:26I built the head. They built the body.
e não só isso, mas também a empatia.
[30] 01:33and not just sentience, but empathy.
da Universidade de San Diego.
[32] 01:39at the U.C. San Diego.
que reconhece expressões faciais,
[35] 01:46what facial expressions you're making.
Simulamos as principais expressões faciais,
[38] 01:53and then controlling it with the software
Na verdade, neste momento
[39] 01:55that we call the Character Engine.
- ligo isto daqui, e ligo isto aqui.
[42] 02:09and now let's see if it gets my facial expressions.
(Risos)
[43] 02:12Okay. So I'm smiling.
Agora estou a franzir a testa.
[44] 02:17(Laughter)
E estamos a contraluz.
[45] 02:19Now I'm frowning.
Certo, aqui vamos nós.
[46] 02:21And this is really heavily backlit.
Ah, está tão triste.
[47] 02:25Okay, here we go.
Certo, então sorri, franzindo a testa.
[48] 02:27Oh, it's so sad.
A perceção do nosso estado emocional
[49] 02:29Okay, so you smile, frowning.
é muito importante para as máquinas se tornarem simpáticas.
[50] 02:32So his perception of your emotional states
As máquinas estão a tornar-se capazes
[52] 02:38Machines are becoming devastatingly capable
Essas máquinas não são simpáticas.
[53] 02:41of things like killing. Right?
Hoje, gastam-se milhares de milhões de dólares nisso,
[55] 02:47And there is billions of dollars being spent on that.
para que os robôs sejam simpáticos.
[56] 02:49Character robotics could plant the seed
Se eles atingirem o nível da inteligência humana
[60] 02:59this could be the seeds of hope for our future.
Depois criei a empresa Hanson Robotics,
[62] 03:06And then I started Hanson Robotics,
Este é um dos nossos robôs
[64] 03:12This is one of our robots
Ele consegue ver várias pessoas numa mesma cena,
[65] 03:14that we showed at Wired NextFest a couple of years ago.
recorda-se de cada indivíduo,
[67] 03:19remembers where individual people are,
Estamos a envolver duas coisas.
[68] 03:21and looks from person to person, remembering people.
Primeiro, a perceção de pessoas,
[69] 03:25So, we're involving two things.
e segundo, o interface natural,
[70] 03:27One, the perception of people,
a forma natural do interface,
[71] 03:29and two, the natural interface,
de modo que nos seja mais intuitivo interagir com um robô.
[72] 03:33the natural form of the interface,
Começamos a acreditar que ele está vivo e consciente.
[79] 03:52which was the basis of the movie "Bladerunner."
e, de certa forma, ganham vida.
[80] 03:54In these stories, robots often think
Colocámos os seus escritos, as cartas,
[81] 03:57that they're human, and they sort of come to life.
as entrevistas, a correspondência,
[82] 03:59So we put his writings, letters,
numa grande base de dados com milhares de páginas,
[83] 04:02his interviews, correspondences,
e usámos um processamento natural de linguagem
[84] 04:05into a huge database of thousands of pages,
que permite ter uma conversa com ele.
[90] 04:19which is a little character that's a spokesbot
Estamos a preparar uma produção em massa.
[97] 04:40As artificial intelligence evolves, so does his intelligence.
(Aplausos)
[98] 04:43Chris Anderson: Thank you so much. That's incredible.
--98--