fix bar
fix bar
fix bar
fix bar
fix bar
fix bar

The Rise of Personal Robots | Cynthia Breazeal | TED Talks

TED

Alterar formato do vídeo:

Ocultar legendas incorporadas

Tela 4:3 ou 16:9 (Padrão)

Alterar modo de reprodução

Modo atual: Tocar e Pausar

Tocar normalmente

Lento Devagar Normal
Rápido
Acelerado
Frenético
 


. . .



 


. . .



 

00:00...
...

[1] 00:15Ever since I was a little girl
Tradutor: Cátia Costa Revisora: Rafael Eufrasio

[2] 00:18seeing "Star Wars" for the first time,
Desde pequena

[3] 00:20I've been fascinated by this idea
e desde que vi a "Guerra das Estrelas" pela primeira vez,

[4] 00:22of personal robots.
que fiquei fascinada com a ideia de robôs pessoais.

[5] 00:24And as a little girl,
E enquanto criança

[6] 00:26I loved the idea of a robot that interacted with us
adorava a ideia de um robô que interagisse connosco

[7] 00:28much more like a helpful, trusted sidekick --
como um parceiro útil e de confiança,

[8] 00:31something that would delight us, enrich our lives
uma coisa que nos agradasse e que enriquecesse a nossa vida

[9] 00:33and help us save a galaxy or two.
e que nos ajudasse a salvar uma ou duas galáxias.

[10] 00:37I knew robots like that didn't really exist,
Eu sabia que esses robôs não existiam

[11] 00:40but I knew I wanted to build them.
mas sabia que queria construí-los.

[12] 00:42So 20 years pass --
Passados 20 anos,

[13] 00:44I am now a graduate student at MIT
sou estudante de pós-graduação no MIT

[14] 00:46studying artificial intelligence,
a estudar inteligência artificial.

[15] 00:48the year is 1997,
O ano é o de 1997,

[16] 00:50and NASA has just landed the first robot on Mars.
e a NASA acabava de colocar o primeiro robô em Marte.

[17] 00:53But robots are still not in our home, ironically.
Mas os robôs ainda não estavam nas nossas casas, ironicamente.

[18] 00:56And I remember thinking about
E recordo-me de pensar em todas as razões para tal acontecer.

[19] 00:58all the reasons why that was the case.
Mas houve uma que me chamou a atenção.

[20] 01:00But one really struck me.
A robótica relacionava-se com a interacção com as coisas

[21] 01:02Robotics had really been about interacting with things,
mas não com as pessoas.

[22] 01:05not with people --
Certamente não da forma social que para nós seria natural

[23] 01:07certainly not in a social way that would be natural for us
e que ajudaria as pessoas a aceitar os robôs

[24] 01:09and would really help people accept robots
na sua vida quotidiana.

[25] 01:11into our daily lives.
Para mim, era esse o espaço em branco, que os robôs ainda não sabiam fazer.

[26] 01:13For me, that was the white space; that's what robots could not do yet.
Nesse mesmo ano, comecei a construir este robô, o Kismet,

[27] 01:16And so that year, I started to build this robot, Kismet,
o primeiro robô social do mundo

[28] 01:19the world's first social robot.
Ao fim de três anos, de muita programação,

[29] 01:22Three years later --
a trabalhar com outros estudantes no laboratório,

[30] 01:24a lot of programming,
o Kismet podia começar a interagir com pessoas.

[31] 01:26working with other graduate students in the lab --
(Vídeo) Cientista: Eu quero mostrar-te uma coisa.

[32] 01:28Kismet was ready to start interacting with people.
Isto é um relógio que a minha namorada me deu.

[33] 01:30(Video) Scientist: I want to show you something.
Sim, olha, também tem uma luzinha azul lá dentro.

[34] 01:32Kismet: (Nonsense)
Esta semana quase que o perdi.

[35] 01:34Scientist: This is a watch that my girlfriend gave me.
Cynthia Breazel: O Kismet interagia com pessoas

[36] 01:37Kismet: (Nonsense)
como uma criança não-verbal ou pré-verbal,

[37] 01:39Scientist: Yeah, look, it's got a little blue light in it too.
que eu presumo que seja adequado porque era o primeiro da espécie.

[38] 01:41I almost lost it this week.
Não falava uma língua, mas isso não importava.

[39] 01:44Cynthia Breazeal: So Kismet interacted with people
Este pequeno robô era capaz de atingir

[40] 01:47like kind of a non-verbal child or pre-verbal child,
uma coisa profundamente social dentro de nós.

[41] 01:50which I assume was fitting because it was really the first of its kind.
Era a promessa duma forma totalmente nova

[42] 01:53It didn't speak language, but it didn't matter.
de podermos interagir com robôs.

[43] 01:55This little robot was somehow able
Ao longo dos últimos anos

[44] 01:57to tap into something deeply social within us --
continuei a explorar esta dimensão interpessoal dos robôs,

[45] 02:00and with that, the promise of an entirely new way
agora no Media Lab

[46] 02:02we could interact with robots.
com a minha equipa de estudantes incrivelmente talentosos.

[47] 02:04So over the past several years
Um dos meus robôs preferidos é o Leonardo.

[48] 02:06I've been continuing to explore this interpersonal dimension of robots,
Criámos o Leonardo em colaboração com o Stan Winston Studio.

[49] 02:08now at the media lab
Quero mostrar-vos um momento do Leo, especial para mim .

[50] 02:10with my own team of incredibly talented students.
Este é o Matt Berlin a interagir com o Leo,

[51] 02:12And one of my favorite robots is Leonardo.
a apresentar ao Leo um novo objecto.

[52] 02:15We developed Leonardo in collaboration with Stan Winston Studio.
Como é novo, o Leo não sabe o que fazer com ele.

[53] 02:18And so I want to show you a special moment for me of Leo.
Mas mais ou menos como nós, ele pode aprender

[54] 02:21This is Matt Berlin interacting with Leo,
através da reacção do Matt.

[55] 02:23introducing Leo to a new object.
(Vídeo) Matt Berlin: Olá, Leo.

[56] 02:25And because it's new, Leo doesn't really know what to make of it.
Leo, este é o Monstro das Bolachas.

[57] 02:28But sort of like us, he can actually learn about it
Consegues encontrar o Monstro das Bolachas?

[58] 02:30from watching Matt's reaction.
Leo, o Monstro das Bolachas é muito mau.

[59] 02:33(Video) Matt Berlin: Hello, Leo.
Ele é muito mau, Leo.

[60] 02:38Leo, this is Cookie Monster.
O Monstro das Bolachas é muito, muito mau.

[61] 02:44Can you find Cookie Monster?
É um monstro assustador.

[62] 02:52Leo, Cookie Monster is very bad.
Ele quer roubar as tuas bolachas.

[63] 02:56He's very bad, Leo.
(Risos)

[64] 03:00Cookie Monster is very, very bad.
CB: O Leo e o Monstro das Bolachas

[65] 03:07He's a scary monster.
podem ter tido um início um pouco difícil,

[66] 03:09He wants to get your cookies.
mas agora dão-se bem.

[67] 03:12(Laughter)
O que eu aprendi ao construir estes sistemas

[68] 03:14CB: All right, so Leo and Cookie
foi que os robôs são uma tecnologia social verdadeiramente intrigante.

[69] 03:17might have gotten off to a little bit of a rough start,
Onde está a capacidade

[70] 03:19but they get along great now.
de carregar nos nossos botões sociais

[71] 03:22So what I've learned
e de interagir connosco como um colega

[72] 03:24through building these systems
essa é a parte central da sua funcionalidade.

[73] 03:26is that robots are actually
Com essa mudança de pensamento, é possível agora imaginar

[74] 03:28a really intriguing social technology,
novas questões, novas possibilidades para os robôs.

[75] 03:30where it's actually their ability
que, de outro modo, não teríamos pensado.

[76] 03:32to push our social buttons
O que é que quero dizer com "carregar nos botões sociais"?

[77] 03:34and to interact with us like a partner
Aprendemos que, se concebermos estes robôs

[78] 03:36that is a core part of their functionality.
para comunicar connosco

[79] 03:39And with that shift in thinking, we can now start to imagine
usando a mesma linguagem corporal,

[80] 03:41new questions, new possibilities for robots
os mesmos sinais não-verbais que as pessoas usam,

[81] 03:44that we might not have thought about otherwise.
como o Nexi, este robô humanóide está a fazer aqui,

[82] 03:47But what do I mean when I say "push our social buttons?"
descobrimos que as pessoas respondem aos robôs

[83] 03:49Well, one of the things that we've learned
de forma semelhante à que respondem a pessoas.

[84] 03:51is that, if we design these robots to communicate with us
As pessoas utilizam estes sinais para saber quão persuasivo alguém é,

[85] 03:53using the same body language,
quão simpático, quão cativante,

[86] 03:55the same sort of non-verbal cues that people use --
quão digno de confiança.

[87] 03:57like Nexi, our humanoid robot, is doing here --
Acontece que é o mesmo para os robôs.

[88] 04:00what we find is that people respond to robots
Estamos a descobrir agora

[89] 04:02a lot like they respond to people.
que os robôs estão a tornar-se uma ferramenta científica interessante

[90] 04:04People use these cues to determine things like how persuasive someone is,
para compreender o comportamento humano.

[91] 04:07how likable, how engaging,
Para responder a perguntas, tipo: Como é que, num breve encontro,

[92] 04:09how trustworthy.
conseguimos calcular quão digna de confiança é uma pessoa?

[93] 04:11It turns out it's the same for robots.
Acreditamos que a imitação exerce um papel, mas como?

[94] 04:13It's turning out now
A imitação de determinados gestos é importante?

[95] 04:15that robots are actually becoming a really interesting new scientific tool
É muito difícil aprender ou compreender isto observando as pessoas

[96] 04:18to understand human behavior.
pois quando interagimos, fazemos todos estes sinais automaticamente.

[97] 04:20To answer questions like, how is it that, from a brief encounter,
Não podemos controlá-los. Fazem parte do nosso subconsciente.

[98] 04:23we're able to make an estimate of how trustworthy another person is?
Mas com o robô é possível.

[99] 04:26Mimicry's believed to play a role, but how?
Este vídeo foi feito no laboratório de David Steno na Northeasterm University.

[100] 04:29Is it the mimicking of particular gestures that matters?
É um psicólogo com quem temos estado a colaborar.

[101] 04:32It turns out it's really hard
No vídeo vemos um cientista a controlar atentamente os sinais do Nexi

[102] 04:34to learn this or understand this from watching people
para conseguir estudar esta questão.

[103] 04:36because when we interact we do all of these cues automatically.
A conclusão é que isto funciona

[104] 04:39We can't carefully control them because they're subconscious for us.
porque as pessoas comportam-se apenas como pessoas

[105] 04:41But with the robot, you can.
mesmo quando interagem com um robô.

[106] 04:43And so in this video here --
Assim, através desta ideia chave,

[107] 04:45this is a video taken from David DeSteno's lab at Northeastern University.
é possível começar a imaginar novos tipos de aplicações para robôs.

[108] 04:48He's a psychologist we've been collaborating with.
Por exemplo, se os robôs respondem aos nossos sinais não-verbais,

[109] 04:50There's actually a scientist carefully controlling Nexi's cues
talvez possam ser uma nova e engraçada tecnologia de comunicação.

[110] 04:53to be able to study this question.
Imaginemos isto:

[111] 04:56And the bottom line is -- the reason why this works is
Que tal um acessório robô para o telemóvel?

[112] 04:58because it turns out people just behave like people
Uma pessoa telefona a uma amiga, ela coloca o auricular num robô,

[113] 05:00even when interacting with a robot.
e, surpresa! Essa pessoa é o MeBot.

[114] 05:03So given that key insight,
Podemos fazer contacto visual, falar com os amigos,

[115] 05:05we can now start to imagine
andar de um lado para o outro, fazer gestos.

[116] 05:07new kinds of applications for robots.
Melhor só mesmo estando lá, não é verdade?

[117] 05:10For instance, if robots do respond to our non-verbal cues,
Para explorar esta questão

[118] 05:13maybe they would be a cool, new communication technology.
um aluno meu, Siggy Adalgeirsson, realizou um estudo

[119] 05:17So imagine this:
para o qual trouxemos pessoas para o nosso laboratório

[120] 05:19What about a robot accessory for your cellphone?
para levar a cabo uma tarefa colaborativa

[121] 05:21You call your friend, she puts her handset in a robot,
com um colaborador à distância.

[122] 05:23and, bam! You're a MeBot --
A tarefa incluía coisas como

[123] 05:25you can make eye contact, you can talk with your friends,
olhar para uma série de objectos numa mesa,

[124] 05:28you can move around, you can gesture --
analisá-los em termos de importância e relevância

[125] 05:30maybe the next best thing to really being there, or is it?
para realizar uma determinada tarefa

[126] 05:33To explore this question,
- esta era uma tarefa de sobrevivência -

[127] 05:35my student, Siggy Adalgeirsson, did a study
e posteriormente classificá-los

[128] 05:38where we brought human participants, people, into our lab
Segundo o valor e a importância que lhe davam.

[129] 05:41to do a collaborative task
O colaborador à distância era um experimentador do grupo.

[130] 05:43with a remote collaborator.
Utilizámos uma de três tecnologias diferentes

[131] 05:45The task involved things
para interagir com os participantes.

[132] 05:47like looking at a set of objects on the table,
A primeira foi apenas o ecrã, tal como uma videoconferência actual.

[133] 05:49discussing them in terms of their importance and relevance to performing a certain task --
Na seguinte, adicionou-se mobilidade, temos um ecrã numa base móvel.

[134] 05:52this ended up being a survival task --
Se conhecem algum dos robôs tele-presenciais actuais,

[135] 05:54and then rating them in terms
isto espelha essa situação.

[136] 05:56of how valuable and important they thought they were.
Depois o Mebot completamente expressivo.

[137] 05:58The remote collaborator was an experimenter from our group
Após a interacção,

[138] 06:01who used one of three different technologies
pedimos às pessoas para classificarem a sua qualidade de interacção

[139] 06:03to interact with the participants.
com a tecnologia, com o colaborador à distância,

[140] 06:05The first was just the screen.
através desta tecnologia de várias maneiras distintas.

[141] 06:07This is just like video conferencing today.
Observámos o envolvimento psicológico:

[142] 06:10The next was to add mobility -- so, have the screen on a mobile base.
Qual o grau de empatia que sentiu pela outra pessoa?

[143] 06:13This is like, if you're familiar with any of the telepresence robots today --
Observámos o envolvimento em geral.

[144] 06:16this is mirroring that situation.
Observámos a vontade de colaborar.

[145] 06:19And then the fully expressive MeBot.
E isto é o que se vê quando utilizam apenas o ecrã.

[146] 06:21So after the interaction,
Quando se acrescenta mobilidade, a capacidade de girar na mesa,

[147] 06:23we asked people to rate their quality of interaction
obtém-se um pouco mais de estímulo.

[148] 06:26with the technology, with a remote collaborator
Obtém-se ainda maior estímulo se acrescentarmos a expressividade completa.

[149] 06:28through this technology, in a number of different ways.
Parece que esta personificação física social

[150] 06:31We looked at psychological involvement --
faz, de facto, a diferença.

[151] 06:33how much empathy did you feel for the other person?
Tentemos contextualizar isto um pouco.

[152] 06:35We looked at overall engagement.
Sabemos que, hoje em dia, as famílias vivem casa vez mais separadas.

[153] 06:37We looked at their desire to cooperate.
Isso tem um custo nas relações familiares

[154] 06:39And this is what we see when they use just the screen.
e nos laços familiares à distância.

[155] 06:42It turns out, when you add mobility -- the ability to roll around the table --
No meu caso, eu tenho três rapazes,

[156] 06:45you get a little more of a boost.
e quero que eles tenham uma boa relação com os avós.

[157] 06:47And you get even more of a boost when you add the full expression.
Mas os meus pais moram a quilómetros de distância,

[158] 06:50So it seems like this physical, social embodiment
e eles não se vêem muitas vezes.

[159] 06:52actually really makes a difference.
Usamos o Skype, telefonamos,

[160] 06:54Now let's try to put this into a little bit of context.
mas os meus filhos não querem falar, só querem brincar.

[161] 06:57Today we know that families are living further and further apart,
Portanto adorei a ideia de robôs

[162] 07:00and that definitely takes a toll on family relationships
como um novo tipo de tecnologia de diversão à distância.

[163] 07:02and family bonds over distance.
Eu imagino, numa época não muito distante,

[164] 07:04For me, I have three young boys,
a minha mãe ir ao computador,

[165] 07:06and I want them to have a really good relationship
abrir um browser e ligar-se a um pequeno robô.

[166] 07:08with their grandparents.
E como uma avó-bô,

[167] 07:10But my parents live thousands of miles away,
ela pode brincar de verdade,

[168] 07:12so they just don't get to see each other that often.
com os meus filhos, com os netos,

[169] 07:14We try Skype, we try phone calls,
no mundo real com brinquedos reais.

[170] 07:16but my boys are little -- they don't really want to talk;
Consigo imaginar as avós a divertir-se

[171] 07:18they want to play.
com as netas, com as amigas,

[172] 07:20So I love the idea of thinking about robots
e a partilhar uma série de outras actividades pela casa,

[173] 07:22as a new kind of distance-play technology.
como partilhar uma história para adormecer.

[174] 07:25I imagine a time not too far from now --
Através desta tecnologia,

[175] 07:28my mom can go to her computer,
têm a capacidade de desempenhar um papel activo na vida dos netos

[176] 07:30open up a browser and jack into a little robot.
duma forma que hoje não é possível.

[177] 07:32And as grandma-bot,
Consideremos outras áreas, como a saúde.

[178] 07:35she can now play, really play,
Nos Estados Unidos actualmente,

[179] 07:37with my sons, with her grandsons,
mais de 65% das pessoas têm excesso de peso ou são obesas.

[180] 07:39in the real world with his real toys.
Hoje é um problema que também afecta as nossas crianças.

[181] 07:42I could imagine grandmothers being able to do social-plays
Sabe-se que, à medida que envelhece,

[182] 07:44with their granddaughters, with their friends,
uma pessoa, obesa em jovem, vem a sofrer doenças crónicas mais tarde.

[183] 07:46and to be able to share all kinds of other activities around the house,
Isso diminui a qualidade de vida

[184] 07:48like sharing a bedtime story.
e é uma enorme carga económica no sistema de saúde.

[185] 07:50And through this technology,
Se os robôs cativarem,

[186] 07:52being able to be an active participant
se gostarmos de colaborar com os robôs,

[187] 07:54in their grandchildren's lives
se os robôs forem persuasivos,

[188] 07:56in a way that's not possible today.
talvez um robô possam ajudar-nos

[189] 07:58Let's think about some other domains,
a manter uma dieta e um programa de exercício físico,

[190] 08:00like maybe health.
talvez eles ajudem a controlar o peso.

[191] 08:02So in the United States today,
Uma espécie de grilo falante digital

[192] 08:04over 65 percent of people are either overweight or obese,
- como o célebre conto de fadas -

[193] 08:07and now it's a big problem with our children as well.
uma presença amigável e solidária que está sempre presente,

[194] 08:09And we know that as you get older in life,
que ajuda a tomar a decisão certa,

[195] 08:11if you're obese when you're younger, that can lead to chronic diseases
da forma certa, na altura certa,

[196] 08:14that not only reduce your quality of life,
para ajudar a criar hábitos saudáveis.

[197] 08:16but are a tremendous economic burden on our health care system.
Explorámos esta ideia no nosso laboratório.

[198] 08:19But if robots can be engaging,
Este é um robô, o Autom.

[199] 08:21if we like to cooperate with robots,
Cory Kidd desenvolveu este robô para o seu doutoramento.

[200] 08:23if robots are persuasive,
Concebeu-o para ser um conselheiro na alimentação e no exercício.

[201] 08:25maybe a robot can help you
O robô realizava umas habilidades não-verbais simples.

[202] 08:27maintain a diet and exercise program,
Estabelecia contacto visual connosco.

[203] 08:29maybe they can help you manage your weight.
Partilhava informação a olhar para um ecrã.

[204] 08:32Sort of like a digital Jiminy --
Usámos um interface no ecrã para introduzir informação:

[205] 08:34as in the well-known fairy tale --
a quantidade de calorias ingeridas nesse dia,

[206] 08:36a kind of friendly, supportive presence that's always there
a quantidade de exercício realizado.

[207] 08:38to be able to help you make the right decision
E assim ele podia acompanhar-nos.

[208] 08:40in the right way at the right time
O robô falava com uma voz sintética

[209] 08:42to help you form healthy habits.
para estabelecer um diálogo de orientação

[210] 08:44So we actually explored this idea in our lab.
modelado a partir de treinadores, pacientes, etc.,

[211] 08:46This is a robot, Autom.
E construía uma aliança de trabalho com a pessoa

[212] 08:48Cory Kidd developed this robot for his doctoral work.
através desse diálogo.

[213] 08:51And it was designed to be a robot diet-and-exercise coach.
Ajudava a definir objectivos e a acompanhar o progresso,

[214] 08:54It had a couple of simple non-verbal skills it could do.
e ajudava a motivar.

[215] 08:56It could make eye contact with you.
Uma questão interessante é:

[216] 08:58It could share information looking down at a screen.
Será que a personificação social é importante?

[217] 09:00You'd use a screen interface to enter information,
Importa que seja um robô?

[218] 09:02like how many calories you ate that day,
Será que só interessa a qualidade da informação e dos conselhos?

[219] 09:04how much exercise you got.
Para resolver esta questão

[220] 09:06And then it could help track that for you.
fizemos um estudo na zona de Boston

[221] 09:08And the robot spoke with a synthetic voice
em que colocámos uma de três intervenções nas casas das pessoas

[222] 09:10to engage you in a coaching dialogue
por um período de várias semanas.

[223] 09:12modeled after trainers
Um dos casos foi o robô que vimos ali, o Autom.

[224] 09:14and patients and so forth.
Outro foi um computador que executou o mesmo interface de ecrã táctil,

[225] 09:16And it would build a working alliance with you
exactamente com os mesmos diálogos.

[226] 09:18through that dialogue.
A qualidade da orientação foi idêntica.

[227] 09:20It could help you set goals and track your progress,
O terceiro foi uma caneta e um bloco de notas,

[228] 09:22and it would help motivate you.
porque é a intervenção padrão que utilizamos

[229] 09:24So an interesting question is,
quando iniciámos uma dieta e um programa de exercício físico.

[230] 09:26does the social embodiment really matter? Does it matter that it's a robot?
Uma das coisas que queríamos observar

[231] 09:29Is it really just the quality of advice and information that matters?
não era a quantidade de peso que as pessoas tinham perdido,

[232] 09:32To explore that question,
mas sim quanto tempo tinham interagido com o robô,

[233] 09:34we did a study in the Boston area
visto que o desafio não era perder peso, mas evitar que se ganhasse.

[234] 09:36where we put one of three interventions in people's homes
Quanto mais tempo se interagisse com uma destas intervenções,

[235] 09:39for a period of several weeks.
mais provável era o êxito a longo prazo.

[236] 09:41One case was the robot you saw there, Autom.
A primeira coisa que quero observar

[237] 09:44Another was a computer that ran the same touch-screen interface,
é quanto tempo as pessoas interagiram com estes sistemas.

[238] 09:47ran exactly the same dialogues.
Observou-se que as pessoas interagem com o robô

[239] 09:49The quality of advice was identical.
significativamente mais,

[240] 09:51And the third was just a pen and paper log,
apesar de a qualidade da orientação ser idêntica à do computador.

[241] 09:53because that's the standard intervention you typically get
Quando pedimos às pessoas para avaliarem em termos da qualidade da colaboração,

[242] 09:55when you start a diet-and-exercise program.
o robô obteve a classificação mais elevada,

[243] 09:58So one of the things we really wanted to look at
e confiavam mais no robô.

[244] 10:01was not how much weight people lost,
(Risos)

[245] 10:04but really how long they interacted with the robot.
E quando se observa o envolvimento emocional,

[246] 10:07Because the challenge is not losing weight, it's actually keeping it off.
os resultados são completamente diferentes.

[247] 10:10And the longer you could interact with one of these interventions,
As pessoas dão um nome ao robô,

[248] 10:13well that's indicative, potentially, of longer-term success.
vestem o robô.

[249] 10:16So the first thing I want to look at is how long,
(Risos)

[250] 10:18how long did people interact with these systems.
E quando íamos buscar os robôs no fim do estudo,

[251] 10:20It turns out that people interacted with the robot
as pessoas acompanhavam-nos ao carro e diziam adeus aos robôs.

[252] 10:22significantly more,
Não faziam isto com um computador.

[253] 10:24even though the quality of the advice was identical to the computer.
A última questão que quero abordar hoje,

[254] 10:28When it asked people to rate it on terms of the quality of the working alliance,
é o futuro dos media para as crianças.

[255] 10:31people rated the robot higher
Actualmente, as crianças passam muito tempo em frente a um ecrã,

[256] 10:33and they trusted the robot more.
seja o da televisão ou dos jogos de computador.

[257] 10:35(Laughter)
Os meus filhos, adoram o ecrã.

[258] 10:37And when you look at emotional engagement,
Mas, enquanto mãe, eu quero que eles brinquem

[259] 10:39it was completely different.
jogos do mundo real.

[260] 10:41People would name the robots.
Tenho um novo projecto no meu grupo que vos quero apresentar hoje

[261] 10:43They would dress the robots.
intitulado "Playtime Computing"

[262] 10:45(Laughter)
que explora o porquê de os media digitais serem tão cativantes,

[263] 10:47And even when we would come up to pick up the robots at the end of the study,
e levá-los para fora do ecrã,

[264] 10:50they would come out to the car and say good-bye to the robots.
para o mundo real da criança,

[265] 10:52They didn't do this with a computer.
onde possa adoptar muitas das propriedades do mundo real da diversão.

[266] 10:54The last thing I want to talk about today
Eis a primeira exploração desta ideia.

[267] 10:56is the future of children's media.
As personagens podem ser físicas ou virtuais,

[268] 10:58We know that kids spend a lot of time behind screens today,
o conteúdo digital sai, literalmente, do ecrã,

[269] 11:01whether it's television or computer games or whatnot.
para o mundo real e regressa.

[270] 11:04My sons, they love the screen. They love the screen.
Gosto de pensar que é o Atari Pong

[271] 11:07But I want them to play; as a mom, I want them to play,
desta diversão de realidade híbrida.

[272] 11:10like, real-world play.
Mas esta ideia pode ser explorada muito mais.

[273] 11:12And so I have a new project in my group I wanted to present to you today
(Jogo) Nathan: Ele vem aí! Boa!

[274] 11:15called Playtime Computing
CB: E se a personagem pudesse entrar no mundo?

[275] 11:17that's really trying to think about how we can take
As crianças adoram quando a personagem se torna real

[276] 11:19what's so engaging about digital media
e entra no mundo delas.

[277] 11:21and literally bring it off the screen
Quando isso acontece, podem comunicar e brincar com ela

[278] 11:23into the real world of the child,
duma forma totalmente diferente da que costumam brincar no ecrã.

[279] 11:25where it can take on many of the properties of real-world play.
Outra ideia importante é a noção de permanência

[280] 11:29So here's the first exploration of this idea,
da personagem entre as realidades.

[281] 11:33where characters can be physical or virtual,
Assim, as alterações que as crianças fazem no mundo real

[282] 11:36and where the digital content
devem ser transportadas para o mundo virtual.

[283] 11:38can literally come off the screen
Aqui, o Nathan mudou a letra A para o número 2.

[284] 11:40into the world and back.
Imagina-se que estes símbolos

[285] 11:42I like to think of this
dão à personagem poderes especiais quando ela entra no mundo virtual.

[286] 11:44as the Atari Pong
Agora a personagem está a ser reenviada para esse mundo.

[287] 11:46of this blended-reality play.
E agora tem poder de número.

[288] 11:48But we can push this idea further.
E, finalmente, tenho estado a tentar criar

[289] 11:50What if --
uma experiência realmente imersiva para as crianças,

[290] 11:52(Game) Nathan: Here it comes. Yay!
em que eles possam sentir que fazem parte dessa história,

[291] 11:55CB: -- the character itself could come into your world?
que fazem parte dessa experiência.

[292] 11:58It turns out that kids love it
Quero despertar a sua imaginação

[293] 12:00when the character becomes real and enters into their world.
da mesma forma que "A Guerra das Estrelas" despertou a minha.

[294] 12:03And when it's in their world,
Mas quero fazer mais do que isso.

[295] 12:05they can relate to it and play with it in a way
Quero que eles criem estas experiências.

[296] 12:07that's fundamentally different from how they play with it on the screen.
Quero que eles construam, literalmente, a sua imaginação

[297] 12:09Another important idea is this notion
com estas experiências e que as integrem.

[298] 12:11of persistence of character across realities.
Temos explorado uma série de ideias

[299] 12:14So changes that children make in the real world
em telepresença e realidade híbrida

[300] 12:16need to translate to the virtual world.
para que as crianças possam projectem as suas ideias neste espaço

[301] 12:18So here, Nathan has changed the letter A to the number 2.
onde outras crianças possam interagir com elas

[302] 12:21You can imagine maybe these symbols
e construir com base nelas.

[303] 12:23give the characters special powers when it goes into the virtual world.
Eu quero arranjar novos meios para as crianças

[304] 12:26So they are now sending the character back into that world.
que fomentem a criatividade, a aprendizagem e a inovação.

[305] 12:29And now it's got number power.
Creio que isso seja muito importante.

[306] 12:32And then finally, what I've been trying to do here
Este é um projecto novo.

[307] 12:34is create a really immersive experience for kids,
Convidámos muitas crianças a entrar neste espaço,

[308] 12:37where they really feel like they are part of that story,
e elas consideram-no "muito fixe".

[309] 12:40a part of that experience.
Mas posso dizer que o que gostam mais é do robô.

[310] 12:42And I really want to spark their imaginations
O que lhes importa é o robô.

[311] 12:44the way mine was sparked as a little girl watching "Star Wars."
Os robôs tocam em algo profundamente humano em nós.

[312] 12:47But I want to do more than that.
Quer nos ajudem a sermos criativos e inovadores,

[313] 12:49I actually want them to create those experiences.
quer nos ajudem a sentirmo-nos mais ligados, apesar da distância,

[314] 12:52I want them to be able to literally build their imagination
quer sejam o nosso parceiro de confiança,

[315] 12:54into these experiences and make them their own.
que nos ajudem a atingir os nossos objectivos pessoais

[316] 12:56So we've been exploring a lot of ideas
para nos tornarmos no melhor de nós próprios,

[317] 12:58in telepresence and mixed reality
para mim, falar de robôs é falar de pessoas.

[318] 13:00to literally allow kids to project their ideas into this space
Obrigada.

[319] 13:03where other kids can interact with them
(Aplausos)

[320] 13:05and build upon them.
--320--

[321] 13:07I really want to come up with new ways of children's media
--321--

[322] 13:10that foster creativity and learning and innovation.
--322--

[323] 13:13I think that's very, very important.
--323--

[324] 13:16So this is a new project.
--324--

[325] 13:18We've invited a lot of kids into this space,
--325--

[326] 13:20and they think it's pretty cool.
--326--

[327] 13:23But I can tell you, the thing that they love the most
--327--

[328] 13:25is the robot.
--328--

[329] 13:27What they care about is the robot.
--329--

[330] 13:30Robots touch something deeply human within us.
--330--

[331] 13:33And so whether they're helping us
--331--

[332] 13:35to become creative and innovative,
--332--

[333] 13:37or whether they're helping us
--333--

[334] 13:39to feel more deeply connected despite distance,
--334--

[335] 13:41or whether they are our trusted sidekick
--335--

[336] 13:43who's helping us attain our personal goals
--336--

[337] 13:45in becoming our highest and best selves,
--337--

[338] 13:47for me, robots are all about people.
--338--

[339] 13:50Thank you.
--339--

[340] 13:52(Applause)
--340--