ABOUT THE SPEAKER
Raphael Arar - Designer, researcher
IBM's Raphael Arar creates art and designs experiences that examine the complexities of our increasingly technocentric lives.

Why you should listen

While his artwork raises questions about our relationship with modernity and technology, Raphael Arar’s design work revolves around answering those questions in human-centered ways. 

Currently a designer and researcher at IBM Research, Arar has been exploring ways to translate aspects of emotional intelligence into machine-readable format. Through this, he is passionately tackling ethical platforms of artificial intelligence. Inc. Magazine says he "epitomizes the style and multi-disciplinary skill set of the modern designer," and in 2017, he was listed as one of Forbes's "30 under 30 in Enterprise Technology."

More profile about the speaker
Raphael Arar | Speaker | TED.com
TED@IBM

Raphael Arar: How we can teach computers to make sense of our emotions

Raphael Arar: Cómo enseñar a los ordenadores a dar sentido a nuestras emociones

Filmed:
1,255,602 views

¿Cómo podemos crear una IA con la que la gente quiera interactuar?. Raphael Arar sugiere que empecemos por hacer arte. Él comparte projectos interactivos que ayudan a la IA a explorar ideas complejas como la nostalgia, la intuición y conversación; todas trabajando para que la tecnología futura sean tan humana como artificial.
- Designer, researcher
IBM's Raphael Arar creates art and designs experiences that examine the complexities of our increasingly technocentric lives. Full bio

Double-click the English transcript below to play the video.

00:13
I considerconsiderar myselfmí mismo one partparte artistartista
and one partparte designerdiseñador.
0
1760
4680
Me considero por una parte artista,
por otra parte diseñador.
00:18
And I work at an artificialartificial
intelligenceinteligencia researchinvestigación lablaboratorio.
1
6480
3160
Y trabajo en un laboratorio de
investigación de inteligencia artificial.
00:22
We're tryingmolesto to createcrear technologytecnología
2
10720
1696
Tratamos de crear tecnología
00:24
that you'lltu vas a want to interactinteractuar with
in the farlejos futurefuturo.
3
12440
3296
con la que uno querrá interactuar
en un futuro lejano.
00:27
Not just sixseis monthsmeses from now,
but try yearsaños and decadesdécadas from now.
4
15760
4640
No dentro de seis meses,
sino dentro de años y décadas.
00:33
And we're takingtomando a moonshotmoonshot
5
21120
1616
Y estaremos en un momento histórico
00:34
that we'llbien want to be
interactinginteractuando with computersordenadores
6
22760
2456
en el que querremos interactuar
con ordenadores.
00:37
in deeplyprofundamente emotionalemocional waysformas.
7
25240
2120
en emociones profundas.
00:40
So in orderorden to do that,
8
28280
1456
Para conseguir esto,
00:41
the technologytecnología has to be
just as much humanhumano as it is artificialartificial.
9
29760
4480
la tecnología tiene que ser
tanto humana como artificial.
00:46
It has to get you.
10
34920
2256
Tiene que cautivarnos.
00:49
You know, like that insidedentro jokebroma
that'lleso va have you and your bestmejor friendamigo
11
37200
3336
Como una broma privada
que uno tiene con su mejor amigo
00:52
on the floorpiso, crackingagrietamiento up.
12
40560
1936
en el suelo, desternillándose.
00:54
Or that look of disappointmentdecepción
that you can just smelloler from milesmillas away.
13
42520
4560
O la mirada de decepción que
uno puede ver desde kilómetros.
01:00
I viewver artart as the gatewaypuerta to help us
bridgepuente this gapbrecha betweenEntre humanhumano and machinemáquina:
14
48560
6040
Veo el arte como una puerta para cerrar
la brecha entre humanos y máquinas:
01:07
to figurefigura out what it meansmedio
to get eachcada other
15
55280
3136
para descubrir qué significa
entender al otro
01:10
so that we can traintren AIAI to get us.
16
58440
2760
y entrenar a la IA para
que se nos entienda.
01:13
See, to me, artart is a way
to put tangibletangible experiencesexperiencias
17
61920
3816
Para mí, el arte es una manera
de poner experiencias tangibles
01:17
to intangibleintangible ideasideas,
feelingssentimientos and emotionsemociones.
18
65760
3240
en ideas intangibles,
sentimientos y emociones.
01:21
And I think it's one
of the mostmás humanhumano things about us.
19
69800
2600
Y creo que es una de las cosas
más humanas de nosotros.
01:25
See, we're a complicatedComplicado
and complexcomplejo bunchmanojo.
20
73480
2936
Somos una especie complicada y compleja.
01:28
We have what feelssiente like
an infiniteinfinito rangedistancia of emotionsemociones,
21
76440
3136
Tenemos lo que parece
un infinito rango de emociones
01:31
and to topparte superior it off, we're all differentdiferente.
22
79600
2496
y, para colmo, somos diferentes.
01:34
We have differentdiferente familyfamilia backgroundsantecedentes,
23
82120
2296
Tenemos diferentes
antecedentes familiares,
01:36
differentdiferente experiencesexperiencias
and differentdiferente psychologiespsicologías.
24
84440
3080
diferentes experiencias
y diferentes psicologías.
01:40
And this is what makeshace life
really interestinginteresante.
25
88240
2720
Y eso es lo que hace
a la vida tan interesante.
01:43
But this is alsoademás what makeshace
workingtrabajando on intelligentinteligente technologytecnología
26
91440
3496
pero también es lo que hace que
trabajar con tecnología inteligente
01:46
extremelyextremadamente difficultdifícil.
27
94960
1600
sea extremadamente difícil.
01:49
And right now, AIAI researchinvestigación, well,
28
97640
3456
Y justo ahora, la investigación
en IA, bueno,
01:53
it's a bitpoco lopsideddesequilibrado on the techtecnología sidelado.
29
101120
2016
es un poco desigual
en el lado de la tecnología.
01:55
And that makeshace a lot of sensesentido.
30
103160
2136
Y tiene mucho sentido.
01:57
See, for everycada
qualitativecualitativo thing about us --
31
105320
2456
Verán, cada parte
cualitativa de nosotros,
01:59
you know, those partspartes of us that are
emotionalemocional, dynamicdinámica and subjectivesubjetivo --
32
107800
4456
estas parte de nosotros que son
emotivas, dinámicas y subjetivas...
02:04
we have to convertconvertir it
to a quantitativecuantitativo metricmétrico:
33
112280
3136
tenemos que convertirlas
a una escala cuantitativa:
02:07
something that can be representedrepresentado
with factshechos, figuresfiguras and computercomputadora codecódigo.
34
115440
4360
algo que pueda ser representado
con hechos, cifras y código informático.
02:13
The issueproblema is, there are
manymuchos qualitativecualitativo things
35
121000
3376
La cuestión es, hay
muchas cosas cualitativas
02:16
that we just can't put our fingerdedo on.
36
124400
1960
que simplemente no podemos entender.
02:20
So, think about hearingaudición
your favoritefavorito songcanción for the first time.
37
128400
3200
Piensen cuando escucharon
su canción favorita por primera vez.
02:25
What were you doing?
38
133200
1200
¿Qué estaban haciendo?
02:28
How did you feel?
39
136000
1200
¿Cómo se sintieron?
02:30
Did you get goosebumpsla piel de gallina?
40
138720
1360
¿Sintieron escalofríos?
02:33
Or did you get fireddespedido up?
41
141240
1640
¿Estaban entusiasmados?
02:36
HardDifícil to describedescribir, right?
42
144400
1200
Difícil de describir, ¿no?
02:38
See, partspartes of us feel so simplesencillo,
43
146800
2096
Partes de nosotros
parecen muy simples,
02:40
but underdebajo the surfacesuperficie,
there's really a tontonelada of complexitycomplejidad.
44
148920
3656
pero bajo la superficie
hay toneladas de complejidad.
02:44
And translatingtraductorio
that complexitycomplejidad to machinesmáquinas
45
152600
2936
Y trasladar esa complejidad
a las máquinas
02:47
is what makeshace them modern-dayhoy en día moonshotslunas.
46
155560
2856
es lo que hace a los
modernos hitos históricos.
02:50
And I'm not convincedconvencido that we can
answerresponder these deeperMás adentro questionspreguntas
47
158440
4176
Y no estoy convencido de que podamos
responder estas preguntas complejas
02:54
with just onesunos and zerosceros alonesolo.
48
162640
1480
solo con unos y ceros.
02:57
So, in the lablaboratorio, I've been creatingcreando artart
49
165120
1936
En el laboratorio, he creando arte
02:59
as a way to help me
designdiseño better experiencesexperiencias
50
167080
2456
como medio para ayudarme
a diseñar mejores experiencias
03:01
for bleeding-edgelímite technologytecnología.
51
169560
2096
para el último grito en tecnología.
03:03
And it's been servingservicio as a catalystCatalizador
52
171680
1736
Ha servido como catalizador
03:05
to beefcarne de vaca up the more humanhumano waysformas
that computersordenadores can relaterelacionar to us.
53
173440
3840
para reforzar maneras humanas en que
los ordenadores pueden
relacionarse con nosotros.
03:10
ThroughMediante artart, we're tackingvirando
some of the hardestmás duro questionspreguntas,
54
178000
2696
A través del arte, abordamos
algunas preguntas difíciles,
03:12
like what does it really mean to feel?
55
180720
2360
como, ¿qué significa realmente sentir?
03:16
Or how do we engagecontratar and know
how to be presentpresente with eachcada other?
56
184120
4080
O cómo involucrarnos y conocer
cómo estar presentes para el otro.
03:20
And how does intuitionintuición
affectafectar the way that we interactinteractuar?
57
188800
4000
O cómo la intuición afecta
la manera en que interactuamos.
03:26
So, take for exampleejemplo humanhumano emotionemoción.
58
194440
2056
Tomemos por ejemplo la emoción humana.
03:28
Right now, computersordenadores can make sensesentido
of our mostmás basicBASIC onesunos,
59
196520
3256
Los ordenadores pueden sentir
nuestras emociones más básicas,
03:31
like joyalegría, sadnesstristeza,
angerenfado, fearmiedo and disgustasco,
60
199800
3696
como alegría, tristeza, enfado,
miedo y disgusto,
03:35
by convertingmudado those
characteristicscaracterísticas to mathmates.
61
203520
3000
convirtiendo estas características
en matemáticas.
03:39
But what about the more complexcomplejo emotionsemociones?
62
207400
2536
¿Y qué hay de las emociones más complejas?
03:41
You know, those emotionsemociones
63
209960
1216
Saben, ¿esas emociones que
nos cuesta describir al otro?
03:43
that we have a harddifícil time
describingdescribiendo to eachcada other?
64
211200
2376
Como la nostalgia.
03:45
Like nostalgianostalgia.
65
213600
1440
03:47
So, to exploreexplorar this, I createdcreado
a piecepieza of artart, an experienceexperiencia,
66
215640
3936
Para explorar esto, he creado
una obra de arte, una experiencia,
03:51
that askedpreguntó people to sharecompartir a memorymemoria,
67
219600
2096
que pide a la gente compartir
sus recuerdos
03:53
and I teamedunido up with some datadatos scientistscientíficos
68
221720
2136
y los uno a algunos datos científicos
03:55
to figurefigura out how to take
an emotionemoción that's so highlyaltamente subjectivesubjetivo
69
223880
3576
para descubrir cómo tomar
emociones muy subjetivas
03:59
and convertconvertir it into something
mathematicallymatemáticamente precisepreciso.
70
227480
3200
y convertirlas en algo
matemáticamente preciso.
04:03
So, we createdcreado what we call
a nostalgianostalgia scorePuntuación
71
231840
2136
Creamos una puntuación de nostalgia
04:06
and it's the heartcorazón of this installationinstalación.
72
234000
2216
y es el corazón de esta instalación.
04:08
To do that, the installationinstalación
askspregunta you to sharecompartir a storyhistoria,
73
236240
3056
Para conseguir esto, el sistema
te pide compartir una historia,
04:11
the computercomputadora then analyzesanálisis it
for its simplermás simple emotionsemociones,
74
239320
3256
el ordenador la analiza por
sus emociones más simples,
04:14
it checkscheques for your tendencytendencia
to use past-tensepasado wordingfraseología
75
242600
2656
y comprueba la tendencia
a usar palabras en pasado
04:17
and alsoademás looksmiradas for wordspalabras
that we tendtender to associateasociar with nostalgianostalgia,
76
245280
3336
y busca palabras que tendemos
a asociar con la nostalgia,
04:20
like "home," "childhoodinfancia" and "the pastpasado."
77
248640
3040
como "casa", "infancia" y "el pasado".
04:24
It then createscrea a nostalgianostalgia scorePuntuación
78
252760
2056
Luego crea una puntuación de nostalgia
04:26
to indicateindicar how nostalgicnostálgico your storyhistoria is.
79
254840
2736
que indica cuán nostálgica es su historia.
04:29
And that scorePuntuación is the drivingconducción forcefuerza
behinddetrás these light-basedbasado en la luz sculpturesesculturas
80
257600
4136
Y la puntuación es la impulsora
que hay detrás de estas esculturas de luz
04:33
that serveservir as physicalfísico embodimentsrealizaciones
of your contributioncontribución.
81
261760
3896
que sirven como encarnaciones
físicas de su contribución.
04:37
And the highermayor the scorePuntuación,
the rosierrosier the huematiz.
82
265680
3216
Cuanto más alta la puntuación,
más rosa es el tono.
04:40
You know, like looking at the worldmundo
throughmediante rose-coloredrosa glassesgafas.
83
268920
3936
Es como mirar el mundo
a través de lentes rosas.
04:44
So, when you see your scorePuntuación
84
272880
2616
Así, cuando uno ve su puntuación
04:47
and the physicalfísico representationrepresentación of it,
85
275520
2656
y su representación física,
04:50
sometimesa veces you'dtu hubieras agreede acuerdo
and sometimesa veces you wouldn'tno lo haría.
86
278200
2936
a veces estará de acuerdo,
y a veces no lo estará.
04:53
It's as if it really understoodentendido
how that experienceexperiencia madehecho you feel.
87
281160
3480
Es como si realmente entendiera
cómo lo hizo sentir esa experiencia.
04:57
But other timesveces it getsse pone trippeddisparado up
88
285400
2216
Pero otras veces tropieza de tal modo
04:59
and has you thinkingpensando
it doesn't understandentender you at all.
89
287640
2560
que piensa que no
le ha entendido en absoluto.
05:02
But the piecepieza really servessirve to showespectáculo
90
290680
1896
Pero la obra sirve para mostrar
05:04
that if we have a harddifícil time explainingexplicando
the emotionsemociones that we have to eachcada other,
91
292600
4056
que si se nos hace difícil explicar
las emociones que tenemos a otro,
05:08
how can we teachenseñar a computercomputadora
to make sensesentido of them?
92
296680
2360
¿cómo enseñar a un ordenador
a darles sentido?
05:12
So, even the more objectiveobjetivo partspartes
about beingsiendo humanhumano are harddifícil to describedescribir.
93
300360
3576
Incluso las partes más objetivas de
los humanos son difíciles de describir.
05:15
Like, conversationconversacion.
94
303960
1240
Como la conversación.
05:17
Have you ever really triedintentó
to breakdescanso down the stepspasos?
95
305880
2736
¿Alguna vez han intentado
descomponer sus partes?
05:20
So think about sittingsentado
with your friendamigo at a coffeecafé shoptienda
96
308640
2656
Piensen en estar sentados
con un amigo en una cafetería
05:23
and just havingteniendo smallpequeña talk.
97
311320
1320
teniendo una conversación trivial.
05:25
How do you know when to take a turngiro?
98
313160
1720
¿Cómo saben cuándo dar un giro
a la conversación?
05:27
How do you know when to shiftcambio topicstemas?
99
315440
1840
¿Cómo saben cuándo cambiar de tema?
05:29
And how do you even know
what topicstemas to discussdiscutir?
100
317960
2720
¿Y cómo saben, incluso,
sobre qué tema discutir?
05:33
See, mostmás of us
don't really think about it,
101
321560
2096
La mayoría no piensa sobre esto,
05:35
because it's almostcasi secondsegundo naturenaturaleza.
102
323680
1656
parece algo natural.
05:37
And when we get to know someonealguien,
we learnaprender more about what makeshace them tickgarrapata,
103
325360
3496
Cuando conocemos a alguien,
sabemos cómo manejar esto,
05:40
and then we learnaprender
what topicstemas we can discussdiscutir.
104
328880
2376
y aprendemos qué temas discutir.
05:43
But when it comesproviene to teachingenseñando
AIAI systemssistemas how to interactinteractuar with people,
105
331280
3656
Pero cuando se trata de enseñar
a enseñar a la IA a interactuar con gente,
05:46
we have to teachenseñar them
steppaso by steppaso what to do.
106
334960
2856
tenemos que enseñarle
paso por paso qué hacer.
05:49
And right now, it feelssiente clunkytorpe.
107
337840
3496
Y ahora mismo, parece difícil.
05:53
If you've ever triedintentó to talk
with AlexaAlexa, SiriSiri or GoogleGoogle AssistantAsistente,
108
341360
4136
Si incluso tratan de hablar con Alexa,
Siri o el asistente de Google,
05:57
you can tell that it or they
can still soundsonar coldfrío.
109
345520
4200
pueden decir que él o ellos
aún suenan fríos.
06:02
And have you ever gottenconseguido annoyedirritado
110
350440
1656
Y, ¿alguna vez incluso se han enfadado
06:04
when they didn't understandentender
what you were sayingdiciendo
111
352120
2256
cuando no han comprendido
qué estaban diciendo
06:06
and you had to rephraseexpresar de otro modo what you wanted
20 timesveces just to playjugar a songcanción?
112
354400
3840
y tienen que reformular 20 veces
lo que dicen para reproducir una canción?
06:11
AlrightBien, to the creditcrédito of the designersdiseñadores,
realisticrealista communicationcomunicación is really harddifícil.
113
359440
4896
Para dar crédito a los diseñadores,
la comunicación realista es muy difícil.
06:16
And there's a wholetodo branchrama of sociologysociología,
114
364360
2136
Y hay una rama completa de la sociología,
06:18
calledllamado conversationconversacion analysisanálisis,
115
366520
1936
llamada análisis de la conversación,
06:20
that triesintentos to make blueprintsplanos
for differentdiferente typestipos of conversationconversacion.
116
368480
3136
que intenta hacer planos de los
diferentes tipos de conversación.
06:23
TypesTipos like customercliente serviceServicio
or counselingasesoramiento, teachingenseñando and othersotros.
117
371640
4080
Tipos como servicio al cliente,
consejeros, enseñanza y otros.
06:28
I've been collaboratingcolaborando
with a conversationconversacion analystanalista at the lablaboratorio
118
376880
2936
He estado colaborando con un analista
de la conversación en el laboratorio
06:31
to try to help our AIAI systemssistemas
holdsostener more human-soundinghumanos-sonido conversationsconversaciones.
119
379840
4696
para tratar de ayudar a los sistemas de IA
a mantener conversaciones más humanas.
06:36
This way, when you have an interactionInteracción
with a chatbotChatbot on your phoneteléfono
120
384560
3176
Cuando tienes una interacción
con un chatbox en tu teléfono
06:39
or a voice-basedbasado en voz systemsistema in the carcoche,
121
387760
1856
o sistemas basados en voz en tu coche,
06:41
it soundssonidos a little more humanhumano
and lessMenos coldfrío and disjointedDesarticulada.
122
389640
3320
suena un poco más humano
y menos frío e inconexo.
06:46
So I createdcreado a piecepieza of artart
123
394360
1336
He creado una obra de arte
06:47
that triesintentos to highlightrealce
the roboticrobótico, clunkytorpe interactionInteracción
124
395720
2816
que trata de iluminar la robótica,
la interacción difícil
06:50
to help us understandentender, as designersdiseñadores,
125
398560
1976
para ayudarnos a entender,
como diseñadores,
06:52
why it doesn't soundsonar humanhumano yettodavía
and, well, what we can do about it.
126
400560
4576
por qué no suena humano aún,
y qué podemos hacer.
06:57
The piecepieza is calledllamado BotLarva del moscardón to BotLarva del moscardón
127
405160
1456
Esta obra se llama Bot to Bot
06:58
and it putspone one conversationalconversacional
systemsistema againsten contra anotherotro
128
406640
2936
y pone un sistema a conversar con otro
07:01
and then exposesexpone it to the generalgeneral publicpúblico.
129
409600
2536
y lo expone al público general.
07:04
And what endstermina up happeningsucediendo
is that you get something
130
412160
2496
Y uno acaba teniendo algo
07:06
that triesintentos to mimicimitar humanhumano conversationconversacion,
131
414680
1896
que intenta imitar
la conversación humana,
07:08
but fallscaídas shortcorto.
132
416600
1896
pero se queda corto.
07:10
SometimesA veces it workstrabajos and sometimesa veces
it getsse pone into these, well,
133
418520
2736
A veces funciona y a veces
se queda en estos, bueno,
07:13
loopsbucles of misunderstandingmalentendido.
134
421280
1536
ciclos de malentendidos.
07:14
So even thoughaunque the machine-to-machinemáquina a máquina
conversationconversacion can make sensesentido,
135
422840
3096
Aunque una conversación máquina
a máquina pueda tener sentido,
07:17
grammaticallygramaticalmente and colloquiallyfamiliar,
136
425960
2016
gramatical y coloquialmente,
07:20
it can still endfin up
feelingsensación coldfrío and roboticrobótico.
137
428000
3216
aún sigue pareciendo algo frío y robótico.
07:23
And despiteA pesar de checkingcomprobación all the boxescajas,
the dialoguediálogo lackscarece soulalma
138
431240
4016
Y, a pesar de cumplir todos los
puntos, el diálogo carece de alma
07:27
and those one-offuna sola vez quirkspeculiaridades
that make eachcada of us who we are.
139
435280
3136
y esa peculiaridad única
hace de cada uno lo que es.
07:30
So while it mightpodría be grammaticallygramaticalmente correctcorrecto
140
438440
2056
Puede que si bien podía ser
gramaticalmente correcto
07:32
and usesusos all the right
hashtagshashtags and emojisemojis,
141
440520
2656
y usa todos los hashtags
y emojis correctos,
07:35
it can endfin up soundingsondeo mechanicalmecánico
and, well, a little creepyhorripilante.
142
443200
4136
acaba sonando mecánico,
y bueno, un poco siniestro.
07:39
And we call this the uncannymisterioso valleyValle.
143
447360
2336
Y lo llamamos valle misterioso.
07:41
You know, that creepinessescalofriante factorfactor of techtecnología
144
449720
1936
El factor siniestro de la tecnología
07:43
where it's closecerca to humanhumano
but just slightlyligeramente off.
145
451680
2856
donde es cercana a lo humano
pero está fuera de lugar.
07:46
And the piecepieza will startcomienzo beingsiendo
146
454560
1456
Y la pieza acabará siendo
07:48
one way that we testprueba
for the humannesshumanidad of a conversationconversacion
147
456040
3216
una forma de probar la
humanidad en una conversación
07:51
and the partspartes that get
lostperdió in translationtraducción.
148
459280
2160
y las piezas perdidas en la traducción.
07:54
So there are other things
that get lostperdió in translationtraducción, too,
149
462560
2856
Hay otras cosas perdidas
en la traducción, también,
07:57
like humanhumano intuitionintuición.
150
465440
1616
como la intuición humana.
07:59
Right now, computersordenadores
are gainingganando more autonomyautonomía.
151
467080
2776
Ahora, los ordenadores
están ganando más autonomía.
08:01
They can take carecuidado of things for us,
152
469880
1736
Pueden hacer cosas por nosotros,
08:03
like changecambio the temperaturetemperatura
of our housescasas basedbasado on our preferencespreferencias
153
471640
3176
como cambiar la temperatura de
casa según nuestras preferencias
08:06
and even help us drivemanejar on the freewayautopista.
154
474840
2160
e incluso nos ayudan a
conducir por la autopista.
08:09
But there are things
that you and I do in personpersona
155
477560
2496
Pero hay cosas que Uds.
y yo hacemos en persona
08:12
that are really difficultdifícil
to translatetraducir to AIAI.
156
480080
2760
que son difíciles de traducir a IA.
08:15
So think about the last time
that you saw an oldantiguo classmatecompañera de clases or coworkercompañero de trabajo.
157
483440
4360
Piensen en la última vez que vieron
a un antiguo compañero de clase o colega.
08:21
Did you give them a hugabrazo
or go in for a handshakeapretón de manos?
158
489080
2480
¿Los abrazo o les dio la mano?
08:24
You probablyprobablemente didn't think twicedos veces
159
492800
1496
Probablemente no lo pensó
08:26
because you've had so manymuchos
builtconstruido up experiencesexperiencias
160
494320
2336
porque han tenido
tantas experiencias acumuladas
08:28
that had you do one or the other.
161
496680
2000
que les hizo hacer uno u otro.
08:31
And as an artistartista, I feel
that accessacceso to one'suno intuitionintuición,
162
499440
3456
Y como artista, siento
el acceso a la propia intuición,
08:34
your unconsciousinconsciente knowingconocimiento,
163
502920
1416
el conocimiento inconsciente,
08:36
is what helpsayuda us createcrear amazingasombroso things.
164
504360
3056
que nos ayuda a crear cosas maravillosas.
08:39
BigGrande ideasideas, from that abstractabstracto,
nonlinearno lineal placelugar in our consciousnessconciencia
165
507440
4056
Grandes ideas, de lo abstracto,
en un lugar de nuestra consciencia
08:43
that is the culminationculminación
of all of our experiencesexperiencias.
166
511520
2960
que es la culminación
de todas nuestras experiencias.
08:47
And if we want computersordenadores to relaterelacionar to us
and help amplifyamplificar our creativecreativo abilitieshabilidades,
167
515840
4656
Si queremos que se relacionen con nosotros
y ayudan a amplificar habilidades creativas,
08:52
I feel that we'llbien need to startcomienzo thinkingpensando
about how to make computersordenadores be intuitiveintuitivo.
168
520520
3896
necesitamos empezar a pensar
cómo hacer que sean intuitivos.
08:56
So I wanted to exploreexplorar
how something like humanhumano intuitionintuición
169
524440
3096
Quiero explorar cómo algo
como la intuición humana
08:59
could be directlydirectamente translatedtraducido
to artificialartificial intelligenceinteligencia.
170
527560
3456
puede ser directamente traducida
a la inteligencia artificial.
09:03
And I createdcreado a piecepieza
that exploresexplora computer-basedbasado en computadora intuitionintuición
171
531040
3216
Y creé una obra que explora
ordenadores basados en intuición
09:06
in a physicalfísico spaceespacio.
172
534280
1320
en un espacio físico.
09:08
The piecepieza is calledllamado WayfindingSeñalización,
173
536480
1696
Esta obra se llama Wayfinding,
está configurada
09:10
and it's setconjunto up as a symbolicsimbólico compassBrújula
that has fourlas cuatro kineticcinético sculpturesesculturas.
174
538200
3936
como una brújula simbólica que
tiene cuatro esculturas quinéticas.
09:14
EachCada one representsrepresenta a directiondirección,
175
542160
2056
Cada una representa una dirección,
09:16
northnorte, easteste, southsur and westOeste.
176
544240
2120
norte, este, sur y oeste.
09:19
And there are sensorssensores setconjunto up
on the topparte superior of eachcada sculptureescultura
177
547080
2696
Y hay sensores configurados
encima de cada escultura
09:21
that capturecapturar how farlejos away
you are from them.
178
549800
2256
que capturan cuán lejos estás de ellas.
09:24
And the datadatos that getsse pone collectedrecogido
179
552080
1816
Y los datos que coleccionan
09:25
endstermina up changingcambiando the way
that sculpturesesculturas movemovimiento
180
553920
2136
acaban cambiando la forma
en que la escultura se mueve
09:28
and the directiondirección of the compassBrújula.
181
556080
2040
y la dirección de la brújula.
09:31
The thing is, the piecepieza doesn't work
like the automaticautomático doorpuerta sensorsensor
182
559360
3656
La cosa es, la pieza no funciona
como una puerta automática
09:35
that just opensabre
when you walkcaminar in frontfrente of it.
183
563040
2656
que solo se abre cuando
uno pasa frente a ella.
09:37
See, your contributioncontribución is only a partparte
of its collectioncolección of livedvivió experiencesexperiencias.
184
565720
5056
La contribución es solo una parte
de nuestras experiencias vividas.
09:42
And all of those experiencesexperiencias
affectafectar the way that it movesmovimientos.
185
570800
4056
Y esas experiencias afectan
la manera en que se mueve.
09:46
So when you walkcaminar in frontfrente of it,
186
574880
1736
Cuando uno camina frente a ella,
09:48
it startsempieza to use all of the datadatos
187
576640
1976
empieza a usar todos los datos
09:50
that it's capturedcapturado
throughouten todo its exhibitionexposición historyhistoria --
188
578640
2616
que capturó a lo largo
de su historial de exposición,
09:53
or its intuitionintuición --
189
581280
1816
o es intuición,
09:55
to mechanicallymecánicamente respondresponder to you
basedbasado on what it's learnedaprendido from othersotros.
190
583120
3560
para responder mecánicamente
basado en lo que aprendió de otros.
09:59
And what endstermina up happeningsucediendo
is that as participantsParticipantes
191
587480
2536
Y lo que acaba pasando
es que como participantes
10:02
we startcomienzo to learnaprender the levelnivel
of detaildetalle that we need
192
590040
2816
empezamos a aprender el nivel
de detalles que necesitamos
10:04
in orderorden to managegestionar expectationsesperanzas de heredar
193
592880
2016
para manejar las expectativas
10:06
from bothambos humanshumanos and machinesmáquinas.
194
594920
2776
tanto de humanos como de máquinas.
10:09
We can almostcasi see our intuitionintuición
beingsiendo playedjugó out on the computercomputadora,
195
597720
3616
Casi podemos ver nuestra intuición
interpretada en el ordenador,
10:13
picturingimágenes de all of that datadatos
beingsiendo processedprocesada in our mind'sla mente eyeojo.
196
601360
3600
imaginando todos los datos siendo
procesados por el ojo de la mente.
10:17
My hopeesperanza is that this typetipo of artart
197
605560
1656
Mi esperanza es que este tipo de arte
10:19
will help us think differentlydiferentemente
about intuitionintuición
198
607240
2416
nos ayudará a pensar diferente
sobre nuestra intuición
10:21
and how to applyaplicar that to AIAI in the futurefuturo.
199
609680
2280
y cómo aplicarla a la IA en el futuro.
10:24
So these are just a fewpocos examplesejemplos
of how I'm usingutilizando artart to feedalimentar into my work
200
612480
3936
Son unos cuantos efectos sobre cómo
uso el arte para avivar mi trabajo
10:28
as a designerdiseñador and researcherinvestigador
of artificialartificial intelligenceinteligencia.
201
616440
3096
como diseñador e investigador
de inteligencia artificial.
10:31
And I see it as a crucialcrucial way
to movemovimiento innovationinnovación forwardadelante.
202
619560
3496
Y lo veo como una forma crucial
para avanzar en innovación.
10:35
Because right now, there are
a lot of extremesextremos when it comesproviene to AIAI.
203
623080
4376
Hay un montón de extremos
cuando nos referimos a la IA.
10:39
PopularPopular moviespelículas showespectáculo it
as this destructivedestructivo forcefuerza
204
627480
2816
Películas famosas la muestran
como esta fuerza destructiva
10:42
while commercialscomerciales
are showingdemostración it as a saviorsalvador
205
630320
3056
mientras la publicidad la
muestra como una salvadora
10:45
to solveresolver some of the world'smundo
mostmás complexcomplejo problemsproblemas.
206
633400
2936
para resolver alguno de los
problemas más complejos del mundo.
10:48
But regardlessindependientemente of where you standestar,
207
636360
2536
Pero independientemente
de donde te encuentres
10:50
it's harddifícil to denynegar
that we're livingvivo in a worldmundo
208
638920
2176
es difícil negar que
vivimos en un mundo
10:53
that's becomingdevenir more
and more digitaldigital by the secondsegundo.
209
641120
2576
que se vuelve más digital
a cada segundo.
10:55
Our livesvive revolvegirar around our devicesdispositivos,
smartinteligente appliancesaccesorios and more.
210
643720
4600
Nuestras vidas giran en torno
a nuestros dispositivos y demás
11:01
And I don't think
this will let up any time soonpronto.
211
649400
2320
Y no creo que esto desaparezca pronto.
11:04
So, I'm tryingmolesto to embedempotrar
more humannesshumanidad from the startcomienzo.
212
652400
3736
Intento incrustar más humanidad
desde el principio.
11:08
And I have a hunchcorazonada that bringingtrayendo artart
into an AIAI researchinvestigación processproceso
213
656160
5136
Tengo la corazonada de que llevar
el arte al proceso de investigación IA
11:13
is a way to do just that.
214
661320
1896
es una manera de hacer esto.
11:15
Thank you.
215
663240
1216
Gracias.
11:16
(ApplauseAplausos)
216
664480
2280
(Aplausos)
Translated by Sonia Escudero
Reviewed by Sebastian Betti

▲Back to top

ABOUT THE SPEAKER
Raphael Arar - Designer, researcher
IBM's Raphael Arar creates art and designs experiences that examine the complexities of our increasingly technocentric lives.

Why you should listen

While his artwork raises questions about our relationship with modernity and technology, Raphael Arar’s design work revolves around answering those questions in human-centered ways. 

Currently a designer and researcher at IBM Research, Arar has been exploring ways to translate aspects of emotional intelligence into machine-readable format. Through this, he is passionately tackling ethical platforms of artificial intelligence. Inc. Magazine says he "epitomizes the style and multi-disciplinary skill set of the modern designer," and in 2017, he was listed as one of Forbes's "30 under 30 in Enterprise Technology."

More profile about the speaker
Raphael Arar | Speaker | TED.com