ABOUT THE SPEAKER
Raphael Arar - Designer, researcher
IBM's Raphael Arar creates art and designs experiences that examine the complexities of our increasingly technocentric lives.

Why you should listen

While his artwork raises questions about our relationship with modernity and technology, Raphael Arar’s design work revolves around answering those questions in human-centered ways. 

Currently a designer and researcher at IBM Research, Arar has been exploring ways to translate aspects of emotional intelligence into machine-readable format. Through this, he is passionately tackling ethical platforms of artificial intelligence. Inc. Magazine says he "epitomizes the style and multi-disciplinary skill set of the modern designer," and in 2017, he was listed as one of Forbes's "30 under 30 in Enterprise Technology."

More profile about the speaker
Raphael Arar | Speaker | TED.com
TED@IBM

Raphael Arar: How we can teach computers to make sense of our emotions

Raphael Arar: Comment apprendre aux ordinateurs à trouver du sens dans nos émotions

Filmed:
1,255,602 views

Comment pouvons-nous créer une intelligence artificielle avec qui les gens voudraient interagir ? Raphael Arar suggère de commencer par l'art. Il nous parle de projets interactifs qui aident l'intelligence artificielle à mieux comprendre des idées complexes comme la nostalgie, l'intuition et la discussion – pour faire en sorte que la technologie du futur soit autant humaine qu'artificielle.
- Designer, researcher
IBM's Raphael Arar creates art and designs experiences that examine the complexities of our increasingly technocentric lives. Full bio

Double-click the English transcript below to play the video.

00:13
I considerconsidérer myselfmoi même one partpartie artistartiste
and one partpartie designerdesigner.
0
1760
4680
Je me vois à moitié comme un artiste
et à moitié comme un designer.
00:18
And I work at an artificialartificiel
intelligenceintelligence researchrecherche lablaboratoire.
1
6480
3160
Je travaille dans un laboratoire
de recherche en intelligence artificielle.
00:22
We're tryingen essayant to createcréer technologyLa technologie
2
10720
1696
On essaie de créer la technologie
00:24
that you'lltu vas want to interactinteragir with
in the farloin futureavenir.
3
12440
3296
avec laquelle vous voudrez
interagir dans un futur lointain.
00:27
Not just sixsix monthsmois from now,
but try yearsannées and decadesdécennies from now.
4
15760
4640
Pas seulement dans 6 mois,
mais dans des années, des décennies.
00:33
And we're takingprise a moonshotMoonshot
5
21120
1616
Ce sera un moment historique
00:34
that we'llbien want to be
interactinginteragir with computersdes ordinateurs
6
22760
2456
quand on interagira
avec les ordinateurs
00:37
in deeplyprofondément emotionalémotif waysfaçons.
7
25240
2120
par l'intensité de nos émotions.
00:40
So in ordercommande to do that,
8
28280
1456
Pour y arriver,
00:41
the technologyLa technologie has to be
just as much humanHumain as it is artificialartificiel.
9
29760
4480
la technologie doit être autant
humaine qu'artificielle.
00:46
It has to get you.
10
34920
2256
Elle doit nous toucher.
00:49
You know, like that insideà l'intérieur jokeblague
that'llça va have you and your bestmeilleur friendami
11
37200
3336
Comme cette blague qu'on ne partage
qu'avec son meilleur ami,
00:52
on the floorsol, crackingcraquer up.
12
40560
1936
en se tordant de rire, par terre.
00:54
Or that look of disappointmentdéception
that you can just smellodeur from milesmiles away.
13
42520
4560
Ou cet air de déception
qu'on peut sentir à des kilomètres.
01:00
I viewvue artart as the gatewaypasserelle to help us
bridgepont this gapécart betweenentre humanHumain and machinemachine:
14
48560
6040
Je vois l'art comme la passerelle
pour combler le fossé
entre l'homme et la machine,
01:07
to figurefigure out what it meansveux dire
to get eachchaque other
15
55280
3136
pour imaginer ce que signifie
« se comprendre l'un l'autre »
01:10
so that we can traintrain AIAI to get us.
16
58440
2760
pour entraîner l'IA à nous comprendre.
01:13
See, to me, artart is a way
to put tangibletangible experiencesexpériences
17
61920
3816
À mon sens, l'art est le moyen
de mettre des expériences concrètes
01:17
to intangibleintangible ideasidées,
feelingssentiments and emotionsémotions.
18
65760
3240
sur des idées abstraites,
des sentiments et des émotions.
01:21
And I think it's one
of the mostles plus humanHumain things about us.
19
69800
2600
Je pense que c'est la plus
humaine des choses qui soit.
01:25
See, we're a complicatedcompliqué
and complexcomplexe bunchbouquet.
20
73480
2936
Nous sommes une espèce complexe.
01:28
We have what feelsse sent like
an infiniteinfini rangegamme of emotionsémotions,
21
76440
3136
Nous ressentons une gamme
infinie d'émotions et,
01:31
and to topHaut it off, we're all differentdifférent.
22
79600
2496
pour couronner le tout,
nous sommes tous différents.
01:34
We have differentdifférent familyfamille backgroundsarrière-plans,
23
82120
2296
Nos origines familiales sont différentes,
01:36
differentdifférent experiencesexpériences
and differentdifférent psychologiesPsychologies.
24
84440
3080
tout comme nos expériences
et notre façon de penser.
01:40
And this is what makesfait du life
really interestingintéressant.
25
88240
2720
C'est ce qui rend nos vies
vraiment intéressantes.
01:43
But this is alsoaussi what makesfait du
workingtravail on intelligentintelligent technologyLa technologie
26
91440
3496
Mais c'est aussi ce qui rend le travail
sur la technologie intelligente
01:46
extremelyextrêmement difficultdifficile.
27
94960
1600
extrêmement difficile.
01:49
And right now, AIAI researchrecherche, well,
28
97640
3456
Actuellement, la recherche sur l'IA
01:53
it's a bitbit lopsidedguingois on the techtechnologie sidecôté.
29
101120
2016
favorise plutôt la dimension technique.
01:55
And that makesfait du a lot of sensesens.
30
103160
2136
Ce qui s'explique très bien.
01:57
See, for everychaque
qualitativequalitative thing about us --
31
105320
2456
Chacune de nos
caractéristiques qualitatives,
01:59
you know, those partsles pièces of us that are
emotionalémotif, dynamicdynamique and subjectivesubjectif --
32
107800
4456
tout ce qui a trait à nos émotions,
aux dynamiques internes et au subjectif,
02:04
we have to convertconvertir it
to a quantitativequantitatif metricmétrique:
33
112280
3136
doit être convertie
en données quantitatives
02:07
something that can be representedreprésentée
with factsfaits, figureschiffres and computerordinateur codecode.
34
115440
4360
pouvant être représentées par des faits,
des chiffres et du code informatique.
02:13
The issueproblème is, there are
manybeaucoup qualitativequalitative things
35
121000
3376
Le problème, c'est qu'on a beaucoup
de données qualitatives
02:16
that we just can't put our fingerdoigt on.
36
124400
1960
tout simplement incompréhensibles.
02:20
So, think about hearingaudition
your favoritepréféré songchant for the first time.
37
128400
3200
La première fois que vous avez
écouté votre chanson préférée,
02:25
What were you doing?
38
133200
1200
que faisiez-vous ?
02:28
How did you feel?
39
136000
1200
Qu'avez-vous ressenti ?
02:30
Did you get goosebumpschair de poule?
40
138720
1360
Vous avez eu la chair de poule ?
02:33
Or did you get firedmis à la porte up?
41
141240
1640
Ou vous étiez à fond ?
02:36
HardDur to describedécrire, right?
42
144400
1200
Difficile à décrire, non ?
02:38
See, partsles pièces of us feel so simplesimple,
43
146800
2096
Des parties de nous ont l'air si simples,
02:40
but underen dessous de the surfacesurface,
there's really a tonton of complexitycomplexité.
44
148920
3656
mais une complexité inouïe
se cache sous la surface.
02:44
And translatingTraduction en cours
that complexitycomplexité to machinesmachines
45
152600
2936
Traduire cette complexité à des machines
02:47
is what makesfait du them modern-daymoderne moonshotsmoonshots.
46
155560
2856
sera une des avancées
majeures de notre temps.
02:50
And I'm not convincedconvaincu that we can
answerrépondre these deeperPlus profond questionsdes questions
47
158440
4176
Je ne suis pas sûr qu'on puisse
répondre à ces questions existentielles
02:54
with just onesceux and zeroszéros aloneseul.
48
162640
1480
uniquement par du code binaire.
02:57
So, in the lablaboratoire, I've been creatingcréer artart
49
165120
1936
Au laboratoire, la création artistique
02:59
as a way to help me
designconception better experiencesexpériences
50
167080
2456
est ma façon de concevoir
de meilleures expériences
03:01
for bleeding-edgecasse-cou technologyLa technologie.
51
169560
2096
pour les technologies de pointe.
03:03
And it's been servingportion as a catalystcatalyseur
52
171680
1736
L'art me sert de catalyseur
03:05
to beefdu boeuf up the more humanHumain waysfaçons
that computersdes ordinateurs can relaterapporter to us.
53
173440
3840
pour renforcer au maximum la dimension
humaine comprise par les ordinateurs.
03:10
ThroughPar le biais artart, we're tackingvirement de bord
some of the hardestle plus dur questionsdes questions,
54
178000
2696
À travers l'art, on aborde
des questions très difficiles,
03:12
like what does it really mean to feel?
55
180720
2360
comme ce que veut
vraiment dire « ressentir ».
03:16
Or how do we engageengager and know
how to be presentprésent with eachchaque other?
56
184120
4080
Comment s'investir et savoir
être là pour les autres.
03:20
And how does intuitionintuition
affectaffecter the way that we interactinteragir?
57
188800
4000
Et comment l'intuition influence
notre façon d'interagir.
03:26
So, take for exampleExemple humanHumain emotionémotion.
58
194440
2056
Prenons par exemple l'émotion humaine.
03:28
Right now, computersdes ordinateurs can make sensesens
of our mostles plus basicde base onesceux,
59
196520
3256
Actuellement, les ordinateurs peuvent
comprendre les plus basiques
03:31
like joyjoie, sadnesstristesse,
angercolère, fearpeur and disgustdégoût,
60
199800
3696
comme la joie, la tristesse,
la colère, la peur et le dégoût,
03:35
by convertingconvertir those
characteristicscaractéristiques to mathmath.
61
203520
3000
en convertissant mathématiquement
ces traits caractéristiques.
03:39
But what about the more complexcomplexe emotionsémotions?
62
207400
2536
Mais qu'en est-il
des émotions plus complexes ?
03:41
You know, those emotionsémotions
63
209960
1216
Ces émotions
03:43
that we have a harddifficile time
describingdécrivant to eachchaque other?
64
211200
2376
qu'on a du mal à décrire
à quelqu'un d'autre.
03:45
Like nostalgianostalgie.
65
213600
1440
Comme la nostalgie.
03:47
So, to exploreexplorer this, I createdcréé
a piecepièce of artart, an experienceexpérience,
66
215640
3936
Pour l'étudier, j'ai créé
une œuvre d'art, une expérience,
03:51
that askeda demandé people to sharepartager a memoryMémoire,
67
219600
2096
qui demande aux gens
de partager un souvenir.
03:53
and I teamedfait équipe up with some dataLes données scientistsscientifiques
68
221720
2136
J'ai fait équipe
avec des experts en mégadonnées
03:55
to figurefigure out how to take
an emotionémotion that's so highlytrès subjectivesubjectif
69
223880
3576
pour comprendre comment
saisir une émotion aussi subjective
03:59
and convertconvertir it into something
mathematicallymathématiquement preciseprécis.
70
227480
3200
et la convertir en quelque chose
de précis pour les mathématiques.
04:03
So, we createdcréé what we call
a nostalgianostalgie scoreBut
71
231840
2136
On a donc créé une matrice de la nostalgie
04:06
and it's the heartcœur of this installationinstallation.
72
234000
2216
et c'est le cœur de cette installation.
04:08
To do that, the installationinstallation
asksdemande you to sharepartager a storyrécit,
73
236240
3056
Pour ce faire, l'installation demande
de raconter une histoire,
04:11
the computerordinateur then analyzesanalyses it
for its simplerplus simple emotionsémotions,
74
239320
3256
l'ordinateur analyse ensuite
les émotions les plus simples.
04:14
it checksvérifie for your tendencytendance
to use past-tensepassé wordinglibellé
75
242600
2656
Il vérifie la tendance à utiliser
les verbes au passé
04:17
and alsoaussi looksregards for wordsmots
that we tendtendre to associateassocié with nostalgianostalgie,
76
245280
3336
et cherche les mots souvent
associés à la nostalgie,
04:20
like "home," "childhoodenfance" and "the pastpassé."
77
248640
3040
comme « maison »,
« enfance » et « le passé ».
04:24
It then createscrée a nostalgianostalgie scoreBut
78
252760
2056
Puis une matrice de nostalgie est créée,
04:26
to indicateindiquer how nostalgicnostalgique your storyrécit is.
79
254840
2736
indiquant le degré
de nostalgie de l'histoire.
04:29
And that scoreBut is the drivingau volant forceObliger
behindderrière these light-basedpar la lumière sculpturesdes sculptures
80
257600
4136
La matrice agit
sur ces sculptures lumineuses
04:33
that serveservir as physicalphysique embodimentsmodes de réalisation
of your contributioncontribution.
81
261760
3896
qui incarnent chaque contribution.
04:37
And the higherplus haute the scoreBut,
the rosierRosier the hueHue.
82
265680
3216
Plus le score est élevé,
plus la lumière est rose.
04:40
You know, like looking at the worldmonde
throughpar rose-coloredrose-colored glassesdes lunettes.
83
268920
3936
C'est comme voir la vie en rose.
04:44
So, when you see your scoreBut
84
272880
2616
Quand on voit son score
04:47
and the physicalphysique representationreprésentation of it,
85
275520
2656
et sa représentation artistique,
04:50
sometimesparfois you'dtu aurais agreese mettre d'accord
and sometimesparfois you wouldn'tne serait pas.
86
278200
2936
on est parfois d'accord,
mais pas toujours.
04:53
It's as if it really understoodcompris
how that experienceexpérience madefabriqué you feel.
87
281160
3480
C'est comme si l’œuvre d'art
comprenait ce qu'on ressent.
04:57
But other timesfois it getsobtient trippeddéclenché up
88
285400
2216
Mais, d'autres fois, c'est perturbant,
04:59
and has you thinkingen pensant
it doesn't understandcomprendre you at all.
89
287640
2560
on a l'impression de ne pas
avoir été du tout compris.
05:02
But the piecepièce really servessert to showmontrer
90
290680
1896
Cette œuvre d'art sert à montrer
05:04
that if we have a harddifficile time explainingexpliquer
the emotionsémotions that we have to eachchaque other,
91
292600
4056
que, si on a du mal à expliquer
nos émotions les uns aux autres,
05:08
how can we teachapprendre a computerordinateur
to make sensesens of them?
92
296680
2360
comment apprendre
à un ordinateur à les comprendre ?
05:12
So, even the more objectiveobjectif partsles pièces
about beingétant humanHumain are harddifficile to describedécrire.
93
300360
3576
Même les dimensions les plus objectives
de l'homme sont dures à décrire.
05:15
Like, conversationconversation.
94
303960
1240
Comme la conversation.
05:17
Have you ever really trieda essayé
to breakPause down the stepspas?
95
305880
2736
Avez-vous déjà brisé les étapes
dans une conversation ?
05:20
So think about sittingséance
with your friendami at a coffeecafé shopboutique
96
308640
2656
Imaginez que vous êtes assis
avec un ami à un café
05:23
and just havingayant smallpetit talk.
97
311320
1320
parlant de tout et de rien.
05:25
How do you know when to take a turntour?
98
313160
1720
Comment savoir quand prendre un tournant ?
05:27
How do you know when to shiftdécalage topicsles sujets?
99
315440
1840
Comment savoir quand changer de sujet ?
05:29
And how do you even know
what topicsles sujets to discussdiscuter?
100
317960
2720
Et même comment savoir
de quels sujets parler ?
05:33
See, mostles plus of us
don't really think about it,
101
321560
2096
La plupart de nous n'y pense pas vraiment,
05:35
because it's almostpresque secondseconde naturela nature.
102
323680
1656
c'est comme une seconde nature.
05:37
And when we get to know someoneQuelqu'un,
we learnapprendre more about what makesfait du them tickcocher,
103
325360
3496
Quand on rencontre quelqu'un,
on en apprend plus sur ses passions
05:40
and then we learnapprendre
what topicsles sujets we can discussdiscuter.
104
328880
2376
et on apprend
de quels sujets on peut parler.
05:43
But when it comesvient to teachingenseignement
AIAI systemssystèmes how to interactinteragir with people,
105
331280
3656
Mais quand il faut enseigner à l'IA
comment interagir avec les gens,
05:46
we have to teachapprendre them
stepétape by stepétape what to do.
106
334960
2856
on doit lui expliquer étape par étape.
05:49
And right now, it feelsse sent clunkyclunky.
107
337840
3496
Actuellement, c'est encore trop inadapté.
05:53
If you've ever trieda essayé to talk
with AlexaAlexa, SiriSiri or GoogleGoogle AssistantAssistant,
108
341360
4136
Si vous avez déjà essayé de parler
avec Alexa, Siri ou l'Assistant Google,
05:57
you can tell that it or they
can still sounddu son colddu froid.
109
345520
4200
vous remarquerez que leurs réponses
paraissent désincarnées.
06:02
And have you ever gottenobtenu annoyedagacé
110
350440
1656
Avez-vous déjà été agacé
06:04
when they didn't understandcomprendre
what you were sayingen disant
111
352120
2256
quand ils n'ont pas compris
ce que vous disiez
06:06
and you had to rephrasereformuler what you wanted
20 timesfois just to playjouer a songchant?
112
354400
3840
et que vous avez dû reformuler 20 fois
votre requête pour écouter une chanson.
06:11
AlrightAlright, to the creditcrédit of the designersconcepteurs,
realisticréaliste communicationla communication is really harddifficile.
113
359440
4896
Il faut reconnaître aux designers
qu'une communication réaliste
est très complexe.
06:16
And there's a wholeentier branchbranche of sociologysociologie,
114
364360
2136
Il y a une branche entière
de la sociologie,
06:18
calledappelé conversationconversation analysisune analyse,
115
366520
1936
l'analyse conversationnelle,
06:20
that triesessais to make blueprintsBlueprints
for differentdifférent typesles types of conversationconversation.
116
368480
3136
qui cherche à modéliser
différents types de conversations.
06:23
TypesTypes de like customerclient serviceun service
or counselingcounseling, teachingenseignement and othersautres.
117
371640
4080
Comme le service client,
le conseil, l'enseignement, etc.
06:28
I've been collaboratingen collaboration
with a conversationconversation analystAnalyste at the lablaboratoire
118
376880
2936
J'ai travaillé au laboratoire
avec un analyste conversationnel
06:31
to try to help our AIAI systemssystèmes
holdtenir more human-soundingl’homme qui sonne conversationsconversations.
119
379840
4696
pour aider nos systèmes d'IA à discuter
d'une façon qui semble plus humaine.
06:36
This way, when you have an interactioninteraction
with a chatbotchatbot on your phonetéléphone
120
384560
3176
Ainsi, en interagissant
avec un chatbot sur son portable
06:39
or a voice-basedaxée sur les voix systemsystème in the carvoiture,
121
387760
1856
ou avec un système vocal en voiture,
06:41
it soundsdes sons a little more humanHumain
and lessMoins colddu froid and disjointeddisjoints.
122
389640
3320
l'échange semblera un peu plus
humain, moins froid et désincarné.
06:46
So I createdcréé a piecepièce of artart
123
394360
1336
J'ai créé une œuvre d'art
06:47
that triesessais to highlightMettez en surbrillance
the roboticrobotique, clunkyclunky interactioninteraction
124
395720
2816
qui souligne les maladresses
d'expression des robots
06:50
to help us understandcomprendre, as designersconcepteurs,
125
398560
1976
pour aider les designers à comprendre
06:52
why it doesn't sounddu son humanHumain yetencore
and, well, what we can do about it.
126
400560
4576
pourquoi ils ne parlent pas encore comme
des humains et ce qu'on peut y faire.
06:57
The piecepièce is calledappelé BotBot to BotBot
127
405160
1456
Elle s'appelle Bot to Bot,
06:58
and it putsmet one conversationalconversationnel
systemsystème againstcontre anotherun autre
128
406640
2936
c'est l'interaction de deux
systèmes conversationnels
07:01
and then exposesexpose les it to the generalgénéral publicpublic.
129
409600
2536
qui est exposée au public.
07:04
And what endsprend fin up happeningévénement
is that you get something
130
412160
2496
Au final, on arrive au résultat
07:06
that triesessais to mimicimiter humanHumain conversationconversation,
131
414680
1896
d'une tentative d'imiter une discussion,
07:08
but fallschutes shortcourt.
132
416600
1896
sans y parvenir.
07:10
SometimesParfois it workstravaux and sometimesparfois
it getsobtient into these, well,
133
418520
2736
Soit ça fonctionne, soit on reste
07:13
loopsboucles of misunderstandingmalentendu.
134
421280
1536
dans des sortes
de spirales de malentendus.
07:14
So even thoughbien que the machine-to-machinemachine-to-machine
conversationconversation can make sensesens,
135
422840
3096
Si la conversation d'une machine
à l'autre peut avoir du sens,
07:17
grammaticallygrammaticalement and colloquiallyfamilièrement,
136
425960
2016
grammaticalement et dans la forme,
07:20
it can still endfin up
feelingsentiment colddu froid and roboticrobotique.
137
428000
3216
elle paraît toujours froide et robotique.
07:23
And despitemalgré checkingvérification all the boxesdes boites,
the dialoguedialogue lacksmanque soulâme
138
431240
4016
Même en remplissant tous les critères,
le dialogue manque d'âme
07:27
and those one-offmesures exceptionnelles quirksbizarreries
that make eachchaque of us who we are.
139
435280
3136
et de ces traits uniques
qui font ce que nous sommes.
07:30
So while it mightpourrait be grammaticallygrammaticalement correctcorrect
140
438440
2056
Même en étant grammaticalement correct
07:32
and usesles usages all the right
hashtagshashtags and emojisémoticônes,
141
440520
2656
et en utilisant les hashtags
et les emojis appropriés,
07:35
it can endfin up soundingsondage mechanicalmécanique
and, well, a little creepychair de poule.
142
443200
4136
le dialogue finit par sembler
mécanique et un peu sinistre.
07:39
And we call this the uncannyétrange valleyvallée.
143
447360
2336
On appelle ça la vallée mystérieuse.
07:41
You know, that creepinessCreepiness factorfacteur of techtechnologie
144
449720
1936
L'élément sinistre d'une technologie
07:43
where it's closeFermer to humanHumain
but just slightlylégèrement off.
145
451680
2856
qui est proche de l'humain,
mais pas complètement.
07:46
And the piecepièce will startdébut beingétant
146
454560
1456
Et mon œuvre va devenir
07:48
one way that we testtester
for the humannesshumanité of a conversationconversation
147
456040
3216
une façon de tester l'humanité
d'une conversation
07:51
and the partsles pièces that get
lostperdu in translationTraduction.
148
459280
2160
et les éléments perdus dans la traduction.
07:54
So there are other things
that get lostperdu in translationTraduction, too,
149
462560
2856
D'autres choses sont aussi
perdues dans la traduction,
07:57
like humanHumain intuitionintuition.
150
465440
1616
comme l'intuition humaine.
07:59
Right now, computersdes ordinateurs
are gaininggagner more autonomyautonomie.
151
467080
2776
Actuellement, les ordinateurs
sont plus autonomes.
08:01
They can take carese soucier of things for us,
152
469880
1736
Ils peuvent nous rendre des services,
08:03
like changechangement the temperaturetempérature
of our housesMaisons basedbasé on our preferencespréférences
153
471640
3176
comme changer la température
de la maison selon nos préférences
08:06
and even help us driveconduire on the freewayFreeway.
154
474840
2160
ou même aider à conduire
sur une autoroute.
08:09
But there are things
that you and I do in personla personne
155
477560
2496
Mais vous et moi faisons
certaines choses en personne
08:12
that are really difficultdifficile
to translateTraduire to AIAI.
156
480080
2760
qui sont très difficiles
à traduire à une IA.
08:15
So think about the last time
that you saw an oldvieux classmatecamarade de classe or coworkercollègue.
157
483440
4360
Pensez à votre dernière rencontre avec
un ancien camarade de classe ou collègue.
08:21
Did you give them a hugcâlin
or go in for a handshakepoignée de main?
158
489080
2480
Vous êtes-vous embrassés
ou serré la main ?
Vous n'avez pas hésité un instant
08:24
You probablyProbablement didn't think twicedeux fois
159
492800
1496
08:26
because you've had so manybeaucoup
builtconstruit up experiencesexpériences
160
494320
2336
car vous avez tellement passé
de moments ensemble
08:28
that had you do one or the other.
161
496680
2000
que vous savez quoi faire.
08:31
And as an artistartiste, I feel
that accessaccès to one'sson intuitionintuition,
162
499440
3456
En tant qu'artiste, je sens
qu'atteindre l'intuition de quelqu'un,
08:34
your unconsciousinconscient knowingconnaissance,
163
502920
1416
son savoir inconscient,
08:36
is what helpsaide us createcréer amazingincroyable things.
164
504360
3056
nous aide à créer
des choses extraordinaires.
08:39
BigGros ideasidées, from that abstractabstrait,
nonlinearnon linéaire placeendroit in our consciousnessconscience
165
507440
4056
Des grandes idées, depuis cet abstrait,
ce lieu chaotique dans notre conscience
08:43
that is the culminationpoint culminant
of all of our experiencesexpériences.
166
511520
2960
où culminent toutes nos expériences.
08:47
And if we want computersdes ordinateurs to relaterapporter to us
and help amplifyamplifier our creativeCréatif abilitiescapacités,
167
515840
4656
Pour créer un lien avec les ordinateurs
et qu'ils amplifient
nos capacités créatives,
08:52
I feel that we'llbien need to startdébut thinkingen pensant
about how to make computersdes ordinateurs be intuitiveintuitif.
168
520520
3896
je pense qu'il faudra réfléchir à comment
rendre les ordinateurs plus intuitifs.
08:56
So I wanted to exploreexplorer
how something like humanHumain intuitionintuition
169
524440
3096
J'ai donc voulu comprendre
comment l'intuition humaine
08:59
could be directlydirectement translatedtraduit
to artificialartificiel intelligenceintelligence.
170
527560
3456
pourrait être traduite sans filtre
à une intelligence artificielle.
09:03
And I createdcréé a piecepièce
that exploresexplore computer-basedassistée par ordinateur intuitionintuition
171
531040
3216
Et j'ai créé une œuvre
qui explore l'intuition informatique
09:06
in a physicalphysique spaceespace.
172
534280
1320
dans l'espace physique.
09:08
The piecepièce is calledappelé WayfindingWayfinding,
173
536480
1696
Cette œuvre s'appelle Wayfinding,
09:10
and it's setensemble up as a symbolicsymbolique compassboussole
that has fourquatre kineticcinétiques sculpturesdes sculptures.
174
538200
3936
elle est formée d'un compas symbolique
avec quatre sculptures cinétiques.
09:14
EachChaque one representsreprésente a directiondirection,
175
542160
2056
Chacune représente une direction :
09:16
northNord, eastest, southSud and westOuest.
176
544240
2120
nord, est, sud et ouest.
09:19
And there are sensorscapteurs setensemble up
on the topHaut of eachchaque sculpturesculpture
177
547080
2696
Des capteurs sont placés
au dessus de chaque sculpture
09:21
that captureCapturer how farloin away
you are from them.
178
549800
2256
pour mesurer la distance
entre elle et vous.
Les données collectées
09:24
And the dataLes données that getsobtient collectedrecueilli
179
552080
1816
09:25
endsprend fin up changingen changeant the way
that sculpturesdes sculptures movebouge toi
180
553920
2136
vont changer le mouvement des sculptures
09:28
and the directiondirection of the compassboussole.
181
556080
2040
et la direction du compas.
09:31
The thing is, the piecepièce doesn't work
like the automaticAutomatique doorporte sensorcapteur
182
559360
3656
L'installation ne fonctionne pas
comme un capteur de porte automatique
09:35
that just openss'ouvre
when you walkmarche in frontde face of it.
183
563040
2656
qui s'ouvre juste en marchant devant elle.
09:37
See, your contributioncontribution is only a partpartie
of its collectioncollection of livedvivait experiencesexpériences.
184
565720
5056
Votre contribution n'est qu'une partie
de sa collection d'expériences vécues.
09:42
And all of those experiencesexpériences
affectaffecter the way that it movesse déplace.
185
570800
4056
Toutes ces expériences influencent
la façon dont l’œuvre d'art bouge.
09:46
So when you walkmarche in frontde face of it,
186
574880
1736
Donc quand on marche devant elle,
09:48
it startsdéparts to use all of the dataLes données
187
576640
1976
elle se met à utiliser tous les données
09:50
that it's capturedcapturé
throughouttout au long de its exhibitionexposition historyhistoire --
188
578640
2616
emmagasinées pendant toute l'exposition –
09:53
or its intuitionintuition --
189
581280
1816
ou son intuition –
09:55
to mechanicallymécaniquement respondrépondre to you
basedbasé on what it's learnedappris from othersautres.
190
583120
3560
pour nous répondre mécaniquement
en utilisant ce qu'elle appris des autres.
09:59
And what endsprend fin up happeningévénement
is that as participantsparticipants
191
587480
2536
Au final, les participants
10:02
we startdébut to learnapprendre the levelniveau
of detaildétail that we need
192
590040
2816
commencent à comprendre
le niveau de détail nécessaire
10:04
in ordercommande to managegérer expectationsattentes
193
592880
2016
afin de gérer les attentes
10:06
from bothtous les deux humanshumains and machinesmachines.
194
594920
2776
tant des humains que des machines.
10:09
We can almostpresque see our intuitionintuition
beingétant playedjoué out on the computerordinateur,
195
597720
3616
On peut presque voir notre intuition
interprétée sur l'ordinateur,
10:13
picturingPicturing all of that dataLes données
beingétant processedtraitées in our mind'sde l’esprit eyeœil.
196
601360
3600
représentant toutes les données
traitées par notre œil et notre cerveau.
10:17
My hopeespérer is that this typetype of artart
197
605560
1656
J'espère que ce type d'art
10:19
will help us think differentlydifféremment
about intuitionintuition
198
607240
2416
nous aidera à penser
différemment l'intuition
10:21
and how to applyappliquer that to AIAI in the futureavenir.
199
609680
2280
et comment l'intégrer
à l'IA dans le futur.
10:24
So these are just a fewpeu examplesexemples
of how I'm usingen utilisant artart to feedalimentation into my work
200
612480
3936
Voici quelques exemples de mon utilisation
de l'art pour nourrir mon travail
10:28
as a designerdesigner and researcherchercheur
of artificialartificiel intelligenceintelligence.
201
616440
3096
de designer et de chercheur
en intelligence artificielle.
10:31
And I see it as a crucialcrucial way
to movebouge toi innovationinnovation forwardvers l'avant.
202
619560
3496
Je le vois comme une méthode clé
pour faire progresser l'innovation.
10:35
Because right now, there are
a lot of extremesextrêmes when it comesvient to AIAI.
203
623080
4376
Car, actuellement, il y a beaucoup
d'opinions extrêmes sur l'IA.
10:39
PopularPopulaires moviesfilms showmontrer it
as this destructivedestructrice forceObliger
204
627480
2816
Les blockbusters la présentent
en force de destruction
10:42
while commercialspublicités
are showingmontrer it as a saviorSauveur
205
630320
3056
alors que les publicités
l'encensent comme le sauveur,
10:45
to solverésoudre some of the world'smonde
mostles plus complexcomplexe problemsproblèmes.
206
633400
2936
à même de résoudre des problèmes
très complexes dans le monde.
10:48
But regardlessindépendamment of where you standsupporter,
207
636360
2536
Mais quelles que soient nos opinions,
10:50
it's harddifficile to denyNier
that we're livingvivant in a worldmonde
208
638920
2176
il est dur de contester
qu'on vit dans un monde
10:53
that's becomingdevenir more
and more digitalnumérique by the secondseconde.
209
641120
2576
qui devient de plus en plus
numérique à chaque seconde.
10:55
Our livesvies revolves’articulent around our devicesdispositifs,
smartintelligent appliancesappareils électroménagers and more.
210
643720
4600
Nos vies tournent autour de nos appareils,
des applications intelligentes, etc.
11:01
And I don't think
this will let up any time soonbientôt.
211
649400
2320
Et je ne crois pas
que ça va s'arrêter de sitôt.
11:04
So, I'm tryingen essayant to embedintégrer
more humannesshumanité from the startdébut.
212
652400
3736
Je cherche donc à intégrer
plus d'humanité dès le départ.
11:08
And I have a hunchintuition that bringingapportant artart
into an AIAI researchrecherche processprocessus
213
656160
5136
J'ai le pressentiment qu'amener l'art
dans la recherche
en intelligence artificielle
11:13
is a way to do just that.
214
661320
1896
est une façon d'y arriver.
11:15
Thank you.
215
663240
1216
Merci.
11:16
(ApplauseApplaudissements)
216
664480
2280
(Applaudissements)
Translated by Jules Daunay
Reviewed by Elisabeth Buffard

▲Back to top

ABOUT THE SPEAKER
Raphael Arar - Designer, researcher
IBM's Raphael Arar creates art and designs experiences that examine the complexities of our increasingly technocentric lives.

Why you should listen

While his artwork raises questions about our relationship with modernity and technology, Raphael Arar’s design work revolves around answering those questions in human-centered ways. 

Currently a designer and researcher at IBM Research, Arar has been exploring ways to translate aspects of emotional intelligence into machine-readable format. Through this, he is passionately tackling ethical platforms of artificial intelligence. Inc. Magazine says he "epitomizes the style and multi-disciplinary skill set of the modern designer," and in 2017, he was listed as one of Forbes's "30 under 30 in Enterprise Technology."

More profile about the speaker
Raphael Arar | Speaker | TED.com