ABOUT THE SPEAKER
Poppy Crum - Neuroscientist, technologist
Poppy Crum builds technologies that best leverage human physiology to enhance our experiences and how we interact with the world.

Why you should listen

Poppy Crum is dedicated to the development of immersive technologies that leverage human physiology and perceptual realities to enhance our experiences and interactions in the world. She has advanced a mission to democratize the way people of all abilities benefit from sensory technologies -- and how effectively technology communicates back to each of us. She believes the power of intelligent technologies is only realized with dynamic optimization and learning of as much of our personal and contextual data as possible.

Crum is chief scientist at Dolby Laboratories, leading the company's integration of neuroscience and sensory data science into its entertainment, communication and future technologies. She is also adjunct professor at Stanford University, where her work focuses on the impact and feedback potential of gaming and immersive environments, such as augmented and virtual reality, on neuroplasticity and learning. She has been recognized with the Advanced Imaging Society's Distinguished Leadership Award and the Consumer Technology Association's Technology and Standards Achievement Award for work towards the introduction of affordable, over-the-counter hearing-aid devices, and she is a fellow of the Audio Engineering Society. She has also been named to Billboard Magazine's 100 most influential female executives in the music industry. Prior to joining Dolby Laboratories, Crum was Research Faculty in the Department of Biomedical Engineering at Johns Hopkins School of Medicine.

More profile about the speaker
Poppy Crum | Speaker | TED.com
TED2018

Poppy Crum: Technology that knows what you're feeling

Poppy Crum: Une technologie qui sait ce que vous ressentez

Filmed:
1,589,033 views

Qu'arrive-t-il quand la technologie en sait plus sur vous que vous-même ? Poppy Crum étudie les façons dont nous exprimons nos émotions -- et elle croit que la fin du « poker face » approche, étant donné que de nouvelles technologies facilitent maintenant la détection des signaux qui révèlent ce que nous ressentons. Dans cette conférence et démonstration technologique, elle nous montre comment la « technologie empathique » peut lire les signaux physiques tels que la température corporelle et la composition chimique de notre haleine pour nous en dire beaucoup sur notre état émotif. Pour le meilleur ou pour le pire. « Si nous reconnaissons le pouvoir de devenir des empathes technologiques, nous permettrons à la technologie de nous aider à rétrécir l'écart entre l'émotif et le cognitif », explique-t-elle.
- Neuroscientist, technologist
Poppy Crum builds technologies that best leverage human physiology to enhance our experiences and how we interact with the world. Full bio

Double-click the English transcript below to play the video.

00:12
What happensarrive when technologyLa technologie
knowssait more about us than we do?
0
881
4456
Qu'arrive-t-il quand la technologie
en sait plus sur nous que nous-mêmes ?
00:17
A computerordinateur now can detectdétecter
our slightestmoindre facialsoin du visage microexpressionsmicroexpressions
1
5992
3672
Un ordinateur peut maintenant détecter
les expressions les plus infimes du visage
00:21
and be ablecapable to tell the differencedifférence
betweenentre a realréal smilesourire and a fakefaux one.
2
9688
3611
pour faire la différence entre
un véritable sourire et un sourire forcé.
00:25
That's only the beginningdébut.
3
13323
1734
Et ce n'est qu'un début.
00:27
TechnologyTechnologie has becomedevenir
incrediblyincroyablement intelligentintelligent
4
15466
2865
La technologie est devenue
incroyablement intelligente
00:30
and alreadydéjà knowssait a lot
about our internalinterne statesÉtats.
5
18355
3400
et en connaît déjà beaucoup
sur nos états intérieurs.
00:34
And whetherqu'il s'agisse we like it or not,
6
22085
2286
Que ça nous plaise ou non,
00:36
we alreadydéjà are sharingpartage
partsles pièces of our innerinterne livesvies
7
24395
3499
nous partageons déjà une partie
de nos vies intimes
00:39
that's out of our controlcontrôle.
8
27918
1733
qui est hors de notre contrôle.
00:43
That seemssemble like a problemproblème,
9
31413
1421
Ça semble être un problème,
00:44
because a lot of us like to keep
what's going on insideà l'intérieur
10
32858
3246
car plusieurs préfèrent garder caché
ce qui se passe à l'intérieur
00:48
from what people actuallyréellement see.
11
36128
1647
plutôt que de le montrer aux autres.
00:50
We want to have agencyagence
over what we sharepartager and what we don't.
12
38323
4420
On souhaite avoir le contrôle sur
ce qu'on choisit, ou non, de partager.
00:55
We all like to have a pokerPoker facevisage.
13
43473
2321
On aime tous avoir un « poker face ».
00:59
But I'm here to tell you
that I think that's a thing of the pastpassé.
14
47584
3346
Je suis ici pour vous dire que
je crois que c'est une chose du passé.
01:03
And while that mightpourrait sounddu son scaryeffrayant,
it's not necessarilynécessairement a badmal thing.
15
51347
4770
Et même si ça peut sembler effrayant,
ce n'est pas nécessairement mauvais.
J'ai passé beaucoup de temps
à étudier les circuits du cerveau
01:09
I've spentdépensé a lot of time
studyingen train d'étudier the circuitsles circuits in the braincerveau
16
57030
2770
01:11
that createcréer the uniqueunique perceptualperceptuel
realitiesréalités that we eachchaque have.
17
59824
3693
qui créent l'unique réalité perceptuelle
que chacun de nous a.
01:16
And now I bringapporter that togetherensemble
18
64110
1405
Je rassemble cela avec les capacités
de la technologie actuelle
01:17
with the capabilitiescapacités
of currentactuel technologyLa technologie
19
65539
2062
pour créer une nouvelle technologie
nous permettant de s'améliorer,
01:19
to createcréer newNouveau technologyLa technologie
that does make us better,
20
67625
2537
01:22
feel more, connectrelier more.
21
70186
1600
de ressentir et se connecter davantage.
01:24
And I believe to do that,
22
72482
1786
Je crois que pour ce faire,
01:26
we have to be OK
losingperdant some of our agencyagence.
23
74292
2749
nous devons accepter de céder
un peu de notre contrôle.
01:30
With some animalsanimaux, it's really amazingincroyable,
24
78149
2523
Avec certains animaux, c'est fascinant ;
01:32
and we get to see into
theirleur internalinterne experiencesexpériences.
25
80696
3474
on peut observer
leurs expériences intérieures.
01:36
We get this upfrontdès le départ look
at the mechanisticmécaniste interactioninteraction
26
84649
3722
On a un accès privilégié
aux interactions mécanistes
01:40
betweenentre how they respondrépondre
to the worldmonde around them
27
88395
2817
entre la façon dont ils réagissent
au monde qui les entoure
01:43
and the stateEtat of theirleur biologicalbiologique systemssystèmes.
28
91236
2008
et l'état de leur système biologique.
01:45
This is where evolutionaryévolutionniste pressurespressions
like eatingen mangeant, matingaccouplement
29
93268
3809
C'est là où les pressions de l'évolution,
comme se nourrir, se reproduire
01:49
and makingfabrication sure we don't get eatenmangé
30
97101
1762
ou s'assurer de ne pas être dévoré,
01:50
driveconduire deterministicdéterministe behavioralcomportementale responsesréponses
to informationinformation in the worldmonde.
31
98887
4157
transfèrent des comportements
déterministes en données vers le monde.
01:55
And we get to see into this windowfenêtre,
32
103806
2794
On a alors la chance de regarder
à travers cette fenêtre,
01:58
into theirleur internalinterne statesÉtats
and theirleur biologicalbiologique experiencesexpériences.
33
106624
3636
d'observer leur état intérieur
et leurs expériences biologiques.
02:02
It's really prettyjoli coolcool.
34
110284
1642
C'est vraiment chouette !
02:03
Now, stayrester with me for a momentmoment --
I'm a violinistvioloniste, not a singerchanteur.
35
111950
4103
Restez avec moi un moment --
je suis violoniste et non pas chanteuse.
02:08
But the spider'stoile d’araignée alreadydéjà
givendonné me a criticalcritique reviewla revue.
36
116077
3590
L'araignée a déjà fait la critique
de ma performance.
02:16
(VideoVidéo) (SingingChant in a lowfaible pitchpas)
37
124907
2060
(Vidéo) (Chante à voix grave)
02:19
(SingingChant in a middlemilieu pitchpas)
38
127868
2888
(Chante à voix médiane)
02:23
(SingingChant in a highhaute pitchpas)
39
131800
2505
(Chante à voix aiguë)
02:27
(SingingChant in a lowfaible pitchpas)
40
135069
1421
(Chante à voix grave)
02:29
(SingingChant in a middlemilieu pitchpas)
41
137236
1600
(Chante à voix médiane)
02:31
(SingingChant in a highhaute pitchpas)
42
139403
1777
(Chante à voix aiguë)
02:33
(LaughterRires)
43
141204
1150
(Rires)
02:36
PoppyCoquelicot CrumCrum: It turnsse tourne out, some spidersaraignées
tunemélodie theirleur websWebs like violinsviolons
44
144387
3198
PC : Il s'avère que certaines araignées
accordent leur toile comme un violon
02:39
to resonaterésonner with certaincertain soundsdes sons.
45
147609
2158
pour faire résonner certains sons.
02:41
And likelyprobable, the harmonicsharmoniques
of my voicevoix as it wentest allé higherplus haute
46
149791
2771
Il est probable que les harmonies
de ma voix montante,
02:44
coupledcouplé with how loudbruyant I was singingen chantant
47
152586
1730
jumelée au volume de ma voix,
02:46
recreatedrecréé eithernon plus the predatoryprédateur call
of an echolocatingécholocation batchauve souris or a birdoiseau,
48
154340
4467
a recréé le chant prédateur
d'une chauve-souris ou d'un oiseau,
02:50
and the spiderAraign? e did what it should.
49
158831
1881
forçant l'araignée à faire le nécessaire.
02:53
It predictivelyce message told me to bugpunaise off.
50
161300
2817
Elle m'a dit, de manière prévisible,
d'aller voir ailleurs.
02:56
I love this.
51
164824
1150
J'adore ça.
02:58
The spider'stoile d’araignée respondingrépondant
to its externalexterne worldmonde
52
166546
3309
L'araignée réagit au monde extérieur
03:01
in a way that we get to see and know
what's happeningévénement to its internalinterne worldmonde.
53
169879
4350
d'une manière qui nous permet d'observer
ce qui se produit à l'intérieur d'elle.
03:07
BiologyBiologie is controllingcontrôler
the spider'stoile d’araignée responseréponse;
54
175069
2206
La biologie dicte
la réaction de l'araignée ;
03:09
it's wearingportant its internalinterne
stateEtat on its sleevemanchon.
55
177299
2776
elle affiche ouvertement
son état intérieur.
03:13
But us, humanshumains --
56
181768
1655
Mais pour nous, les humains --
03:16
we're differentdifférent.
57
184184
1150
c'est différent.
03:17
We like to think we have cognitivecognitif controlcontrôle
over what people see, know and understandcomprendre
58
185899
5735
On aime croire qu'on a le contrôle
cognitif sur ce que les gens voient,
savent et comprennent
de nos états intérieurs --
03:23
about our internalinterne statesÉtats --
59
191658
1409
03:25
our emotionsémotions, our insecuritiesinsécurités,
our bluffsBluffs, our trialsessais and tribulationstribulations --
60
193091
4303
nos émotions, nos insécurités,
nos bluffs, nos tribulations --
03:29
and how we respondrépondre.
61
197418
1267
et comment nous réagissons.
03:31
We get to have our pokerPoker facevisage.
62
199927
2282
On a la chance d'avoir
notre « poker face ».
03:35
Or maybe we don't.
63
203799
1200
Mais peut-être pas.
03:37
Try this with me.
64
205728
1182
Essayez ceci avec moi.
03:38
Your eyeœil respondsrépond
to how harddifficile your braincerveau is workingtravail.
65
206934
2690
Votre œil réagit en fonction
de l'effort prodigué par votre cerveau.
03:42
The responseréponse you're about to see
is drivenentraîné entirelyentièrement by mentalmental efforteffort
66
210363
3230
La réaction que vous verrez
est entièrement créée par un effort mental
03:45
and has nothing to do
with changeschangements in lightingéclairage.
67
213617
2635
et n'a rien à voir
avec un changement d'éclairage.
03:48
We know this from neuroscienceneuroscience.
68
216276
1650
La neuroscience nous a appris cela.
03:49
I promisepromettre, your eyesles yeux are doing
the sameMême thing as the subjectassujettir in our lablaboratoire,
69
217950
4560
Je vous le promets, vos yeux font la même
chose que le sujet dans notre labo,
03:54
whetherqu'il s'agisse you want them to or not.
70
222534
1734
que vous le vouliez ou non.
03:56
At first, you'lltu vas hearentendre some voicesvoix.
71
224292
2173
Premièrement, vous entendrez des voix.
03:58
Try and understandcomprendre them
and keep watchingen train de regarder the eyeœil in frontde face of you.
72
226489
3278
Faites un effort pour les comprendre
et regardez l'œil devant vous.
04:01
It's going to be harddifficile at first,
73
229791
1498
Au début, ce sera difficile,
04:03
one should droplaissez tomber out,
and it should get really easyfacile.
74
231313
2391
une voix se taira
et ça deviendra plus facile.
04:05
You're going to see the changechangement in efforteffort
in the diameterdiamètre of the pupilpupille.
75
233728
3325
Vous pourrez observer le changement
d'effort dans le diamètre de la pupille.
04:10
(VideoVidéo) (Two overlappingchevauchement voicesvoix talkingparlant)
76
238140
2567
(Video) (Deux voix parlent simultanément)
(Une voix) La technologie intelligente
dépend de données personnelles.
04:12
(SingleUnique voicevoix) IntelligentIntelligent technologyLa technologie
dependsdépend on personalpersonnel dataLes données.
77
240731
2963
04:15
(Two overlappingchevauchement voicesvoix talkingparlant)
78
243718
2446
(Deux voix parlent simultanément)
04:18
(SingleUnique voicevoix) IntelligentIntelligent technologyLa technologie
dependsdépend on personalpersonnel dataLes données.
79
246188
2976
(Une voix) La technologie intelligente
dépend de données personnelles.
04:21
PCPC: Your pupilpupille doesn't liemensonge.
80
249680
1326
PC : Votre pupille ne ment pas.
04:23
Your eyeœil givesdonne away your pokerPoker facevisage.
81
251030
2400
Votre œil fait tomber votre masque.
Si votre cerveau doit faire plus d'effort,
04:25
When your brain'scerveaux havingayant to work harderPlus fort,
82
253990
1913
04:27
your autonomicsystème nerveux autonome nervousnerveux systemsystème
drivesdisques your pupilpupille to dilatedilater.
83
255927
2785
votre système nerveux autonome
fait dilater votre pupille.
Si non, elle se contracte.
04:30
When it's not, it contractscontrats.
84
258736
1555
04:32
When I take away one of the voicesvoix,
85
260680
1691
En retirant l'une des deux voix,
04:34
the cognitivecognitif efforteffort
to understandcomprendre the talkersaffichettes
86
262395
2262
l'effort cognitif nécessaire
pour comprendre est facilité.
04:36
getsobtient a lot easierPlus facile.
87
264681
1158
04:37
I could have put the two voicesvoix
in differentdifférent spatialspatial locationsEmplacements,
88
265863
3000
J'aurais pu placer les deux voix
dans des endroits différents,
ou augmenter le volume de l'une d'elles.
04:40
I could have madefabriqué one louderPlus fort.
89
268887
1666
04:42
You would have seenvu the sameMême thing.
90
270577
1738
Vous auriez observé le même phénomène.
04:45
We mightpourrait think we have more agencyagence
over the revealrévéler of our internalinterne stateEtat
91
273006
4786
Nous croyons peut-être avoir
plus de contrôle sur notre état intérieur
04:49
than that spiderAraign? e,
92
277816
1579
que l'araignée,
04:51
but maybe we don't.
93
279419
1266
mais c'est peut-être faux.
04:53
Today'sAujourd'hui technologyLa technologie is startingdépart
to make it really easyfacile
94
281021
2969
La technologie actuelle est en train
de rendre très facile
04:56
to see the signalssignaux and tellsraconte
that give us away.
95
284014
2690
la détection des signaux
qui révèlent tout.
04:59
The amalgamationfusion of sensorscapteurs
pairedjumelé with machinemachine learningapprentissage
96
287109
3294
La fusion des senseurs,
jumelée à l'apprentissage des machines
05:02
on us, around us and in our environmentsenvironnements,
97
290427
2413
sur nous, autour de nous et
dans nos environnements,
05:04
is a lot more than camerasappareils photo and microphonesmicrophones
trackingsuivi our externalexterne actionsactes.
98
292864
4653
va beaucoup plus loin que les caméras
et micros suivant nos actions externes.
05:12
Our bodiescorps radiaterayonner our storieshistoires
99
300529
2818
Nos corps irradient nos histoires
05:15
from changeschangements in the temperaturetempérature
of our physiologyphysiologie.
100
303371
2666
à travers les changements de température
de notre physiologie.
05:18
We can look at these
as infraredinfrarouge thermalthermique imagesimages
101
306546
2261
On peut les voir en imagerie
thermique infrarouge derrière moi,
05:20
showingmontrer up behindderrière me,
102
308831
1160
où les rouges sont chauds
et les bleus sont froids.
05:22
where redsReds are hotterplus chaud
and bluesBlues are coolerglacière.
103
310015
2070
05:24
The dynamicdynamique signatureSignature
of our thermalthermique responseréponse
104
312458
3183
La signature dynamique
de notre réaction thermique
05:27
givesdonne away our changeschangements in stressstress,
105
315665
3031
révèle les changements s'opérant
selon le degré de stress,
05:30
how harddifficile our braincerveau is workingtravail,
106
318720
2008
l'effort prodigué par le cerveau,
05:32
whetherqu'il s'agisse we're payingpayant attentionattention
107
320752
1936
ou selon le degré d'attention porté
05:34
and engagedengagé in the conversationconversation
we mightpourrait be havingayant
108
322712
2627
à une conversation que
nous sommes en train d'avoir,
05:37
and even whetherqu'il s'agisse we're experiencingéprouver
a picturephoto of fireFeu as if it were realréal.
109
325363
4095
ou même à savoir si nous percevons
l'image d'un feu comme réelle ou pas.
05:41
We can actuallyréellement see
people give off heatchaleur on theirleur cheeksjoues
110
329482
2643
On peut voir une hausse de chaleur
provenant des joues,
05:44
in responseréponse to an imageimage of flameflamme.
111
332149
2200
en réaction à l'image d'une flamme.
05:48
But asidede côté from givingdonnant away
our pokerPoker bluffsBluffs,
112
336013
2929
Mais au-delà
de la révélation de nos bluffs,
05:50
what if dimensionsdimensions of dataLes données
from someone'squelques uns thermalthermique responseréponse
113
338966
4746
si l'éventail de données révélées
par la réaction thermique d'une personne
05:55
gavea donné away a glowGlow
of interpersonalinterpersonnelles interestintérêt?
114
343736
2659
nous en apprenait un peu
sur leurs intérêts interpersonnels ?
Détecter l'honnêteté des sentiments
à travers l'image thermique d'une personne
05:58
TrackingSuivi the honestyhonnêteté of feelingssentiments
in someone'squelques uns thermalthermique imageimage
115
346966
3532
06:02
mightpourrait be a newNouveau partpartie of how
we falltomber in love and see attractionattraction.
116
350522
3626
pourrait influencer notre façon de tomber
amoureux ou de percevoir le désir.
06:06
Our technologyLa technologie can listen,
developdévelopper insightsdes idées and make predictionsprédictions
117
354172
3693
Notre technologie peut écouter, développer
des connaissances et faire des prédictions
06:09
about our mentalmental and physicalphysique healthsanté
118
357889
2095
sur notre santé physique et mentale,
06:12
just by analyzinganalyse the timingtiming dynamicsdynamique
of our speechdiscours and languagela langue
119
360008
4000
simplement en analysant la synchronisation
de notre discours et langage
06:16
pickedchoisi up by microphonesmicrophones.
120
364032
1443
qu'enregistrent des micros.
06:18
GroupsGroupes have shownmontré that changeschangements
in the statisticsstatistiques of our languagela langue
121
366038
3880
Des groupes ont démontré que
des changements de statistiques du langage
jumelés à l'apprentissage automatique
06:21
pairedjumelé with machinemachine learningapprentissage
122
369942
1420
06:23
can predictprédire the likelihoodprobabilité
someoneQuelqu'un will developdévelopper psychosispsychose.
123
371386
3161
peut prévoir les probabilités
qu'une personne développe une psychose.
J'irai encore plus loin
06:27
I'm going to take it a stepétape furtherplus loin
124
375442
1751
et observerai les changements
linguistiques et les changements de voix
06:29
and look at linguisticlinguistique changeschangements
and changeschangements in our voicevoix
125
377217
2587
06:31
that showmontrer up with a lot
of differentdifférent conditionsconditions.
126
379828
2239
qui apparaissent avec plusieurs maladies.
06:34
DementiaDémence, diabetesDiabète can altermodifier
the spectralspectral colorationcoloration of our voicevoix.
127
382091
4367
La démence ou le diabète peuvent altérer
la coloration spectrale de notre voix.
06:39
ChangesChangements in our languagela langue
associatedassocié with Alzheimer'sAlzheimer
128
387205
3119
Des changements du langage
associés à la maladie d'Alzheimer
06:42
can sometimesparfois showmontrer up more
than 10 yearsannées before clinicalclinique diagnosisdiagnostic.
129
390348
4365
peuvent parfois apparaître plus de 10 ans
avant le premier diagnostic clinique.
06:47
What we say and how we say it
tellsraconte a much richerplus riche storyrécit
130
395236
3960
Ce que nous disons, et la manière dont
nous le disons, en révèlent beaucoup plus
06:51
than we used to think.
131
399220
1254
que ce nous pensions.
06:53
And devicesdispositifs we alreadydéjà have in our homesmaisons
could, if we let them,
132
401022
4047
Des appareils que nous avons déjà
à la maison peuvent, si on le permet,
06:57
give us invaluableune valeur inestimable insightperspicacité back.
133
405093
2134
nous offrir de précieuses informations.
06:59
The chemicalchimique compositioncomposition of our breathsouffle
134
407998
2978
La composition chimique
de notre respiration
07:03
givesdonne away our feelingssentiments.
135
411959
1354
révèlent nos émotions.
07:06
There's a dynamicdynamique mixturemélange of acetoneacétone,
isopreneisoprène and carboncarbone dioxidedioxyde
136
414363
4478
Il y a un mélange dynamique d'acétone,
d'isoprène et de dioxyde de carbone,
07:10
that changeschangements when our heartcœur speedsdes vitesses up,
when our musclesmuscles tensetendu,
137
418865
3384
qui change si notre cœur bat plus vite
ou si nos muscles se contractent
07:14
and all withoutsans pour autant any obviousévident changechangement
in our behaviorscomportements.
138
422809
2897
et ce, sans qu'il n'y ait
de changement notable de comportement.
07:18
AlrightAlright, I want you to watch
this clipagrafe with me.
139
426268
2738
J'aimerais que vous regardiez
cette vidéo avec moi.
07:21
Some things mightpourrait be going on
on the sidecôté screensécrans,
140
429030
3119
Certains trucs pourraient s'afficher
sur les écrans latéraux
07:24
but try and focusconcentrer on
the imageimage in the frontde face
141
432173
3777
mais faites de votre mieux pour
rester concentrés sur l'image de devant
07:27
and the man at the windowfenêtre.
142
435974
1463
et l'homme à la fenêtre.
07:31
(EerieEerie musicla musique)
143
439633
2658
(Musique sinistre)
07:39
(WomanFemme screamsCris)
144
447767
1437
(Une femme crie)
07:50
PCPC: Sorry about that.
I needednécessaire to get a reactionréaction.
145
458692
2395
PC : Désolé !
J'avais besoin de susciter une réaction.
07:53
(LaughterRires)
146
461111
1785
(Rires)
07:55
I'm actuallyréellement trackingsuivi the carboncarbone dioxidedioxyde
you exhaleexhaler in the roomchambre right now.
147
463412
4972
J'enregistre le dioxyde de carbone que
vous expirez dans la salle, en ce moment.
08:01
We'veNous avons installedinstallée tubestubes
throughouttout au long de the theaterthéâtre,
148
469903
3293
Nous avons installé
des tubes dans la salle,
08:05
lowerinférieur to the groundsol,
because COCO2 is heavierplus lourd than airair.
149
473220
2595
près du sol, car le CO2
est plus lourd que l'air.
08:07
But they're connectedconnecté
to a devicedispositif in the back
150
475839
2667
Ils sont connectés à un appareil,
au fond de la salle,
08:10
that letspermet us measuremesure, in realréal time,
with highhaute precisionprécision,
151
478530
3287
qui nous permet de mesurer, en temps réel
et avec grande précision,
08:13
the continuouscontinu differentialdifférentiel
concentrationconcentration of COCO2.
152
481841
2922
la concentration en CO2
de façon continue.
08:17
The cloudsdes nuages on the sidescôtés are actuallyréellement
the real-timetemps réél dataLes données visualizationvisualisation
153
485246
5508
Les nuages sur les côtés sont en fait
la visualisation des données en temps réel
08:22
of the densitydensité of our COCO2.
154
490778
1998
de la densité de notre CO2.
08:25
You mightpourrait still see
a patchpièce of redrouge on the screenécran,
155
493374
3699
Vous voyez peut-être encore
une tache rouge sur l'écran,
08:29
because we're showingmontrer increasesaugmente
with largerplus grand coloredcoloré cloudsdes nuages,
156
497097
3705
car nous montrons les augmentations
avec de larges nuages de couleurs,
08:32
largerplus grand coloredcoloré areaszones of redrouge.
157
500826
2196
de larges taches rouges.
08:35
And that's the pointpoint
where a lot of us jumpedsauté.
158
503046
2559
C'est à ce moment-là que
plusieurs ont sursauté.
08:38
It's our collectivecollectif suspensesuspense
drivingau volant a changechangement in carboncarbone dioxidedioxyde.
159
506173
4915
Notre suspense collectif qui a engendré
ce changement de dioxyde de carbone.
08:43
AlrightAlright, now, watch this
with me one more time.
160
511649
2722
Très bien, alors maintenant
regardons-le une autre fois.
08:46
(CheerfulBonne humeur musicla musique)
161
514395
2238
(Musique joyeuse)
08:54
(WomanFemme laughsdes rires)
162
522553
2137
(Une femme rit)
09:05
PCPC: You knewa connu it was comingvenir.
163
533344
1349
PC : Vous vous y attendiez !
09:06
But it's a lot differentdifférent
when we changedmodifié the creator'sdu créateur intentintention.
164
534717
3363
Mais c'est très différent quand on change
l'intention du créateur.
09:10
ChangingChanger the musicla musique and the sounddu son effectseffets
165
538776
2769
Changer la musique et les effets sonores
09:13
completelycomplètement altermodifier the emotionalémotif
impactimpact of that scenescène.
166
541569
3603
altère complètement l'impact émotionnel
de cette scène.
09:17
And we can see it in our breathsouffle.
167
545196
2134
Et on peut l'observer
avec notre respiration.
09:20
SuspenseSuspense, fearpeur, joyjoie
168
548196
2262
Le suspense, la peur et la joie
09:22
all showmontrer up as reproduciblereproductible,
visuallyvisuellement identifiableidentifiable momentsdes moments.
169
550482
4507
se manifestent tous comme des moments
identifiables et reproductibles.
09:27
We broadcastdiffusion a chemicalchimique signatureSignature
of our emotionsémotions.
170
555473
4151
Nous diffusons la signature chimique
de nos émotions.
09:35
It is the endfin of the pokerPoker facevisage.
171
563249
2133
C'est la fin de notre « poker face ».
09:38
Our spacesles espaces, our technologyLa technologie
will know what we're feelingsentiment.
172
566582
3566
Nos espaces et notre technologie
sauront ce que nous ressentons.
09:42
We will know more about eachchaque other
than we ever have.
173
570736
2785
On en saura plus les uns
sur les autres que jamais auparavant.
09:45
We get a chancechance to reachatteindre in and connectrelier
to the experienceexpérience and sentimentssentiments
174
573911
4307
On a la chance d'atteindre et de se
connecter aux expériences et sentiments,
09:50
that are fundamentalfondamental to us as humanshumains
175
578242
1742
qui nous sont fondamentaux,
09:52
in our sensessens, emotionallyémotionnellement and sociallysocialement.
176
580008
2410
dans nos sens et
sur le plan émotionnel et social.
09:55
I believe it is the eraère of the empathempathe.
177
583482
2540
Je crois qu'il s'agit
de l'ère des empathes.
09:58
And we are enablingpermettant the capabilitiescapacités
that truevrai technologicaltechnologique partnersles partenaires can bringapporter
178
586046
5222
On active les capacités que peuvent amener
de véritables partenaires technologiques
10:03
to how we connectrelier with eachchaque other
and with our technologyLa technologie.
179
591292
3047
sur la façon dont on se connecte
entre nous, puis avec la technologie.
10:06
If we recognizereconnaître the powerPuissance
of becomingdevenir technologicaltechnologique empathsEmpaths,
180
594363
3389
Si on reconnaît le pouvoir
à devenir des empathes technologiques,
10:09
we get this opportunityopportunité
181
597776
1936
nous avons l'opportunité
10:11
where technologyLa technologie can help us bridgepont
the emotionalémotif and cognitivecognitif dividediviser.
182
599736
4424
d'utiliser la technologie pour réduire
l'écart entre l'émotif et le cognitif.
Ainsi, on a le pouvoir
de changer le récit de nos histoires.
10:16
And in that way, we get to changechangement
how we tell our storieshistoires.
183
604680
2723
10:19
We can enableactiver a better futureavenir
for technologiesles technologies like augmentedaugmenté realityréalité
184
607427
3580
On peut bâtir un avenir meilleur pour des
technologies comme la réalité augmentée,
10:23
to extendétendre our ownposséder agencyagence
and connectrelier us at a much deeperPlus profond levelniveau.
185
611031
4193
afin d'étendre notre propre pouvoir et
permettre des connexions plus profondes.
10:27
ImagineImaginez a highhaute schoolécole counselorconseiller
beingétant ablecapable to realizeprendre conscience de
186
615625
2547
Imaginez si un conseiller pédagogique
était en mesure de détecter
10:30
that an outwardlyvers l’extérieur cheeryJoyeux studentétudiant
really was havingayant a deeplyprofondément harddifficile time,
187
618196
3826
qu'un étudiant, bien que paraissant
enjoué, vit de grandes difficultés ;
10:34
where reachingatteindre out can make
a crucialcrucial, positivepositif differencedifférence.
188
622046
3180
cette capacité à lui tendre la main
pourrait faire une différence cruciale.
10:37
Or authoritiesles autorités, beingétant ablecapable
to know the differencedifférence
189
625766
3230
Ou si les autorités étaient en mesure
de faire la différence
10:41
betweenentre someoneQuelqu'un havingayant
a mentalmental healthsanté crisiscrise
190
629020
2325
entre quelqu'un en crise
de santé mentale
10:43
and a differentdifférent typetype of aggressionagression,
191
631369
1826
et un autre type d'agression,
10:45
and respondingrépondant accordinglyen conséquence.
192
633219
1800
afin de pouvoir réagir de
manière adéquate.
10:47
Or an artistartiste, knowingconnaissance
the directdirect impactimpact of theirleur work.
193
635609
3273
Ou un artiste qui pourrait connaître
l'impact direct de son œuvre.
10:52
LeoLeo TolstoyTolstoï defineddéfini his perspectivela perspective of artart
194
640173
2643
Léon Tolstoï a défini
sa perspective de l'art
à savoir si ce que le créateur
avait comme intention
10:54
by whetherqu'il s'agisse what the creatorcréateur intendedprévu
195
642840
1785
10:56
was experiencedexpérimenté by the personla personne
on the other endfin.
196
644649
2586
a été ou non ressenti
par le récepteur.
10:59
Today'sAujourd'hui artistsartistes can know
what we're feelingsentiment.
197
647259
2566
Les artistes d'aujourd'hui peuvent savoir
ce que nous ressentons.
11:02
But regardlessindépendamment of whetherqu'il s'agisse
it's artart or humanHumain connectionconnexion,
198
650204
3005
Mais peu importe qu'il s'agisse
d'art ou de connexion humaine,
11:06
today'saujourd'hui technologiesles technologies
will know and can know
199
654608
2802
les technologies actuelles
peuvent savoir, elles sauront
11:09
what we're experiencingéprouver on the other sidecôté,
200
657434
2048
ce que nous ressentons de l'autre côté,
11:11
and this meansveux dire we can be
closerplus proche and more authenticauthentique.
201
659506
2618
ce qui veut dire qu'on peut être
plus proches et authentiques.
11:14
But I realizeprendre conscience de a lot of us
have a really harddifficile time
202
662498
4293
Je réalise que beaucoup d'entre nous
ont de la difficulté
11:18
with the ideaidée of sharingpartage our dataLes données,
203
666815
2267
avec l'idée de partager nos données,
11:21
and especiallynotamment the ideaidée
that people know things about us
204
669673
3111
et surtout avec l'idée que les autres
sachent des choses sur nous
11:24
that we didn't activelyactivement choosechoisir to sharepartager.
205
672808
2321
que nous n'avons pas choisi de partager.
11:28
AnytimeÀ tout moment we talk to someoneQuelqu'un,
206
676728
2216
À chaque fois que
nous parlons à quelqu'un,
11:31
look at someoneQuelqu'un
207
679946
1555
regardons quelqu'un
ou choisissons de ne pas regarder,
11:33
or choosechoisir not to look,
208
681525
1468
11:35
dataLes données is exchangedéchangées, givendonné away,
209
683017
2647
des données sont échangées et révélées ;
11:38
that people use to learnapprendre,
210
686533
2205
et ces données sont utilisées par les gens
11:40
make decisionsles décisions about
theirleur livesvies and about oursles notres.
211
688762
3267
pour apprendre et prendre des décisions
à propos de leur vie ou de la nôtre.
11:45
I'm not looking to createcréer a worldmonde
where our innerinterne livesvies are rippeddéchiré openouvrir
212
693469
3968
Je ne cherche pas à créer un monde où
nos vies intimes sont exposées sans pudeur
11:49
and our personalpersonnel dataLes données
and our privacyvie privée givendonné away
213
697461
2348
et nos données et notre confidentialité
sont dévoilées
11:51
to people and entitiesentités
where we don't want to see it go.
214
699833
2713
à des gens ou entités à qui
nous ne voulons pas les confier.
11:55
But I am looking to createcréer a worldmonde
215
703117
2762
Par contre, je cherche à créer un monde
11:57
where we can carese soucier about
eachchaque other more effectivelyefficacement,
216
705903
3408
où nous pouvons prendre mieux soin
les uns des autres,
où on peut en connaître plus sur
l'instant où une émotion est ressentie,
12:01
we can know more about when
someoneQuelqu'un is feelingsentiment something
217
709335
3060
12:04
that we oughtdevrait to payPayer attentionattention to.
218
712419
1872
à laquelle nous devons prêter attention.
12:06
And we can have richerplus riche experiencesexpériences
from our technologyLa technologie.
219
714800
3335
Nous pouvons ainsi avoir de meilleures
expériences avec la technologie.
Toute technologie peut être utilisée
à bon ou mauvais escient.
12:10
Any technologyLa technologie
can be used for good or badmal.
220
718887
2357
12:13
TransparencyTransparence to engagementengagement
and effectiveefficace regulationrèglement
221
721268
2412
La transparence dans l'engagement
et la réglementation efficace
12:15
are absolutelyabsolument criticalcritique
to buildingbâtiment the trustconfiance for any of this.
222
723704
3120
sont absolument essentielles pour
bâtir la confiance nécessaire à tout cela.
12:20
But the benefitsavantages that "empatheticempathique
technologyLa technologie" can bringapporter to our livesvies
223
728106
4834
Par contre, les bénéfices de la
« technologie empathique » pour nos vies
vaut la peine qu'on cherche à résoudre
les problèmes qui nous incommodent.
12:24
are worthvaut solvingrésoudre the problemsproblèmes
that make us uncomfortableinconfortable.
224
732964
3891
12:29
And if we don't, there are
too manybeaucoup opportunitiesopportunités and feelingssentiments
225
737315
4025
Si nous ne le faisons pas, il y a trop
d'opportunités et d'émotions
à côté desquelles nous passerons.
12:33
we're going to be missingmanquant out on.
226
741364
1695
12:35
Thank you.
227
743083
1175
Merci.
(Applaudissements)
12:36
(ApplauseApplaudissements)
228
744282
2479
Translated by Natalie Thibault
Reviewed by eric vautier

▲Back to top

ABOUT THE SPEAKER
Poppy Crum - Neuroscientist, technologist
Poppy Crum builds technologies that best leverage human physiology to enhance our experiences and how we interact with the world.

Why you should listen

Poppy Crum is dedicated to the development of immersive technologies that leverage human physiology and perceptual realities to enhance our experiences and interactions in the world. She has advanced a mission to democratize the way people of all abilities benefit from sensory technologies -- and how effectively technology communicates back to each of us. She believes the power of intelligent technologies is only realized with dynamic optimization and learning of as much of our personal and contextual data as possible.

Crum is chief scientist at Dolby Laboratories, leading the company's integration of neuroscience and sensory data science into its entertainment, communication and future technologies. She is also adjunct professor at Stanford University, where her work focuses on the impact and feedback potential of gaming and immersive environments, such as augmented and virtual reality, on neuroplasticity and learning. She has been recognized with the Advanced Imaging Society's Distinguished Leadership Award and the Consumer Technology Association's Technology and Standards Achievement Award for work towards the introduction of affordable, over-the-counter hearing-aid devices, and she is a fellow of the Audio Engineering Society. She has also been named to Billboard Magazine's 100 most influential female executives in the music industry. Prior to joining Dolby Laboratories, Crum was Research Faculty in the Department of Biomedical Engineering at Johns Hopkins School of Medicine.

More profile about the speaker
Poppy Crum | Speaker | TED.com