ABOUT THE SPEAKER
Tristan Harris - Design thinker
Tristan Harris helps the technology industry more consciously and ethically shape the human spirit and human potential.

Why you should listen

Tristan Harris has been called "the closest thing Silicon Valley has to a conscience" by The Atlantic magazine. Prior to founding the new Center for Humane Technology, he was Google's Design Ethicist, developing a framework for how technology should "ethically" steer the thoughts and actions of billions of people from screens.  

Harris has spent a decade understanding the invisible influences that hijack human thinking and action. Drawing on literature from addiction, performative magic, social engineering, persuasive design and behavioral economics, he is currently developing a framework for ethical persuasion, especially as it relates to the moral responsibility of technology companies.

Rolling Stone magazine named Harris one of "25 People Shaping the World" in 2017. His work has been featured on TED, "60 Minutes," HBO's "RealTime with Bill Maher," "PBS NewsHour," Recode, The Atlantic, WIRED, the New York Times, Der Spiegel, The Economist and many more. Harris has briefed heads of state, technology company CEOs and members of the US Congress about the attention economy.

More profile about the speaker
Tristan Harris | Speaker | TED.com
TED2017

Tristan Harris: How a handful of tech companies control billions of minds every day

Tristan Harris: Les ruses manipulatrices que les entreprises de technologie utilisent pour obtenir votre attention

Filmed:
2,591,029 views

Quelques personnes travaillant dans quelques entreprises de technologie dirigent les pensées de milliards de personnes chaque jour, d'après le penseur en conception Tristan Harris. Des notifications Facebook aux Snapstreaks en passant par la lecture automatique de YouTube, elles sont en compétition pour une chose : votre attention. Harris partage comment ces entreprises jouent de notre psychologie pour leur propre profit et appelle à un renouvellement de la conception au cours duquel notre technologie nous encouragerait plutôt à vivre à notre propre rythme et selon le programme que nous voulons.
- Design thinker
Tristan Harris helps the technology industry more consciously and ethically shape the human spirit and human potential. Full bio

Double-click the English transcript below to play the video.

00:12
I want you to imagineimaginer
0
960
1200
Imaginez
00:15
walkingen marchant into a roomchambre,
1
3000
1200
entrer dans une salle,
00:17
a controlcontrôle roomchambre with a bunchbouquet of people,
2
5480
2136
une salle de contrôle avec des personnes,
00:19
a hundredcent people, hunchedvoûté
over a deskbureau with little dialscadrans,
3
7640
2840
une centaine de personnes
autour d'un bureau avec des boutons
00:23
and that that controlcontrôle roomchambre
4
11280
1520
et que cette salle de contrôle
00:25
will shapeforme the thoughtspensées and feelingssentiments
5
13680
3696
façonnera les pensées et émotions
00:29
of a billionmilliard people.
6
17400
1240
d'un milliard de personnes.
00:32
This mightpourrait sounddu son like sciencescience fictionfiction,
7
20560
1880
Cela semble être de la science-fiction
00:35
but this actuallyréellement existsexiste
8
23320
2216
mais cela existe
00:37
right now, todayaujourd'hui.
9
25560
1200
actuellement, aujourd'hui.
00:40
I know because I used to be
in one of those controlcontrôle roomspièces.
10
28040
3360
Je le sais car j'étais
dans une de ces salles de contrôle.
00:44
I was a designconception ethicistéthicien at GoogleGoogle,
11
32159
2297
J'étais déontologue
en conception chez Google,
00:46
where I studiedétudié how do you ethicallysur le plan éthique
steerSteer people'sles gens thoughtspensées?
12
34480
3360
où j'ai étudié comment orienter
les pensées des gens de façon éthique.
00:50
Because what we don't talk about
is how the handfulpoignée of people
13
38560
2896
Nous ne parlons pas de comment
les quelques personnes
00:53
workingtravail at a handfulpoignée
of technologyLa technologie companiesentreprises
14
41480
2536
travaillant dans les quelques
entreprises en technologie
00:56
throughpar theirleur choicesles choix will steerSteer
what a billionmilliard people are thinkingen pensant todayaujourd'hui.
15
44040
5040
orienteront, à travers leurs choix,
les pensées d'un milliard de personnes.
01:02
Because when you pulltirer out your phonetéléphone
16
50400
1736
Quand vous sortez votre téléphone
01:04
and they designconception how this workstravaux
or what's on the feedalimentation,
17
52160
3096
et qu'ils conçoivent son fonctionnement
et le fil d'actualités,
01:07
it's schedulingordonnancement little blocksblocs
of time in our mindsesprits.
18
55280
3216
cela organise de petits blocs
de temps dans notre esprit.
01:10
If you see a notificationnotification,
it scheduleshoraires you to have thoughtspensées
19
58520
3136
Si vous voyez une notification,
cela vous programme des pensées
01:13
that maybe you didn't intendintention to have.
20
61680
2040
que vous n'aviez peut-être pas prévues.
01:16
If you swipepar balayage over that notificationnotification,
21
64400
2616
Si vous cliquez sur cette notification,
01:19
it scheduleshoraires you into spendingdépenses
a little bitbit of time
22
67040
2381
cela vous programme
à passer un peu de temps
01:21
gettingobtenir suckedaspiré into something
23
69445
1381
à être aspiré par quelque chose
01:22
that maybe you didn't intendintention
to get suckedaspiré into.
24
70850
2955
que vous n'aviez pas prévu.
01:27
When we talk about technologyLa technologie,
25
75320
1520
En parlant de technologie,
01:30
we tendtendre to talk about it
as this bluebleu skyciel opportunityopportunité.
26
78040
2696
nous en parlons comme
d'une opportunité ouverte
01:32
It could go any directiondirection.
27
80760
1480
pouvant aller n'importe où.
01:35
And I want to get serioussérieux for a momentmoment
28
83400
1856
Je vais être sérieux un instant
01:37
and tell you why it's going
in a very specificspécifique directiondirection.
29
85280
2680
et vous dire pourquoi cela va
dans une direction spécifique.
01:40
Because it's not evolvingévoluant randomlyau hasard.
30
88840
2200
Cela n'évolue pas aléatoirement.
01:44
There's a hiddencaché goalobjectif
drivingau volant the directiondirection
31
92000
2016
Il y a un but caché donnant la direction
01:46
of all of the technologyLa technologie we make,
32
94040
2136
de toutes les technologies créées
01:48
and that goalobjectif is the racecourse
for our attentionattention.
33
96200
2920
et ce but est la course
pour notre attention.
01:52
Because everychaque newNouveau sitesite --
34
100840
2736
Tout nouveau site --
01:55
TEDTED, electionsélections, politiciansLes politiciens,
35
103600
2736
TED, les élections, les politiques,
01:58
gamesJeux, even meditationméditation appsapplications --
36
106360
1976
les jeux, même les applis de méditation --
02:00
have to competerivaliser for one thing,
37
108360
1960
doivent se battre pour une chose :
02:03
whichlequel is our attentionattention,
38
111160
1736
notre attention,
02:04
and there's only so much of it.
39
112920
1600
et elle est limitée.
02:08
And the bestmeilleur way to get people'sles gens attentionattention
40
116440
2416
La meilleure façon
d'obtenir l'attention des gens
02:10
is to know how someone'squelques uns mindesprit workstravaux.
41
118880
2440
est de connaître
le fonctionnement de leur cerveau.
02:13
And there's a wholeentier bunchbouquet
of persuasivepersuasive techniquestechniques
42
121800
2336
Il y a des techniques de persuasion
02:16
that I learnedappris in collegeUniversité at a lablaboratoire
calledappelé the PersuasivePersuasive TechnologyTechnologie LabLab
43
124160
3496
que j'ai apprises dans un labo,
le Labo de la Technologie Persuasive,
02:19
to get people'sles gens attentionattention.
44
127680
1600
afin d'obtenir l'attention des gens.
02:21
A simplesimple exampleExemple is YouTubeYouTube.
45
129880
1480
Un exemple simple est YouTube.
02:24
YouTubeYouTube wants to maximizemaximiser
how much time you spenddépenser.
46
132000
2936
YouTube veut maximiser
le temps que vous y passez.
02:26
And so what do they do?
47
134960
1200
Que font-ils ?
02:28
They autoplaylecture automatique the nextprochain videovidéo.
48
136840
2280
Ils lancent automatiquement
la vidéo suivante.
02:31
And let's say that workstravaux really well.
49
139760
1816
Disons que cela fonctionne très bien.
02:33
They're gettingobtenir a little bitbit
more of people'sles gens time.
50
141600
2416
Ils obtiennent un peu plus
du temps des gens.
02:36
Well, if you're NetflixNetflix,
you look at that and say,
51
144040
2376
Si vous êtes Netflix,
vous voyez cela et pensez
02:38
well, that's shrinkingcontraction my marketmarché sharepartager,
52
146440
1858
que cela réduit votre part de marché,
02:40
so I'm going to autoplaylecture automatique the nextprochain episodeépisode.
53
148322
2000
alors vous lancez automatiquement
l'épisode suivant.
02:43
But then if you're FacebookFacebook,
54
151320
1376
Mais si vous êtes Facebook,
02:44
you say, that's shrinkingcontraction
all of my marketmarché sharepartager,
55
152720
2336
vous pensez que cela réduit
votre part de marché,
02:47
so now I have to autoplaylecture automatique
all the videosvidéos in the newsfeedfil d’actualité
56
155080
2656
alors vous lancez automatiquement
toutes les vidéos
02:49
before waitingattendre for you to clickCliquez playjouer.
57
157760
1762
au lieu d'attendre que l'on clique.
02:52
So the internetl'Internet is not evolvingévoluant at randomau hasard.
58
160320
3160
Internet n'évolue pas aléatoirement.
02:56
The reasonraison it feelsse sent
like it's suckingsucer us in the way it is
59
164320
4416
La raison pour laquelle on a l'impression
qu'il nous aspire ainsi
03:00
is because of this racecourse for attentionattention.
60
168760
2376
est à cause de cette course à l'attention.
03:03
We know where this is going.
61
171160
1416
Nous savons où cela va.
03:04
TechnologyTechnologie is not neutralneutre,
62
172600
1520
La technologie n'est pas neutre
03:07
and it becomesdevient this racecourse
to the bottombas of the braincerveau stemtige
63
175320
3416
et cela devient cette course
à la base du tronc cérébral
03:10
of who can go lowerinférieur to get it.
64
178760
2200
de qui s'abaissera le plus pour l'obtenir.
03:13
Let me give you an exampleExemple of SnapchatSnapchat.
65
181920
2336
Laissez-moi vous présenter
un exemple de Snapchat.
03:16
If you didn't know,
SnapchatSnapchat is the numbernombre one way
66
184280
3696
Si vous l'ignorez, Snapchat
est le moyen de communication principal
03:20
that teenagersadolescents in
the UnitedUnie StatesÉtats communicatecommuniquer.
67
188000
2256
des adolescents aux Etats-Unis.
03:22
So if you're like me, and you use
texttexte messagesmessages to communicatecommuniquer,
68
190280
4176
Si vous êtes comme moi et utilisez
les SMS pour communiquer,
03:26
SnapchatSnapchat is that for teenagersadolescents,
69
194480
1776
Snapchat est l'équivalent pour ados
03:28
and there's, like,
a hundredcent millionmillion of them that use it.
70
196280
2696
et un million d'entre eux l'utilisent.
03:31
And they inventeda inventé
a featurefonctionnalité calledappelé SnapstreaksSnapstreaks,
71
199000
2216
Ils ont inventé
une fonctionnalité, Snapstreak,
03:33
whichlequel showsmontre the numbernombre of daysjournées in a rowrangée
72
201240
1896
qui montre le nombre de jours d'affilée
03:35
that two people have
communicatedcommuniqué with eachchaque other.
73
203160
2616
où deux personnes
ont communiqué l'une avec l'autre.
03:37
In other wordsmots, what they just did
74
205800
1856
En d'autres mots, ce qu'ils ont fait
03:39
is they gavea donné two people
something they don't want to loseperdre.
75
207680
2960
c'est donner à deux personnes
une chose à ne pas perdre.
03:44
Because if you're a teenageradolescent,
and you have 150 daysjournées in a rowrangée,
76
212000
3456
Si vous êtes un adolescent
et avez 150 jours d'affilée,
03:47
you don't want that to go away.
77
215480
1976
vous ne voulez pas les perdre.
03:49
And so think of the little blocksblocs of time
that that scheduleshoraires in kids'Kids' mindsesprits.
78
217480
4160
Pensez aux petits blocs de temps
prévus dans l'esprit des enfants.
03:54
This isn't theoreticalthéorique:
when kidsdes gamins go on vacationvacances,
79
222160
2336
Ce n'est pas théorique : en vacances,
03:56
it's been shownmontré they give theirleur passwordsMots de passe
to up to fivecinq other friendscopains
80
224520
3256
ils donnent leur mot de passe
à des amis, jusqu'à cinq d'entre eux,
03:59
to keep theirleur SnapstreaksSnapstreaks going,
81
227800
2216
pour préserver leurs Snapstreaks,
04:02
even when they can't do it.
82
230040
2016
même s'ils ne le peuvent pas.
04:04
And they have, like, 30 of these things,
83
232080
1936
Et ils en ont une trentaine,
04:06
and so they have to get throughpar
takingprise photosPhotos of just picturesdes photos or wallsdes murs
84
234040
3376
ils doivent donc prendre des photos
de photos ou de murs
04:09
or ceilingsplafonds just to get throughpar theirleur day.
85
237440
2480
ou de plafonds pour passer la journée.
04:13
So it's not even like
they're havingayant realréal conversationsconversations.
86
241200
2696
Ils n'ont même pas
de réelles conversations.
04:15
We have a temptationtentation to think about this
87
243920
1936
Nous avons la tentation de dire
04:17
as, oh, they're just usingen utilisant SnapchatSnapchat
88
245880
2696
qu'ils utilisent Snapchat
04:20
the way we used to
gossippotins on the telephoneTéléphone.
89
248600
2016
comme nous utilisions le téléphone.
04:22
It's probablyProbablement OK.
90
250640
1200
C'est probablement normal.
04:24
Well, what this missesmanque
is that in the 1970s,
91
252480
2256
Ce que nous oublions
c'est que dans les années 70,
04:26
when you were just
gossipingcommérages on the telephoneTéléphone,
92
254760
2615
quand vous papotiez au téléphone,
04:29
there wasn'tn'était pas a hundredcent engineersingénieurs
on the other sidecôté of the screenécran
93
257399
3017
il n'y avait pas 100 ingénieurs
de l'autre côté de l'écran
04:32
who knewa connu exactlyexactement
how your psychologypsychologie workedtravaillé
94
260440
2056
connaissant exactement votre psychologie
04:34
and orchestratedorchestrée you
into a doubledouble bindlier with eachchaque other.
95
262520
2640
et orchestrant de vous confiner
ensemble à une contrainte.
04:38
Now, if this is makingfabrication you
feel a little bitbit of outrageoutrage,
96
266440
3400
Si cela vous scandalise un peu,
04:42
noticeremarquer that that thought
just comesvient over you.
97
270680
2576
remarquez que cette pensée vous envahit.
04:45
OutrageIndignation is a really good way alsoaussi
of gettingobtenir your attentionattention,
98
273280
3320
L'indignation est une très bonne façon
d'obtenir votre attention
04:49
because we don't choosechoisir outrageoutrage.
99
277880
1576
car on ne choisit pas de s'indigner.
04:51
It happensarrive to us.
100
279480
1416
Cela nous arrive.
04:52
And if you're the FacebookFacebook newsfeedfil d’actualité,
101
280920
1856
Le fil d'actualités de Facebook,
04:54
whetherqu'il s'agisse you'dtu aurais want to or not,
102
282800
1416
qu'il le veuille ou non,
04:56
you actuallyréellement benefitavantage when there's outrageoutrage.
103
284240
2736
tire profit de l'indignation.
04:59
Because outrageoutrage
doesn't just scheduleprogramme a reactionréaction
104
287000
2936
Car l'indignation ne prévoit pas
simplement une réaction
05:01
in emotionalémotif time, spaceespace, for you.
105
289960
2880
à un moment et dans un espace
émotionnels pour vous.
05:05
We want to sharepartager that outrageoutrage
with other people.
106
293440
2416
Nous voulons partager
cette indignation avec d'autres.
05:07
So we want to hitfrappé sharepartager and say,
107
295880
1576
Nous voulons partager et dire :
05:09
"Can you believe the thing
that they said?"
108
297480
2040
« Tu crois à ce qu'ils ont dit ? »
05:12
And so outrageoutrage workstravaux really well
at gettingobtenir attentionattention,
109
300520
3376
L'indignation fonctionne très bien
pour attirer l'attention,
05:15
suchtel that if FacebookFacebook had a choicechoix
betweenentre showingmontrer you the outrageoutrage feedalimentation
110
303920
3896
si bien que si Facebook devait choisir
entre un fil d'actualités scandaleuses
05:19
and a calmcalme newsfeedfil d’actualité,
111
307840
1320
et un fil d'actualités calmes,
05:22
they would want
to showmontrer you the outrageoutrage feedalimentation,
112
310120
2136
ils choisiraient
les actualités scandaleuses
05:24
not because someoneQuelqu'un
consciouslyconsciemment chosechoisi that,
113
312280
2056
non pas consciemment
05:26
but because that workedtravaillé better
at gettingobtenir your attentionattention.
114
314360
2680
mais parce que cela
attire plus votre attention.
05:31
And the newsfeedfil d’actualité controlcontrôle roomchambre
is not accountableresponsable to us.
115
319120
5480
La salle de contrôle du fil d'actualités
n'a pas de comptes à nous rendre.
05:37
It's only accountableresponsable
to maximizingmaximisation de attentionattention.
116
325040
2296
Elle doit simplement
maximiser l'attention.
05:39
It's alsoaussi accountableresponsable,
117
327360
1216
Elle est aussi responsable,
05:40
because of the businessEntreprise modelmaquette
of advertisingLa publicité,
118
328600
2376
à cause du modèle de publicité,
05:43
for anybodyn'importe qui who can payPayer the mostles plus
to actuallyréellement walkmarche into the controlcontrôle roomchambre
119
331000
3336
envers quiconque payant le plus
et entrant dans la salle de contrôle
05:46
and say, "That groupgroupe over there,
120
334360
1576
en disant : « Ce groupe-là,
05:47
I want to scheduleprogramme these thoughtspensées
into theirleur mindsesprits."
121
335960
2640
je veux établir ces pensées
dans leur esprit. »
05:51
So you can targetcible,
122
339760
1200
Vous pouvez cibler,
05:54
you can preciselyprécisément targetcible a liemensonge
123
342040
1936
vous pouvez cibler précisément un mensonge
05:56
directlydirectement to the people
who are mostles plus susceptiblesensible.
124
344000
2920
directement vers les gens
les plus susceptibles.
06:00
And because this is profitablerentable,
it's only going to get worsepire.
125
348080
2880
Puisque c'est rentable,
cela ne va qu'empirer.
06:05
So I'm here todayaujourd'hui
126
353040
1800
Je suis ici aujourd'hui
06:08
because the costsfrais are so obviousévident.
127
356160
2000
car les coûts sont évidents.
06:12
I don't know a more urgenturgent
problemproblème than this,
128
360280
2136
Je ne connais aucun problème plus urgent
06:14
because this problemproblème
is underneathsous all other problemsproblèmes.
129
362440
3120
car ce problème est sous-jacent
à tous les autres problèmes.
06:18
It's not just takingprise away our agencyagence
130
366720
3176
Non seulement il compromet nos efforts
06:21
to spenddépenser our attentionattention
and livevivre the livesvies that we want,
131
369920
2600
pour concentrer notre attention,
vivre notre vie désirée,
06:25
it's changingen changeant the way
that we have our conversationsconversations,
132
373720
3536
il change aussi la façon
dont nous tenons nos conversations,
06:29
it's changingen changeant our democracyla démocratie,
133
377280
1736
il change notre démocratie
06:31
and it's changingen changeant our abilitycapacité
to have the conversationsconversations
134
379040
2616
et il change notre capacité
à avoir ces conversations
06:33
and relationshipsdes relations we want with eachchaque other.
135
381680
2000
et ces relations que nous voulons avoir.
06:37
And it affectsaffecte everyonetoutes les personnes,
136
385160
1776
Il affecte tout le monde
06:38
because a billionmilliard people
have one of these in theirleur pocketpoche.
137
386960
3360
car un milliard de personnes
ont ceci dans leur poche.
06:45
So how do we fixréparer this?
138
393360
1400
Comment arranger cela ?
06:49
We need to make threeTrois radicalradical changeschangements
139
397080
2936
Nous devons effectuer
trois changements radicaux
06:52
to technologyLa technologie and to our societysociété.
140
400040
1800
en termes de technologie et de société.
06:55
The first is we need to acknowledgereconnaître
that we are persuadablecindy.
141
403720
3800
Premièrement, nous devons reconnaître
que nous sommes influençables.
07:00
OnceFois you startdébut understandingcompréhension
142
408840
1376
Une fois que nous comprenons
07:02
that your mindesprit can be scheduledà la demande
into havingayant little thoughtspensées
143
410240
2776
que l'on peut programmer
des petites pensées
07:05
or little blocksblocs of time
that you didn't choosechoisir,
144
413040
2576
ou des blocs de temps non désirés
dans notre esprit,
07:07
wouldn'tne serait pas we want to use that understandingcompréhension
145
415640
2056
n'utiliserions-nous pas cette connaissance
07:09
and protectprotéger againstcontre the way
that that happensarrive?
146
417720
2160
et ne nous protégerions-nous pas ?
07:12
I think we need to see ourselvesnous-mêmes
fundamentallyfondamentalement in a newNouveau way.
147
420600
3296
Nous devons avoir une vision
fondamentalement nouvelle de nous-mêmes.
07:15
It's almostpresque like a newNouveau periodpériode
of humanHumain historyhistoire,
148
423920
2216
Comme une nouvelle période de l'histoire,
comme le Siècle des Lumières
07:18
like the EnlightenmentSiècle des lumières,
149
426160
1216
07:19
but almostpresque a kindgentil of
self-awareconscient de soi EnlightenmentSiècle des lumières,
150
427400
2216
et aussi comme une prise
de conscience de soi,
07:21
that we can be persuadedpersuadé,
151
429640
2080
nous sommes influençables
07:24
and there mightpourrait be something
we want to protectprotéger.
152
432320
2240
et il y a peut-être
quelque chose à protéger.
07:27
The secondseconde is we need newNouveau modelsdes modèles
and accountabilityresponsabilité systemssystèmes
153
435400
4576
Deuxièmement, il nous faut
de nouveaux modèles
et systèmes de responsabilisation
pour que, alors que le monde s'améliore,
devient de plus en plus persuasif --
07:32
so that as the worldmonde getsobtient better
and more and more persuasivepersuasive over time --
154
440000
3496
07:35
because it's only going
to get more persuasivepersuasive --
155
443520
2336
il ne peut que devenir
de plus en plus persuasif --
07:37
that the people in those controlcontrôle roomspièces
156
445880
1856
les gens dans ces salles de contrôle
07:39
are accountableresponsable and transparenttransparent
to what we want.
157
447760
2456
soient responsables,
transparents quant à nos désirs.
07:42
The only formforme of ethicaléthique
persuasionpersuasion that existsexiste
158
450240
2696
La seule forme de persuasion
éthique qui existe
c'est si les objectifs
de celui qui persuade
07:44
is when the goalsbuts of the persuaderpersuader
159
452960
1936
07:46
are alignedaligné with the goalsbuts
of the persuadeepersuadee.
160
454920
2200
sont alignés avec ceux
de celui qui est persuadé.
07:49
And that involvesimplique questioninginterrogatoire biggros things,
like the businessEntreprise modelmaquette of advertisingLa publicité.
161
457640
3840
Il faut remettre en question des choses
comme le modèle commercial
de la publicité.
07:54
LastlyEnfin,
162
462720
1576
Finalement,
07:56
we need a designconception renaissanceRenaissance,
163
464320
1680
il faut un renouvellement de la conception
07:59
because onceune fois que you have
this viewvue of humanHumain naturela nature,
164
467080
3056
car une fois que vous avez
cette vision de la nature humaine,
08:02
that you can steerSteer the timelinescalendrier
of a billionmilliard people --
165
470160
2976
vous pouvez contrôler les calendriers
d'un milliard de personnes.
08:05
just imagineimaginer, there's people
who have some desireenvie
166
473160
2736
Imaginez, il y a des gens
qui ont des désirs
08:07
about what they want to do
and what they want to be thinkingen pensant
167
475920
2856
quant à ce qu'ils veulent faire
et ce qu'ils veulent penser
08:10
and what they want to be feelingsentiment
and how they want to be informedinformé,
168
478800
3136
et ce qu'ils veulent ressentir
et comment ils veulent être informés
08:13
and we're all just tuggedtira
into these other directionsdirections.
169
481960
2536
et ils sont traînés
dans d'autres directions.
08:16
And you have a billionmilliard people just tuggedtira
into all these differentdifférent directionsdirections.
170
484520
3696
Un milliard de personnes sont traînées
dans d'autres directions.
08:20
Well, imagineimaginer an entiretout designconception renaissanceRenaissance
171
488240
2056
Imaginez une renaissance de la conception
08:22
that trieda essayé to orchestrateorchestrer
the exactexact and mostles plus empoweringautonomiser
172
490320
3096
qui essayait d'orchestrer
la façon exacte
08:25
time-well-spenttemps-puits-passé way
for those timelinescalendrier to happense produire.
173
493440
3136
et la plus stimulante
de bien passer son temps.
08:28
And that would involveimpliquer two things:
174
496600
1656
Cela impliquerait deux choses :
08:30
one would be protectingprotéger
againstcontre the timelinescalendrier
175
498280
2136
nous protéger de ces calendriers
08:32
that we don't want to be experiencingéprouver,
176
500440
1856
selon lesquels nous ne voulons pas vivre,
08:34
the thoughtspensées that we
wouldn'tne serait pas want to be happeningévénement,
177
502320
2416
ces pensées que nous ne voulons pas avoir
08:36
so that when that dingDing happensarrive,
not havingayant the dingDing that sendsenvoie us away;
178
504760
3336
pour que lorsque la sonnerie retentit,
cela ne nous accapare pas ;
08:40
and the secondseconde would be empoweringautonomiser us
to livevivre out the timelinechronologie that we want.
179
508120
3616
deuxièmement, nous pousser à vivre
à notre propre rythme.
08:43
So let me give you a concretebéton exampleExemple.
180
511760
1880
Voici un exemple concret.
08:46
TodayAujourd'hui, let's say your friendami
cancelsannule dinnerdîner on you,
181
514280
2456
Aujourd'hui, votre ami
annule votre dîner ensemble
08:48
and you are feelingsentiment a little bitbit lonelysolitaire.
182
516760
3775
et vous vous sentez un peu seul.
08:52
And so what do you do in that momentmoment?
183
520559
1817
Que faites-vous ?
08:54
You openouvrir up FacebookFacebook.
184
522400
1279
Vous ouvrez Facebook.
08:56
And in that momentmoment,
185
524960
1696
A ce moment-là,
08:58
the designersconcepteurs in the controlcontrôle roomchambre
want to scheduleprogramme exactlyexactement one thing,
186
526680
3376
les concepteurs dans la salle de contrôle
veulent une chose :
09:02
whichlequel is to maximizemaximiser how much time
you spenddépenser on the screenécran.
187
530080
3040
maximiser le temps
passé devant votre écran.
09:06
Now, insteadau lieu, imagineimaginer if those designersconcepteurs
createdcréé a differentdifférent timelinechronologie
188
534640
3896
Imaginez plutôt si ces concepteurs
avaient un autre objectif :
09:10
that was the easiestplus facile way,
usingen utilisant all of theirleur dataLes données,
189
538560
3496
la façon la plus simple,
grâce à toutes leurs données,
09:14
to actuallyréellement help you get out
with the people that you carese soucier about?
190
542080
3096
de vous aider à sortir
avec les gens que vous aimez.
09:17
Just think, alleviatingsoulager
all lonelinesssolitude in societysociété,
191
545200
5416
Pensez-y, alléger la solitude
dans notre société,
09:22
if that was the timelinechronologie that FacebookFacebook
wanted to make possiblepossible for people.
192
550640
3496
si c'était le programme que Facebook
voulait permettre aux gens.
09:26
Or imagineimaginer a differentdifférent conversationconversation.
193
554160
1715
Ou imaginez une autre conversation.
09:27
Let's say you wanted to postposter
something supercontroversialsupercontroversial on FacebookFacebook,
194
555899
3317
Disons que vous vouliez poster
quelque chose de controversé sur Facebook,
09:31
whichlequel is a really importantimportant
thing to be ablecapable to do,
195
559240
2416
il est très important
de pouvoir faire cela,
09:33
to talk about controversialcontroversé topicsles sujets.
196
561680
1696
parler de sujets controversés.
09:35
And right now, when there's
that biggros commentcommentaire boxboîte,
197
563400
2336
Actuellement, quand il y a
cet espace commentaire,
09:37
it's almostpresque askingdemandant you,
what keyclé do you want to typetype?
198
565760
3376
il vous incite presque à écrire.
09:41
In other wordsmots, it's schedulingordonnancement
a little timelinechronologie of things
199
569160
2816
En d'autres mots, cela prévoit
un petit programme de choses
09:44
you're going to continuecontinuer
to do on the screenécran.
200
572000
2136
que vous allez
continuer à faire sur l'écran.
09:46
And imagineimaginer insteadau lieu that there was
anotherun autre buttonbouton there sayingen disant,
201
574160
2976
Imaginez plutôt qu'il y ait
un autre bouton demandant :
09:49
what would be mostles plus
time well spentdépensé for you?
202
577160
2056
« Comment utiliser
au mieux votre temps ? »
09:51
And you clickCliquez "hosthôte a dinnerdîner."
203
579240
1576
« Organiser un dîner »
09:52
And right there
underneathsous the itemarticle it said,
204
580840
2096
Juste en dessous, cela dit :
09:54
"Who wants to RSVPRSVP for the dinnerdîner?"
205
582960
1696
« Qui veut réserver pour le dîner ? »
09:56
And so you'dtu aurais still have a conversationconversation
about something controversialcontroversé,
206
584680
3256
Vous auriez toujours une conversation
sur un sujet controversé,
09:59
but you'dtu aurais be havingayant it in the mostles plus
empoweringautonomiser placeendroit on your timelinechronologie,
207
587960
3736
mais vous l'auriez à l'endroit
le plus stimulant :
10:03
whichlequel would be at home that night
with a bunchbouquet of a friendscopains over
208
591720
3016
chez vous, ce soir-là,
avec des amis, pour en discuter.
10:06
to talk about it.
209
594760
1200
10:09
So imagineimaginer we're runningfonctionnement, like,
a find and replaceremplacer
210
597000
3160
Imaginez que nous faisions
un « chercher et remplacer »
10:13
on all of the timelinescalendrier
that are currentlyactuellement steeringpilotage us
211
601000
2576
sur tous les programmes
qui nous traînent actuellement
10:15
towardsvers more and more
screenécran time persuasivelypersuasive
212
603600
2560
vers de plus en plus
de temps devant l'écran
10:19
and replacingremplacer all of those timelinescalendrier
213
607080
2536
et que nous remplacions ces programmes
10:21
with what do we want in our livesvies.
214
609640
1640
par ce que nous voulons
faire de notre vie.
10:26
It doesn't have to be this way.
215
614960
1480
Cela n'a pas à être ainsi.
10:30
InsteadAu lieu de cela of handicappinghandicapant our attentionattention,
216
618360
2256
Au lieu d'handicaper notre attention,
imaginez si nous utilisions
toutes ces données, tout ce pouvoir,
10:32
imagineimaginer if we used all of this dataLes données
and all of this powerPuissance
217
620640
2816
10:35
and this newNouveau viewvue of humanHumain naturela nature
218
623480
1616
cette nouvelle vision de l'Homme
10:37
to give us a superhumansurhumaine abilitycapacité to focusconcentrer
219
625120
2856
pour nous donner une capacité
de concentration surhumaine,
10:40
and a superhumansurhumaine abilitycapacité to put
our attentionattention to what we caredsoigné about
220
628000
4136
une capacité surhumaine
à prêter attention à ce qui nous importe,
10:44
and a superhumansurhumaine abilitycapacité
to have the conversationsconversations
221
632160
2616
une capacité surhumaine
à avoir les conversations
10:46
that we need to have for democracyla démocratie.
222
634800
2000
que nous devons avoir pour la démocratie.
10:51
The mostles plus complexcomplexe challengesdéfis in the worldmonde
223
639600
2680
Les défis les plus complexes au monde
10:56
requireexiger not just us
to use our attentionattention individuallyindividuellement.
224
644280
3120
ne nécessitent pas seulement
notre attention individuelle.
11:00
They requireexiger us to use our attentionattention
and coordinatecoordonner it togetherensemble.
225
648440
3320
Ils nécessitent notre attention
et une coordination collectives.
11:04
ClimateClimatique changechangement is going to requireexiger
that a lot of people
226
652440
2816
Le changement climatique
va nécessiter que beaucoup de gens
11:07
are beingétant ablecapable
to coordinatecoordonner theirleur attentionattention
227
655280
2096
puissent coordonner leur attention
11:09
in the mostles plus empoweringautonomiser way togetherensemble.
228
657400
1896
de la façon la plus stimulante, ensemble.
11:11
And imagineimaginer creatingcréer
a superhumansurhumaine abilitycapacité to do that.
229
659320
3080
Imaginez créer une capacité
surhumaine pour faire cela.
11:19
SometimesParfois the world'smonde
mostles plus pressingpressage and importantimportant problemsproblèmes
230
667000
4160
Parfois, les problèmes
les plus importants et urgents du monde
11:24
are not these hypotheticalhypothétique futureavenir things
that we could createcréer in the futureavenir.
231
672040
3840
ne sont pas ces choses hypothétiques
que nous pourrions créer à l'avenir.
11:28
SometimesParfois the mostles plus pressingpressage problemsproblèmes
232
676560
1736
Parfois, les problèmes les plus urgents
11:30
are the onesceux that are
right underneathsous our nosesnez,
233
678320
2336
sont ceux juste sous notre nez,
11:32
the things that are alreadydéjà directingmise en scène
a billionmilliard people'sles gens thoughtspensées.
234
680680
3120
les choses qui dirigent déjà
les pensées d'un milliard de personnes.
11:36
And maybe insteadau lieu of gettingobtenir excitedexcité
about the newNouveau augmentedaugmenté realityréalité
235
684600
3376
Peut-être qu'au lieu d'être enthousiastes
pour la réalité augmentée
11:40
and virtualvirtuel realityréalité
and these coolcool things that could happense produire,
236
688000
3296
et la réalité virtuelle
et ces choses cool pouvant arriver
11:43
whichlequel are going to be susceptiblesensible
to the sameMême racecourse for attentionattention,
237
691320
3296
qui vont être sujettes
à la même course à l'attention,
si nous pouvions orienter
la course à l'attention
11:46
if we could fixréparer the racecourse for attentionattention
238
694640
2176
11:48
on the thing that's alreadydéjà
in a billionmilliard people'sles gens pocketsles poches.
239
696840
2720
ce qui est déjà dans les poches
d'un milliard de personnes.
11:52
Maybe insteadau lieu of gettingobtenir excitedexcité
240
700040
1576
Au lieu d'être enthousiastes
11:53
about the mostles plus excitingpassionnant
newNouveau coolcool fancyfantaisie educationéducation appsapplications,
241
701640
4176
pour les nouvelles applications éducatives
excitantes, cool et sophistiquées,
11:57
we could fixréparer the way
kids'Kids' mindsesprits are gettingobtenir manipulatedmanipulé
242
705840
2896
nous pourrions corriger comment
les enfants sont manipulés
12:00
into sendingenvoi emptyvide messagesmessages
back and forthavant.
243
708760
2480
et poussés à s'échanger
des messages vides.
12:04
(ApplauseApplaudissements)
244
712040
4296
(Applaudissements)
12:08
Maybe insteadau lieu of worryinginquiétant
245
716360
1256
Au lieu de s'inquiéter
12:09
about hypotheticalhypothétique futureavenir
runawayfuyez artificialartificiel intelligencesintelligences
246
717640
3776
d'hypothétiques et futures
intelligences artificielles folles
12:13
that are maximizingmaximisation de for one goalobjectif,
247
721440
1880
qui n'ont qu'un objectif,
12:16
we could solverésoudre the runawayfuyez
artificialartificiel intelligenceintelligence
248
724680
2656
nous pourrions réparer
l'intelligence artificielle folle
12:19
that alreadydéjà existsexiste right now,
249
727360
2056
qui existe actuellement
12:21
whichlequel are these newsfeedsflux RSS
maximizingmaximisation de for one thing.
250
729440
2920
et qui sont ces fils d'actualités
qui n'ont qu'un objectif.
12:26
It's almostpresque like insteadau lieu of runningfonctionnement away
to colonizecoloniser newNouveau planetsplanètes,
251
734080
3816
C'est presque comme si au lieu
d'aller coloniser d'autres planètes,
12:29
we could fixréparer the one
that we're alreadydéjà on.
252
737920
2056
nous pouvions réparer
celle sur laquelle nous sommes.
12:32
(ApplauseApplaudissements)
253
740000
4120
(Applaudissements)
12:40
SolvingRésoudre les this problemproblème
254
748040
1776
Résoudre ce problème
12:41
is criticalcritique infrastructureInfrastructure
for solvingrésoudre everychaque other problemproblème.
255
749840
3800
offrirait l'infrastructure essentielle
à la résolution de tous les autres.
12:46
There's nothing in your life
or in our collectivecollectif problemsproblèmes
256
754600
4016
Il n'y a rien dans notre vie
ou nos problèmes collectifs
12:50
that does not requireexiger our abilitycapacité
to put our attentionattention where we carese soucier about.
257
758640
3560
ne nécessitant pas notre capacité
à nous concentrer sur ce qui nous importe.
12:55
At the endfin of our livesvies,
258
763800
1240
A la fin de notre vie,
12:58
all we have is our attentionattention and our time.
259
766240
2640
il ne nous reste
que notre attention et notre temps.
13:01
What will be time well spentdépensé for oursles notres?
260
769800
1896
Comment bien utiliser notre temps ?
13:03
Thank you.
261
771720
1216
Merci.
13:04
(ApplauseApplaudissements)
262
772960
3120
(Applaudissements)
13:17
ChrisChris AndersonAnderson: TristanTristan, thank you.
Hey, stayrester up here a secseconde.
263
785760
2936
Chirs Anderson : Tristan, merci.
Restez ici un instant.
13:20
First of all, thank you.
264
788720
1336
Tout d'abord, merci.
13:22
I know we askeda demandé you to do this talk
on prettyjoli shortcourt noticeremarquer,
265
790080
2776
Cette présentation a été demandée
il y a peu de temps
13:24
and you've had quiteassez a stressfulstressant weekla semaine
266
792880
2216
et votre semaine a été stressante,
13:27
gettingobtenir this thing togetherensemble, so thank you.
267
795120
2440
travaillant à cela, alors merci.
13:30
Some people listeningécoute mightpourrait say,
what you complainse plaindre about is addictionAddiction,
268
798680
3976
Certains qui écoutent pourraient dire
que vous vous plaignez d'addiction
13:34
and all these people doing this stuffdes trucs,
for them it's actuallyréellement interestingintéressant.
269
802680
3496
et que pour les gens faisant cela,
c'est vraiment intéressant.
13:38
All these designconception decisionsles décisions
270
806200
1256
Les décisions de conception
13:39
have builtconstruit userutilisateur contentcontenu
that is fantasticallyfantastiquement interestingintéressant.
271
807480
3096
ont créé un contenu utilisation
incroyablement intéressant.
13:42
The world'smonde more interestingintéressant
than it ever has been.
272
810600
2416
Le monde est plus intéressant que jamais.
13:45
What's wrongfaux with that?
273
813040
1256
Qu'y a-t-il de mal à cela ?
13:46
TristanTristan HarrisHarris:
I think it's really interestingintéressant.
274
814320
2256
Tristan Harris :
Je pense que c'est intéressant.
13:48
One way to see this
is if you're just YouTubeYouTube, for exampleExemple,
275
816600
4016
Une façon de le voir est
si vous êtes YouTube, par exemple,
13:52
you want to always showmontrer
the more interestingintéressant nextprochain videovidéo.
276
820640
2656
vous voulez toujours montrer
la vidéo la plus intéressante.
13:55
You want to get better and better
at suggestingsuggérant that nextprochain videovidéo,
277
823320
3016
Vous voulez améliorer
la suggestion de la prochaine vidéo,
13:58
but even if you could proposeproposer
the perfectparfait nextprochain videovidéo
278
826360
2456
mais même si vous pouviez
proposer la vidéo parfaite
14:00
that everyonetoutes les personnes would want to watch,
279
828840
1656
que tout le monde voudrait voir,
14:02
it would just be better and better
at keepingen gardant you hookedaccroché on the screenécran.
280
830520
3336
vous n'améliorerez que votre capacité
à garder les gens devant l'écran.
14:05
So what's missingmanquant in that equationéquation
281
833880
1656
Ce qu'il manque dans l'équation
14:07
is figuringfigurer out what
our boundarieslimites would be.
282
835560
2136
est de trouver où sont les limites.
14:09
You would want YouTubeYouTube to know
something about, say, fallingchute asleependormi.
283
837720
3216
Il faudrait que YouTube
connaisse la notion de sommeil.
14:12
The CEOPRÉSIDENT-DIRECTEUR GÉNÉRAL of NetflixNetflix recentlyrécemment said,
284
840960
1616
Le PDG de Netflix a dit récemment :
14:14
"our biggestplus grand competitorsconcurrents
are FacebookFacebook, YouTubeYouTube and sleepdormir."
285
842600
2736
« Nos compétiteurs sont Facebook,
YouTube et le sommeil. »
14:17
And so what we need to recognizereconnaître
is that the humanHumain architecturearchitecture is limitedlimité
286
845360
4456
Nous devons reconnaître
que l'architecture humaine est limitée
14:21
and that we have certaincertain boundarieslimites
or dimensionsdimensions of our livesvies
287
849840
2976
et qu'il y a des limites
ou des dimensions de notre vie
14:24
that we want to be honoredà l’honneur and respectedrespecté,
288
852840
1976
que nous voulons voir
honorées et respectées
14:26
and technologyLa technologie could help do that.
289
854840
1816
et la technologie pourrait aider.
14:28
(ApplauseApplaudissements)
290
856680
2616
(Applaudissements)
14:31
CACA: I mean, could you make the caseCas
291
859320
1696
CA : Pourriez-vous dire
14:33
that partpartie of the problemproblème here is that
we'venous avons got a nanaïveve modelmaquette of humanHumain naturela nature?
292
861040
6056
qu'une part du problème est que nous avons
un modèle naïf de la nature humaine ?
14:39
So much of this is justifiedjustifié
in termstermes of humanHumain preferencepréférence,
293
867120
2736
Tant de choses sont justifiées
par la préférence humaine,
14:41
where we'venous avons got these algorithmsalgorithmes
that do an amazingincroyable jobemploi
294
869880
2616
nous avons ces algorithmes
faisant un super boulot,
14:44
of optimizingoptimisation for humanHumain preferencepréférence,
295
872520
1696
optimisant pour la préférence humaine,
14:46
but whichlequel preferencepréférence?
296
874240
1336
mais quelle préférence ?
14:47
There's the preferencespréférences
of things that we really carese soucier about
297
875600
3496
Il y a les préférences des choses
qui nous importent
14:51
when we think about them
298
879120
1376
quand nous y pensons
14:52
versuscontre the preferencespréférences
of what we just instinctivelyinstinctivement clickCliquez on.
299
880520
3056
versus celles de ce sur quoi
nous avons instinctivement cliqué.
14:55
If we could implantl’implant that more nuancednuancée
viewvue of humanHumain naturela nature in everychaque designconception,
300
883600
4656
Si nous pouvions implanter une vue
plus nuancée de la nature humaine
dans la conception,
15:00
would that be a stepétape forwardvers l'avant?
301
888280
1456
cela serait-il du progrès ?
15:01
THTH: AbsolutelyAbsolument. I mean, I think right now
302
889760
1976
TH : Absolument. Actuellement,
15:03
it's as if all of our technologyLa technologie
is basicallyen gros only askingdemandant our lizardlézard braincerveau
303
891760
3496
c'est comme si notre technologie
demandait à notre cerveau reptilien
15:07
what's the bestmeilleur way
to just impulsivelyimpulsivement get you to do
304
895280
2496
comment, impulsivement, nous faire faire
de notre temps la prochaine petite chose
15:09
the nextprochain tiniestle plus petit thing with your time,
305
897800
2136
15:11
insteadau lieu of askingdemandant you in your life
306
899960
1656
au lieu de demander
15:13
what we would be mostles plus
time well spentdépensé for you?
307
901640
2176
comment vous utiliseriez
au mieux votre temps.
15:15
What would be the perfectparfait timelinechronologie
that mightpourrait includecomprendre something laterplus tard,
308
903840
3296
Quel serait le programme parfait
pouvant inclure des prévisions,
15:19
would be time well spentdépensé for you
here at TEDTED in your last day here?
309
907160
3176
comment bien utiliser votre temps
durant votre dernier jour à TED ?
15:22
CACA: So if FacebookFacebook and GoogleGoogle
and everyonetoutes les personnes said to us first up,
310
910360
2976
CA : Donc si Facebook et Google
et tous les autres disaient :
15:25
"Hey, would you like us
to optimizeoptimiser for your reflectiveréfléchissant braincerveau
311
913360
2896
« Aimeriez-vous optimiser
votre cerveau réflectif
ou votre cerveau reptilien ? Choisissez. »
15:28
or your lizardlézard braincerveau? You choosechoisir."
312
916280
1656
15:29
THTH: Right. That would be one way. Yes.
313
917960
2080
TH : Ce serait une façon de faire, oui.
15:34
CACA: You said persuadabilitycrédulité,
that's an interestingintéressant wordmot to me
314
922358
2858
CA : Vous avez parlé d'influence,
c'est un mot intéressant
15:37
because to me there's
two differentdifférent typesles types of persuadabilitycrédulité.
315
925240
2856
car, à mon avis, il y a
deux types d'influence.
15:40
There's the persuadabilitycrédulité
that we're tryingen essayant right now
316
928120
2536
Il y a celle que nous essayons,
15:42
of reasonraison and thinkingen pensant
and makingfabrication an argumentargument,
317
930680
2176
celle de la raison, la réflexion,
l'argumentation,
15:44
but I think you're almostpresque
talkingparlant about a differentdifférent kindgentil,
318
932880
2696
mais vous parlez presque
d'une influence différente,
15:47
a more visceralviscérale typetype of persuadabilitycrédulité,
319
935590
1906
plus viscérale,
15:49
of beingétant persuadedpersuadé withoutsans pour autant
even knowingconnaissance that you're thinkingen pensant.
320
937520
2896
celle d'être convaincu
sans savoir ce que l'on pense.
15:52
THTH: ExactlyExactement. The reasonraison
I carese soucier about this problemproblème so much is
321
940440
2856
TH : Exactement.
Ce problème me tient à cœur
15:55
I studiedétudié at a lablaboratoire calledappelé
the PersuasivePersuasive TechnologyTechnologie LabLab at StanfordStanford
322
943320
3176
car j'ai étudié au labo
de la Technologie Persuasive à Stanford
15:58
that taughtenseigné people
exactlyexactement these techniquestechniques.
323
946520
2096
qui enseigne ces techniques aux gens.
16:00
There's conferencesconférences and workshopsateliers
that teachapprendre people all these covertCovert waysfaçons
324
948640
3456
Il y a des conférences, des ateliers
qui enseignent ces façons dissimulées
16:04
of gettingobtenir people'sles gens attentionattention
and orchestratingorchestrant people'sles gens livesvies.
325
952120
2976
d'obtenir l'attention des gens
et d'orchestrer leur vie.
16:07
And it's because mostles plus people
don't know that that existsexiste
326
955120
2656
Le fait que la plupart des gens
en ignorent l'existence
16:09
that this conversationconversation is so importantimportant.
327
957800
1896
rend cette conversation si importante.
16:11
CACA: TristanTristan, you and I, we bothtous les deux know
so manybeaucoup people from all these companiesentreprises.
328
959720
3776
CA : Tristan, vous et moi connaissons
tant de monde dans ces entreprises.
16:15
There are actuallyréellement manybeaucoup here in the roomchambre,
329
963520
1976
Il y en a plein dans la pièce
16:17
and I don't know about you,
but my experienceexpérience of them
330
965520
2477
et, je ne sais pas pour vous,
mais mon expérience
16:20
is that there is
no shortagepénurie de of good intentintention.
331
968021
2075
est qu'ils ne manquent pas
de bonnes intentions.
16:22
People want a better worldmonde.
332
970120
2176
Les gens veulent un monde meilleur.
16:24
They are actuallyréellement -- they really want it.
333
972320
3520
Ils sont -- ils le veulent vraiment.
16:28
And I don't think anything you're sayingen disant
is that these are evilmal people.
334
976320
4176
Je ne crois pas que vous disiez
que ces gens sont maléfiques.
16:32
It's a systemsystème where there's
these unintendedinvolontaires consequencesconséquences
335
980520
3696
C'est un système où il y a
des conséquences inattendues
16:36
that have really got out of controlcontrôle --
336
984240
1856
qui est hors de contrôle --
16:38
THTH: Of this racecourse for attentionattention.
337
986120
1496
TH : La course à l'attention.
16:39
It's the classicclassique racecourse to the bottombas
when you have to get attentionattention,
338
987640
3176
La course classique vers les bas-fonds
pour obtenir l'attention,
16:42
and it's so tensetendu.
339
990840
1216
c'est très tendu.
16:44
The only way to get more
is to go lowerinférieur on the braincerveau stemtige,
340
992080
2736
Pour en obtenir plus,
il faut descendre le tronc cérébral,
16:46
to go lowerinférieur into outrageoutrage,
to go lowerinférieur into emotionémotion,
341
994840
2416
descendre dans l'outrage,
descendre dans l'émotion,
16:49
to go lowerinférieur into the lizardlézard braincerveau.
342
997280
1696
descendre dans le cerveau lézard.
16:51
CACA: Well, thank you so much for helpingportion us
all get a little bitbit wiserplus sage about this.
343
999000
3816
CA : Merci de nous avoir aidés
à devenir plus éclairés à ce propos.
16:54
TristanTristan HarrisHarris, thank you.
THTH: Thank you very much.
344
1002840
2416
Tristan Harris, merci.
TH : Merci beaucoup.
16:57
(ApplauseApplaudissements)
345
1005280
2240
(Applaudissements)
Translated by Morgane Quilfen
Reviewed by Claire Ghyselen

▲Back to top

ABOUT THE SPEAKER
Tristan Harris - Design thinker
Tristan Harris helps the technology industry more consciously and ethically shape the human spirit and human potential.

Why you should listen

Tristan Harris has been called "the closest thing Silicon Valley has to a conscience" by The Atlantic magazine. Prior to founding the new Center for Humane Technology, he was Google's Design Ethicist, developing a framework for how technology should "ethically" steer the thoughts and actions of billions of people from screens.  

Harris has spent a decade understanding the invisible influences that hijack human thinking and action. Drawing on literature from addiction, performative magic, social engineering, persuasive design and behavioral economics, he is currently developing a framework for ethical persuasion, especially as it relates to the moral responsibility of technology companies.

Rolling Stone magazine named Harris one of "25 People Shaping the World" in 2017. His work has been featured on TED, "60 Minutes," HBO's "RealTime with Bill Maher," "PBS NewsHour," Recode, The Atlantic, WIRED, the New York Times, Der Spiegel, The Economist and many more. Harris has briefed heads of state, technology company CEOs and members of the US Congress about the attention economy.

More profile about the speaker
Tristan Harris | Speaker | TED.com