ABOUT THE SPEAKER
Tristan Harris - Design thinker
Tristan Harris helps the technology industry more consciously and ethically shape the human spirit and human potential.

Why you should listen

Tristan Harris has been called "the closest thing Silicon Valley has to a conscience" by The Atlantic magazine. Prior to founding the new Center for Humane Technology, he was Google's Design Ethicist, developing a framework for how technology should "ethically" steer the thoughts and actions of billions of people from screens.  

Harris has spent a decade understanding the invisible influences that hijack human thinking and action. Drawing on literature from addiction, performative magic, social engineering, persuasive design and behavioral economics, he is currently developing a framework for ethical persuasion, especially as it relates to the moral responsibility of technology companies.

Rolling Stone magazine named Harris one of "25 People Shaping the World" in 2017. His work has been featured on TED, "60 Minutes," HBO's "RealTime with Bill Maher," "PBS NewsHour," Recode, The Atlantic, WIRED, the New York Times, Der Spiegel, The Economist and many more. Harris has briefed heads of state, technology company CEOs and members of the US Congress about the attention economy.

More profile about the speaker
Tristan Harris | Speaker | TED.com
TED2017

Tristan Harris: How a handful of tech companies control billions of minds every day

Tristan Harris: Cum o mână de companii IT controlează zilnic miliarde de minți

Filmed:
2,591,029 views

O mână de oameni ce lucrează în câteva companii IT direcționează zilnic gândurile unor miliarde de oameni, spune designerul de conținut Tristan Harris. De la notificările pe Facebook până la Snapstreaks și auto-play-ul YouTube, toți luptă pentru un singur lucru: să-ți capteze atenția. Harris dezvăluie cum aceste companii se folosesc de psihologia noastră pentru propriul lor profit și spune că este nevoie de o renaștere a designului, în care tehnologia să ne încurajeze, în schimb, să ne trăim viața așa cum o dorim.
- Design thinker
Tristan Harris helps the technology industry more consciously and ethically shape the human spirit and human potential. Full bio

Double-click the English transcript below to play the video.

00:12
I want you to imagineimagina
0
960
1200
Vreau să vă imaginați
00:15
walkingmers into a roomcameră,
1
3000
1200
că intrați într-o cameră,
00:17
a controlControl roomcameră with a bunchbuchet of people,
2
5480
2136
o cameră de control cu o grămadă de oameni
00:19
a hundredsută people, hunchedcocoşat
over a deskbirou with little dialscadrane,
3
7640
2840
o sută de oameni, aplecați
peste un birou, cu butonașe,
00:23
and that that controlControl roomcameră
4
11280
1520
și că acea cameră de comandă
00:25
will shapeformă the thoughtsgânduri and feelingssentimente
5
13680
3696
va contura gândurile și emoțiile
00:29
of a billionmiliard people.
6
17400
1240
unui miliard de oameni.
00:32
This mightar putea soundsunet like scienceştiinţă fictionfictiune,
7
20560
1880
Poate vă sună SF,
00:35
but this actuallyde fapt existsexistă
8
23320
2216
dar asta chiar există
00:37
right now, todayastăzi.
9
25560
1200
acum, azi.
00:40
I know because I used to be
in one of those controlControl roomscamere.
10
28040
3360
Știu asta pentru că am fost și eu
într-una din camerele de comandă.
00:44
I was a designproiecta ethicistfrom web Etician at GoogleGoogle,
11
32159
2297
Am fost specialist în etica designului
la Google,
00:46
where I studiedstudiat how do you ethicallypunct de vedere etic
steerpilota people'soamenii lui thoughtsgânduri?
12
34480
3360
unde am studiat cum poți să ghidezi
în mod etic gândurile oamenilor.
00:50
Because what we don't talk about
is how the handfulmână of people
13
38560
2896
Pentru că nu se vorbește
despre cum o mână de oameni
00:53
workinglucru at a handfulmână
of technologytehnologie companiescompanii
14
41480
2536
ce lucrează la câteva companii IT
00:56
throughprin theiral lor choicesalegeri will steerpilota
what a billionmiliard people are thinkinggândire todayastăzi.
15
44040
5040
vor ghida, prin alegerilor lor,
cum gândesc un miliard de oameni azi.
Deoarece când scoateți telefonul —
01:02
Because when you pullTrage out your phonetelefon
16
50400
1736
01:04
and they designproiecta how this workslucrări
or what's on the feeda hrani,
17
52160
3096
iar ei proiectează cum funcționează
sau ce vă apare în feed,
01:07
it's schedulingprogramarea little blocksblocuri
of time in our mindsminți.
18
55280
3216
vă sunt alocate mici bucăți de timp
în minte.
01:10
If you see a notificationnotificare,
it schedulesOrarele you to have thoughtsgânduri
19
58520
3136
Dacă vedeți o notificare,
deja v-a programat să vă gândiți
01:13
that maybe you didn't intendintenționează to have.
20
61680
2040
la ceva la care poate nu v-ați fi gândit.
01:16
If you swipeDeplasați degetul over that notificationnotificare,
21
64400
2616
Dacă accesați o notificare,
01:19
it schedulesOrarele you into spendingcheltuire
a little bitpic of time
22
67040
2381
vă programează să petreceți un pic de timp
01:21
gettingobtinerea suckedsupt into something
23
69445
1381
absorbiți în ceva
01:22
that maybe you didn't intendintenționează
to get suckedsupt into.
24
70850
2955
în care poate nu voiați
să vă lăsați absorbit.
01:27
When we talk about technologytehnologie,
25
75320
1520
Când vorbim despre tehnologie,
01:30
we tendtind to talk about it
as this bluealbastru skycer opportunityoportunitate.
26
78040
2696
tindem să vorbim de parcă ar fi
o mare de oportunități.
01:32
It could go any directiondirecţie.
27
80760
1480
Poate duce în orice direcție.
01:35
And I want to get seriousserios for a momentmoment
28
83400
1856
Vreau să fiu un moment serios
01:37
and tell you why it's going
in a very specificspecific directiondirecţie.
29
85280
2680
și să vă spun de ce duce
într-o anumită direcție.
01:40
Because it's not evolvingevoluție randomlyla întâmplare.
30
88840
2200
Pentru că nu evoluează aleatoriu.
01:44
There's a hiddenascuns goalpoartă
drivingconducere the directiondirecţie
31
92000
2016
Există un scop ascuns
ce determină direcția
01:46
of all of the technologytehnologie we make,
32
94040
2136
tuturor descoperirilor tehnice,
01:48
and that goalpoartă is the racerasă
for our attentionAtenţie.
33
96200
2920
iar scopul este cursa după atenție.
01:52
Because everyfiecare newnou siteteren --
34
100840
2736
Pentru că fiecare site nou:
TED, alegeri, politicieni,
01:55
TEDTED, electionsalegeri, politicianspoliticieni,
35
103600
2736
01:58
gamesjocuri, even meditationmeditaţie appsaplicaţii --
36
106360
1976
jocuri, chiar și aplicații de meditație
02:00
have to competeconcura for one thing,
37
108360
1960
concurează pentru un singur lucru:
02:03
whichcare is our attentionAtenţie,
38
111160
1736
atenția noastră,
02:04
and there's only so much of it.
39
112920
1600
care este limitată.
02:08
And the bestCel mai bun way to get people'soamenii lui attentionAtenţie
40
116440
2416
Iar cel mai simplu
câștigi atenția oamenilor
02:10
is to know how someone'se cineva mindminte workslucrări.
41
118880
2440
dacă știi cum le funcționează mintea.
02:13
And there's a wholeîntreg bunchbuchet
of persuasivepersuasivă techniquestehnici
42
121800
2336
Există o mulțime
de tehnici de convingere
02:16
that I learnedînvățat in collegecolegiu at a lablaborator
calleddenumit the PersuasivePersuasivă TechnologyTehnologie LabLaborator
43
124160
3496
pe care le-am învățat la facultate
în Laboratorul de tehnologie persuasivă
02:19
to get people'soamenii lui attentionAtenţie.
44
127680
1600
prin care obții atenția oamenilor.
02:21
A simplesimplu exampleexemplu is YouTubeYouTube.
45
129880
1480
Un exemplu simplu e YouTube.
02:24
YouTubeYouTube wants to maximizemaximiza
how much time you spendpetrece.
46
132000
2936
YouTube vrea să maximizeze timpul
petrecut pe site.
02:26
And so what do they do?
47
134960
1200
Deci ce face?
02:28
They autoplayredare automată the nextUrmător → videovideo.
48
136840
2280
Dă auto-play următorului clip.
02:31
And let's say that workslucrări really well.
49
139760
1816
Și să presupunem că merge bine.
02:33
They're gettingobtinerea a little bitpic
more of people'soamenii lui time.
50
141600
2416
Câștigă un pic mai mult
din timpul oamenilor.
02:36
Well, if you're NetflixNetflix,
you look at that and say,
51
144040
2376
Păi, dacă ești Netflix,
vezi asta și-ți zici:
02:38
well, that's shrinkingscădere my marketpiaţă shareacțiune,
52
146440
1858
„Asta-mi ia din cota de piață,
02:40
so I'm going to autoplayredare automată the nextUrmător → episodeepisod.
53
148322
2000
așa că dau și eu auto-play
următorului episod.”
Dar apoi, dacă ești Facebook,
02:43
But then if you're FacebookFacebook,
54
151320
1376
02:44
you say, that's shrinkingscădere
all of my marketpiaţă shareacțiune,
55
152720
2336
îți spui: „Asta-mi ia toată cota mea,
02:47
so now I have to autoplayredare automată
all the videosVideoclipuri in the newsfeedflux de știri
56
155080
2656
așa că trebuie să dau auto-play
clipurilor din newsfeed
02:49
before waitingaşteptare for you to clickclic playa juca.
57
157760
1762
fără să aștept să dai play.
02:52
So the internetInternet is not evolvingevoluție at randomîntâmplător.
58
160320
3160
Așadar, internetul nu evoluează aleatoriu.
02:56
The reasonmotiv it feelsse simte
like it's suckingsuge us in the way it is
59
164320
4416
Simțim că ne absoarbe
într-o astfel de măsură
03:00
is because of this racerasă for attentionAtenţie.
60
168760
2376
pentru că se află
în cursă pentru atenție.
03:03
We know where this is going.
61
171160
1416
Știm încotro ne îndreptăm.
03:04
TechnologyTehnologie is not neutralneutru,
62
172600
1520
Tehnologia nu este neutră,
03:07
and it becomesdevine this racerasă
to the bottomfund of the braincreier stemtijă
63
175320
3416
și e o cursă să ajungi primul
la baza trunchiului cerebral,
03:10
of who can go lowerinferior to get it.
64
178760
2200
cine poate coborî mai mult câștigă.
03:13
Let me give you an exampleexemplu of SnapchatSnapchat.
65
181920
2336
Să vă dau exemplul Snapchat-ului.
03:16
If you didn't know,
SnapchatSnapchat is the numbernumăr one way
66
184280
3696
Dacă nu știți, Snapchat
e principalul mijloc prin care
03:20
that teenagersadolescenți in
the UnitedMarea StatesStatele communicatecomunica.
67
188000
2256
comunică azi adolescenții
din Statele Unite.
03:22
So if you're like me, and you use
texttext messagesmesaje to communicatecomunica,
68
190280
4176
Deci, dacă sunteți ca mine
și comunicați prin SMS,
03:26
SnapchatSnapchat is that for teenagersadolescenți,
69
194480
1776
Snapchat e SMS-ul adolescenților,
03:28
and there's, like,
a hundredsută millionmilion of them that use it.
70
196280
2696
și sunt vreo sută de milioane
de utilizatori.
03:31
And they inventedinventat
a featurecaracteristică calleddenumit SnapstreaksSnapstreaks,
71
199000
2216
Au inventat ceva numit Snapstreaks,
03:33
whichcare showsspectacole the numbernumăr of dayszi in a rowrând
72
201240
1896
ce arată câte zile în șir
03:35
that two people have
communicatedcomunicate with eachfiecare other.
73
203160
2616
comunică doi oameni unul cu celălalt.
03:37
In other wordscuvinte, what they just did
74
205800
1856
Cu alte cuvinte, ce au făcut
03:39
is they gavea dat two people
something they don't want to losepierde.
75
207680
2960
e să le dea oamenilor
ceva ce nu vor să piardă.
03:44
Because if you're a teenageradolescent,
and you have 150 dayszi in a rowrând,
76
212000
3456
Pentru că dacă ești adolescent
și ai vorbit 150 de zile la rând,
03:47
you don't want that to go away.
77
215480
1976
nu vrei să pierzi asta.
03:49
And so think of the little blocksblocuri of time
that that schedulesOrarele in kids'Kids' mindsminți.
78
217480
4160
Gândiți-vă câte bucățele de timp sunt
acaparate din mintea copiilor.
03:54
This isn't theoreticalteoretic:
when kidscopii go on vacationvacanta,
79
222160
2336
Și nu e doar teoretic:
când pleacă în vacanță,
03:56
it's been shownafișate they give theiral lor passwordsparole
to up to fivecinci other friendsprieteni
80
224520
3256
copiii își dau parolele prietenilor
(până la cinci prieteni)
03:59
to keep theiral lor SnapstreaksSnapstreaks going,
81
227800
2216
ca să le continue Snapstreak-urile
04:02
even when they can't do it.
82
230040
2016
atunci când ei nu o pot face.
04:04
And they have, like, 30 of these things,
83
232080
1936
Și au vreo 30 de Snapstreak-uri,
04:06
and so they have to get throughprin
takingluare photosfotografii of just picturespoze or wallspereți
84
234040
3376
așa că trebuie să primească
și să trimită poze, cu pereți,
04:09
or ceilingstavane just to get throughprin theiral lor day.
85
237440
2480
cu tavane, doar ca să le treacă ziua.
04:13
So it's not even like
they're havingavând realreal conversationsconversații.
86
241200
2696
Deci nici măcar nu au conversații reale.
04:15
We have a temptationispita to think about this
87
243920
1936
Suntem tentați să ne gândim
04:17
as, oh, they're just usingutilizând SnapchatSnapchat
88
245880
2696
că, eh, folosesc și ei Snapchat
04:20
the way we used to
gossipbârfă on the telephonetelefon.
89
248600
2016
așa cum la vârsta lor bârfeam la telefon,
04:22
It's probablyprobabil OK.
90
250640
1200
deci probabil e OK.
04:24
Well, what this missesratări
is that in the 1970s,
91
252480
2256
Ei, problema e că în anii '70,
04:26
when you were just
gossipingbârfe on the telephonetelefon,
92
254760
2615
când bârfeai doar la telefon,
04:29
there wasn'tnu a fost a hundredsută engineersingineri
on the other sidelatură of the screenecran
93
257399
3017
nu existau sute de ingineri
de partea cealaltă a ecranului
04:32
who knewștiut exactlyexact
how your psychologyPsihologie workeda lucrat
94
260440
2056
ce știau exact
cum vă funcționează psihicul,
04:34
and orchestratedorchestrată you
into a doubledubla bindlega with eachfiecare other.
95
262520
2640
trăgând sforile
ca să vă lege de celălalt.
04:38
Now, if this is makingluare you
feel a little bitpic of outrageultraj,
96
266440
3400
Acum, dacă asta vă înfurie un pic,
04:42
noticeînștiințare that that thought
just comesvine over you.
97
270680
2576
observați că gândul vă absoarbe.
04:45
OutrageUltraj is a really good way alsode asemenea
of gettingobtinerea your attentionAtenţie,
98
273280
3320
Și furia e un mod foarte bun
de a vă capta atenția,
04:49
because we don't choosealege outrageultraj.
99
277880
1576
pentru că nu alegi să fii furios.
04:51
It happensse întâmplă to us.
100
279480
1416
Ți se întâmplă.
04:52
And if you're the FacebookFacebook newsfeedflux de știri,
101
280920
1856
Și dacă ești newsfeed-ul Facebook,
04:54
whetherdacă you'dte-ai want to or not,
102
282800
1416
indiferent dacă vrei sau nu,
04:56
you actuallyde fapt benefitbeneficiu when there's outrageultraj.
103
284240
2736
ai de profitat de pe urma furiei.
04:59
Because outrageultraj
doesn't just scheduleprograma a reactionreacţie
104
287000
2936
Pentru că furia nu se limitează
la a aloca o reacție
05:01
in emotionalemoţional time, spacespaţiu, for you.
105
289960
2880
în timpul și spațiul tău emoțional.
05:05
We want to shareacțiune that outrageultraj
with other people.
106
293440
2416
Vrei să împărtășești furia cu alții.
05:07
So we want to hitlovit shareacțiune and say,
107
295880
1576
Îți vine să dai share și să zici:
05:09
"Can you believe the thing
that they said?"
108
297480
2040
„Poți să crezi ce-au zis?”
05:12
And so outrageultraj workslucrări really well
at gettingobtinerea attentionAtenţie,
109
300520
3376
Deci furia merge de minune
să capteze atenția,
05:15
suchastfel de that if FacebookFacebook had a choicealegere
betweenîntre showingarătând you the outrageultraj feeda hrani
110
303920
3896
și dacă Facebook ar avea de ales
între a vă arăta un newsfeed de înfuriat
05:19
and a calmcalm newsfeedflux de știri,
111
307840
1320
și un newsfeed calm,
05:22
they would want
to showspectacol you the outrageultraj feeda hrani,
112
310120
2136
ar dori să vi-l arate pe cel de înfuriat,
05:24
not because someonecineva
consciouslyconştient chosea ales that,
113
312280
2056
nu pentru că cineva alege conștient asta,
05:26
but because that workeda lucrat better
at gettingobtinerea your attentionAtenţie.
114
314360
2680
ci pentru că asta poate mai bine
să vă capteze atenția.
05:31
And the newsfeedflux de știri controlControl roomcameră
is not accountableresponsabil to us.
115
319120
5480
Iar camera de comandă pentru newsfeed
nu răspunde în fața noastră.
05:37
It's only accountableresponsabil
to maximizingmaximizarea attentionAtenţie.
116
325040
2296
Răspunde doar de maximizarea atenției.
05:39
It's alsode asemenea accountableresponsabil,
117
327360
1216
Mai răspunde,
05:40
because of the businessAfaceri modelmodel
of advertisingreclamă,
118
328600
2376
din cauza modelului bazat pe publicitate,
05:43
for anybodycineva who can paya plati the mostcel mai
to actuallyde fapt walkmers pe jos into the controlControl roomcameră
119
331000
3336
și în fața oricui plătește mai mult
ca să intre în camera de comandă
05:46
and say, "That groupgrup over there,
120
334360
1576
și să spună: „Grupul acela,
05:47
I want to scheduleprograma these thoughtsgânduri
into theiral lor mindsminți."
121
335960
2640
vreau să bag gândurile astea
în mințile lor.”
05:51
So you can targetţintă,
122
339760
1200
Puiteți așadar ținti,
05:54
you can preciselyexact targetţintă a lieminciună
123
342040
1936
puteți direcționa cu precizie o minciună
05:56
directlydirect to the people
who are mostcel mai susceptiblesusceptibil.
124
344000
2920
direct spre oamenii
care sunt cei mai susceptibili.
06:00
And because this is profitableprofitabil,
it's only going to get worsemai rau.
125
348080
2880
Și pentru că asta e profitabil,
o să fie și mai rău.
06:05
So I'm here todayastăzi
126
353040
1800
Așa că sunt azi aici
06:08
because the costscheltuieli are so obviousevident.
127
356160
2000
pentru că prețul plătit e evident.
06:12
I don't know a more urgenturgent
problemproblemă than this,
128
360280
2136
Nu știu să existe vreo problemă
mai urgentă,
06:14
because this problemproblemă
is underneathdedesubt all other problemsProbleme.
129
362440
3120
pentru că asta e la baza
tuturor celorlalte probleme.
06:18
It's not just takingluare away our agencyagenţie
130
366720
3176
Nu doar că ne răpește alegerea
06:21
to spendpetrece our attentionAtenţie
and livetrăi the livesvieți that we want,
131
369920
2600
de a ne distribui atenția
și a ne trăi viața cum vrem,
06:25
it's changingschimbare the way
that we have our conversationsconversații,
132
373720
3536
ci schimbă modul
în care purtăm conversații,
06:29
it's changingschimbare our democracydemocraţie,
133
377280
1736
ne schimbă democrația,
06:31
and it's changingschimbare our abilityabilitate
to have the conversationsconversații
134
379040
2616
și schimbă abilitatea noastră
de a avea conversațiile
06:33
and relationshipsrelaţii we want with eachfiecare other.
135
381680
2000
și relațiile pe care le dorim cu ceilalți.
06:37
And it affectsafectează everyonetoata lumea,
136
385160
1776
Și ne afectează pe toți,
06:38
because a billionmiliard people
have one of these in theiral lor pocketbuzunar.
137
386960
3360
pentru că un miliard de oameni
au câte o chestie de-asta în buzunar.
06:45
So how do we fixrepara this?
138
393360
1400
Așadar cum reparăm asta?
06:49
We need to make threeTrei radicalradical changesschimbări
139
397080
2936
Trebuie să facem trei schimbări radicale
06:52
to technologytehnologie and to our societysocietate.
140
400040
1800
în tehnologia și societatea noastră.
06:55
The first is we need to acknowledgerecunoaște
that we are persuadablepersuadable.
141
403720
3800
Prima este să recunoaștem
că putem fi convinși.
07:00
OnceO dată you startstart understandingînţelegere
142
408840
1376
Odată ce-ncepem să înțelegem
07:02
that your mindminte can be scheduledprogramată
into havingavând little thoughtsgânduri
143
410240
2776
că mintea poate fi programată
să aibă gânduri
07:05
or little blocksblocuri of time
that you didn't choosealege,
144
413040
2576
sau bucăți de timp
pe care nu noi le-am ales,
07:07
wouldn'tnu ar fi we want to use that understandingînţelegere
145
415640
2056
nu-i așa că ne-am dori să folosim asta
07:09
and protectproteja againstîmpotriva the way
that that happensse întâmplă?
146
417720
2160
pentru a ne proteja
de ce ni se întâmplă?
07:12
I think we need to see ourselvesnoi insine
fundamentallyfundamental in a newnou way.
147
420600
3296
Cred că avem nevoie să ne vedem
într-un mod cu totul nou.
07:15
It's almostaproape like a newnou periodperioadă
of humanuman historyistorie,
148
423920
2216
E ca un fel de nouă eră a istoriei umane,
07:18
like the EnlightenmentIluminare,
149
426160
1216
ca și Iluminismul,
07:19
but almostaproape a kinddrăguț of
self-awareconştientă de sine EnlightenmentIluminare,
150
427400
2216
ca o iluminare cu conștientizare de sine,
07:21
that we can be persuadedconvins,
151
429640
2080
să înțelegem că putem fi convinși
07:24
and there mightar putea be something
we want to protectproteja.
152
432320
2240
și că sunt lucruri
pe care vrem să le protejăm.
07:27
The secondal doilea is we need newnou modelsmodele
and accountabilityresponsabilitate systemssisteme
153
435400
4576
A doua e că avem nevoie de noi modele
și noi sisteme de responsabilitate
07:32
so that as the worldlume getsdevine better
and more and more persuasivepersuasivă over time --
154
440000
3496
astfel încât pe măsură ce lumea devine
mai bună și mai persuasivă —
07:35
because it's only going
to get more persuasivepersuasivă --
155
443520
2336
pentru că va fi
din ce în ce mai persuasivă,
07:37
that the people in those controlControl roomscamere
156
445880
1856
oamenii din acele camere de comandă
07:39
are accountableresponsabil and transparenttransparent
to what we want.
157
447760
2456
să fie răspunzători
și să respecte voința noastră.
07:42
The only formformă of ethicaletic
persuasionconvingere that existsexistă
158
450240
2696
Unica formă de persuasiune etică
07:44
is when the goalsgoluri of the persuaderPersuader
159
452960
1936
este când scopul celui ce convinge
07:46
are alignedaliniate with the goalsgoluri
of the persuadeepersuadee.
160
454920
2200
coincide cu cel al celui convins.
07:49
And that involvesimplică questioningîntrebător bigmare things,
like the businessAfaceri modelmodel of advertisingreclamă.
161
457640
3840
Și asta înseamnă o macroanaliză
a modelului de afaceri bazat pe reclamă.
07:54
LastlyÎn cele din urmă,
162
462720
1576
În ultimul rând,
07:56
we need a designproiecta renaissancerenaştere,
163
464320
1680
e nevoie de Renașterea designului,
07:59
because onceo singura data you have
this viewvedere of humanuman naturenatură,
164
467080
3056
deoarece, odată ce avem
această perspectivă a naturii umane,
08:02
that you can steerpilota the timelinestermene limită
of a billionmiliard people --
165
470160
2976
cum că puteți direcționa
viața unui miliard de oameni,
08:05
just imagineimagina, there's people
who have some desiredorință
166
473160
2736
imaginați-vă, există oameni
care-și doresc ceva,
08:07
about what they want to do
and what they want to be thinkinggândire
167
475920
2856
știu ce vor să facă
și ce vor să gândească
08:10
and what they want to be feelingsentiment
and how they want to be informedinformat,
168
478800
3136
și ce vor să simtă
și cum vor să fie informați
08:13
and we're all just tuggedtras
into these other directionsdirectii.
169
481960
2536
și toți suntem trași în alte direcții.
08:16
And you have a billionmiliard people just tuggedtras
into all these differentdiferit directionsdirectii.
170
484520
3696
Și există un miliard de oameni
trași în aceste direcții.
08:20
Well, imagineimagina an entireîntreg designproiecta renaissancerenaştere
171
488240
2056
Ei, imaginați-vă o Renaștere în design
08:22
that triedîncercat to orchestrateorchestra
the exactcorect and mostcel mai empoweringresponsabilizarea
172
490320
3096
ce încearcă să contureze
cea mai puternică și precisă
08:25
time-well-spenttimp-şi-a petrecut way
for those timelinestermene limită to happenîntâmpla.
173
493440
3136
cale rapidă de a face
ca toate acestea să se întâmple.
08:28
And that would involveimplica two things:
174
496600
1656
Și asta ar implica două lucruri:
08:30
one would be protectingprotectoare
againstîmpotriva the timelinestermene limită
175
498280
2136
unul ar fi să ne protejăm de direcțiile
08:32
that we don't want to be experiencingse confruntă cu,
176
500440
1856
pe care nu vrem să le experimentăm,
08:34
the thoughtsgânduri that we
wouldn'tnu ar fi want to be happeninglucru,
177
502320
2416
de gândurile pe care n-am vrea să le avem,
08:36
so that when that dingDing happensse întâmplă,
not havingavând the dingDing that sendstrimite us away;
178
504760
3336
ca atunci când apare notificarea,
să nu fim complet acaparați,
08:40
and the secondal doilea would be empoweringresponsabilizarea us
to livetrăi out the timelinecronologie that we want.
179
508120
3616
iar al doilea ar fi să ne simțim
îndreptățiți să ne trăim viața cum vrem.
08:43
So let me give you a concretebeton exampleexemplu.
180
511760
1880
Să vă dau un exemplu concret.
08:46
TodayAstăzi, let's say your friendprieten
cancelsAnulează dinnercină on you,
181
514280
2456
Azi, să zicem că prietenul
anulează o cină cu tine,
08:48
and you are feelingsentiment a little bitpic lonelysinguratic.
182
516760
3775
și tu te simți un pic singur.
08:52
And so what do you do in that momentmoment?
183
520559
1817
Ce faci atunci?
08:54
You opendeschis up FacebookFacebook.
184
522400
1279
Deschizi Facebook.
08:56
And in that momentmoment,
185
524960
1696
Și în acel moment,
08:58
the designersdesigneri in the controlControl roomcameră
want to scheduleprograma exactlyexact one thing,
186
526680
3376
designerii din camera de comandă
vor să programeze un singur lucru:
09:02
whichcare is to maximizemaximiza how much time
you spendpetrece on the screenecran.
187
530080
3040
să maximizeze timpul
pe care-l petreceți pe site.
09:06
Now, insteadin schimb, imagineimagina if those designersdesigneri
createdcreată a differentdiferit timelinecronologie
188
534640
3896
Acum, imaginați-vă cum ar fi ca acești
designeri să creeze un alt timeline,
09:10
that was the easiestCel mai simplu way,
usingutilizând all of theiral lor datadate,
189
538560
3496
care ar fi fost calea cea mai simplă,
conform datelor de care dispun,
09:14
to actuallyde fapt help you get out
with the people that you careîngrijire about?
190
542080
3096
să vă ajute să ieșiți
cu oameni la care țineți?
09:17
Just think, alleviatingatenuarea
all lonelinesssingurătate in societysocietate,
191
545200
5416
Gândiți-vă, ar ușura
toată singurătatea din societate
09:22
if that was the timelinecronologie that FacebookFacebook
wanted to make possibleposibil for people.
192
550640
3496
dacă asta ar fi ceea ce Facebook
ar vrea să ofere oamenilor.
09:26
Or imagineimagina a differentdiferit conversationconversaţie.
193
554160
1715
Sau imaginați-vă altă conversație.
09:27
Let's say you wanted to postpost
something supercontroversialsupercontroversial on FacebookFacebook,
194
555899
3317
Să zicem că vreți să postați
ceva foarte controversat pe Facebook,
09:31
whichcare is a really importantimportant
thing to be ablecapabil to do,
195
559240
2416
și e foarte important
să puteți face asta,
să discutați subiecte controversate.
09:33
to talk about controversialcontroversat topicssubiecte.
196
561680
1696
09:35
And right now, when there's
that bigmare commentcometariu boxcutie,
197
563400
2336
Acum că există căsuța pentru comentarii,
09:37
it's almostaproape askingcer you,
what keycheie do you want to typetip?
198
565760
3376
aproape că vă întreabă:„Ce vrei să scrii?”
09:41
In other wordscuvinte, it's schedulingprogramarea
a little timelinecronologie of things
199
569160
2816
Cu alte cuvinte, te programează

09:44
you're going to continuecontinua
to do on the screenecran.
200
572000
2136
să continuați să faceți lucruri pe site.
09:46
And imagineimagina insteadin schimb that there was
anothero alta buttonbuton there sayingzicală,
201
574160
2976
Imaginați-vă că ar exista în schimb
un alt buton care ar zice:
09:49
what would be mostcel mai
time well spenta petrecut for you?
202
577160
2056
`„Cum v-ați petrece cel mai bine timpul?”
Și voi alegeți: „să organizez o cină”.
09:51
And you clickclic "hostgazdă a dinnercină."
203
579240
1576
09:52
And right there
underneathdedesubt the itemarticol it said,
204
580840
2096
Și exact sub asta ar fi:
09:54
"Who wants to RSVPRSVP for the dinnercină?"
205
582960
1696
„Cine vrea să confirme prezența?”
09:56
And so you'dte-ai still have a conversationconversaţie
about something controversialcontroversat,
206
584680
3256
Și tot ați avea o conversație
pe un subiect controversat,
09:59
but you'dte-ai be havingavând it in the mostcel mai
empoweringresponsabilizarea placeloc on your timelinecronologie,
207
587960
3736
dar de data asta în locul
care vă dă vouă putere,
10:03
whichcare would be at home that night
with a bunchbuchet of a friendsprieteni over
208
591720
3016
și anume la voi acasă, seara,
cu niște prieteni
10:06
to talk about it.
209
594760
1200
cu care discutați.
10:09
So imagineimagina we're runningalergare, like,
a find and replacea inlocui
210
597000
3160
Imaginați-vă că avem o funcție
de „găsește și înlocuiește”
10:13
on all of the timelinestermene limită
that are currentlyîn prezent steeringdirecție us
211
601000
2576
în tot ce ne apare în timeline
și ce ne direcționează
10:15
towardscătre more and more
screenecran time persuasivelyconvingător
212
603600
2560
spre a petrece tot mai mult timp online
10:19
and replacingînlocuind all of those timelinestermene limită
213
607080
2536
și dacă am înlocui asta
10:21
with what do we want in our livesvieți.
214
609640
1640
cu ceea ce vrem să facem în viață.
10:26
It doesn't have to be this way.
215
614960
1480
Nu e musai să fie așa.
10:30
InsteadÎn schimb of handicappingpronosticuri our attentionAtenţie,
216
618360
2256
În loc de a ne handicapa atenția,
10:32
imagineimagina if we used all of this datadate
and all of this powerputere
217
620640
2816
imaginați-vă că am folosi
toate informațiile, puterea
și noua viziune asupra naturii umane
10:35
and this newnou viewvedere of humanuman naturenatură
218
623480
1616
10:37
to give us a superhumansupraomeneşti abilityabilitate to focusconcentra
219
625120
2856
pentru a obține abilitatea supraomenească
de a ne concentra,
10:40
and a superhumansupraomeneşti abilityabilitate to put
our attentionAtenţie to what we caredîngrijit about
220
628000
4136
și abilitatea supraomenească
de a ne îndrepta atenția spre ce vrem,
10:44
and a superhumansupraomeneşti abilityabilitate
to have the conversationsconversații
221
632160
2616
și abilitatea supraomenească
de a purta discuțiile
10:46
that we need to have for democracydemocraţie.
222
634800
2000
de care avem nevoie în democrație.
10:51
The mostcel mai complexcomplex challengesprovocări in the worldlume
223
639600
2680
Cele mai complexe provocări ale omenirii
10:56
requirenecesita not just us
to use our attentionAtenţie individuallyindividual.
224
644280
3120
necesită să folosim
nu doar atenția individuală,
11:00
They requirenecesita us to use our attentionAtenţie
and coordinateCoordonate it togetherîmpreună.
225
648440
3320
ci atenția tuturor, coordonată.
11:04
ClimateClima changeSchimbare is going to requirenecesita
that a lot of people
226
652440
2816
Modificările climatice necesită
ca mulți oameni
11:07
are beingfiind ablecapabil
to coordinateCoordonate theiral lor attentionAtenţie
227
655280
2096
să își poată coordona atenția
11:09
in the mostcel mai empoweringresponsabilizarea way togetherîmpreună.
228
657400
1896
în modul cel mai eficient, împreună.
11:11
And imagineimagina creatingcrearea
a superhumansupraomeneşti abilityabilitate to do that.
229
659320
3080
Imaginați-vă că am crea
abilitatea supraomenească de a o face.
11:19
SometimesUneori the world'slume
mostcel mai pressingpresare and importantimportant problemsProbleme
230
667000
4160
Uneori cele mai stringente și importante
probleme ale omenirii
11:24
are not these hypotheticalipotetic futureviitor things
that we could createcrea in the futureviitor.
231
672040
3840
nu sunt chestii ipotetice din viitor
pe care le-am putea crea în viitor.
11:28
SometimesUneori the mostcel mai pressingpresare problemsProbleme
232
676560
1736
Uneori cele mai stringente probleme
11:30
are the onescele that are
right underneathdedesubt our nosesnasurile,
233
678320
2336
sunt cele care sunt fix sub nasul nostru,
11:32
the things that are alreadydeja directingregie
a billionmiliard people'soamenii lui thoughtsgânduri.
234
680680
3120
lucruri care deja direcționează
gândurile a miliarde de oameni.
11:36
And maybe insteadin schimb of gettingobtinerea excitedexcitat
about the newnou augmentedaugmented realityrealitate
235
684600
3376
Și poate că în loc să fim entuziasmați
de noua realitate augmentată
și realitate virtuală, și toate chestiile
super ce s-ar putea întâmpla,
11:40
and virtualvirtual realityrealitate
and these coolmisto things that could happenîntâmpla,
236
688000
3296
11:43
whichcare are going to be susceptiblesusceptibil
to the samela fel racerasă for attentionAtenţie,
237
691320
3296
care vor fi susceptibile și ele
cursei pentru atenție,
11:46
if we could fixrepara the racerasă for attentionAtenţie
238
694640
2176
dacă am putea centra cursa pentru atenție
11:48
on the thing that's alreadydeja
in a billionmiliard people'soamenii lui pocketsbuzunare.
239
696840
2720
pe chestia ce deja e în buzunarul
unui miliard de oameni.
11:52
Maybe insteadin schimb of gettingobtinerea excitedexcitat
240
700040
1576
Poate în loc să ne entuziasmăm
11:53
about the mostcel mai excitingemoționant
newnou coolmisto fancyextravagant educationeducaţie appsaplicaţii,
241
701640
4176
despre cele mai mari și tari
aplicații educaționale,
11:57
we could fixrepara the way
kids'Kids' mindsminți are gettingobtinerea manipulatedmanipulate
242
705840
2896
am putea să reglăm cum
mințile copiilor sunt manipulate
12:00
into sendingtrimitere emptygol messagesmesaje
back and forthmai departe.
243
708760
2480
să trimită mesaje fără conținut.
12:04
(ApplauseAplauze)
244
712040
4296
(Aplauze)
12:08
Maybe insteadin schimb of worryingîngrijorătoare
245
716360
1256
În loc să ne îngrijorăm
12:09
about hypotheticalipotetic futureviitor
runawayfugi artificialartificial intelligencesinteligențele
246
717640
3776
depre ipotetica inteligență artificială
din viitor
12:13
that are maximizingmaximizarea for one goalpoartă,
247
721440
1880
maximizată pentru un singur scop,
12:16
we could solverezolva the runawayfugi
artificialartificial intelligenceinteligență
248
724680
2656
am putea rezolva problema
inteligenței artificiale
12:19
that alreadydeja existsexistă right now,
249
727360
2056
ce există deja,
12:21
whichcare are these newsfeedsNewsfeeds
maximizingmaximizarea for one thing.
250
729440
2920
și anume newsfeed-urile
centrate pe un singur scop.
12:26
It's almostaproape like insteadin schimb of runningalergare away
to colonizecoloniza newnou planetsplanete,
251
734080
3816
E ca și cum, în loc să căutăm
să colonizăm noi planete,
12:29
we could fixrepara the one
that we're alreadydeja on.
252
737920
2056
am putea avea grijă de cea pe care trăim.
12:32
(ApplauseAplauze)
253
740000
4120
(Aplauze)
12:40
SolvingRezolvarea this problemproblemă
254
748040
1776
Rezolvarea acestei probleme
12:41
is criticalcritic infrastructureinfrastructură
for solvingrezolvarea everyfiecare other problemproblemă.
255
749840
3800
este infrastructura esențială
pentru rezolvarea tuturor problemelor.
12:46
There's nothing in your life
or in our collectivecolectiv problemsProbleme
256
754600
4016
Nu există nimic în viața personală
ori în problemele colectivității
12:50
that does not requirenecesita our abilityabilitate
to put our attentionAtenţie where we careîngrijire about.
257
758640
3560
care să nu necesite abilitatea de a ne
concentra pe lucrurile la care ținem.
12:55
At the endSfârşit of our livesvieți,
258
763800
1240
La sfârșitul vieții,
12:58
all we have is our attentionAtenţie and our time.
259
766240
2640
tot ce ne rămâne este atenția și timpul.
13:01
What will be time well spenta petrecut for oursa noastra?
260
769800
1896
Cum ne-am petrece constructiv timpul?
13:03
Thank you.
261
771720
1216
Mulțumesc.
13:04
(ApplauseAplauze)
262
772960
3120
(Aplauze)
13:17
ChrisChris AndersonAnderson: TristanTristan, thank you.
Hey, staystau up here a secsec.
263
785760
2936
Chris Anderson: Tristan, mulțumesc.
Mai rămâi un pic aici.
13:20
First of all, thank you.
264
788720
1336
În primul rând, mulțumim.
13:22
I know we askedîntrebă you to do this talk
on prettyfrumos shortmic de statura noticeînștiințare,
265
790080
2776
Știu că ți-am cerut să faci prezentarea
din scurt,
13:24
and you've had quitedestul de a stressfulstresant weeksăptămână
266
792880
2216
și ai avut o săptămână stresantă
13:27
gettingobtinerea this thing togetherîmpreună, so thank you.
267
795120
2440
pentru a pregăti asta, și-ți mulțumim.
13:30
Some people listeningascultare mightar putea say,
what you complainplânge about is addictiondependenta,
268
798680
3976
Poate unii din cei ce ascultă ar zice
că tu de fapt te plângi de dependență,
13:34
and all these people doing this stuffchestie,
for them it's actuallyde fapt interestinginteresant.
269
802680
3496
și că cei ce se lasă absorbiți
sunt chiar interesați de subiecte.
13:38
All these designproiecta decisionsdeciziile
270
806200
1256
Toate deciziile de design
13:39
have builtconstruit userutilizator contentconţinut
that is fantasticallyfantastic interestinginteresant.
271
807480
3096
au conturat un conținut
fantastic de interesant.
13:42
The world'slume more interestinginteresant
than it ever has been.
272
810600
2416
Lumea e mai interesantă decât oricând.
13:45
What's wronggresit with that?
273
813040
1256
Ce-o fi rău în asta?
13:46
TristanTristan HarrisHarris:
I think it's really interestinginteresant.
274
814320
2256
Tristan Harris:
Cred că-i foarte interesant.
13:48
One way to see this
is if you're just YouTubeYouTube, for exampleexemplu,
275
816600
4016
Ai putea să vezi asta dacă să zicem
că ești YouTube, de exemplu,
13:52
you want to always showspectacol
the more interestinginteresant nextUrmător → videovideo.
276
820640
2656
vrei să arăți mereu
cel mai interesant video.
13:55
You want to get better and better
at suggestingsugerând that nextUrmător → videovideo,
277
823320
3016
Vrei să fii din ce în ce mai bun
în a sugera următorul clip,
13:58
but even if you could proposepropune
the perfectperfect nextUrmător → videovideo
278
826360
2456
dar chiar și dacă ai putea propune
clipul perfect,
14:00
that everyonetoata lumea would want to watch,
279
828840
1656
pe care toți și-ar dori să-l vadă,
14:02
it would just be better and better
at keepingpăstrare you hookedcoroiat on the screenecran.
280
830520
3336
tot ce-ar face ar fi să fie
tot mai potrivit în a te ține captiv.
14:05
So what's missingdispărut in that equationecuaţie
281
833880
1656
Deci ce lipsește din ecuație
14:07
is figuringimaginind out what
our boundarieslimite would be.
282
835560
2136
este să stabilim care ar fi limitele.
14:09
You would want YouTubeYouTube to know
something about, say, fallingcădere asleepadormit.
283
837720
3216
Ai vrea ca YouTube să știe câte ceva
despre, să zicem, adormire.
14:12
The CEOCEO of NetflixNetflix recentlyrecent said,
284
840960
1616
CEO-ul Netflix a spus de curând:
14:14
"our biggestCea mai mare competitorsconcurenți
are FacebookFacebook, YouTubeYouTube and sleepdormi."
285
842600
2736
„Marii noștri concurenți sunt
Facebook, YouTube și somnul”
14:17
And so what we need to recognizerecunoaşte
is that the humanuman architecturearhitectură is limitedlimitat
286
845360
4456
Trebuie deci să recunoaștem
că omul este limitat
14:21
and that we have certainanumit boundarieslimite
or dimensionsdimensiuni of our livesvieți
287
849840
2976
și că avem granițe și dimensiuni
în viața noastră
14:24
that we want to be honoredonorat and respectedapreciat,
288
852840
1976
ce ar trebui onorate și respectate,
14:26
and technologytehnologie could help do that.
289
854840
1816
iar tehnologia ar putea ajuta.
14:28
(ApplauseAplauze)
290
856680
2616
(Aplauze)
14:31
CACA: I mean, could you make the casecaz
291
859320
1696
CA: Ai putea spune
14:33
that partparte of the problemproblemă here is that
we'vene-am got a nanaïveve modelmodel of humanuman naturenatură?
292
861040
6056
că o parte a problemei e că avem
un model naiv al firii umane?
14:39
So much of this is justifiedjustificate
in termstermeni of humanuman preferencepreferinţă,
293
867120
2736
Multe se justifică vorbind
despre preferințele omenești,
14:41
where we'vene-am got these algorithmsalgoritmi
that do an amazinguimitor jobloc de munca
294
869880
2616
pe când avem acești algoritmi
ce funcționează excelent
14:44
of optimizingoptimizarea for humanuman preferencepreferinţă,
295
872520
1696
pentru optimizarea preferințelor,
14:46
but whichcare preferencepreferinţă?
296
874240
1336
dar care preferințe?
14:47
There's the preferencesPreferinţe
of things that we really careîngrijire about
297
875600
3496
Putem prefera lucrurile
la care ținem cu adevărat,
14:51
when we think about them
298
879120
1376
atunci când ne gândim,
14:52
versusimpotriva the preferencesPreferinţe
of what we just instinctivelyinstinctiv clickclic on.
299
880520
3056
și nu preferințele lucrurilor
pe care le accesăm din instinct.
14:55
If we could implantimplant that more nuancednuanţată
viewvedere of humanuman naturenatură in everyfiecare designproiecta,
300
883600
4656
Dacă am putea trasa o imagine mai nuanțată
a naturii umane în design,
15:00
would that be a stepEtapa forwardredirecţiona?
301
888280
1456
ar fi oare un pas înainte?
15:01
THTH: AbsolutelyAbsolut. I mean, I think right now
302
889760
1976
TH: Absolut. Adică, cred că acum
15:03
it's as if all of our technologytehnologie
is basicallype scurt only askingcer our lizardsoparla braincreier
303
891760
3496
e ca și cum toată tehnologia
întreabă creierul reptilian:
15:07
what's the bestCel mai bun way
to just impulsivelyimpulsiv get you to do
304
895280
2496
cum pot mai simplu să te fac
să acționezi impulsiv
15:09
the nextUrmător → tiniesttiniest thing with your time,
305
897800
2136
în următoarea bucățică din timpul tău?
15:11
insteadin schimb of askingcer you in your life
306
899960
1656
în loc să te întrebe pe tine,
15:13
what we would be mostcel mai
time well spenta petrecut for you?
307
901640
2176
cum ți-ai petrece
cel mai constructiv timpul?
15:15
What would be the perfectperfect timelinecronologie
that mightar putea includeinclude something latermai tarziu,
308
903840
3296
Ce ar fi optim pentru tine,
ce ar putea include ceva de mai târziu?
15:19
would be time well spenta petrecut for you
here at TEDTED in your last day here?
309
907160
3176
Ar fi constructiv pentru tine
să-ți petreci ultima zi aici la TED?
15:22
CACA: So if FacebookFacebook and GoogleGoogle
and everyonetoata lumea said to us first up,
310
910360
2976
CA: Deci dacă Facebook, Google
și toți ne-ar întreba întâi:
15:25
"Hey, would you like us
to optimizeoptimiza for your reflectivereflexiv braincreier
311
913360
2896
„Hei, ai prefera să-ți optimizăm
creierul reflectiv
15:28
or your lizardsoparla braincreier? You choosealege."
312
916280
1656
ori creierul reptilian? Tu alegi!”
15:29
THTH: Right. That would be one way. Yes.
313
917960
2080
TH: Exact. Asta ar fi o cale. Da.
15:34
CACA: You said persuadabilitypersuadability,
that's an interestinginteresant wordcuvânt to me
314
922358
2858
CA: Vorbeai de persuasibilitate,
un cuvânt nou, interesant,
15:37
because to me there's
two differentdiferit typestipuri of persuadabilitypersuadability.
315
925240
2856
pentru că pentru mine există
două tipuri de persuasibilitate.
15:40
There's the persuadabilitypersuadability
that we're tryingîncercat right now
316
928120
2536
E persuasibilitatea
ce o experimentăm chiar acum,
15:42
of reasonmotiv and thinkinggândire
and makingluare an argumentargument,
317
930680
2176
ce ține de rațiune și gândire
și argumentare,
15:44
but I think you're almostaproape
talkingvorbind about a differentdiferit kinddrăguț,
318
932880
2696
dar cred că tu vorbești de un alt tip,
15:47
a more visceralviscerale typetip of persuadabilitypersuadability,
319
935590
1906
un tip mai visceral,
15:49
of beingfiind persuadedconvins withoutfără
even knowingcunoaștere that you're thinkinggândire.
320
937520
2896
de a fi persuadat fără a-ți da seama
că ți se întămplă.
15:52
THTH: ExactlyExact. The reasonmotiv
I careîngrijire about this problemproblemă so much is
321
940440
2856
TH: Exact. Îmi pasă atât de tare
de problema asta pentru că
15:55
I studiedstudiat at a lablaborator calleddenumit
the PersuasivePersuasivă TechnologyTehnologie LabLaborator at StanfordStanford
322
943320
3176
am studiat în Laboratorul de
tehnologie persuasivă la Stanford
15:58
that taughtînvățat people
exactlyexact these techniquestehnici.
323
946520
2096
ce-i învăța pe cursanți
să recunoască aceste tehnici.
16:00
There's conferencesconferințe and workshopsateliere de lucru
that teacha preda people all these covertsub acoperire waysmoduri
324
948640
3456
Există conferințe și workshopuri
ce ne învață căile ascunse
16:04
of gettingobtinerea people'soamenii lui attentionAtenţie
and orchestratingorchestrarea people'soamenii lui livesvieți.
325
952120
2976
de a capta atenția oamenilor
și de a le dirija viața.
16:07
And it's because mostcel mai people
don't know that that existsexistă
326
955120
2656
Și tocmai pentru că sunt mulți
care nu știu asta,
16:09
that this conversationconversaţie is so importantimportant.
327
957800
1896
e atât de importantă această discuție.
16:11
CACA: TristanTristan, you and I, we bothambii know
so manymulți people from all these companiescompanii.
328
959720
3776
CA: Tristan, și eu și tu știm
mulți oameni din aceste companii.
16:15
There are actuallyde fapt manymulți here in the roomcameră,
329
963520
1976
Mulți sunt chiar în această cameră,
16:17
and I don't know about you,
but my experienceexperienţă of them
330
965520
2477
și nu știu de tine, dar din ce știu eu
despre ei,
16:20
is that there is
no shortagepula of good intentscop.
331
968021
2075
nu le lipsesc intențiile bune.
16:22
People want a better worldlume.
332
970120
2176
Oamenii își doresc o lume mai bună.
16:24
They are actuallyde fapt -- they really want it.
333
972320
3520
Ei chiar - chiar și-o doresc.
16:28
And I don't think anything you're sayingzicală
is that these are evilrău people.
334
976320
4176
Și nu cred că tu vrei să spui
că ei sunt oameni răi.
16:32
It's a systemsistem where there's
these unintendedinvoluntare consequencesconsecințe
335
980520
3696
E un sistem în care există
consecințe nedorite
16:36
that have really got out of controlControl --
336
984240
1856
care au scăpat de sub control
16:38
THTH: Of this racerasă for attentionAtenţie.
337
986120
1496
TH: Cursa pentru atenție.
16:39
It's the classicclasic racerasă to the bottomfund
when you have to get attentionAtenţie,
338
987640
3176
E cursa clasică până la bază,
când trebuie să captezi atenția,
16:42
and it's so tenseîncordat.
339
990840
1216
e foarte intensă.
16:44
The only way to get more
is to go lowerinferior on the braincreier stemtijă,
340
992080
2736
Poți obține mai mult
doar dacă mergi mai la bază,
16:46
to go lowerinferior into outrageultraj,
to go lowerinferior into emotionemoţie,
341
994840
2416
mai adânc în furie, mai adânc în emoție,
16:49
to go lowerinferior into the lizardsoparla braincreier.
342
997280
1696
mai adânc în creierul reptilian.
16:51
CACA: Well, thank you so much for helpingajutor us
all get a little bitpic wisermai înţelept about this.
343
999000
3816
CA: Mulțumim mult că ne ajuți
să aflăm mai multe despre asta.
16:54
TristanTristan HarrisHarris, thank you.
THTH: Thank you very much.
344
1002840
2416
Tristan Harris, mulțumesc.
TH: Mulțumesc mult.
16:57
(ApplauseAplauze)
345
1005280
2240
(Aplauze)
Translated by Emanuela Pascari
Reviewed by Bianca Ioanidia Mirea

▲Back to top

ABOUT THE SPEAKER
Tristan Harris - Design thinker
Tristan Harris helps the technology industry more consciously and ethically shape the human spirit and human potential.

Why you should listen

Tristan Harris has been called "the closest thing Silicon Valley has to a conscience" by The Atlantic magazine. Prior to founding the new Center for Humane Technology, he was Google's Design Ethicist, developing a framework for how technology should "ethically" steer the thoughts and actions of billions of people from screens.  

Harris has spent a decade understanding the invisible influences that hijack human thinking and action. Drawing on literature from addiction, performative magic, social engineering, persuasive design and behavioral economics, he is currently developing a framework for ethical persuasion, especially as it relates to the moral responsibility of technology companies.

Rolling Stone magazine named Harris one of "25 People Shaping the World" in 2017. His work has been featured on TED, "60 Minutes," HBO's "RealTime with Bill Maher," "PBS NewsHour," Recode, The Atlantic, WIRED, the New York Times, Der Spiegel, The Economist and many more. Harris has briefed heads of state, technology company CEOs and members of the US Congress about the attention economy.

More profile about the speaker
Tristan Harris | Speaker | TED.com