ABOUT THE SPEAKER
Tristan Harris - Design thinker
Tristan Harris helps the technology industry more consciously and ethically shape the human spirit and human potential.

Why you should listen

Tristan Harris has been called "the closest thing Silicon Valley has to a conscience" by The Atlantic magazine. Prior to founding the new Center for Humane Technology, he was Google's Design Ethicist, developing a framework for how technology should "ethically" steer the thoughts and actions of billions of people from screens.  

Harris has spent a decade understanding the invisible influences that hijack human thinking and action. Drawing on literature from addiction, performative magic, social engineering, persuasive design and behavioral economics, he is currently developing a framework for ethical persuasion, especially as it relates to the moral responsibility of technology companies.

Rolling Stone magazine named Harris one of "25 People Shaping the World" in 2017. His work has been featured on TED, "60 Minutes," HBO's "RealTime with Bill Maher," "PBS NewsHour," Recode, The Atlantic, WIRED, the New York Times, Der Spiegel, The Economist and many more. Harris has briefed heads of state, technology company CEOs and members of the US Congress about the attention economy.

More profile about the speaker
Tristan Harris | Speaker | TED.com
TED2017

Tristan Harris: How a handful of tech companies control billions of minds every day

Трістан Гарріс: Як група технологічних компаній щодня контролює розум мільярдів людей

Filmed:
2,591,029 views

Група людей, що працює у групі технологічних компаній, щодня керують думками мільярдів людей, - каже спеціаліст із дизайн-мислення Трістан Гарріс. Від сповіщень у Facebook до Snapstreaks та автоматичного відтворення у YouTube, всі вони змагаються лише за одну річ: вашу увагу. Гарріс ділиться тим, як ці компанії полюють на нашу психологію для свого власного прибутку та закликає до відродження дизайну, де б наші технологічні компанії натомість спонукали нас жити за розкладом, за яким ми хочемо.
- Design thinker
Tristan Harris helps the technology industry more consciously and ethically shape the human spirit and human potential. Full bio

Double-click the English transcript below to play the video.

00:12
I want you to imagineуявіть собі
0
960
1200
Я хочу, щоб ви уявили,
як ви заходите до кімнати,
00:15
walkingходити into a roomкімната,
1
3000
1200
00:17
a controlКОНТРОЛЬ roomкімната with a bunchпучок of people,
2
5480
2136
до диспетчерської із купою людей,
00:19
a hundredсто people, hunchedзгорблений
over a deskстіл with little dials-набір,
3
7640
2840
сотнями людей, що згорбились над
столами із маленькими циферблатами,
00:23
and that that controlКОНТРОЛЬ roomкімната
4
11280
1520
і що ця диспетчерська
00:25
will shapeформа the thoughtsдумки and feelingsпочуття
5
13680
3696
може формувати думки та почуття
00:29
of a billionмільярд people.
6
17400
1240
мільярдів людей.
00:32
This mightможе soundзвук like scienceнаука fictionвигадка,
7
20560
1880
Це може скидатися на наукову фантастику,
00:35
but this actuallyнасправді existsіснує
8
23320
2216
але таке справді існує
00:37
right now, todayсьогодні.
9
25560
1200
проямо зараз, сьогодні.
Я це знаю, тому що і сам був
у одній із цих диспетчерських.
00:40
I know because I used to be
in one of those controlКОНТРОЛЬ roomsномери.
10
28040
3360
00:44
I was a designдизайн ethicistethicist at GoogleGoogle,
11
32159
2297
Я був спеціалістом із
етики дизайну в Google,
00:46
where I studiedвивчав how do you ethicallyетично
steerНавантажувачі people'sнародний thoughtsдумки?
12
34480
3360
де я вивчав те, як етично можна
управляти думками людей.
00:50
Because what we don't talk about
is how the handfulЖменя of people
13
38560
2896
Ми не говоримо про те,
що група людей,
00:53
workingпрацює at a handfulЖменя
of technologyтехнологія companiesкомпаній
14
41480
2536
яка працює у групі
технологічних компаній,
00:56
throughчерез theirїх choicesвибір will steerНавантажувачі
what a billionмільярд people are thinkingмислення todayсьогодні.
15
44040
5040
на свій власний розсуд керуватиме тим,
про що сьогодні думає мільярд людей.
01:02
Because when you pullтягнути out your phoneтелефон
16
50400
1736
Тому, коли ти виймаєш телефон,
01:04
and they designдизайн how this worksпрацює
or what's on the feedгодувати,
17
52160
3096
а вони моделюють те, як це працює,
або що у тебе в стрічці,
01:07
it's schedulingпланування little blocksблоки
of time in our mindsрозум.
18
55280
3216
це планує маленькі відрізки часу
у наших думках.
01:10
If you see a notificationсповіщення,
it schedulesрозклади you to have thoughtsдумки
19
58520
3136
Якщо ти бачиш сповіщення,
це спрямовує тебе на думки,
01:13
that maybe you didn't intendмаєте намір to have.
20
61680
2040
яких, можливо, ти не мав наміру мати.
01:16
If you swipeсерветки over that notificationсповіщення,
21
64400
2616
Якщо ви проведете пальцем
по цьому сповіщенню,
01:19
it schedulesрозклади you into spendingвитрати
a little bitбіт of time
22
67040
2381
це наміряє вас витратити
трішки часу
01:21
gettingотримувати suckedсмоктав into something
23
69445
1381
і затягнутись у щось,
01:22
that maybe you didn't intendмаєте намір
to get suckedсмоктав into.
24
70850
2955
у що, можливо, у вас не було
наміру затягуватись.
Коли ми говоримо про технології,
01:27
When we talk about technologyтехнологія,
25
75320
1520
01:30
we tendсхильні to talk about it
as this blueсиній skyнебо opportunityможливість.
26
78040
2696
ми схильні розглядати їх,
як безхмарні можливості.
01:32
It could go any directionнапрямок.
27
80760
1480
Вони можуть піти в будь-якому напрямку.
01:35
And I want to get seriousсерйозно for a momentмомент
28
83400
1856
І я хочу бути зараз серйозним,
01:37
and tell you why it's going
in a very specificконкретний directionнапрямок.
29
85280
2680
та пояснити, чому вони йдуть
у дуже конкретному напрямку.
01:40
Because it's not evolvingрозвивається randomlyвипадково.
30
88840
2200
Тому що вони не розвиваються навмання.
01:44
There's a hiddenприхований goalмета
drivingводіння the directionнапрямок
31
92000
2016
Існує прихована мета,
що керує напрямком
01:46
of all of the technologyтехнологія we make,
32
94040
2136
усіх технологій, які ми створюємо,
01:48
and that goalмета is the raceгонка
for our attentionувага.
33
96200
2920
і цією метою є погоня
за нашою увагою.
01:52
Because everyкожен newновий siteсайт --
34
100840
2736
Тому що кожен новий сайт
01:55
TEDТЕД, electionsвибори, politiciansполітиків,
35
103600
2736
(TED, вибори, політики,
01:58
gamesігри, even meditationМедитація appsдодатки --
36
106360
1976
ігри, навіть додатки для медитації)
02:00
have to competeконкурувати for one thing,
37
108360
1960
повинен змагатись за одну річ,
02:03
whichкотрий is our attentionувага,
38
111160
1736
якою є наша увага,
02:04
and there's only so much of it.
39
112920
1600
а її є обмежена кількість.
02:08
And the bestнайкраще way to get people'sнародний attentionувага
40
116440
2416
А найкращий спосіб отримати увагу людей -
02:10
is to know how someone'sхтось mindрозум worksпрацює.
41
118880
2440
це знати, як працює чийсь розум.
02:13
And there's a wholeцілий bunchпучок
of persuasiveПереконлива techniquesтехніки
42
121800
2336
Існує ціла низка технік переконання,
02:16
that I learnedнавчився in collegeколедж at a labлабораторія
calledназивається the PersuasiveПереконлива TechnologyТехнологія LabЛабораторія
43
124160
3496
які я вивчав у коледжі в
"Лабораторії технік переконання",
02:19
to get people'sнародний attentionувага.
44
127680
1600
щоб привернути увагу людей.
02:21
A simpleпростий exampleприклад is YouTubeYouTube.
45
129880
1480
Простим прикладом є YouTube.
02:24
YouTubeYouTube wants to maximizeмаксимізувати
how much time you spendвитрачати.
46
132000
2936
YouTube хоче максимізувати час,
який ви проводите на сайті.
02:26
And so what do they do?
47
134960
1200
І що ж вони роблять?
02:28
They autoplayавтовідтворення the nextдалі videoвідео.
48
136840
2280
Вони автоматично вмикають
наступне відео.
І треба визнати, це працює справді добре.
02:31
And let's say that worksпрацює really well.
49
139760
1816
02:33
They're gettingотримувати a little bitбіт
more of people'sнародний time.
50
141600
2416
Вони отримують трішки більше
уваги людей.
Якщо ж ви - Netflix,
ви дивитесь і кажете:
02:36
Well, if you're NetflixNetflix,
you look at that and say,
51
144040
2376
02:38
well, that's shrinkingскорочується my marketринок shareподілитися,
52
146440
1858
це зменшує мою частку на ринку,
тож я буду автоматично вмикати
наступну серію.
02:40
so I'm going to autoplayавтовідтворення the nextдалі episodeепізод.
53
148322
2000
Але якщо ви - Facebook,
02:43
But then if you're FacebookFacebook,
54
151320
1376
ви скажете: це забирає всю мою
частку на ринку,
02:44
you say, that's shrinkingскорочується
all of my marketринок shareподілитися,
55
152720
2336
тож тепер я мушу автоматично вмикати
усі відео у стрічці,
02:47
so now I have to autoplayавтовідтворення
all the videosвідеоролики in the newsfeedканал новин
56
155080
2656
02:49
before waitingочікування for you to clickклацніть playграти.
57
157760
1762
не чекаючи, поки ви клікнете на "плей".
02:52
So the internetІнтернет is not evolvingрозвивається at randomвипадковий.
58
160320
3160
Тож інтернет не розвивається навмання.
02:56
The reasonпричина it feelsвідчуваєш
like it's suckingсмоктання us in the way it is
59
164320
4416
Причиною того, що він нас так затягує,
03:00
is because of this raceгонка for attentionувага.
60
168760
2376
є саме погоня за увагою.
Ми знаємо, до чого це все йде.
03:03
We know where this is going.
61
171160
1416
03:04
TechnologyТехнологія is not neutralнейтральний,
62
172600
1520
Технології не є нейтральними,
і це вже стає погонею аж до
стовбура головного мозку,
03:07
and it becomesстає this raceгонка
to the bottomдно of the brainмозок stemстовбур
63
175320
3416
03:10
of who can go lowerнижче to get it.
64
178760
2200
і за тим, хто зможе пробратися глибше.
03:13
Let me give you an exampleприклад of SnapchatSnapchat.
65
181920
2336
Я наведу вам для прикладу Snapchat.
03:16
If you didn't know,
SnapchatSnapchat is the numberномер one way
66
184280
3696
Якщо ви не знали, то Snapchat є
найпопулярнішим засобом
03:20
that teenagersпідлітки in
the UnitedЮнайтед StatesШтати communicateспілкуватися.
67
188000
2256
комунікації серед підлітків
у Сполучених Штатах.
03:22
So if you're like me, and you use
textтекст messagesповідомлення to communicateспілкуватися,
68
190280
4176
Якщо ви, як і я, користуєтесь текстовими
повідомленнями, щоб спілкуватись,
03:26
SnapchatSnapchat is that for teenagersпідлітки,
69
194480
1776
то Snapchat є тим же для підлітків,
03:28
and there's, like,
a hundredсто millionмільйон of them that use it.
70
196280
2696
і його користувачів є
приблизно 100 мільйонів.
03:31
And they inventedвинайшов
a featureособливість calledназивається SnapstreaksSnapstreaks,
71
199000
2216
Вони винайшли фішку
під назвою Snapstreaks,
03:33
whichкотрий showsшоу the numberномер of daysдні in a rowрядок
72
201240
1896
яка показує кількість днів підряд,
03:35
that two people have
communicatedповідомили with eachкожен other.
73
203160
2616
коли двоє людей спілкувались
один з одним.
03:37
In other wordsслова, what they just did
74
205800
1856
Іншими словами, що вони зробили,
03:39
is they gaveдав two people
something they don't want to loseвтрачати.
75
207680
2960
так це просто дали двом людям щось,
що вони не хочуть втрачати.
03:44
Because if you're a teenagerпідліток,
and you have 150 daysдні in a rowрядок,
76
212000
3456
Тому, якщо ви підліток, і у вас є
діалог тривалістю 150 днів підряд,
03:47
you don't want that to go away.
77
215480
1976
ви не хочете, щоб це просто зникло.
03:49
And so think of the little blocksблоки of time
that that schedulesрозклади in kids'Діти' mindsрозум.
78
217480
4160
Тож подумайте про маленькі відрізки часу,
які виникають через це у думках дітей.
Це не просто теорія:
коли дітлахи їдуть на канікули,
03:54
This isn't theoreticalтеоретичний:
when kidsдіти go on vacationвідпочинок,
79
222160
2336
03:56
it's been shownпоказано they give theirїх passwordsпаролі
to up to fiveп'ять other friendsдрузі
80
224520
3256
вони дають свої паролі
п'ятьом іншим друзям,
03:59
to keep theirїх SnapstreaksSnapstreaks going,
81
227800
2216
щоб ті вели їхні Snapstreaks,
навіть коли вони самі цього
не можуть зробити.
04:02
even when they can't do it.
82
230040
2016
04:04
And they have, like, 30 of these things,
83
232080
1936
І вони мають по 30 таких діалогів,
04:06
and so they have to get throughчерез
takingвзяти photosфотографії of just picturesмалюнки or wallsстіни
84
234040
3376
і тому вони мусять робити фотографії
просто картинок чи стін
04:09
or ceilingsстелі just to get throughчерез theirїх day.
85
237440
2480
чи стель, просто щоб їм зарахувався день.
04:13
So it's not even like
they're havingмаючи realреальний conversationsрозмови.
86
241200
2696
Тож, вони, по суті, навіть
по-справжньому не розмовляють.
04:15
We have a temptationспокуса to think about this
87
243920
1936
Ми схильні думати про це на кшталт:
04:17
as, oh, they're just usingвикористовуючи SnapchatSnapchat
88
245880
2696
вони просто використовують Snapchat,
04:20
the way we used to
gossipплітки on the telephoneтелефон.
89
248600
2016
так само, як ми теревенили по телефону.
04:22
It's probablyймовірно OK.
90
250640
1200
Це, напевно, нормально.
04:24
Well, what this missesпромахів
is that in the 1970s,
91
252480
2256
Але прогалина в тому,
що у 1970-их,
04:26
when you were just
gossipingпліткують on the telephoneтелефон,
92
254760
2615
коли ви просто теревенили
по телефону,
04:29
there wasn'tне було a hundredсто engineersінженери
on the other sideсторона of the screenекран
93
257399
3017
не було сотні інженерів
по той бік екрану,
04:32
who knewзнав exactlyточно
how your psychologyпсихологія workedпрацював
94
260440
2056
які б точно знали, як працює
ваша психологія
04:34
and orchestratedорганізували you
into a doubleподвійний bindзв'язати with eachкожен other.
95
262520
2640
та створювали між вами
"подвійне послання".
04:38
Now, if this is makingвиготовлення you
feel a little bitбіт of outrageобурення,
96
266440
3400
Якщо це змушує вас почуватись
дещо ображеними,
04:42
noticeпомітити that that thought
just comesприходить over you.
97
270680
2576
зауважте, що ця думка
просто охоплює вас.
04:45
OutrageОбурення is a really good way alsoтакож
of gettingотримувати your attentionувага,
98
273280
3320
Образа - це справді хороший спосіб
привернути вашу увагу,
04:49
because we don't chooseвибирай outrageобурення.
99
277880
1576
тому що ми не вибираємо образу.
04:51
It happensбуває to us.
100
279480
1416
Це просто з нами стається.
04:52
And if you're the FacebookFacebook newsfeedканал новин,
101
280920
1856
Якщо ви гортаєте стрічку у Facebook,
04:54
whetherчи то you'dти б want to or not,
102
282800
1416
хочете ви того чи ні,
04:56
you actuallyнасправді benefitкористь when there's outrageобурення.
103
284240
2736
ви насправді виграєте від того,
коли є образа.
04:59
Because outrageобурення
doesn't just scheduleрозклад a reactionреакція
104
287000
2936
Тому що образа не просто
планує вашу реакцію
05:01
in emotionalемоційний time, spaceпростір, for you.
105
289960
2880
в емоційному часі та просторі.
05:05
We want to shareподілитися that outrageобурення
with other people.
106
293440
2416
Ми хочемо поділитися цією образою
з іншими людьми.
Тож ми хочемо натиснути "Поділитися"
05:07
So we want to hitхіт shareподілитися and say,
107
295880
1576
05:09
"Can you believe the thing
that they said?"
108
297480
2040
та сказати: "Ви можете в це повірити?"
05:12
And so outrageобурення worksпрацює really well
at gettingотримувати attentionувага,
109
300520
3376
Оскільки образа спрацьовує справді добре
і привертає увагу.
05:15
suchтакий that if FacebookFacebook had a choiceвибір
betweenміж showingпоказати you the outrageобурення feedгодувати
110
303920
3896
Тому, якби у Facebook був вибір між тим,
щоб показувати вам образливі новини
05:19
and a calmспокійний newsfeedканал новин,
111
307840
1320
чи нейтральні новини,
то вони б обрали показувати вам
образливі новини,
05:22
they would want
to showпоказати you the outrageобурення feedгодувати,
112
310120
2136
05:24
not because someoneхтось
consciouslyсвідомо choseвибрав that,
113
312280
2056
і не тому, що хтось це свідомо вибрав,
05:26
but because that workedпрацював better
at gettingотримувати your attentionувага.
114
314360
2680
а тому, що це краще працює
на привернення вашої уваги.
05:31
And the newsfeedканал новин controlКОНТРОЛЬ roomкімната
is not accountableпідзвітний to us.
115
319120
5480
І відділ контролю новин
не відповідальний перед нами.
Він відповідальний за
максимізацію уваги.
05:37
It's only accountableпідзвітний
to maximizingМаксимізація attentionувага.
116
325040
2296
05:39
It's alsoтакож accountableпідзвітний,
117
327360
1216
Він також відповідальний,
05:40
because of the businessбізнес modelмодель
of advertisingреклама,
118
328600
2376
через бізнес-модель реклами,
перед будь-ким, хто заплатить більше,
щоб власне зайти до відділу контролю
05:43
for anybodyніхто who can payплатити the mostнайбільше
to actuallyнасправді walkходити into the controlКОНТРОЛЬ roomкімната
119
331000
3336
05:46
and say, "That groupгрупа over there,
120
334360
1576
та сказати: "Агов, група отам,
05:47
I want to scheduleрозклад these thoughtsдумки
into theirїх mindsрозум."
121
335960
2640
я хочу вселити людям у голову
оці думки."
05:51
So you can targetціль,
122
339760
1200
Тож, можна спрямовувати,
05:54
you can preciselyточно targetціль a lieбрешуть
123
342040
1936
точно спрямовувати брехню
05:56
directlyбезпосередньо to the people
who are mostнайбільше susceptibleсприйнятливий.
124
344000
2920
прямо до людей, які є найбільш вразливі.
06:00
And because this is profitableвигідний,
it's only going to get worseгірше.
125
348080
2880
І через те, що це є прибутковим,
буде ставати лише гірше.
06:05
So I'm here todayсьогодні
126
353040
1800
Тож сьогодні я тут,
06:08
because the costsвитрати are so obviousочевидний.
127
356160
2000
бо ціна цього є очевидною.
06:12
I don't know a more urgentтерміново
problemпроблема than this,
128
360280
2136
Я не знаю проблеми більш нагальної,
ніж ця,
06:14
because this problemпроблема
is underneathвнизу all other problemsпроблеми.
129
362440
3120
тому що ця проблема лежить в основі
всіх інших проблем.
06:18
It's not just takingвзяти away our agencyагентство
130
366720
3176
Це лише забирає нашу владу
06:21
to spendвитрачати our attentionувага
and liveжити the livesживе that we want,
131
369920
2600
витрачати нашу увагу та жити так,
як ми хочемо,
це змінює спосіб нашого спілкування,
06:25
it's changingзмінюється the way
that we have our conversationsрозмови,
132
373720
3536
06:29
it's changingзмінюється our democracyдемократія,
133
377280
1736
це змінює нашу демократію,
06:31
and it's changingзмінюється our abilityздібності
to have the conversationsрозмови
134
379040
2616
це змінює нашу здатність
вести розмови
06:33
and relationshipsвідносини we want with eachкожен other.
135
381680
2000
та підтримувати відносини так,
як ми хочемо.
06:37
And it affectsвпливає everyoneкожен,
136
385160
1776
І це впливає на кожного,
06:38
because a billionмільярд people
have one of these in theirїх pocketкишеня.
137
386960
3360
бо мільярд людей має
оце у своїй кишені.
06:45
So how do we fixвиправити this?
138
393360
1400
Тож як ми це виправимо?
06:49
We need to make threeтри radicalрадикальний changesзміни
139
397080
2936
Нам потрібно впровадити
три радикальні зміни
06:52
to technologyтехнологія and to our societyсуспільство.
140
400040
1800
у технології та у наше суспільство.
06:55
The first is we need to acknowledgeвизнати
that we are persuadablepersuadable.
141
403720
3800
По-перше, нам потрібно визнати,
що ми схильні до навіювання.
07:00
OnceОдного разу you startпочати understandingрозуміння
142
408840
1376
Коли ми почнемо розуміти,
07:02
that your mindрозум can be scheduledзаплановано
into havingмаючи little thoughtsдумки
143
410240
2776
що наш розум може бути спрямований
на певні думки
07:05
or little blocksблоки of time
that you didn't chooseвибирай,
144
413040
2576
або маленькі відрізки часу,
які ми не планували,
07:07
wouldn'tне буде we want to use that understandingрозуміння
145
415640
2056
чи не захочемо ми використати
це розуміння
07:09
and protectзахистити againstпроти the way
that that happensбуває?
146
417720
2160
та захистити себе від цього?
07:12
I think we need to see ourselvesми самі
fundamentallyпринципово in a newновий way.
147
420600
3296
Я гадаю, нам потрібно подивитися на себе
докорінно по-новому.
07:15
It's almostмайже like a newновий periodперіод
of humanлюдина historyісторія,
148
423920
2216
Це майже новий період
в історії людства,
07:18
like the EnlightenmentПросвітництва,
149
426160
1216
як Просвітництво,
але це певний вид Просвітництва
самоусвідомлення
07:19
but almostмайже a kindдоброзичливий of
self-awareсамосвідомість EnlightenmentПросвітництва,
150
427400
2216
07:21
that we can be persuadedпереконаний,
151
429640
2080
в тому, що ми схильні до навіювання,
07:24
and there mightможе be something
we want to protectзахистити.
152
432320
2240
і що може бути щось, що ми б
хотіли захистити.
07:27
The secondдругий is we need newновий modelsмоделі
and accountabilityпідзвітність systemsсистеми
153
435400
4576
По-друге, нам потрібні нові моделі
та системи відповідальності -
07:32
so that as the worldсвіт getsотримує better
and more and more persuasiveПереконлива over time --
154
440000
3496
оскільки з часом світ стає кращим та все
більш схильним до навіювання,
07:35
because it's only going
to get more persuasiveПереконлива --
155
443520
2336
і буде ставати лише ще більш схильним, -
07:37
that the people in those controlКОНТРОЛЬ roomsномери
156
445880
1856
щоб люди у тих відділах контролю
були відповідальними та прозорими
перед тим, чого ми хочемо.
07:39
are accountableпідзвітний and transparentпрозорий
to what we want.
157
447760
2456
07:42
The only formформа of ethicalетичний
persuasionпереконання that existsіснує
158
450240
2696
Єдина існуючи форма етичного переконання -
07:44
is when the goalsцілі of the persuaderpersuader
159
452960
1936
це коли цілі того, хто переконує,
07:46
are alignedу відповідність with the goalsцілі
of the persuadeepersuadee.
160
454920
2200
співпадають із цілями того,
кого переконують.
07:49
And that involvesвключає questioningдопит bigвеликий things,
like the businessбізнес modelмодель of advertisingреклама.
161
457640
3840
І це поставить під сумнів солідні речі,
такі як бізнес-модель реклами.
07:54
LastlyІ нарешті,
162
462720
1576
І останнє,
07:56
we need a designдизайн renaissanceренесанс,
163
464320
1680
нам потрібне відродження дизайну,
07:59
because onceодин раз you have
this viewвид of humanлюдина natureприрода,
164
467080
3056
бо коли у вас є таке бачення
людської природи,
що ви можете керувати
розкладом мільярда людей, -
08:02
that you can steerНавантажувачі the timelinesчасових шкал
of a billionмільярд people --
165
470160
2976
лише уявіть, є люди,
котрі мають певні бажання
08:05
just imagineуявіть собі, there's people
who have some desireбажання
166
473160
2736
щодо того, що вони хочуть робити
та про що вони хочуть думати
08:07
about what they want to do
and what they want to be thinkingмислення
167
475920
2856
та що вони хочуть відчувати та як
вони хочуть бути проінформовані,
08:10
and what they want to be feelingпочуття
and how they want to be informedповідомили,
168
478800
3136
а нас всіх тягнуть в інші напрямки.
08:13
and we're all just tuggedсмикнув
into these other directionsнапрямки.
169
481960
2536
І є мільярд людей, яких просто тягнуть
у ці всі різні напрямки.
08:16
And you have a billionмільярд people just tuggedсмикнув
into all these differentінший directionsнапрямки.
170
484520
3696
Уявіть відродження дизайну,
08:20
Well, imagineуявіть собі an entireцілий designдизайн renaissanceренесанс
171
488240
2056
ціллю якого було б створення
таких розкладів, які б давали можливість
08:22
that triedспробував to orchestrateорганізувати
the exactточно and mostнайбільше empoweringрозширення можливостей
172
490320
3096
08:25
time-well-spentчас добре, проведений way
for those timelinesчасових шкал to happenстатися.
173
493440
3136
проводити час у найбільш
ефективний спосіб.
08:28
And that would involveзалучити two things:
174
496600
1656
Це включатиме дві речі:
08:30
one would be protectingзахист
againstпроти the timelinesчасових шкал
175
498280
2136
по-перше, це буде захищати нас
від розкладів,
08:32
that we don't want to be experiencingпереживає,
176
500440
1856
яких ми не хочемо дотримуватись,
08:34
the thoughtsдумки that we
wouldn'tне буде want to be happeningвідбувається,
177
502320
2416
від думок, виникнення яких ми не хочемо,
тож коли продзвенить цей дзвіночок,
щоб він на нас не діяв;
08:36
so that when that dingDing happensбуває,
not havingмаючи the dingDing that sendsпосилає us away;
178
504760
3336
а по-друге, це б давало нам право жити
за тими розкладами, за якими ми хочемо.
08:40
and the secondдругий would be empoweringрозширення можливостей us
to liveжити out the timelineЧасова шкала that we want.
179
508120
3616
08:43
So let me give you a concreteбетон exampleприклад.
180
511760
1880
Давайте я наведу конкретний приклад.
Припустимо, що сьогодні друг
відмінив із вами вечерю,
08:46
TodayСьогодні, let's say your friendдруг
cancelsскасовує dinnerвечеря on you,
181
514280
2456
08:48
and you are feelingпочуття a little bitбіт lonelyсамотній.
182
516760
3775
і ви почуваєтесь дещо самотнім.
08:52
And so what do you do in that momentмомент?
183
520559
1817
І що ви робите в цей момент?
08:54
You openВІДЧИНЕНО up FacebookFacebook.
184
522400
1279
Ви відкриваєте Facebook.
08:56
And in that momentмомент,
185
524960
1696
І в цей момент
08:58
the designersдизайнерів in the controlКОНТРОЛЬ roomкімната
want to scheduleрозклад exactlyточно one thing,
186
526680
3376
дизайнери у диспетчерській
хочуть спланувати лише одну річ,
09:02
whichкотрий is to maximizeмаксимізувати how much time
you spendвитрачати on the screenекран.
187
530080
3040
а саме, як максимізувати час,
який ви витратили перед екраном.
09:06
Now, insteadзамість цього, imagineуявіть собі if those designersдизайнерів
createdстворений a differentінший timelineЧасова шкала
188
534640
3896
А тепер натомість уявіть, що ті дизайнери
створили інший розклад,
09:10
that was the easiestнайпростіший way,
usingвикористовуючи all of theirїх dataдані,
189
538560
3496
використовуючи всі свої дані,
який був би найлегшим способом,
09:14
to actuallyнасправді help you get out
with the people that you careтурбота about?
190
542080
3096
який насправді допоміг би вам зустрітись
із людьми, які вам дорогі?
09:17
Just think, alleviatingпом'якшення
all lonelinessСамотність in societyсуспільство,
191
545200
5416
Лишень подумайте, наскільки б це
пом'якшило всю самотність у суспільстві,
якщо б це був той розклад, який Facebook
хотів би зробити можливим для людей.
09:22
if that was the timelineЧасова шкала that FacebookFacebook
wanted to make possibleможливий for people.
192
550640
3496
09:26
Or imagineуявіть собі a differentінший conversationрозмова.
193
554160
1715
Або ж уявіть іншу ситуацію.
09:27
Let's say you wanted to postпост
something supercontroversialsupercontroversial on FacebookFacebook,
194
555899
3317
Скажімо, ви хочете запостити щось
дуже суперечливе у Facebook,
09:31
whichкотрий is a really importantважливо
thing to be ableздатний to do,
195
559240
2416
можливість чого, до речі, є дуже
важливою,
09:33
to talk about controversialсуперечливий topicsтеми.
196
561680
1696
говорити на суперечливі теми.
Зараз, коли з'являється велике
віконце для коментаря,
09:35
And right now, when there's
that bigвеликий commentкоментар boxкоробка,
197
563400
2336
09:37
it's almostмайже askingзапитую you,
what keyключ do you want to typeтип?
198
565760
3376
воно майже запитує вас,
яким відтінком ви хочете друкувати.
09:41
In other wordsслова, it's schedulingпланування
a little timelineЧасова шкала of things
199
569160
2816
Іншими словами, це планує
маленькі відрізки часу на речі,
через які ви продовжите
робити щось на екрані.
09:44
you're going to continueпродовжуй
to do on the screenекран.
200
572000
2136
А уявіть, що натомість там була б
інша кнопка, яка б запитувала,
09:46
And imagineуявіть собі insteadзамість цього that there was
anotherінший buttonкнопка there sayingкажучи,
201
574160
2976
що було б найкращим способом
проведення часу для вас?
09:49
what would be mostнайбільше
time well spentвитрачений for you?
202
577160
2056
09:51
And you clickклацніть "hostхост a dinnerвечеря."
203
579240
1576
І ви натискаєте "запросити на вечерю".
09:52
And right there
underneathвнизу the itemпозиція it said,
204
580840
2096
І прямо під цим написано:
09:54
"Who wants to RSVPRSVP for the dinnerвечеря?"
205
582960
1696
"Хто хоче відповісти на запрошення
на вечерю?"
09:56
And so you'dти б still have a conversationрозмова
about something controversialсуперечливий,
206
584680
3256
Таким чином, ви б так само говорили
про щось суперечливе,
09:59
but you'dти б be havingмаючи it in the mostнайбільше
empoweringрозширення можливостей placeмісце on your timelineЧасова шкала,
207
587960
3736
але ви б робили це у найбільш
сприятливому для вас місці,
10:03
whichкотрий would be at home that night
with a bunchпучок of a friendsдрузі over
208
591720
3016
вдома ввечері із кількома
друзями, що заскочили в гості,
10:06
to talk about it.
209
594760
1200
щоб про це поговорити.
10:09
So imagineуявіть собі we're runningбіг, like,
a find and replaceзамінити
210
597000
3160
Тож уявіть, що ми ніби натискаємо
"знайти та замінити"
10:13
on all of the timelinesчасових шкал
that are currentlyв даний час steeringрульове управління us
211
601000
2576
на всіх графіках, які на даний момент
нас скеровують
10:15
towardsназустріч more and more
screenекран time persuasivelyпереконливо
212
603600
2560
проводити все більше
і більше часу перед екраном,
10:19
and replacingзамінити all of those timelinesчасових шкал
213
607080
2536
та замінити всі ці графіки
10:21
with what do we want in our livesживе.
214
609640
1640
тим, що ми справді хочемо у житті.
Так не повинно бути.
10:26
It doesn't have to be this way.
215
614960
1480
10:30
InsteadЗамість цього of handicappingобмежує можливості інвалідів our attentionувага,
216
618360
2256
Замість того, щоб переключати нашу увагу,
10:32
imagineуявіть собі if we used all of this dataдані
and all of this powerвлада
217
620640
2816
уявіть, якби ми використали всю цю
інформацію та владу,
і це нове бачення людської природи,
10:35
and this newновий viewвид of humanлюдина natureприрода
218
623480
1616
10:37
to give us a superhumanнадлюдську abilityздібності to focusфокус
219
625120
2856
щоб отримати надприродну
здібність фокусуватися
10:40
and a superhumanнадлюдську abilityздібності to put
our attentionувага to what we caredпіклувався about
220
628000
4136
та надприродну здібність приділяти свою
увагу речам, що нам небайдужі,
10:44
and a superhumanнадлюдську abilityздібності
to have the conversationsрозмови
221
632160
2616
та надприродну здібність вести розмови,
10:46
that we need to have for democracyдемократія.
222
634800
2000
які нам потрібно вести заради демократії.
10:51
The mostнайбільше complexкомплекс challengesвиклики in the worldсвіт
223
639600
2680
Найскладніші виклики у світі
10:56
requireвимагати not just us
to use our attentionувага individuallyіндивідуально.
224
644280
3120
вимагають від нас не лише використання
нашої уваги індивідуально.
Вони вимагають від нас використовувати
нашу увагу та разом координувати її.
11:00
They requireвимагати us to use our attentionувага
and coordinateкоординувати it togetherразом.
225
648440
3320
11:04
ClimateКлімат changeзмінити is going to requireвимагати
that a lot of people
226
652440
2816
Зміна клімату вимагатиме,
щоб багато людей
11:07
are beingбуття ableздатний
to coordinateкоординувати theirїх attentionувага
227
655280
2096
були здатні координувати їхню увагу
11:09
in the mostнайбільше empoweringрозширення можливостей way togetherразом.
228
657400
1896
разом у найбільш ефективний спосіб.
11:11
And imagineуявіть собі creatingстворення
a superhumanнадлюдську abilityздібності to do that.
229
659320
3080
І уявіть, що ми набудемо таку
надприродну здібність.
11:19
SometimesІноді the world'sсвітовий
mostнайбільше pressingнатискання and importantважливо problemsпроблеми
230
667000
4160
Інколи найбільш нагальні та важливі
проблеми у світі -
11:24
are not these hypotheticalгіпотетичний futureмайбутнє things
that we could createстворити in the futureмайбутнє.
231
672040
3840
це не якісь гіпотетичні речі,
які ми можемо створити у майбутньому.
Іноді найбільш нагальні проблеми -
11:28
SometimesІноді the mostнайбільше pressingнатискання problemsпроблеми
232
676560
1736
11:30
are the onesті, хто that are
right underneathвнизу our nosesноси,
233
678320
2336
це ті, котрі прямо у нас під носом,
11:32
the things that are alreadyвже directingрежисура
a billionмільярд people'sнародний thoughtsдумки.
234
680680
3120
це речі, котрі вже спрямовують
думки мільярда людей.
11:36
And maybe insteadзамість цього of gettingотримувати excitedсхвильований
about the newновий augmentedзбільшено realityреальність
235
684600
3376
І, мабуть, замість того, щоб захоплюватися
новою доповненою реальністю
11:40
and virtualвіртуальний realityреальність
and these coolкруто things that could happenстатися,
236
688000
3296
і віртуальною реальністю та
можливими класними речами,
11:43
whichкотрий are going to be susceptibleсприйнятливий
to the sameтой же raceгонка for attentionувага,
237
691320
3296
які будуть предметом тієї ж
погоні за увагою,
11:46
if we could fixвиправити the raceгонка for attentionувага
238
694640
2176
нам треба зупинити погоню за увагою
11:48
on the thing that's alreadyвже
in a billionмільярд people'sнародний pocketsкишені.
239
696840
2720
через речі, які вже є у кишенях
мільярдів людей.
11:52
Maybe insteadзамість цього of gettingотримувати excitedсхвильований
240
700040
1576
Може, замість захоплення
11:53
about the mostнайбільше excitingхвилююче
newновий coolкруто fancyуява educationосвіта appsдодатки,
241
701640
4176
найцікавішими новими класними
освітніми додатками
11:57
we could fixвиправити the way
kids'Діти' mindsрозум are gettingотримувати manipulatedманіпулювати
242
705840
2896
нам варто змінити те, як думками
дітей вміло маніпулюють
12:00
into sendingвідправка emptyпорожній messagesповідомлення
back and forthчетвертий.
243
708760
2480
та змушують їх слати пусті повідомлення
туди-сюди.
12:04
(ApplauseОплески)
244
712040
4296
(Оплески)
Можливо, замість того, щоб хвилюватись
12:08
Maybe insteadзамість цього of worryingтурбуючись
245
716360
1256
12:09
about hypotheticalгіпотетичний futureмайбутнє
runawayвтеча artificialштучний intelligencesрозвідки
246
717640
3776
про гіпотетичні нестримні штучні
інтелекти у майбутньому,
12:13
that are maximizingМаксимізація for one goalмета,
247
721440
1880
які максимізовані задля єдиної мети,
ми могли б розв'язати проблему
нестримного штучного інтелекту,
12:16
we could solveвирішити the runawayвтеча
artificialштучний intelligenceрозвідка
248
724680
2656
12:19
that alreadyвже existsіснує right now,
249
727360
2056
який існує прямо зараз,
12:21
whichкотрий are these newsfeedsNewsfeeds
maximizingМаксимізація for one thing.
250
729440
2920
і це є ті стрічки новин,
що збільшуються для єдиної мети.
12:26
It's almostмайже like insteadзамість цього of runningбіг away
to colonizeколонізувати newновий planetsпланети,
251
734080
3816
Це майже те саме, що замість летіти
колонізувати нові планети,
12:29
we could fixвиправити the one
that we're alreadyвже on.
252
737920
2056
ми б могли виправити ту,
на якій ми вже є.
12:32
(ApplauseОплески)
253
740000
4120
(Оплески)
12:40
SolvingВирішення this problemпроблема
254
748040
1776
Вирішення цієї проблеми
12:41
is criticalкритичний infrastructureінфраструктура
for solvingвирішення everyкожен other problemпроблема.
255
749840
3800
є важливою основою
для вирішення інших проблем.
12:46
There's nothing in your life
or in our collectiveколективний problemsпроблеми
256
754600
4016
Немає нічого у нашому житті
або у наших спільних проблемах такого,
12:50
that does not requireвимагати our abilityздібності
to put our attentionувага where we careтурбота about.
257
758640
3560
де б не потрібна була здатність скерувати
нашу увагу на те, що нам небайдуже.
12:55
At the endкінець of our livesживе,
258
763800
1240
І вкінці нашого життя,
12:58
all we have is our attentionувага and our time.
259
766240
2640
все, що у нас є, - це наша увага і наш час.
То що ж буде добре проведеним
часом для нас?
13:01
What will be time well spentвитрачений for oursнаш?
260
769800
1896
13:03
Thank you.
261
771720
1216
Дякую.
13:04
(ApplauseОплески)
262
772960
3120
(Оплески)
Кріс Андерсон: Трістане, дякую тобі.
Залишся ще на секунду.
13:17
ChrisКріс AndersonАндерсон: TristanТрістан, thank you.
Hey, stayзалишитися up here a secсек.
263
785760
2936
Перш за все, дякую.
13:20
First of all, thank you.
264
788720
1336
Я знаю, що ми попросили тебе підготувати
цю промову за досить короткий час,
13:22
I know we askedзапитав you to do this talk
on prettyкрасиво shortкороткий noticeпомітити,
265
790080
2776
13:24
and you've had quiteцілком a stressfulстресовий weekтиждень
266
792880
2216
і у тебе був напружений тиждень,
13:27
gettingотримувати this thing togetherразом, so thank you.
267
795120
2440
поки ти готувався, тож дякую тобі.
13:30
Some people listeningслухати mightможе say,
what you complainскаржись about is addictionнаркоманія,
268
798680
3976
Дехто із слухачів може сказати,
що ти нарікаєш на залежність,
13:34
and all these people doing this stuffречі,
for them it's actuallyнасправді interestingцікаво.
269
802680
3496
і для людей, які цим займаються,
це справді цікаво.
Всі ці дизайнерські рішення
13:38
All these designдизайн decisionsрішення
270
806200
1256
13:39
have builtпобудований userкористувач contentзміст
that is fantasticallyфантастично interestingцікаво.
271
807480
3096
створили фантастично цікавий
контент для користувача.
Світ зараз набагато цікавіший,
ніж він коли-небудь був.
13:42
The world'sсвітовий more interestingцікаво
than it ever has been.
272
810600
2416
Тож що ж поганого у цьому?
13:45
What's wrongнеправильно with that?
273
813040
1256
13:46
TristanТрістан HarrisГарріс:
I think it's really interestingцікаво.
274
814320
2256
Трістан Гарріс: Я думаю,
це справді цікаво.
Це можна побачити, якщо ви -
YouTube, наприклад,
13:48
One way to see this
is if you're just YouTubeYouTube, for exampleприклад,
275
816600
4016
то ви завжди захочете показувати
цікавіші наступні відео.
13:52
you want to always showпоказати
the more interestingцікаво nextдалі videoвідео.
276
820640
2656
13:55
You want to get better and better
at suggestingпропонуючи that nextдалі videoвідео,
277
823320
3016
Ви хочете ставати все кращими,
пропонуючи наступне відео,
але навіть, якщо б ви могли запропонувати
бездоганне наступне відео,
13:58
but even if you could proposeзапропонувати
the perfectдосконалий nextдалі videoвідео
278
826360
2456
14:00
that everyoneкожен would want to watch,
279
828840
1656
яке б усі хотіли дивитись,
14:02
it would just be better and better
at keepingзберігання you hookedпідключений on the screenекран.
280
830520
3336
то це було б краще лише для того,
щоб тримати вас прикутим до екрану.
У цьому рівнянні не вистачає лиш одного -
14:05
So what's missingвідсутній in that equationрівняння
281
833880
1656
14:07
is figuringз'ясувати out what
our boundariesкордони would be.
282
835560
2136
це вияснити, де ж буде наша межа.
14:09
You would want YouTubeYouTube to know
something about, say, fallingпадіння asleepсплять.
283
837720
3216
Ви б хотіли подивитись на YouTube
щось про, скажімо, засинання.
Керівництво Netflix нещодавно сказало:
14:12
The CEOГЕНЕРАЛЬНИЙ ДИРЕКТОР of NetflixNetflix recentlyнещодавно said,
284
840960
1616
"Нашими головними конкурентами є
Facebook, YouTube та сон."
14:14
"our biggestнайбільший competitorsконкуренти
are FacebookFacebook, YouTubeYouTube and sleepспати."
285
842600
2736
14:17
And so what we need to recognizeрозпізнати
is that the humanлюдина architectureархітектура is limitedобмежений
286
845360
4456
Тож нам потрібно визнати,
що будова людини є обмеженою
14:21
and that we have certainпевний boundariesкордони
or dimensionsрозміри of our livesживе
287
849840
2976
і що ми маємо певні межі та
простори у нашому житті,
14:24
that we want to be honoredзаслужений and respectedшановний,
288
852840
1976
і ми хочемо, щоб їх поважали,
а технології могли б допомогти у цьому.
14:26
and technologyтехнологія could help do that.
289
854840
1816
14:28
(ApplauseОплески)
290
856680
2616
(Оплески)
14:31
CAКАЛІФОРНІЯ: I mean, could you make the caseсправа
291
859320
1696
КА: Чи міг би ти обґрунтувати,
14:33
that partчастина of the problemпроблема here is that
we'veми маємо got a naNaïveе. modelмодель of humanлюдина natureприрода?
292
861040
6056
що частиною проблеми тут є наша
наївна модель людської природи?
14:39
So much of this is justifiedвиправдано
in termsтерміни of humanлюдина preferenceпереваги,
293
867120
2736
Багато можна виправдати
через вибір людини,
14:41
where we'veми маємо got these algorithmsалгоритми
that do an amazingдивовижний jobробота
294
869880
2616
де у нас є алгоритми, які
чудово працюють
14:44
of optimizingоптимізація for humanлюдина preferenceпереваги,
295
872520
1696
та оптимізують вибір людини,
14:46
but whichкотрий preferenceпереваги?
296
874240
1336
але ж який вибір?
14:47
There's the preferencesналаштування
of things that we really careтурбота about
297
875600
3496
Є вибір щодо речей, які нам
справді небайдужі,
14:51
when we think about them
298
879120
1376
коли ми про них думаємо,
на противагу вибору щодо того,
на що ми просто інстинктивно натискаємо.
14:52
versusпроти the preferencesналаштування
of what we just instinctivelyінстинктивно clickклацніть on.
299
880520
3056
14:55
If we could implantімплантату that more nuancedнюанси
viewвид of humanлюдина natureприрода in everyкожен designдизайн,
300
883600
4656
Якби ми могли включити це більш детальне
бачення людської природи у кожен дизайн,
15:00
would that be a stepкрок forwardвперед?
301
888280
1456
чи було б це кроком вперед?
15:01
THГО: AbsolutelyАбсолютно. I mean, I think right now
302
889760
1976
ТГ: Безумовно. Я зараз думаю,
15:03
it's as if all of our technologyтехнологія
is basicallyв основному only askingзапитую our lizardящірка brainмозок
303
891760
3496
що це наче всі наші технології,
по суті, лише запитують наші інстинкти,
у який спосіб найкраще змусити
нас імпульсивно зробити
15:07
what's the bestнайкраще way
to just impulsivelyімпульсивно get you to do
304
895280
2496
15:09
the nextдалі tiniestнайтонший thing with your time,
305
897800
2136
наступну маленьку операцію
із вашим часом,
замість того, щоб спитати вас у житті,
15:11
insteadзамість цього of askingзапитую you in your life
306
899960
1656
15:13
what we would be mostнайбільше
time well spentвитрачений for you?
307
901640
2176
що буде для вас
найкращим проведенням часу?
15:15
What would be the perfectдосконалий timelineЧасова шкала
that mightможе includeвключати something laterпізніше,
308
903840
3296
Що буде найкращим розкладом,
який може включати щось пізніше,
чи буде для вас час добре проведеним
тут на TED у останній день?
15:19
would be time well spentвитрачений for you
here at TEDТЕД in your last day here?
309
907160
3176
КА: То, якби Facebook та Google
та всі інші спершу нас питали:
15:22
CAКАЛІФОРНІЯ: So if FacebookFacebook and GoogleGoogle
and everyoneкожен said to us first up,
310
910360
2976
15:25
"Hey, would you like us
to optimizeоптимізувати for your reflectiveрефлексивний brainмозок
311
913360
2896
"Ви хочете, щоб ми оптимізували сайти
для вашого мислення
чи для ваших інстинктів? Вам обирати."
15:28
or your lizardящірка brainмозок? You chooseвибирай."
312
916280
1656
15:29
THГО: Right. That would be one way. Yes.
313
917960
2080
ТГ: Вірно. Це був би один із способів.Так.
15:34
CAКАЛІФОРНІЯ: You said persuadabilitypersuadability,
that's an interestingцікаво wordслово to me
314
922358
2858
КА: Ти сказав "переконування",
для мене це цікаве слово,
15:37
because to me there's
two differentінший typesтипи of persuadabilitypersuadability.
315
925240
2856
тому що для мене існує
два різні види переконування.
Існує переконування,
яке ми випробовуємо прямо зараз,
15:40
There's the persuadabilitypersuadability
that we're tryingнамагаюся right now
316
928120
2536
що ґрунтується на підставах, міркуваннях
та суперечці,
15:42
of reasonпричина and thinkingмислення
and makingвиготовлення an argumentаргумент,
317
930680
2176
15:44
but I think you're almostмайже
talkingговорити about a differentінший kindдоброзичливий,
318
932880
2696
але я гадаю, ти говорив про інший вид,
15:47
a more visceralвісцерального typeтип of persuadabilitypersuadability,
319
935590
1906
більш глибинний вид переконування,
про те, як бути переконаним, навіть не
знаючи, що ти думаєш.
15:49
of beingбуття persuadedпереконаний withoutбез
even knowingзнаючи that you're thinkingмислення.
320
937520
2896
ТГ: Саме так. Причиною, чому мені так
небайдужа ця проблема,
15:52
THГО: ExactlyСаме. The reasonпричина
I careтурбота about this problemпроблема so much is
321
940440
2856
є те, що я вчився у "Лабораторії технік
переконання" у Стенфорді,
15:55
I studiedвивчав at a labлабораторія calledназивається
the PersuasiveПереконлива TechnologyТехнологія LabЛабораторія at StanfordСтенфорд
322
943320
3176
що навчала [студентів як визначати]
саме ці техніки.
15:58
that taughtнавчав people
exactlyточно these techniquesтехніки.
323
946520
2096
16:00
There's conferencesконференції and workshopsмайстерні
that teachвчити people all these covertтаємне waysшляхи
324
948640
3456
Є конференції та семінари, що навчають
людей всіх цих прихованих способів,
16:04
of gettingотримувати people'sнародний attentionувага
and orchestratingОркестровка people'sнародний livesживе.
325
952120
2976
щоб отримати увагу людей чи
керувати життями людей.
16:07
And it's because mostнайбільше people
don't know that that existsіснує
326
955120
2656
І саме тому, що більшість людей не знає,
що це існує,
тому ця розмова є такою важливою.
16:09
that this conversationрозмова is so importantважливо.
327
957800
1896
16:11
CAКАЛІФОРНІЯ: TristanТрістан, you and I, we bothобидва know
so manyбагато хто people from all these companiesкомпаній.
328
959720
3776
КА: Трістане, ми з тобою обоє знаємо
так багато людей із цих компаній.
16:15
There are actuallyнасправді manyбагато хто here in the roomкімната,
329
963520
1976
Власне, багато є тут у цій кімнаті,
16:17
and I don't know about you,
but my experienceдосвід of them
330
965520
2477
і я не знаю як щодо тебе,
але мій досвід щодо них
16:20
is that there is
no shortageбрак of good intentнамір.
331
968021
2075
показує, що у них немало
добрих намірів.
16:22
People want a better worldсвіт.
332
970120
2176
Люди хочуть зробити світ кращим.
16:24
They are actuallyнасправді -- they really want it.
333
972320
3520
Вони справді цього хочуть.
16:28
And I don't think anything you're sayingкажучи
is that these are evilзло people.
334
976320
4176
І я не думаю, що усе, що ти сказав,
означає, що це погані люди.
16:32
It's a systemсистема where there's
these unintendedненавмисні consequencesнаслідки
335
980520
3696
Це система, де ці непередбачувані
наслідки
16:36
that have really got out of controlКОНТРОЛЬ --
336
984240
1856
вийшли із-під контролю ...
ТГ: Через цю погоню за увагою.
16:38
THГО: Of this raceгонка for attentionувага.
337
986120
1496
Це класична "гонка по нисхідній",
коли ти мусиш привернути увагу,
16:39
It's the classicкласичний raceгонка to the bottomдно
when you have to get attentionувага,
338
987640
3176
і ця гонка є напруженою.
16:42
and it's so tenseнапружений.
339
990840
1216
Єдиний спосіб здобути більше -
це спускатися нижче по стовбуру мозку,
16:44
The only way to get more
is to go lowerнижче on the brainмозок stemстовбур,
340
992080
2736
16:46
to go lowerнижче into outrageобурення,
to go lowerнижче into emotionемоція,
341
994840
2416
йти глибше в образу,
йти глибше в емоції,
16:49
to go lowerнижче into the lizardящірка brainмозок.
342
997280
1696
йти глибше у інстинкти.
16:51
CAКАЛІФОРНІЯ: Well, thank you so much for helpingдопомагає us
all get a little bitбіт wiserмудріше about this.
343
999000
3816
КА: Що ж, дуже дякую, що допоміг нам всім
стати трішки мудрішими у цьому питанні.
16:54
TristanТрістан HarrisГарріс, thank you.
THГО: Thank you very much.
344
1002840
2416
Трістан Гарріс, дякую.
ТГ: Велике спасибі.
16:57
(ApplauseОплески)
345
1005280
2240
(Оплески)
Translated by Anastasia Krysa
Reviewed by Khrystyna Romashko

▲Back to top

ABOUT THE SPEAKER
Tristan Harris - Design thinker
Tristan Harris helps the technology industry more consciously and ethically shape the human spirit and human potential.

Why you should listen

Tristan Harris has been called "the closest thing Silicon Valley has to a conscience" by The Atlantic magazine. Prior to founding the new Center for Humane Technology, he was Google's Design Ethicist, developing a framework for how technology should "ethically" steer the thoughts and actions of billions of people from screens.  

Harris has spent a decade understanding the invisible influences that hijack human thinking and action. Drawing on literature from addiction, performative magic, social engineering, persuasive design and behavioral economics, he is currently developing a framework for ethical persuasion, especially as it relates to the moral responsibility of technology companies.

Rolling Stone magazine named Harris one of "25 People Shaping the World" in 2017. His work has been featured on TED, "60 Minutes," HBO's "RealTime with Bill Maher," "PBS NewsHour," Recode, The Atlantic, WIRED, the New York Times, Der Spiegel, The Economist and many more. Harris has briefed heads of state, technology company CEOs and members of the US Congress about the attention economy.

More profile about the speaker
Tristan Harris | Speaker | TED.com