ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.

Why you should listen

We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.

Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.

Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.

More profile about the speaker
Zeynep Tufekci | Speaker | TED.com
TEDGlobal>NYC

Zeynep Tufekci: We're building a dystopia just to make people click on ads

Zeynep Tufekcy: Stvaramo distopiju samo kako bismo naveli ljude da kliknu na oglase

Filmed:
2,866,905 views

Stvaramo distopiju koju pokreće umjetna inteligencija, klip po klik, tvrdi tehnološka sociologinja Zeynep Tufekci. U ovom govoru koji otvara oči, ona objašnjava kako tvrtke poput Facebooka, Googlea i Amazona koriste iste algoritme kako bi vas naveli da kliknete na oglase i kako bi organizirali pristup političkim i društvenim podacima. Strojevi nisu prava prijetnja. Moramo shvatiti kako oni koji imaju moć mogu koristiti umjetnu inteligenciju ne bi li nas kontrolirali - i što mi možemo napraviti kao odgovor na to.
- Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread. Full bio

Double-click the English transcript below to play the video.

00:12
So when people voiceglas fearsstrahovi
of artificialUmjetna intelligenceinteligencija,
0
760
3536
Kad ljudi izraze svoje strahove
o umjetnoj inteligenciji
00:16
very oftenčesto, they invokeprizvati imagesslika
of humanoidhumanoida robotsroboti runtrčanje amokbesni.
1
4320
3976
često prizivaju slike
humanoidnih robota koji divljaju.
00:20
You know? TerminatorOnaj koji ograničuje?
2
8320
1240
Znate? Terminator?
00:22
You know, that mightmoć be
something to considerrazmotriti,
3
10400
2336
Znate, to je nešto
što treba imati na umu,
00:24
but that's a distantudaljen threatprijetnja.
4
12760
1856
ali to je daleka prijetnja.
00:26
Or, we fretOrnament about digitaldigitalni surveillanceprismotra
5
14640
3456
Ili se sekiramo zbog digitalnog nadzora
00:30
with metaphorsmetafore from the pastprošlost.
6
18120
1776
s metaforama iz prošlosti.
00:31
"1984," GeorgeGeorge Orwell'sOrwell je "1984,"
7
19920
2656
"1984", Georgea Orwella, "1984"
00:34
it's hittingudaranje the bestsellerbestseler listsarena again.
8
22600
2280
ponovno je jedna od najčitanijih knjiga.
00:37
It's a great bookrezervirati,
9
25960
1416
To je odlična knjiga,
00:39
but it's not the correctispravan dystopiadistopije
for the 21stst centurystoljeće.
10
27400
3880
ali to nije točna
distopija 21. stoljeća.
00:44
What we need to fearstrah mostnajviše
11
32080
1416
Ono čega se moramo najviše bojati
00:45
is not what artificialUmjetna intelligenceinteligencija
will do to us on its ownvlastiti,
12
33520
4776
nije ono što će nam umjetna inteligencija
učiniti sama po sebi,
00:50
but how the people in powervlast
will use artificialUmjetna intelligenceinteligencija
13
38320
4736
nego to kako će ljudi na vlasti
koristiti umjetnu inteligenciju
00:55
to controlkontrolirati us and to manipulatemanipulirati us
14
43080
2816
da nas kontroliraju i manipuliraju nama
00:57
in novelroman, sometimesponekad hiddenskriven,
15
45920
3136
na nove, ponekad skrivene,
01:01
subtlefin and unexpectedneočekivan waysnačine.
16
49080
3016
suptilne i neočekivane načine.
01:04
Much of the technologytehnologija
17
52120
1856
Puno tehnologije
01:06
that threatensprijeti our freedomsloboda
and our dignitydostojanstvo in the near-termkratkoročne futurebudućnost
18
54000
4336
koja ugrožava našu slobodu
i naše dostojanstvo u bliskoj budućnosti
01:10
is beingbiće developedrazvijen by companiestvrtke
19
58360
1856
razvijaju društva
01:12
in the businessPoslovni of capturinghvatanje
and sellingprodaja our datapodaci and our attentionpažnja
20
60240
4936
koja se bave prikupljanjem i prodajom
naših podataka i naše pozornosti
01:17
to advertisersoglašivači and othersdrugi:
21
65200
2256
oglašivačima i ostalima:
01:19
FacebookFacebook, GoogleGoogle, AmazonAmazon,
22
67480
3416
Facebook, Google, Amazon,
01:22
AlibabaAlibaba, TencentTencent.
23
70920
1880
Alibaba, Tencent.
01:26
Now, artificialUmjetna intelligenceinteligencija has startedpočeo
bolsteringpoboljsanje theirnjihov businessPoslovni as well.
24
74040
5496
Umjetna je inteligencija počela
podupirati i njihovo poslovanje.
01:31
And it maysvibanj seemčiniti se
like artificialUmjetna intelligenceinteligencija
25
79560
2096
I može se činiti
da umjetna inteligencija
01:33
is just the nextSljedeći thing after onlinena liniji adsoglasi.
26
81680
2856
slijedi nakon oglasa na internetu.
01:36
It's not.
27
84560
1216
Nije.
01:37
It's a jumpskok in categorykategorija.
28
85800
2456
To je posebna kategorija.
01:40
It's a wholečitav differentdrugačiji worldsvijet,
29
88280
2576
To je jedan sasvim novi svijet
01:42
and it has great potentialpotencijal.
30
90880
2616
i ima velik potencijal.
01:45
It could accelerateubrzati our understandingrazumijevanje
of manymnogi areaspodručja of studystudija and researchistraživanje.
31
93520
6920
Može ubrzati naše razumijevanje mnogih
područja proučavanja i istraživanja,
01:53
But to paraphraseparafraza
a famouspoznat HollywoodHollywood philosopherfilozof,
32
101120
3496
ali da parafraziramo
poznatog holivudskog filozofa,
01:56
"With prodigiousgolem potentialpotencijal
comesdolazi prodigiousgolem riskrizik."
33
104640
3640
"S ogromnim potencijalom
dolazi i ogroman rizik."
02:01
Now let's look at a basicosnovni factčinjenica
of our digitaldigitalni livesživot, onlinena liniji adsoglasi.
34
109120
3936
Proučimo osnovnu činjenicu naših
digitalnih života, oglase na internetu.
02:05
Right? We kindljubazan of dismissodbaciti them.
35
113080
2896
Nekako ih ignoriramo.
02:08
They seemčiniti se crudeSirovi, ineffectiveneučinkovit.
36
116000
1976
Čine se nedorađeno, neučinkovito.
02:10
We'veMoramo all had the experienceiskustvo
of beingbiće followedslijedi on the webmreža
37
118000
4256
Svi smo se mi suočili
sa situacijom da nas na internetu
02:14
by an adoglas basedzasnovan on something
we searchedtražili or readčitati.
38
122280
2776
prati oglas na temelju onoga
što smo tražili ili čitali.
02:17
You know, you look up a pairpar of bootsčizme
39
125080
1856
Znate, tražite čizme
02:18
and for a weektjedan, those bootsčizme are followingsljedeći
you around everywheresvugdje, posvuda you go.
40
126960
3376
i tjedan dana vas te čizme
slijede gdje god pošli.
02:22
Even after you succumbmoju sestru and buykupiti them,
they're still followingsljedeći you around.
41
130360
3656
Čak i nakon što podlegnete
i kupite ih, i dalje vas prate.
02:26
We're kindljubazan of inuredosjecajan to that kindljubazan
of basicosnovni, cheapjeftino manipulationmanipulacija.
42
134040
3016
Na neke smo načine oguglali
na takvu vrstu jeftine manipulacije.
02:29
We rollsvitak our eyesoči and we think,
"You know what? These things don't work."
43
137080
3400
Kolutamo očima i mislimo si,
"Ma znate što? Takve stvari ne pale."
02:33
ExceptOsim, onlinena liniji,
44
141720
2096
Osim što, na internetu,
02:35
the digitaldigitalni technologiestehnologije are not just adsoglasi.
45
143840
3600
digitalne tehnologije nisu samo oglasi.
02:40
Now, to understandrazumjeti that,
let's think of a physicalfizička worldsvijet exampleprimjer.
46
148240
3120
Kako biste to razumjeli,
proučimo primjer fizičkog svijeta.
02:43
You know how, at the checkoutnaplata countersbrojila
at supermarketssupermarketi, nearblizu the cashierblagajnik,
47
151840
4656
Znate kako u redovima
u supermarketima, pored blagajni
02:48
there's candybombon and gumguma
at the eyeoko levelnivo of kidsdjeca?
48
156520
3480
stoje slatkiši i žvakaće
u visini očiju djece?
02:52
That's designedkonstruiran to make them
whinecvili at theirnjihov parentsroditelji
49
160800
3496
Osmišljeni su kako bi natjerali djecu
02:56
just as the parentsroditelji
are about to sortvrsta of checkprovjeriti out.
50
164320
3080
da gnjave već izmorene roditelje.
03:00
Now, that's a persuasionnagovaranje architecturearhitektura.
51
168040
2640
To je arhitektura uvjeravanja.
03:03
It's not nicelijepo, but it kindljubazan of worksdjela.
52
171160
3096
Nije lijepa, ali funkcionira.
03:06
That's why you see it
in everysvaki supermarketsupermarket.
53
174280
2040
Zato je možete vidjeti posvuda.
03:08
Now, in the physicalfizička worldsvijet,
54
176720
1696
U fizičkom svijetu
03:10
suchtakav persuasionnagovaranje architecturesarhitektura
are kindljubazan of limitedograničen,
55
178440
2496
te su arhitekture uvjeravanja ograničene
03:12
because you can only put
so manymnogi things by the cashierblagajnik. Right?
56
180960
4816
jer ne možete puno toga
staviti pored blagajne. Zar ne?
03:17
And the candybombon and gumguma,
it's the sameisti for everyonesvatko,
57
185800
4296
Slatkiši i žvakaće isti su za sve
03:22
even thoughiako it mostlyuglavnom worksdjela
58
190120
1456
iako uglavnom funkcioniraju
03:23
only for people who have
whinyucviljena little humansljudi besidepokraj them.
59
191600
4040
samo na ljudima koji
pored sebe imaju male gnjavatore.
03:29
In the physicalfizička worldsvijet,
we liveživjeti with those limitationsograničenja.
60
197160
3920
U fizičkom svijetu
živimo s takvim ograničenjima.
03:34
In the digitaldigitalni worldsvijet, thoughiako,
61
202280
1936
U digitalnom svijetu, doduše,
03:36
persuasionnagovaranje architecturesarhitektura
can be builtizgrađen at the scaleljestvica of billionsmilijarde
62
204240
4320
arhitekture uvjeravanja mogu se
izgraditi na ljestvici od milijardi
03:41
and they can targetcilj, inferzaključiti, understandrazumjeti
63
209840
3856
i mogu naciljati, zaključiti, razumjeti
03:45
and be deployedrazmještene at individualspojedinci
64
213720
2896
te ih mogu koristiti pojedinci
03:48
one by one
65
216640
1216
jedan po jedan
03:49
by figuringfiguring out your weaknessesslabosti,
66
217880
2136
otkrivajući naše slabosti
03:52
and they can be sentposlao
to everyone'ssvi su phonetelefon privateprivatna screenzaslon,
67
220040
5616
i mogu se slati svima
na privatne mobitele,
03:57
so it's not visiblevidljiv to us.
68
225680
2256
pa nam nije vidljivo.
03:59
And that's differentdrugačiji.
69
227960
1256
A to je drugačije.
04:01
And that's just one of the basicosnovni things
that artificialUmjetna intelligenceinteligencija can do.
70
229240
3576
To je samo jedna od osnovnih stvari
koje umjetna inteligencija može raditi.
04:04
Now, let's take an exampleprimjer.
71
232840
1336
Uzmimo primjer.
04:06
Let's say you want to sellprodavati
planeavion ticketsulaznice to VegasVegas. Right?
72
234200
2696
Recimo da želite prodati
avionske karte za Vegas. Dobro?
04:08
So in the oldstar worldsvijet, you could think
of some demographicsdemografija to targetcilj
73
236920
3496
U starom svijetu mogli ste
razmišljati o ciljanoj populaciji
04:12
basedzasnovan on experienceiskustvo
and what you can guessnagađati.
74
240440
2520
ovisno o iskustvu
i o tome što možete pretpostaviti.
04:15
You mightmoć try to advertiseoglašavanje to, oh,
75
243560
2816
Mogli biste postaviti oglas za
04:18
menmuškarci betweenizmeđu the agesdobi of 25 and 35,
76
246400
2496
muškarce između 25. i 35. godine
04:20
or people who have
a highvisok limitograničiti on theirnjihov creditKreditna cardkartica,
77
248920
3936
ili za ljude koji imaju
visok dozvoljeni minus na kartici
04:24
or retiredu mirovini couplesparovi. Right?
78
252880
1376
ili za umirovljene parove.
04:26
That's what you would do in the pastprošlost.
79
254280
1816
To biste radili u prošlosti.
04:28
With bigvelika datapodaci and machinemašina learningučenje,
80
256120
2896
Zahvaljujući ogromnim
količinama podataka i strojnom učenju,
04:31
that's not how it worksdjela anymoreviše.
81
259040
1524
to više ne ide tako.
04:33
So to imaginezamisliti that,
82
261320
2176
Kako biste to zamislili,
04:35
think of all the datapodaci
that FacebookFacebook has on you:
83
263520
3856
razmišljajte o svim podacima
koje Facebook ima o vama:
04:39
everysvaki statusstatus updateAžuriraj you ever typedupisali,
84
267400
2536
svaki status koji ste ikad napisali,
04:41
everysvaki MessengerGlasnik conversationrazgovor,
85
269960
2016
svaki razgovor na chatu,
04:44
everysvaki placemjesto you loggedKreiranje datoteke poruka in from,
86
272000
1880
svako mjesto na kojem ste se logirali,
04:48
all your photographsfotografije
that you uploadedupload there.
87
276400
3176
sve vaše fotografije
koje ste ondje objavili.
04:51
If you startpočetak typingkucanje something
and changepromijeniti your mindum and deleteizbrisati it,
88
279600
3776
Ako počnete nešto tipkati,
predomislite se i obrišete to,
04:55
FacebookFacebook keepsčuva those
and analyzesanalize them, too.
89
283400
3200
Facebook će i to
čuvati i analizirati.
04:59
IncreasinglySve više, it triespokušava
to matchutakmica you with your offlineoffline datapodaci.
90
287160
3936
Sve vas više pokušava povezati
s vašim izvanmrežnim podacima.
05:03
It alsotakođer purchaseskupi
a lot of datapodaci from datapodaci brokersBrokeri.
91
291120
3176
Također kupuje puno podataka
od posrednika podacima.
05:06
It could be everything
from your financialfinancijska recordsploče
92
294320
3416
Može kupiti bilo što
od vaših financijskih izvještaja
05:09
to a good chunkkomad of your browsingpregledavanje historypovijest.
93
297760
2120
do većeg dijela vaše
povijesti pretraživanja.
05:12
Right? In the US,
suchtakav datapodaci is routinelyrutinski collectedprikupljeni,
94
300360
5416
U SAD-u se takvi podaci
rutinski prikupljaju,
05:17
collatedprikupljeni and soldprodan.
95
305800
1960
razvrstavaju i prodaju.
05:20
In EuropeEurope, they have tougherteže rulespravila.
96
308320
2440
U Europi su pravila stroža.
05:23
So what happensdogađa se then is,
97
311680
2200
Događa se to
05:26
by churningnagla kretnja throughkroz all that datapodaci,
these machine-learningStrojno učenje algorithmsalgoritmi --
98
314920
4016
da prekopavanjem svih tih podataka
ti algoritmi za strojno učenje --
05:30
that's why they're calledzvao
learningučenje algorithmsalgoritmi --
99
318960
2896
zato se zovu algoritmi učenja -
05:33
they learnnaučiti to understandrazumjeti
the characteristicskarakteristike of people
100
321880
4096
uče razumijevati karakteristike ljudi
05:38
who purchasedkupili ticketsulaznice to VegasVegas before.
101
326000
2520
koji su prije kupili karte za Vegas.
05:41
When they learnnaučiti this from existingpostojanje datapodaci,
102
329760
3536
Kad to nauče iz postojećih podataka,
05:45
they alsotakođer learnnaučiti
how to applyprimijeniti this to newnovi people.
103
333320
3816
također nauče kako to
primjenjivati na nove ljude.
05:49
So if they're presentedpredstavili with a newnovi personosoba,
104
337160
3056
Pa ako se nađu pred novom osobom,
05:52
they can classifyrazvrstati whetherda li that personosoba
is likelyVjerojatno to buykupiti a ticketulaznica to VegasVegas or not.
105
340240
4640
mogu odrediti hoće li ta osoba
kupiti kartu za Vegas ili ne.
05:57
Fine. You're thinkingmišljenje,
an offerponuda to buykupiti ticketsulaznice to VegasVegas.
106
345720
5456
Dobro. Mislite,
ponuda da kupim karte za Vegas.
06:03
I can ignorezanemariti that.
107
351200
1456
Mogu to ignorirati.
06:04
But the problemproblem isn't that.
108
352680
2216
Ali nije problem u tome.
06:06
The problemproblem is,
109
354920
1576
Problem je u tome
06:08
we no longerviše really understandrazumjeti
how these complexkompleks algorithmsalgoritmi work.
110
356520
4136
što više ne shvaćamo
kako ti složeni algoritmi funkcioniraju.
06:12
We don't understandrazumjeti
how they're doing this categorizationKategorizacija.
111
360680
3456
Ne razumijemo
kako rade tu kategorizaciju.
06:16
It's giantgigantski matricesmatrice,
thousandstisuća of rowsredaka and columnsStupci,
112
364160
4416
Njegove ogromne matrice,
tisuće redova i stupaca,
06:20
maybe millionsmilijuni of rowsredaka and columnsStupci,
113
368600
1960
možda milijune redova i stupaca,
06:23
and not the programmersprogramera
114
371320
2640
a ni programeri,
06:26
and not anybodyiko who looksizgled at it,
115
374760
1680
a ni bilo tko tko to pogleda,
06:29
even if you have all the datapodaci,
116
377440
1496
čak i ako imate sve podatke,
06:30
understandsrazumije anymoreviše
how exactlytočno it's operatingradni
117
378960
4616
više ne razumije
kako to točno funkcionira
06:35
any more than you'dti bi know
what I was thinkingmišljenje right now
118
383600
3776
bolje nego što bi vi znali
o čemu ja upravo razmišljam
06:39
if you were shownprikazan
a crosskriž sectionodjeljak of my brainmozak.
119
387400
3960
da vam pokažu
presjek mog mozga.
06:44
It's like we're not programmingprogramiranje anymoreviše,
120
392360
2576
Kao da više ne programiramo,
06:46
we're growingrastući intelligenceinteligencija
that we don't trulyuistinu understandrazumjeti.
121
394960
4400
već uzgajamo inteligenciju
koju baš i ne razumijemo.
06:52
And these things only work
if there's an enormousogroman amountiznos of datapodaci,
122
400520
3976
A takve stvari funkcioniraju samo
kada imamo ogromne količine podataka,
06:56
so they alsotakođer encourageohrabriti
deepduboko surveillanceprismotra on all of us
123
404520
5096
pa također potiču
na značajan nadzor svih nas
07:01
so that the machinemašina learningučenje
algorithmsalgoritmi can work.
124
409640
2336
da algoritmi za strojno učenje
mogu funkcionirati.
07:04
That's why FacebookFacebook wants
to collectprikupiti all the datapodaci it can about you.
125
412000
3176
Zato Facebook želi
prikupiti što više podataka o vama.
07:07
The algorithmsalgoritmi work better.
126
415200
1576
Algoritmi bolje funkcioniraju.
07:08
So let's pushgurnuti that VegasVegas exampleprimjer a bitbit.
127
416800
2696
Pozabavimo se još malo primjerom Vegasa.
07:11
What if the systemsistem
that we do not understandrazumjeti
128
419520
3680
Što ako je sustav koji ne razumijemo
07:16
was pickingbranje up that it's easierlakše
to sellprodavati VegasVegas ticketsulaznice
129
424200
5136
shvatio da bi bilo lakše
prodati karte za Vegas
07:21
to people who are bipolarbipolarni
and about to enterUnesi the manicmanične phasefaza.
130
429360
3760
bipolarnim osobama
koje upravo ulaze u fazu manije?
07:25
SuchTakve people tendskloni to becomepostati
overspendersoverspenders, compulsivekompulzivno gamblerskockari.
131
433640
4920
Takvi ljudi prekomjerno
troše i kompulzivno kockaju.
07:31
They could do this, and you'dti bi have no cluetrag
that's what they were pickingbranje up on.
132
439280
4456
Mogli bi to napraviti, a vi ne biste
imali pojma da tako djeluju.
07:35
I gavedali this exampleprimjer
to a bunchmnogo of computerračunalo scientistsznanstvenici oncejednom
133
443760
3616
Ovaj sam primjer jednom dala
većem broju kompjutorskih znanstvenika
07:39
and afterwardsposlije, one of them camedošao up to me.
134
447400
2056
i nakon toga mi je jedan od njih prišao.
07:41
He was troubledproblematičan and he said,
"That's why I couldn'tne mogu publishobjaviti it."
135
449480
3520
Bio je uznemiren i rekao je,
"Zato to nisam mogao objaviti."
07:45
I was like, "Couldn'tNije mogao publishobjaviti what?"
136
453600
1715
Rekoh "Što to?"
07:47
He had triedpokušala to see whetherda li you can indeeddoista
figurelik out the onsetnapad of maniamanija
137
455800
5856
Pokušao je vidjeti
može li se prepoznati početak faze manije
07:53
from socialsocijalni mediamedia postspostova
before clinicalklinički symptomssimptomi,
138
461680
3216
iz objava na društvenim mrežama
prije kliničkih znakova,
07:56
and it had workedradio,
139
464920
1776
i to je funkcioniralo,
07:58
and it had workedradio very well,
140
466720
2056
i to jako dobro,
08:00
and he had no ideaideja how it workedradio
or what it was pickingbranje up on.
141
468800
4880
a nije imao pojma kako je
funkcioniralo ili na što je reagiralo.
08:06
Now, the problemproblem isn't solvedriješen
if he doesn't publishobjaviti it,
142
474840
4416
Ali problem nije riješen
ako to ne objavi
08:11
because there are alreadyveć companiestvrtke
143
479280
1896
jer već postoje tvrtke
08:13
that are developingrazvoju
this kindljubazan of technologytehnologija,
144
481200
2536
koje razvijaju
ovakvu vrstu tehnologije,
08:15
and a lot of the stuffstvari
is just off the shelfpolica.
145
483760
2800
a puno je stvari raspoloživo.
08:19
This is not very difficulttežak anymoreviše.
146
487240
2576
To više nije teško.
08:21
Do you ever go on YouTubeMladost
meaningznačenje to watch one videovideo
147
489840
3456
Jeste li ikada otišli na YouTube
s namjerom da pogledate jedan video
08:25
and an hoursat laterkasnije you've watchedgledao 27?
148
493320
2360
i sat vremena kasnije pogledali ste ih 27?
08:28
You know how YouTubeMladost
has this columnkolona on the right
149
496760
2496
Znate kako YouTube
s desne strane ime stupac
08:31
that sayskaže, "Up nextSljedeći"
150
499280
2216
"Sljedeće"
08:33
and it autoplaysautoplays something?
151
501520
1816
i automatski reproducira nešto?
08:35
It's an algorithmalgoritam
152
503360
1216
To je algoritam
08:36
pickingbranje what it thinksmisli
that you mightmoć be interestedzainteresiran in
153
504600
3616
koji bira ono što misli
da biste vi htjeli pogledati,
08:40
and maybe not find on your ownvlastiti.
154
508240
1536
a što ne biste
uspjeli naći sami.
08:41
It's not a humanljudski editorurednik.
155
509800
1256
To nije ljudski uređivač.
08:43
It's what algorithmsalgoritmi do.
156
511080
1416
Algoritmi tako funkcioniraju.
08:44
It picksmotika up on what you have watchedgledao
and what people like you have watchedgledao,
157
512520
4736
Prati što ste gledali
i što su gledali ljudi poput vas
08:49
and infersautomatski aktivira that that mustmora be
what you're interestedzainteresiran in,
158
517280
4216
i zaključuje da i vas
to vjerojatno zanima,
08:53
what you want more of,
159
521520
1255
da želite još toga,
08:54
and just showspokazuje you more.
160
522799
1336
pa vam pokazuje više toga.
08:56
It soundszvukovi like a benignbenigni
and usefulkoristan featuresvojstvo,
161
524159
2201
Zvuči kao nevina
i korisna značajka,
08:59
exceptosim when it isn't.
162
527280
1200
ali nije.
09:01
So in 2016, I attendedprisustvovali su ralliesskupove
of then-candidateTada-kandidat DonaldDonald TrumpAdut
163
529640
6960
Godine 2016. bila sam na skupu
tadašnjeg kandidata Donalda Trumpa
09:09
to studystudija as a scholarznanstvenik
the movementpokret supportingPodrška him.
164
537840
3336
kako bih kao naučnik
proučavala pokret koji ga podržava.
09:13
I studystudija socialsocijalni movementspokreti,
so I was studyingučenje it, too.
165
541200
3456
Proučavam društvene pokrete,
pa sam i to proučavala.
09:16
And then I wanted to writepisati something
about one of his ralliesskupove,
166
544680
3336
Tada sam htjela napisati nešto
o jednom od njegovih skupova,
09:20
so I watchedgledao it a fewnekoliko timesputa on YouTubeMladost.
167
548040
1960
pa sam ga pogledala
nekoliko puta na YT-u.
09:23
YouTubeMladost startedpočeo recommendingpreporuke to me
168
551240
3096
YouTube mi je počeo preporučivati
09:26
and autoplayingautoplaying to me
whitebijela supremacistsupremacist videosvideo
169
554360
4256
i automatski puštati
videe o nadmoći bijele rase
09:30
in increasingpovećavajući ordernarudžba of extremismekstremizam.
170
558640
2656
koji su išli prema ekstremizmu.
09:33
If I watchedgledao one,
171
561320
1816
Ako bih pogledala jedan,
09:35
it servedslužio up one even more extremekrajnost
172
563160
2976
ponudio bi mi jedan još ekstremniji
09:38
and autoplayedautoplayed that one, too.
173
566160
1424
i automatski ga puštao.
09:40
If you watch HillaryHillary ClintonClinton
or BernieBernie SandersBrusilice contentsadržaj,
174
568320
4536
Ako gledate sadržaje
Hillary Clinton ili Bernija Sandersa,
09:44
YouTubeMladost recommendspreporučuje
and autoplaysautoplays conspiracyzavjera left,
175
572880
4696
Youtube vam preporučuje
i pušta zavjeru ljevice
09:49
and it goeside downhillnizbrdo from there.
176
577600
1760
i od toga ide samo nagore.
09:52
Well, you mightmoć be thinkingmišljenje,
this is politicspolitika, but it's not.
177
580480
3056
Možda mislite
da je to politika, ali nije.
09:55
This isn't about politicspolitika.
178
583560
1256
Tu se ne radi o politici.
09:56
This is just the algorithmalgoritam
figuringfiguring out humanljudski behaviorponašanje.
179
584840
3096
Ovo je samo algoritam
koji tumači ljudsko ponašanje.
09:59
I oncejednom watchedgledao a videovideo
about vegetarianismvegetarijanstvo on YouTubeMladost
180
587960
4776
Jednom sam pogledala
video o vegetarijanstvu
10:04
and YouTubeMladost recommendedpreporučuje se
and autoplayedautoplayed a videovideo about beingbiće veganveganski.
181
592760
4936
i Youtube mi je preporučio
i pustio video o veganstvu.
10:09
It's like you're never
hardcorehardcore enoughdovoljno for YouTubeMladost.
182
597720
3016
Kad da nikad niste
dovoljno žestoki zagovornici ičega.
10:12
(LaughterSmijeh)
183
600760
1576
(Smijeh)
10:14
So what's going on?
184
602360
1560
Što se događa?
10:16
Now, YouTube'sMladost je algorithmalgoritam is proprietaryvlasnički,
185
604520
3536
YouTubeov algoritam je privatan,
10:20
but here'sevo what I think is going on.
186
608080
2360
ali mislim da se ovo događa.
10:23
The algorithmalgoritam has figuredshvaćen out
187
611360
2096
Algoritam je shvatio
10:25
that if you can enticebi privukli people
188
613480
3696
da ako možete navesti ljude
10:29
into thinkingmišljenje that you can
showpokazati them something more hardcorehardcore,
189
617200
3736
da misle da im možete
pokazati nešto još žešće,
10:32
they're more likelyVjerojatno to stayboravak on the sitemjesto
190
620960
2416
skloniji su tome da ostanu na stranici
10:35
watchinggledanje videovideo after videovideo
going down that rabbitzec holerupa
191
623400
4416
gledajući video za videom
ulazeći sve dublje u rupu bez dna
10:39
while GoogleGoogle servessluži them adsoglasi.
192
627840
1680
dok im Google pokazuje oglase.
10:43
Now, with nobodynitko mindingskrb
the ethicsetika of the storedućan,
193
631760
3120
Dok nikome na pazi
na etničku strukturu u trgovini,
10:47
these sitesstranice can profileProfil people
194
635720
4240
ove stranice mogu isprofilirati ljude
10:53
who are JewŽidov hatersmrzitelji,
195
641680
1920
koji su mrzitelji židova,
10:56
who think that JewsŽidovi are parasitesparaziti
196
644360
2480
koji misle da su židovi paraziti
11:00
and who have suchtakav expliciteksplicitan
anti-SemiticAntisemitski contentsadržaj,
197
648320
4920
i koji imaju takav
eksplicitan antisemitski sadržaj
11:06
and let you targetcilj them with adsoglasi.
198
654080
2000
i dati vam da oglase
usmjerite prema njima.
11:09
They can alsotakođer mobilizemobilizirati algorithmsalgoritmi
199
657200
3536
Također mogu mobilizirati algoritme
11:12
to find for you look-alikepodjednako audiencespublika,
200
660760
3136
kako bi pronašli publiku sličnu vama,
11:15
people who do not have suchtakav expliciteksplicitan
anti-SemiticAntisemitski contentsadržaj on theirnjihov profileProfil
201
663920
5576
ljude koji nemaju takav eksplicitni
antisemitski sadržaj na svom profilu,
11:21
but who the algorithmalgoritam detectsotkrije
maysvibanj be susceptibleosjetljiv to suchtakav messagesporuke,
202
669520
6176
ali koje algoritam prepoznaje kao osobe
koje su osjetljive na takve porukama
11:27
and letsomogućuje you targetcilj them with adsoglasi, too.
203
675720
1920
i dopušta da na njih
usmjeravate oglase.
11:30
Now, this maysvibanj soundzvuk
like an implausiblenevjerojatan exampleprimjer,
204
678680
2736
Ovo će možda zvučati
kao nevjerojatan primjer,
11:33
but this is realstvaran.
205
681440
1320
ali stvaran je.
11:35
ProPublicaProPublica investigatedistražuju this
206
683480
2136
ProPublica je to istraživala
11:37
and foundpronađeno that you can indeeddoista
do this on FacebookFacebook,
207
685640
3616
i otkrila je da to stvarno
možete raditi na Facebooku
11:41
and FacebookFacebook helpfullyspremno
offeredponudio up suggestionsPrijedlozi
208
689280
2416
i Facebook je dobronamjerno
ponudio prijedloge
11:43
on how to broadenproširiti that audiencepublika.
209
691720
1600
kako proširiti takvu publiku.
11:46
BuzzFeedBuzzFeed triedpokušala it for GoogleGoogle,
and very quicklybrzo they foundpronađeno,
210
694720
3016
BuzzFeed je to isprobao
na Googleu i brzo su otkrili
11:49
yepda, you can do it on GoogleGoogle, too.
211
697760
1736
da to možete raditi i na Googleu.
11:51
And it wasn'tnije even expensiveskup.
212
699520
1696
Čak nije bilo ni skupo.
11:53
The ProPublicaProPublica reporterreporter
spentpotrošen about 30 dollarsdolara
213
701240
4416
Reporter ProPublice
potrošio je 30-ak dolara
11:57
to targetcilj this categorykategorija.
214
705680
2240
kako bi se oglašavao ovoj kategoriji.
12:02
So last yeargodina, DonaldDonald Trump'sAdut je
socialsocijalni mediamedia managermenadžer disclosedobjavljeni
215
710600
5296
Prošle godine upravitelj društvenih medija
Donalda Trumpa priopćio je
12:07
that they were usingkoristeći FacebookFacebook darkmrak postspostova
to demobilizedemobilizirati people,
216
715920
5336
da su koristili tamne postove
na Facebooku kako bi demobilizirali ljude,
12:13
not to persuadeuvjeriti them,
217
721280
1376
ne kako bi ih nagovorili,
12:14
but to convinceuvjeriti them not to voteglasanje at all.
218
722680
2800
već kako bi ih uvjerili
da uopće ne glasaju.
12:18
And to do that,
they targetedciljano specificallyposebno,
219
726520
3576
Kako bi to učinili,
posebno su se usmjerili na
12:22
for exampleprimjer, African-AmericanAfro-Amerikanac menmuškarci
in keyključ citiesgradovi like PhiladelphiaPhiladelphia,
220
730120
3896
npr. afro-amerikance
u ključnim gradovima poput Philadelphije
12:26
and I'm going to readčitati
exactlytočno what he said.
221
734040
2456
i pročitat ću
što je točno rekao.
12:28
I'm quotingcitiranje.
222
736520
1216
Citiram.
12:29
They were usingkoristeći "nonpublicnonPublic postspostova
223
737760
3016
Koristili su "privatne objave
12:32
whosečije viewershipgledanosti the campaignkampanja controlskontrole
224
740800
2176
čiju publiku određuje kampanja
12:35
so that only the people
we want to see it see it.
225
743000
3776
kako bi ih vidjeli samo ljudi
za koje želimo da ih vide.
12:38
We modeledpo uzoru this.
226
746800
1216
Modelirali smo to.
12:40
It will dramaticallydramatično affectutjecati her abilitysposobnost
to turnskretanje these people out."
227
748040
4720
Dramatično će utjecati
na sposobnost da te ljude isključi."
12:45
What's in those darkmrak postspostova?
228
753720
2280
Što je u tim tamnim postovima?
12:48
We have no ideaideja.
229
756480
1656
Nemamo pojma.
12:50
FacebookFacebook won'tnavika tell us.
230
758160
1200
Facebook nam neće reći.
12:52
So FacebookFacebook alsotakođer algorithmicallyalgorithmically
arrangesraspoređuje the postspostova
231
760480
4376
Facebook također
putem algoritma razvrstava objave
12:56
that your friendsprijatelji put on FacebookFacebook,
or the pagesstranica you followslijediti.
232
764880
3736
koje vaši prijatelji stavljaju
na Facebook, ili stranice koje pratite.
13:00
It doesn't showpokazati you
everything chronologicallykronološki.
233
768640
2216
Ne pokazuje vam
sve kronološkim slijedom.
13:02
It putsstavlja the ordernarudžba in the way
that the algorithmalgoritam thinksmisli will enticebi privukli you
234
770880
4816
Redoslijed je takav
da vas algoritam želi namamiti
13:07
to stayboravak on the sitemjesto longerviše.
235
775720
1840
da duže ostanete na stranici.
13:11
Now, so this has a lot of consequencesposljedice.
236
779040
3376
To ima jako puno posljedica.
13:14
You maysvibanj be thinkingmišljenje
somebodyneko is snubbinglgnorlranja you on FacebookFacebook.
237
782440
3800
Možete misliti da vas netko
ignorira na Facebooku.
13:18
The algorithmalgoritam maysvibanj never
be showingpokazivanje your postpošta to them.
238
786800
3256
Algoritam možda nikada
ne pokaže vašu objavu njima.
13:22
The algorithmalgoritam is prioritizingprioritizing
some of them and buryingukop the othersdrugi.
239
790080
5960
Algoritam stavlja prioritet
na neke od njih, a druge zakopava.
13:29
ExperimentsEksperimenti showpokazati
240
797320
1296
Eksperimenti pokazuju
13:30
that what the algorithmalgoritam picksmotika to showpokazati you
can affectutjecati your emotionsemocije.
241
798640
4520
da ono što vam algoritam odluči pokazati
može utjecati na vaše emocije.
13:36
But that's not all.
242
804600
1200
Ali to nije sve.
13:38
It alsotakođer affectsutječe politicalpolitički behaviorponašanje.
243
806280
2360
Također utječe na vaše
političko ponašanje.
13:41
So in 2010, in the midtermispit iz matematike electionsizbori,
244
809360
4656
Godine 2010. u prvom dijelu izbora,
13:46
FacebookFacebook did an experimenteksperiment
on 61 millionmilijuna people in the US
245
814040
5896
Facebook je proveo eksperiment
na 61 milijunu ljudi u SAD-u
13:51
that was disclosedobjavljeni after the factčinjenica.
246
819960
1896
o kojem su izvijestili kad je završio.
13:53
So some people were shownprikazan,
"TodayDanas is electionizbor day,"
247
821880
3416
Nekim su ljudima pokazivali
"Danas su izbori",
13:57
the simplerjednostavnije one,
248
825320
1376
jednostavniju poruku,
13:58
and some people were shownprikazan
the one with that tinysićušan tweakugađanje
249
826720
3896
a nekima su pokazivali
neznatno izmijenjenu poruku
14:02
with those little thumbnailsumanjene sličice
250
830640
2096
sa sličicama
14:04
of your friendsprijatelji who clickedklik on "I votedglasao."
251
832760
2840
vaših prijatelja koji su
kliknuli na "Glasao sam".
14:09
This simplejednostavan tweakugađanje.
252
837000
1400
Ta jednostavna izmjena.
14:11
OK? So the picturesSlike were the only changepromijeniti,
253
839520
4296
Dobro? Slike su bile jedina izmjena,
14:15
and that postpošta shownprikazan just oncejednom
254
843840
3256
a to što je ta objava pokazana samo jednom
14:19
turnedokrenut out an additionalDodatne 340,000 votersbirača
255
847120
6056
potaknula je dodatnih 340.000 birača
14:25
in that electionizbor,
256
853200
1696
da glasuju na tim izborima,
14:26
accordingpo to this researchistraživanje
257
854920
1696
prema ovom istraživanju,
14:28
as confirmedpotvrđen by the voterbirača rollspecivo.
258
856640
2520
što je potvrđeno popisom birača.
14:32
A flukemetilj? No.
259
860920
1656
Slučajnost? Ne.
14:34
Because in 2012,
they repeatedponovljen the sameisti experimenteksperiment.
260
862600
5360
Godine 2012. ponovili su taj eksperiment.
14:40
And that time,
261
868840
1736
I tada
14:42
that civicgrađanski messageporuka shownprikazan just oncejednom
262
870600
3296
građanska poruka
koja je prikazana samo jednom
14:45
turnedokrenut out an additionalDodatne 270,000 votersbirača.
263
873920
4440
potaknula je dodatnih 270.000 birača.
14:51
For referenceupućivanje, the 2016
US presidentialpredsjednički electionizbor
264
879160
5216
Za usporedbu,
predsjedničke izbore 2016. u SAD-u
14:56
was decidedodlučio by about 100,000 votesglasova.
265
884400
3520
razriješilo je 100.000 glasova.
15:01
Now, FacebookFacebook can alsotakođer
very easilylako inferzaključiti what your politicspolitika are,
266
889360
4736
Facebook također može vrlo lako
zaključiti vaše političko opredjeljenje,
15:06
even if you've never
disclosedobjavljeni them on the sitemjesto.
267
894120
2256
čak i ako ga nikad niste
objavili na stranici.
15:08
Right? These algorithmsalgoritmi
can do that quitedosta easilylako.
268
896400
2520
Ti algoritmi to mogu odraditi vrlo lako.
15:11
What if a platformplatforma with that kindljubazan of powervlast
269
899960
3896
Što ako platforma s takvom moći
15:15
decidesodlučuje to turnskretanje out supporterspristalice
of one candidatekandidat over the other?
270
903880
5040
odluči okrenuti pristalice
jednog kandidata na štetu drugoga?
15:21
How would we even know about it?
271
909680
2440
Kako bismo uopće znali da se to dogodilo?
15:25
Now, we startedpočeo from someplacenegdje
seeminglynaizgled innocuousneškodljiv --
272
913560
4136
Počeli smo od nečega
naizgled bezopasnog --
15:29
onlinena liniji addsdodaje followingsljedeći us around --
273
917720
2216
oglasi na internetu
što nas slijede okolo --
15:31
and we'veimamo landedsletio someplacenegdje elsedrugo.
274
919960
1840
i došli na jedno sasvim drugo mjesto.
15:35
As a publicjavnost and as citizensgrađani,
275
923480
2456
Kao javnost i kao građani,
15:37
we no longerviše know
if we're seeingvidim the sameisti informationinformacija
276
925960
3416
više ne znamo gledamo li iste informacije
15:41
or what anybodyiko elsedrugo is seeingvidim,
277
929400
1480
ili ono što svi ostali gledaju
15:43
and withoutbez a commonzajednička basisosnova of informationinformacija,
278
931680
2576
i bez zajedničke baze podataka,
15:46
little by little,
279
934280
1616
malo po malo,
15:47
publicjavnost debatedebata is becomingpostaje impossiblenemoguće,
280
935920
3216
javne debate postaju nemoguće
15:51
and we're just at
the beginningpočetak stagesfaze of this.
281
939160
2976
i opet smo na početku.
15:54
These algorithmsalgoritmi can quitedosta easilylako inferzaključiti
282
942160
3456
Ovi algoritmi mogu vrlo lako zaključiti
15:57
things like your people'snarodno ethnicityetnička pripadnost,
283
945640
3256
o stvarima poput etničkog podrijetla,
16:00
religiousvjerski and politicalpolitički viewspregleda,
personalityosoba traitsosobine,
284
948920
2336
religijskim, političkim nazorima,
crtama ličnosti,
16:03
intelligenceinteligencija, happinesssreća,
use of addictiveovisnost substancestvari,
285
951280
3376
inteligenciji, sreći,
korištenju tvari koje izazivaju ovisnost,
16:06
parentalRoditeljski separationodvajanje, agedob and gendersspola,
286
954680
3136
rastavljenosti roditelja, dobi i spolu,
16:09
just from FacebookFacebook likessviđa.
287
957840
1960
i to sve na osnovu lajkova na Facebooku.
16:13
These algorithmsalgoritmi can identifyidentificirati protestersProsvjednici
288
961440
4056
Ti algoritmi mogu prepoznati prosvjednike,
16:17
even if theirnjihov faceslica
are partiallydjelimično concealedskriveno.
289
965520
2760
čak i ako su njihova lica
djelomično skrivena.
16:21
These algorithmsalgoritmi maysvibanj be ableu stanju
to detectotkriti people'snarodno sexualseksualan orientationorijentacija
290
969720
6616
Ti algoritmi mogu prepoznati
seksualnu orijentaciju ljudi
16:28
just from theirnjihov datingupoznavanje profileProfil picturesSlike.
291
976360
3200
prema njihovim slikama
na stranicama za pronalaženje partnera.
16:33
Now, these are probabilisticprobabilistički guessespretpostavljene,
292
981560
2616
To su probabilističke pretpostavke,
16:36
so they're not going
to be 100 percentposto right,
293
984200
2896
pa neće biti 100% istinite,
16:39
but I don't see the powerfulsnažan resistingopiranje
the temptationiskušenje to use these technologiestehnologije
294
987120
4896
ali ne vidim snažno opiranje
iskušenjima da se koriste te tehnologije
16:44
just because there are
some falselažan positivespozitivci,
295
992040
2176
jer postoje neki lažno pozitivni nalazi
16:46
whichkoji will of coursenaravno createstvoriti
a wholečitav other layersloj of problemsproblemi.
296
994240
3256
koji će, naravno,
stvoriti cijeli niz problema.
16:49
ImagineZamislite what a statedržava can do
297
997520
2936
Zamislite što država može napraviti
16:52
with the immenseneizmjeran amountiznos of datapodaci
it has on its citizensgrađani.
298
1000480
3560
s ogromnim količinama podataka
koje ima o svojim građanima.
16:56
ChinaKina is alreadyveć usingkoristeći
facelice detectionotkrivanje technologytehnologija
299
1004680
4776
Kina već koristi
tehnologiju prepoznavanja lica
17:01
to identifyidentificirati and arrestuhapsiti people.
300
1009480
2880
kako bi identificirala i uhitila ljude.
17:05
And here'sevo the tragedytragedija:
301
1013280
2136
A u ovome je tragedija:
17:07
we're buildingzgrada this infrastructureinfrastruktura
of surveillanceprismotra authoritarianismautoritarnosti
302
1015440
5536
gradimo ovu infrastrukturu
nadgledačkog autoritarizma
17:13
merelysamo to get people to clickklik on adsoglasi.
303
1021000
2960
samo kako bi ljudi kliknuli na oglase.
17:17
And this won'tnavika be
Orwell'sOrwell je authoritarianismautoritarnosti.
304
1025240
2576
Ovo neće biti
Orwellov autoritarizam.
17:19
This isn't "1984."
305
1027839
1897
Ovo nije "1984".
17:21
Now, if authoritarianismautoritarnosti
is usingkoristeći overtotvoren fearstrah to terrorizeteroriziraju us,
306
1029760
4576
Ako autoritarizam koristi
strah kako bi nas terorizirao,
17:26
we'lldobro all be scaredprestrašen, but we'lldobro know it,
307
1034359
2897
svi ćemo biti u strahu, ali znat ćemo to,
17:29
we'lldobro hatemrziti it and we'lldobro resistodoljeti it.
308
1037280
2200
mrzit ćemo to i opirat ćemo se tome.
17:32
But if the people in powervlast
are usingkoristeći these algorithmsalgoritmi
309
1040880
4416
Ali ako oni koji su na vlasti
koriste ove algoritme
17:37
to quietlytiho watch us,
310
1045319
3377
kako bi nas tiho nadgledali,
17:40
to judgesuditi us and to nudgegurkanje us,
311
1048720
2080
kako bi nas procjenjivali i gurkali,
17:43
to predictpredvidjeti and identifyidentificirati
the troublemakersproblematični and the rebelsPobunjenici,
312
1051720
4176
kako bi predvidjeli i prepoznali
one koji prave probleme i buntovnike,
17:47
to deployuvođenje persuasionnagovaranje
architecturesarhitektura at scaleljestvica
313
1055920
3896
kako bi razvili
arhitekturu uvjeravanja u stvarnom životu
17:51
and to manipulatemanipulirati individualspojedinci one by one
314
1059840
4136
i kako bi manipulirali pojedincima
17:56
usingkoristeći theirnjihov personalosobni, individualpojedinac
weaknessesslabosti and vulnerabilitiesranjivosti,
315
1064000
5440
koristeći osobne,
individualne slabosti i osjetljivosti,
18:02
and if they're doing it at scaleljestvica
316
1070720
2200
i ako to rade u velikom broju
18:06
throughkroz our privateprivatna screensekrani
317
1074080
1736
kroz naše privatne ekrane
18:07
so that we don't even know
318
1075840
1656
pa čak ni ne znamo
18:09
what our fellowkolega citizensgrađani
and neighborsSusjedi are seeingvidim,
319
1077520
2760
što naši sugrađani i susjedi vide,
18:13
that authoritarianismautoritarnosti
will envelopumotati us like a spider'spauk webmreža
320
1081560
4816
taj će se autoritarizam
omotati oko nas kao paukova mreža,
18:18
and we maysvibanj not even know we're in it.
321
1086400
2480
a mi nećemo ni znati da smo u njoj.
18:22
So Facebook'sFacebook markettržište capitalizationvelikih i malih slova
322
1090440
2936
Facebookova tržišna kapitalizacija
18:25
is approachingse približava halfpola a trillionbilijuna dollarsdolara.
323
1093400
3296
iznosi pola trilijuna dolara
18:28
It's because it worksdjela great
as a persuasionnagovaranje architecturearhitektura.
324
1096720
3120
jer odlično funkcionira
kao arhitektura uvjeravanja.
18:33
But the structurestruktura of that architecturearhitektura
325
1101760
2816
Ali struktura te arhitekture
18:36
is the sameisti whetherda li you're sellingprodaja shoescipele
326
1104600
3216
ista je bez obzira
na to prodajete li cipele
18:39
or whetherda li you're sellingprodaja politicspolitika.
327
1107840
2496
ili politiku.
18:42
The algorithmsalgoritmi do not know the differencerazlika.
328
1110360
3120
Algoritmi tu ne vide razliku.
18:46
The sameisti algorithmsalgoritmi setset looselabav uponna us
329
1114240
3296
Ti isti algoritmi usmjereni na nas
18:49
to make us more pliablesavitljiv for adsoglasi
330
1117560
3176
kako bi nas napravili
podložnijima oglasima
18:52
are alsotakođer organizingorganiziranje our politicalpolitički,
personalosobni and socialsocijalni informationinformacija flowsteče,
331
1120760
6736
također organiziraju naše političke,
osobne i društvene tokove informacija,
18:59
and that's what's got to changepromijeniti.
332
1127520
1840
a to se mora promijeniti.
19:02
Now, don't get me wrongpogrešno,
333
1130240
2296
Nemojte me krivo shvatiti,
19:04
we use digitaldigitalni platformsplatforme
because they providepružiti us with great valuevrijednost.
334
1132560
3680
koristimo digitalne platforme
jer nam puno toga pružaju.
19:09
I use FacebookFacebook to keep in touchdodir
with friendsprijatelji and familyobitelj around the worldsvijet.
335
1137120
3560
Koristim Face da budem u kontaktu
s prijateljima i obitelji diljem svijeta.
19:14
I've writtennapisan about how crucialpresudan
socialsocijalni mediamedia is for socialsocijalni movementspokreti.
336
1142000
5776
Pisala sam o tome koliko su ključni
društveni mediji za društvene pokrete.
19:19
I have studiedstudirao how
these technologiestehnologije can be used
337
1147800
3016
Proučavala sam kako se te
tehnologije mogu koristiti
19:22
to circumventzaobići censorshipcenzura around the worldsvijet.
338
1150840
2480
da zaobiđemo cenzuru diljem svijeta.
19:27
But it's not that the people who runtrčanje,
you know, FacebookFacebook or GoogleGoogle
339
1155280
6416
Ali ljudi koji vode Facebook ili Google
19:33
are maliciouslyzlonamjerno and deliberatelynamjerno tryingtežak
340
1161720
2696
ne pokušavaju zlobno ili namjerno
19:36
to make the countryzemlja
or the worldsvijet more polarizedpolarizirane
341
1164440
4456
državu ili svijet dodatno polarizirati
19:40
and encourageohrabriti extremismekstremizam.
342
1168920
1680
i poticati ekstremizam.
19:43
I readčitati the manymnogi
well-intentioneddobronamjeran statementsizjava
343
1171440
3976
Pročitala sam mnoge dobronamjerne izjave
19:47
that these people put out.
344
1175440
3320
koje ti ljudi daju.
19:51
But it's not the intentnamjera or the statementsizjava
people in technologytehnologija make that matterstvar,
345
1179600
6056
No, nije važna namjera ili izjave
ljudi u tehnologiji,
19:57
it's the structuresstrukture
and businessPoslovni modelsmodeli they're buildingzgrada.
346
1185680
3560
već su važne strukture
i poslovni modeli koje oni grade.
20:02
And that's the coresrž of the problemproblem.
347
1190360
2096
To je srž problema.
20:04
EitherU svakom FacebookFacebook is a giantgigantski con
of halfpola a trillionbilijuna dollarsdolara
348
1192480
4720
Ili je Facebook ogromni prevarant
s pola trilijuna dolara
20:10
and adsoglasi don't work on the sitemjesto,
349
1198200
1896
i oglasi na toj stranici ne rade
20:12
it doesn't work
as a persuasionnagovaranje architecturearhitektura,
350
1200120
2696
kao arhitektura uvjeravanja,
20:14
or its powervlast of influenceutjecaj
is of great concernbriga.
351
1202840
4120
ili je njegova moć utjecaja
razlog za brigu.
20:20
It's eitherili one or the other.
352
1208560
1776
Ili jedno ili drugo.
20:22
It's similarsličan for GoogleGoogle, too.
353
1210360
1600
Slično vrijedi i za Google.
20:24
So what can we do?
354
1212880
2456
Što možemo učiniti?
20:27
This needspotrebe to changepromijeniti.
355
1215360
1936
To se mora promijeniti.
20:29
Now, I can't offerponuda a simplejednostavan reciperecept,
356
1217320
2576
Ne mogu ponuditi jednostavan recept
20:31
because we need to restructurerestrukturiranje
357
1219920
2256
jer moramo restrukturirati
20:34
the wholečitav way our
digitaldigitalni technologytehnologija operatesdjeluje.
358
1222200
3016
cjelokupan način na koji
naša digitalna tehnologija funkcionira.
20:37
Everything from the way
technologytehnologija is developedrazvijen
359
1225240
4096
Sve od toga kako se tehnologija razvija
20:41
to the way the incentivespoticaji,
economicekonomski and otherwiseinače,
360
1229360
3856
pa do načina na koji su
poticaji, ekonomski ili drugi,
20:45
are builtizgrađen into the systemsistem.
361
1233240
2280
ugrađeni u sustav.
20:48
We have to facelice and try to dealdogovor with
362
1236480
3456
Moramo se suočiti i pokušati nositi s
20:51
the lacknedostatak of transparencyprozirnost
createdstvorio by the proprietaryvlasnički algorithmsalgoritmi,
363
1239960
4656
manjkom transparentnosti
koju stvaraju privatni algoritmi,
20:56
the structuralstrukturalan challengeizazov
of machinemašina learning'sučenje je opacityneprozirnost,
364
1244640
3816
strukturalnim izazovom
nejasnoće strojnog učenja,
21:00
all this indiscriminatenekritično datapodaci
that's beingbiće collectedprikupljeni about us.
365
1248480
3400
svim tim podacima
koji se o nama skupljaju.
21:05
We have a bigvelika taskzadatak in frontispred of us.
366
1253000
2520
Pred nama je velik zadatak.
21:08
We have to mobilizemobilizirati our technologytehnologija,
367
1256160
2680
Moramo mobilizirati našu tehnologiju,
21:11
our creativitykreativnost
368
1259760
1576
našu kreativnost,
21:13
and yes, our politicspolitika
369
1261360
1880
i da, i našu politiku
21:16
so that we can buildizgraditi
artificialUmjetna intelligenceinteligencija
370
1264240
2656
kako bismo stvorili umjetnu inteligenciju
21:18
that supportspodržava us in our humanljudski goalsciljevi
371
1266920
3120
koja podržava naše ljudske ciljeve,
21:22
but that is alsotakođer constrainedograničen
by our humanljudski valuesvrijednosti.
372
1270800
3920
ali koju ograničavaju
naše ljudske vrijednosti.
21:27
And I understandrazumjeti this won'tnavika be easylako.
373
1275600
2160
Shvaćam da to neće biti lako.
21:30
We mightmoć not even easilylako agreesložiti
on what those termsUvjeti mean.
374
1278360
3600
Možda se nećemo čak ni složiti
o tome koji bi to uvjeti trebali biti.
21:34
But if we take seriouslyozbiljno
375
1282920
2400
Ali ako ozbiljno shvatimo
21:38
how these systemssustavi that we
dependzavisiti on for so much operateraditi,
376
1286240
5976
kako funkcioniraju ovi sustavi
o kojima toliko dugo ovisimo,
21:44
I don't see how we can postponeodgoditi
this conversationrazgovor anymoreviše.
377
1292240
4120
ne znam kako možemo
odgađati ovaj razgovor.
21:49
These structuresstrukture
378
1297200
2536
Ove strukture
21:51
are organizingorganiziranje how we functionfunkcija
379
1299760
4096
organiziraju način na koji funkcioniramo
21:55
and they're controllingkontrolni
380
1303880
2296
i kontroliraju
21:58
what we can and we cannotNe možete do.
381
1306200
2616
što možemo i što ne možemo raditi.
22:00
And manymnogi of these ad-financedoglas financira platformsplatforme,
382
1308840
2456
Mnoge od tih platformi
koje financiraju oglasi
22:03
they boastpohvaliti that they're freebesplatno.
383
1311320
1576
naglašavaju da su besplatne.
22:04
In this contextkontekst, it meanssredstva
that we are the productproizvod that's beingbiće soldprodan.
384
1312920
4560
U ovom kontekstu, to znači
da smo mi proizvod koji se prodaje.
22:10
We need a digitaldigitalni economyEkonomija
385
1318840
2736
Potrebna nam je digitalna ekonomija
22:13
where our datapodaci and our attentionpažnja
386
1321600
3496
gdje naši podaci i pozornost
22:17
is not for saleProdaja to the highest-biddingnajveća ponuda
authoritarianautoritarno or demagoguedemagog.
387
1325120
5080
neće biti prodani diktatoru
ili demagogiji koja ponudi najviše.
22:23
(ApplausePljesak)
388
1331160
3800
(Pljesak)
22:30
So to go back to
that HollywoodHollywood paraphraseparafraza,
389
1338480
3256
Vratimo se onoj holivudskoj parafrazi,
22:33
we do want the prodigiousgolem potentialpotencijal
390
1341760
3736
želimo da ogroman potencijal
22:37
of artificialUmjetna intelligenceinteligencija
and digitaldigitalni technologytehnologija to blossomcvijet,
391
1345520
3200
umjetne inteligencije
i digitalne tehnologije procvjeta,
22:41
but for that, we mustmora facelice
this prodigiousgolem menaceprijetnja,
392
1349400
4936
ali zbog toga se moramo suočiti
s ovom ogromnom prijetnjom,
22:46
open-eyedotvorenih očiju and now.
393
1354360
1936
otvorenih očiju, i to odmah.
22:48
Thank you.
394
1356320
1216
Hvala vam.
22:49
(ApplausePljesak)
395
1357560
4640
(Pljesak)
Translated by Anja Kolobarić
Reviewed by Lucija Jelić

▲Back to top

ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.

Why you should listen

We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.

Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.

Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.

More profile about the speaker
Zeynep Tufekci | Speaker | TED.com