ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.

Why you should listen

We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.

Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.

Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.

More profile about the speaker
Zeynep Tufekci | Speaker | TED.com
TEDGlobal>NYC

Zeynep Tufekci: We're building a dystopia just to make people click on ads

Zeynep Tufekci: Estem construint una distòpia només per fer que la gent cliqui anuncis.

Filmed:
2,866,905 views

Estem construint una distòpia basada en la intel·ligència artificial, clic rere clic; diu la tecnosociòloga Zeynep Tufekci. En una xerrada reveladora, detalla com els mateixos algoritmes que empren companyies com Facebook, Google i Amazon per fer-te clicar anuncis, també s'empren per organitzar el teu accés a informació política i social. I les màquines no són la principal amenaça. El que hem d'entendre és com els poderosos podrien emprar la IA per controlar-nos -- i com podem actuar en conseqüència.
- Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread. Full bio

Double-click the English transcript below to play the video.

00:12
So when people voiceveu fearstemors
of artificialartificial intelligenceintel·ligència,
0
760
3536
Quant la gent parla de la por
a la intel·ligència artificial,
00:16
very oftensovint, they invokeinvocar imagesimatges
of humanoidrobot d'Humanoide robotsrobots runcorrer amokAmok.
1
4320
3976
molt sovint imaginen
robots humanoides fora de control.
00:20
You know? TerminatorTerminator?
2
8320
1240
Us sona Terminator?
00:22
You know, that mightpotser be
something to considerconsidereu,
3
10400
2336
Això s'hauria de tenir
en consideraciò,
00:24
but that's a distantllunyà threatamenaça.
4
12760
1856
però és una amenaça remota.
00:26
Or, we frettrast about digitaldigital surveillancevigilància
5
14640
3456
O ens preocupem per la vigilància digital
00:30
with metaphorsmetàfores from the pastpassat.
6
18120
1776
amb metàfores del passat.
00:31
"1984," GeorgeGeorge Orwell'sDe Orwell "1984,"
7
19920
2656
"1984", el "1984" de George Orwell,
00:34
it's hittingcolpejar the bestsellerbest-seller listsllistes again.
8
22600
2280
està tornant a les llistes
dels més venuts.
00:37
It's a great bookllibre,
9
25960
1416
És un llibre genial,
00:39
but it's not the correctcorrecte dystopiadistopia
for the 21stst centurysegle.
10
27400
3880
però no és la distòpia correcta
pel segle XXI.
00:44
What we need to fearpor mostla majoria
11
32080
1416
El que hem de témer més
00:45
is not what artificialartificial intelligenceintel·ligència
will do to us on its ownpropi,
12
33520
4776
no és el que la intel·ligència artificial
ens farà per si sola,
00:50
but how the people in powerpoder
will use artificialartificial intelligenceintel·ligència
13
38320
4736
sinó com la gent poderosa
emprarà la intel·ligència artificial
00:55
to controlcontrol us and to manipulatemanipular us
14
43080
2816
per a controlar-nos i manipular-nos
00:57
in novelnovel·la, sometimesde vegades hiddenamagat,
15
45920
3136
en nous, a vegades ocults,
01:01
subtlesubtil and unexpectedinesperat waysmaneres.
16
49080
3016
subtils i inesperats mitjans.
01:04
Much of the technologytecnologia
17
52120
1856
Molta de la tecnologia
01:06
that threatensamenaça our freedomllibertat
and our dignitydignitat in the near-termcurt termini futurefutur
18
54000
4336
que amenaça la nostra llibertat
i la nostra dignitat en un futur proper
01:10
is beingser developeddesenvolupat by companiesempreses
19
58360
1856
està sent desenvolupada per companyies
01:12
in the businessnegocis of capturingcaptura
and sellingvenda our datadades and our attentionatenció
20
60240
4936
encarregades de recopilar i vendre
la nostra informació i la nostra atenció
01:17
to advertisersanunciants and othersaltres:
21
65200
2256
als anunciants i altres:
01:19
FacebookFacebook, GoogleGoogle, AmazonAmazon,
22
67480
3416
Facebook, Google, Amazon,
01:22
AlibabaAlibaba, TencentTencent.
23
70920
1880
Alibaba, Tencent.
01:26
Now, artificialartificial intelligenceintel·ligència has startedva començar
bolsteringenfortiment dels theirels seus businessnegocis as well.
24
74040
5496
La indústria d'intel·ligència artificial
també ha començat a reforçar-se.
01:31
And it maypot seemsembla
like artificialartificial intelligenceintel·ligència
25
79560
2096
Pot semblar
que la intel·ligència artificial
01:33
is just the nextPròxim thing after onlineen línia adsanuncis.
26
81680
2856
vindrà just després dels anuncis en línea.
01:36
It's not.
27
84560
1216
No serà així.
És d'un tipus diferent.
01:37
It's a jumpsaltar in categorycategoria.
28
85800
2456
01:40
It's a wholetot differentdiferent worldmón,
29
88280
2576
És un món ben distint,
01:42
and it has great potentialpotencial.
30
90880
2616
i té un gran potencial.
01:45
It could accelerateaccelerar our understandingcomprensió
of manymolts areasàrees of studyestudiar and researchrecerca.
31
93520
6920
Podria accelerar el nostre coneixement
sobre moltes àrees d'estudi i recerca.
01:53
But to paraphraseparàfrasi
a famousfamós HollywoodHollywood philosopherfilòsof,
32
101120
3496
Però, parafrasejant un famós filòsof
de Hollywood,
01:56
"With prodigiousprodigiosa potentialpotencial
comesve prodigiousprodigiosa riskrisc."
33
104640
3640
"Un potencial prodigiós
porta un risc prodigiós."
02:01
Now let's look at a basicbàsic factfet
of our digitaldigital livesvides, onlineen línia adsanuncis.
34
109120
3936
Considerem un fet bàsic de les nostres
vides digitals, els anuncis en línea.
02:05
Right? We kindamable of dismissdesestimar them.
35
113080
2896
No els donem importància.
02:08
They seemsembla crudecru, ineffectiveineficaç.
36
116000
1976
Semblen bàsics, poc efectius.
02:10
We'veHem all had the experienceexperiència
of beingser followedseguit on the webweb
37
118000
4256
Tots hem tingut l'experiència
de ser seguits per la web
02:14
by an adanunci basedbasat on something
we searchedbuscat or readllegir.
38
122280
2776
per anuncis basats en quelcom
que buscàrem o llegírem.
02:17
You know, you look up a pairparell of bootsbotes
39
125080
1856
Cerques unes botes
02:18
and for a weeksetmana, those bootsbotes are followingsegüent
you around everywherea tot arreu you go.
40
126960
3376
i durant una setmana les botes
et segueixen per tot arreu.
02:22
Even after you succumbsucumbir and buycomprar them,
they're still followingsegüent you around.
41
130360
3656
Fins i tot després de sucumbir
i comprar-les, encara et segueixen.
02:26
We're kindamable of inuredacostumat to that kindamable
of basicbàsic, cheapbarat manipulationmanipulació.
42
134040
3016
Estem acostumats
a aquesta manipulació bàsica i barata.
02:29
We rollrotllo our eyesulls and we think,
"You know what? These things don't work."
43
137080
3400
Ens resignem i pensem,
"Saps què? Aquestes coses no funcionen."
02:33
ExceptExcepte, onlineen línia,
44
141720
2096
Encara que, en línea,
02:35
the digitaldigital technologiestecnologies are not just adsanuncis.
45
143840
3600
la tecnologia digital
no només són anuncis.
02:40
Now, to understandentendre that,
let's think of a physicalfísic worldmón exampleexemple.
46
148240
3120
Per entendre-ho pensem en
un exemple del món físic.
02:43
You know how, at the checkoutdesprotecció counterscomptadors
at supermarketssupermercats, neara prop the cashierCaixer,
47
151840
4656
Sabeu que en els estants
dels supermercats, devora el caixer,
02:48
there's candycaramel and gumgoma
at the eyeull levelnivell of kidsnens?
48
156520
3480
hi ha dolços i xiclets
a l'alçada visual dels nens?
02:52
That's designeddissenyat to make them
whinequeixar-se at theirels seus parentspares
49
160800
3496
Està pensat per a que
demanin als pares
02:56
just as the parentspares
are about to sortordenar of checkcomprovar out.
50
164320
3080
just quan els pares
estàn acabant de pagar.
03:00
Now, that's a persuasionpersuasió architecturearquitectura.
51
168040
2640
Això és una arquitectura de persuasió.
03:03
It's not niceagradable, but it kindamable of worksfunciona.
52
171160
3096
No és agradable, però funciona.
03:06
That's why you see it
in everycada supermarketsupermercat.
53
174280
2040
Per això la veus en tots els supermercats.
03:08
Now, in the physicalfísic worldmón,
54
176720
1696
En el món físic,
03:10
suchtal persuasionpersuasió architecturesarquitectures
are kindamable of limitedlimitat,
55
178440
2496
aquestes arquitectures persuasives
són limitades,
03:12
because you can only put
so manymolts things by the cashierCaixer. Right?
56
180960
4816
perquè només pots posar un nombre limitat
de coses al costat del caixer, no?
03:17
And the candycaramel and gumgoma,
it's the samemateix for everyonetothom,
57
185800
4296
I els dolços i els xiclets
són iguals per a tothom,
03:22
even thoughperò it mostlysobretot worksfunciona
58
190120
1456
encara que sol funcionar
03:23
only for people who have
whinyqueixosos little humansels éssers humans besideal costat them.
59
191600
4040
només per persones amb humans petits
i consentits al seu costat.
03:29
In the physicalfísic worldmón,
we liveen directe with those limitationslimitacions.
60
197160
3920
En el món físic,
vivim amb aquestes limitacions.
03:34
In the digitaldigital worldmón, thoughperò,
61
202280
1936
En el món digital, en canvi,
03:36
persuasionpersuasió architecturesarquitectures
can be builtconstruït at the scaleescala of billionsmilers de milions
62
204240
4320
les arquitectures persuasives
es construeixen en magnituts de bilions
03:41
and they can targetobjectiu, inferinferir, understandentendre
63
209840
3856
i poden abordar, deduir, entendre
03:45
and be deployeddesplegat at individualsindividus
64
213720
2896
i ser usades amb individus
03:48
one by one
65
216640
1216
un per un
03:49
by figuringfigurant out your weaknessesdebilitats,
66
217880
2136
descobrint les teves debilitats,
03:52
and they can be sentenviat
to everyone'stothom phonetelèfon privateprivat screenpantalla,
67
220040
5616
i es poden enviar a la pantalla privada
de qualsevol mòbil,
03:57
so it's not visiblevisible to us.
68
225680
2256
així no és visible per nosaltres.
03:59
And that's differentdiferent.
69
227960
1256
I això és diferent.
04:01
And that's just one of the basicbàsic things
that artificialartificial intelligenceintel·ligència can do.
70
229240
3576
Aquesta és una de les coses bàsiques
que la intel·ligència artificial fa.
04:04
Now, let's take an exampleexemple.
71
232840
1336
Analitzem un exemple.
04:06
Let's say you want to sellvendre
planeavió ticketsentrades to VegasVegas. Right?
72
234200
2696
Imaginem que vols vendre
bitllets d'avió a Las Vegas.
04:08
So in the oldvell worldmón, you could think
of some demographicsdemografia to targetobjectiu
73
236920
3496
En el món antic, podies pensar
alguns sectors demogràfics que abordar
04:12
basedbasat on experienceexperiència
and what you can guesssuposo.
74
240440
2520
basats en l'experiència
i en el que pots adivinar.
04:15
You mightpotser try to advertiseanunciar-se to, oh,
75
243560
2816
Podies intentar crear anuncis per a
04:18
menhomes betweenentre the agesedats of 25 and 35,
76
246400
2496
homes entre els 25 i 35 anys,
04:20
or people who have
a highalt limitlímit on theirels seus creditcrèdit cardtargeta,
77
248920
3936
o gent que té un límit alt
a la targeta de crèdit,
04:24
or retiredes va retirar couplesparelles. Right?
78
252880
1376
o parelles retirades, no?
04:26
That's what you would do in the pastpassat.
79
254280
1816
Això és el que es feia en el passat.
04:28
With biggran datadades and machinemàquina learningaprenentatge,
80
256120
2896
Amb les dades massives
i l'aprenentatge automàtic,
04:31
that's not how it worksfunciona anymoremés.
81
259040
1524
ja no funciona així.
04:33
So to imagineimaginar that,
82
261320
2176
Així que imagineu-ho,
04:35
think of all the datadades
that FacebookFacebook has on you:
83
263520
3856
penseu en tota la informació
que Facebook té de tu:
04:39
everycada statusestat updateactualització you ever typedmecanografiat,
84
267400
2536
cada actualització de l'estat
que hagis teclejat,
04:41
everycada MessengerMissatger conversationconversa,
85
269960
2016
cada conversació per Messenger,
04:44
everycada placelloc you loggedconnectat in from,
86
272000
1880
cada lloc des d'on hagis accedit,
04:48
all your photographsfotografies
that you uploadedcarregat there.
87
276400
3176
totes les fotografies que hi hagis pujat.
04:51
If you startcomençar typingmecanografia something
and changecanviar your mindment and deleteesborrar it,
88
279600
3776
Si comences a escriure alguna cosa
i canvies d'opinió i ho esborres,
04:55
FacebookFacebook keepses guarda those
and analyzesanàlisi them, too.
89
283400
3200
Facebook ho guarda i també ho analitza.
04:59
IncreasinglyCada vegada més, it triesintenta
to matchpartit you with your offlinefora de línia datadades.
90
287160
3936
Cada cop més, intenta relacionar-te
amb la teva informació fora de línea.
05:03
It alsotambé purchasescompres
a lot of datadades from datadades brokerscorredors.
91
291120
3176
També compra molta informació
dels recol·lectors d'informació.
05:06
It could be everything
from your financialfinancera recordsregistres
92
294320
3416
Podria ser qualsevol cosa
des del teu historial financer
05:09
to a good chunkfragment of your browsingnavegació historyhistòria.
93
297760
2120
fins a l'historial de navegació.
05:12
Right? In the US,
suchtal datadades is routinelyrutinariament collectedrecollit,
94
300360
5416
Als Estats Units aquesta informació
és recopilada rutinàriament,
05:17
collatedacarada and soldvenut.
95
305800
1960
ordenada i venuda.
05:20
In EuropeEuropa, they have toughermés dur rulesregles.
96
308320
2440
A Europa tenen lleis més estrictes.
05:23
So what happenspassa then is,
97
311680
2200
Així que el que passa és que,
05:26
by churningagitació througha través all that datadades,
these machine-learningaprenentatge automàtic algorithmsalgorismes --
98
314920
4016
recercant entre tota la informació,
els algoritmes d'aprenentatge automàtic --
05:30
that's why they're calledanomenat
learningaprenentatge algorithmsalgorismes --
99
318960
2896
per això es diuen
algoritmes d'aprenentatge --
05:33
they learnaprendre to understandentendre
the characteristicscaracterístiques of people
100
321880
4096
aprenen a entendre
les característiques de la gent
05:38
who purchasedcomprat ticketsentrades to VegasVegas before.
101
326000
2520
que va comprar
bitllets a Las Vegas anteriorment.
05:41
When they learnaprendre this from existingexistent datadades,
102
329760
3536
Quan ho aprenen de la informació existent,
05:45
they alsotambé learnaprendre
how to applyaplicar this to newnou people.
103
333320
3816
també aprenen
a aplicar-ho a gent nova.
05:49
So if they're presentedpresentat with a newnou personpersona,
104
337160
3056
Així que si es troben
amb una persona nova,
05:52
they can classifyclassificar whetherja sigui that personpersona
is likelyprobablement to buycomprar a ticketbitllet to VegasVegas or not.
105
340240
4640
poden deduir si és probable que aquella
persona compri bitllets a Las Vegas o no.
05:57
Fine. You're thinkingpensant,
an offeroferta to buycomprar ticketsentrades to VegasVegas.
106
345720
5456
Molt bé. Esteu pensant: "una oferta
per comprar bitllets a Las Vegas,
06:03
I can ignoreignorar that.
107
351200
1456
la puc ignorar".
06:04
But the problemproblema isn't that.
108
352680
2216
Però aquest no és el problema.
06:06
The problemproblema is,
109
354920
1576
El problema és,
06:08
we no longermés llarg really understandentendre
how these complexcomplex algorithmsalgorismes work.
110
356520
4136
que ja no acabem d'entendre com funcionen
aquests algoritmes tan complexes.
06:12
We don't understandentendre
how they're doing this categorizationcategorització.
111
360680
3456
No entenem com realitzen
aquesta categorització.
06:16
It's giantgegant matricesmatrius,
thousandsmilers of rowsfiles and columnscolumnes,
112
364160
4416
Són matrius gegants,
milers de files i columnes,
06:20
maybe millionsmilions of rowsfiles and columnscolumnes,
113
368600
1960
potser milions de files i columnes,
06:23
and not the programmersprogramadors
114
371320
2640
i ni els programadors
06:26
and not anybodyningú who looksaspecte at it,
115
374760
1680
ni algú que ho observi,
06:29
even if you have all the datadades,
116
377440
1496
ni si tinguessiu la informació
06:30
understandsentén anymoremés
how exactlyexactament it's operatingfuncionant
117
378960
4616
podríeu entendre com funciona exactament,
06:35
any more than you'dho faria know
what I was thinkingpensant right now
118
383600
3776
no més que el que podrieu saber
del que ara estic pensant
06:39
if you were shownmostrat
a crosscreu sectionsecció of my braincervell.
119
387400
3960
si us mostrassin una secció
representativa del meu cervell.
06:44
It's like we're not programmingprogramació anymoremés,
120
392360
2576
És com si ja no programàssim,
06:46
we're growingcreixent intelligenceintel·ligència
that we don't trulyveritablement understandentendre.
121
394960
4400
estem creant intel·ligència
que ja no acabem d'entendre.
06:52
And these things only work
if there's an enormousenorme amountquantitat of datadades,
122
400520
3976
I aquestes coses només funcionen si
hi ha una enorme quantitat d'informació,
06:56
so they alsotambé encourageanimar
deepprofund surveillancevigilància on all of us
123
404520
5096
així que també motiven
que ens vigilin a tots minuciosament,
07:01
so that the machinemàquina learningaprenentatge
algorithmsalgorismes can work.
124
409640
2336
perquè els algoritmes automàtics
funcionin.
07:04
That's why FacebookFacebook wants
to collectrecollir all the datadades it can about you.
125
412000
3176
Per això Facebook vol recopilar
tota la informació que pugui.
07:07
The algorithmsalgorismes work better.
126
415200
1576
Els algoritmes funcionen millor.
07:08
So let's pushempènyer that VegasVegas exampleexemple a bitpoc.
127
416800
2696
Exprimim l'exemple
de Las Vegas una mica.
07:11
What if the systemsistema
that we do not understandentendre
128
419520
3680
I si el sistema que no entenem
07:16
was pickingrecollint up that it's easiermés fàcil
to sellvendre VegasVegas ticketsentrades
129
424200
5136
descobrís que és més fàcil
vendre bitllets a Las Vegas
07:21
to people who are bipolarbipolar
and about to enterentrar the manicmaníac phasefase.
130
429360
3760
a gent bipolar i a punt d'entrar
en fase de mania?
07:25
SuchTal people tendtendeix to becomeconvertir-se en
overspendersoverspenders, compulsivecompulsiu gamblersjugadors.
131
433640
4920
Aquesta gent tendeix a tornar-se
malgastadora, jugadors compulsius.
07:31
They could do this, and you'dho faria have no cluepista
that's what they were pickingrecollint up on.
132
439280
4456
Ho podrien fer, i no tindries
ni idea que s'estan basant en això.
07:35
I gaveva donar this exampleexemple
to a bunchgrup of computerordinador scientistscientífics onceun cop
133
443760
3616
Una vegada vaig posar
aquest exemple a un grup d'informàtics
07:39
and afterwardsdesprés, one of them cameva venir up to me.
134
447400
2056
i després un d'ells va apropar-se.
07:41
He was troubledpreocupat and he said,
"That's why I couldn'tno podia publishpublicar it."
135
449480
3520
Estava preocupat i va dir:
"Per això no ho podia publicar."
07:45
I was like, "Couldn'tNo podia publishpublicar what?"
136
453600
1715
Jo vaig dir: "Publicar el què?"
07:47
He had triedintentat to see whetherja sigui you can indeeden efecte
figurefigura out the onsetInici of maniamania de
137
455800
5856
Havia intentat veure
si es pot descobrir l'inici de la mania
07:53
from socialsocial mediamitjans de comunicació postscorreus
before clinicalclínic symptomssímptomes,
138
461680
3216
amb publicacions a la xarxa
abans que amb símptomes clínics,
07:56
and it had workedtreballat,
139
464920
1776
i havia funcionat,
07:58
and it had workedtreballat very well,
140
466720
2056
havia funcionat molt bé,
08:00
and he had no ideaidea how it workedtreballat
or what it was pickingrecollint up on.
141
468800
4880
i no tenia ni idea de com
funcionava o en què es fixaven.
08:06
Now, the problemproblema isn't solvedresolt
if he doesn't publishpublicar it,
142
474840
4416
El problema no es solucionarà
encara que no ho publiqui,
08:11
because there are alreadyja companiesempreses
143
479280
1896
perquè ja hi ha companyies
08:13
that are developingdesenvolupament
this kindamable of technologytecnologia,
144
481200
2536
que ja estàn desenvolupant
aquest tipus de tecnologia,
08:15
and a lot of the stuffcoses
is just off the shelfprestatge.
145
483760
2800
i moltes coses són per a un ús general.
08:19
This is not very difficultdifícil anymoremés.
146
487240
2576
Això ja no és tan difícil.
08:21
Do you ever go on YouTubeYouTube
meaningsignificat to watch one videovideo
147
489840
3456
Alguna vegada entres a YouTube
a mirar un vídeo
08:25
and an hourhores latermés tard you've watchedobservat 27?
148
493320
2360
i després d'una hora n'has mirat 27?
08:28
You know how YouTubeYouTube
has this columncolumna on the right
149
496760
2496
Saps que YouTube té la columna a la dreta
08:31
that saysdiu, "Up nextPròxim"
150
499280
2216
que diu: "Següent"
08:33
and it autoplaysautojocs una something?
151
501520
1816
i reprodueix quelcom automàticament?
08:35
It's an algorithmalgorisme
152
503360
1216
És un algoritme
08:36
pickingrecollint what it thinkspensa
that you mightpotser be interestedinteressat in
153
504600
3616
elegint el que creu que et pot interessar
08:40
and maybe not find on your ownpropi.
154
508240
1536
i potser no trobis tu mateix.
08:41
It's not a humanhumà editoreditor.
155
509800
1256
No és un editor humà.
08:43
It's what algorithmsalgorismes do.
156
511080
1416
És el que fan el algoritmes.
08:44
It picksseleccions up on what you have watchedobservat
and what people like you have watchedobservat,
157
512520
4736
Es fixa en el que has mirat
i el que la gent com tu ha mirat,
08:49
and inferses dedueix that that musthaver de be
what you're interestedinteressat in,
158
517280
4216
i dedueix que allò
deu ser el que t'interessa,
08:53
what you want more of,
159
521520
1255
que en vols més,
08:54
and just showsespectacles you more.
160
522799
1336
i simplement te'n posa més.
08:56
It soundssons like a benignbenigne
and usefulútil featurefunció,
161
524159
2201
Sembla una característica benigna i útil,
08:59
exceptexcepte when it isn't.
162
527280
1200
excepte quan no ho és.
09:01
So in 2016, I attendedva assistir a ralliesmítings
of then-candidatealeshores-candidat DonaldDonald TrumpTrump
163
529640
6960
El 2016 vaig anar a
mítings del candidat Donald Trump
09:09
to studyestudiar as a scholarbecari
the movementmoviment supportingdonar suport a him.
164
537840
3336
a estudiar acadèmicament
el moviment de suport.
09:13
I studyestudiar socialsocial movementsmoviments,
so I was studyingestudiant it, too.
165
541200
3456
Estudio moviments socials,
així que també ho vaig estudiar.
09:16
And then I wanted to writeescriure something
about one of his ralliesmítings,
166
544680
3336
I després vaig voler escriure
alguna cosa sobre un dels seus mítings,
09:20
so I watchedobservat it a fewpocs timestemps on YouTubeYouTube.
167
548040
1960
i el vaig mirar alguns cops per YouTube.
09:23
YouTubeYouTube startedva començar recommendingrecomanar to me
168
551240
3096
YouTube em va començar a recomanar
09:26
and autoplayingautoplaying to me
whiteblanc supremacistsupremacist videosvídeos
169
554360
4256
i a reproduir vídeos de supremacia blanca
09:30
in increasingaugmentant orderordre of extremisml'extremisme.
170
558640
2656
en un ordre progressiu d'extremisme.
09:33
If I watchedobservat one,
171
561320
1816
Si en mirava un,
09:35
it servedservit up one even more extremeextrem
172
563160
2976
me'n mostrava un d'encara més extrem
09:38
and autoplayedautoplayed that one, too.
173
566160
1424
i també me'l reproduïa.
09:40
If you watch HillaryHillary ClintonClinton
or BernieBernie SandersFregadores contentcontingut,
174
568320
4536
Si mires continguts de Hillary Clinton
o Bernie Sanders,
09:44
YouTubeYouTube recommendsrecomana
and autoplaysautojocs una conspiracyconspiració left,
175
572880
4696
YouTube et recomana i reprodueix
conspiració d'esquerres,
09:49
and it goesva downhillbaixada from there.
176
577600
1760
i des d'allà empitjora.
09:52
Well, you mightpotser be thinkingpensant,
this is politicspolítica, but it's not.
177
580480
3056
Podríeu pensar que això és política,
però no ho és.
09:55
This isn't about politicspolítica.
178
583560
1256
No es tracta de política.
09:56
This is just the algorithmalgorisme
figuringfigurant out humanhumà behaviorcomportament.
179
584840
3096
És l'algoritme desxifrant
el comportament humà.
09:59
I onceun cop watchedobservat a videovideo
about vegetarianismvegetarianisme on YouTubeYouTube
180
587960
4776
Una vegada vaig mirar un vídeo
sobre vegetarianisme al YouTube
10:04
and YouTubeYouTube recommendedrecomanat
and autoplayedautoplayed a videovideo about beingser veganvegà.
181
592760
4936
i YouTube em va recomanar i
reproduir un vídeo sobre ser vegà.
10:09
It's like you're never
hardcoredur enoughsuficient for YouTubeYouTube.
182
597720
3016
És com si per YouTube
mai fossis suficientment radical.
10:12
(LaughterRiure)
183
600760
1576
(Rialles)
10:14
So what's going on?
184
602360
1560
Què està passant, doncs?
10:16
Now, YouTube'sDe YouTube algorithmalgorisme is proprietarypropietari,
185
604520
3536
L'algoritme de YouTube està patentat,
10:20
but here'sheus aquí what I think is going on.
186
608080
2360
però us diré el que crec que està passant.
10:23
The algorithmalgorisme has figuredimaginat out
187
611360
2096
L'algoritme ha descobert
10:25
that if you can enticeatraure people
188
613480
3696
que si pots convèncer a la gent
10:29
into thinkingpensant that you can
showespectacle them something more hardcoredur,
189
617200
3736
que els pots mostrar coses més radicals,
10:32
they're more likelyprobablement to stayquedar-se on the sitelloc
190
620960
2416
és més probable que romanguin a la web
10:35
watchingvigilant videovideo after videovideo
going down that rabbitconill holeforat
191
623400
4416
mirant vídeo rere vídeo
caiguent pel forat del conill
10:39
while GoogleGoogle servesserveix them adsanuncis.
192
627840
1680
mentre Google els envia anuncis.
10:43
Now, with nobodyningú mindingpensant en les
the ethicsètica of the storebotiga,
193
631760
3120
Com no hi ha ningú que es preocupi
per l'ètica del lloc,
10:47
these sitesllocs can profileperfil people
194
635720
4240
aquestes pàgines poden
crear perfils de persones
10:53
who are JewJueu hatersenemics,
195
641680
1920
que odien als jueus,
10:56
who think that JewsJueus are parasitesparàsits
196
644360
2480
que pensen que els jueus són paràsits
11:00
and who have suchtal explicitexplícit
anti-Semiticanti-semita contentcontingut,
197
648320
4920
i que tenen un contingut
explícitament antisemita,
11:06
and let you targetobjectiu them with adsanuncis.
198
654080
2000
i et deixen atacar-los amb anuncis.
11:09
They can alsotambé mobilizemobilitzar algorithmsalgorismes
199
657200
3536
També poden mobilitzar algoritmes
11:12
to find for you look-alikeaspecte semblant audiencespúblic,
200
660760
3136
per trobar-te audiències similars,
11:15
people who do not have suchtal explicitexplícit
anti-Semiticanti-semita contentcontingut on theirels seus profileperfil
201
663920
5576
gent que no té contingut antisemita
tan explícit en el seu perfil
11:21
but who the algorithmalgorisme detectsdetecta
maypot be susceptiblesusceptible to suchtal messagesmissatges,
202
669520
6176
però que l'algoritme pensa que poden ser
susceptibles a aquest tipus de missatges,
11:27
and letsdeixa you targetobjectiu them with adsanuncis, too.
203
675720
1920
així que també ataquem-los amb anuncis.
11:30
Now, this maypot soundso
like an implausibleimplausible exampleexemple,
204
678680
2736
Això pot semblar un exemple poc probable,
11:33
but this is realreal.
205
681440
1320
però és real.
11:35
ProPublicaProPublica investigatedinvestigat this
206
683480
2136
ProPublica ho va investigar
11:37
and foundtrobat that you can indeeden efecte
do this on FacebookFacebook,
207
685640
3616
i va descobrir que pots
fer això a Facebook,
11:41
and FacebookFacebook helpfullyamablement
offeredoferts up suggestionssuggeriments
208
689280
2416
i Facebook t'ofereix
de bona voluntat suggerències
11:43
on how to broadenampliar that audienceaudiència.
209
691720
1600
de com augmentar aquest públic.
11:46
BuzzFeedBuzzFeed triedintentat it for GoogleGoogle,
and very quicklyràpidament they foundtrobat,
210
694720
3016
BuzzFeed ho intentà amb Google,
i tot d'una varen veure,
11:49
yep, you can do it on GoogleGoogle, too.
211
697760
1736
que sí, també es pot fer amb Google.
11:51
And it wasn'tno ho era even expensivecar.
212
699520
1696
Ni tan sols fou car.
11:53
The ProPublicaProPublica reporterperiodista
spentgastat about 30 dollarsdòlars
213
701240
4416
El reporter de ProPublica
va gastar uns 30 dòlars
11:57
to targetobjectiu this categorycategoria.
214
705680
2240
per abordar aquesta categoria.
12:02
So last yearcurs, DonaldDonald Trump'sDe Trump
socialsocial mediamitjans de comunicació managergerent discloseddonar a conèixer
215
710600
5296
L'any passat, el director de
xarxes socials de Donald Trump va revelar
12:07
that they were usingutilitzant FacebookFacebook darkfosc postscorreus
to demobilizedesmobilitar people,
216
715920
5336
que empraven publicacions amagades
de Facebook per desmobilitzar a la gent,
12:13
not to persuadepersuadir them,
217
721280
1376
no per persuadir-los,
12:14
but to convinceconvencer them not to votevotar at all.
218
722680
2800
sinó pero convencer-los que no votessin.
12:18
And to do that,
they targetedorientat specificallyespecíficament,
219
726520
3576
I per fer-ho, abordaven específicament,
12:22
for exampleexemple, African-AmericanAfroamericà menhomes
in keyclau citiesciutats like PhiladelphiaPhiladelphia,
220
730120
3896
per exemple, homes afroamericans
en ciutats importants com Filadèlfia,
12:26
and I'm going to readllegir
exactlyexactament what he said.
221
734040
2456
i llegiré exactament el que va dir.
12:28
I'm quotingcitant.
222
736520
1216
Estic citant.
12:29
They were usingutilitzant "nonpublicno públics postscorreus
223
737760
3016
Usaven "publicacions privades
12:32
whoseels qui viewershipaudiència the campaigncampanya controlscontrols
224
740800
2176
l'audiència de les quals
la campanya controla
12:35
so that only the people
we want to see it see it.
225
743000
3776
perquè només la gent que volem
que ho vegi, ho vegi.
12:38
We modeledmodelat this.
226
746800
1216
Ho vam modelar.
12:40
It will dramaticallydramàticament affectafectar her abilityhabilitat
to turngirar these people out."
227
748040
4720
Afectarà dràsticament la seva habilitat
perquè participi aquesta gent."
12:45
What's in those darkfosc postscorreus?
228
753720
2280
Què hi ha en
aquestes publicacions amagades?
12:48
We have no ideaidea.
229
756480
1656
No en tenim ni idea.
12:50
FacebookFacebook won'tno ho farà tell us.
230
758160
1200
Facebook no ens ho diu.
12:52
So FacebookFacebook alsotambé algorithmicallymanera algorítmica
arrangesorganitza the postscorreus
231
760480
4376
Facebook també organitza
algorítmicament les publicacions
12:56
that your friendsamics put on FacebookFacebook,
or the pagespàgines you followseguir.
232
764880
3736
que els teus amics posen a Facebook,
o de les pàgines que segueixes.
13:00
It doesn't showespectacle you
everything chronologicallycronològicament.
233
768640
2216
No t'ho mostra tot cronològicament.
13:02
It putsposa the orderordre in the way
that the algorithmalgorisme thinkspensa will enticeatraure you
234
770880
4816
Ordena la manera en que l'algoritme
creu que et pot convèncer
13:07
to stayquedar-se on the sitelloc longermés llarg.
235
775720
1840
per quedar-te a la pàgina més temps.
13:11
Now, so this has a lot of consequencesconseqüències.
236
779040
3376
Això té moltes consequències.
13:14
You maypot be thinkingpensant
somebodyalgú is snubbingsnubbing you on FacebookFacebook.
237
782440
3800
Podeu pensar que algú
us està ignorant a Facebook.
13:18
The algorithmalgorisme maypot never
be showingmostrant your postpublicació to them.
238
786800
3256
L'algoritme podria no mostrar-los
mai la teva publicació.
13:22
The algorithmalgorisme is prioritizingprioritzant
some of them and buryingenterrament the othersaltres.
239
790080
5960
L'algoritme en prioritza algunes
i n'amaga d'altres.
13:29
ExperimentsExperiments de showespectacle
240
797320
1296
Els experiments mostren
13:30
that what the algorithmalgorisme picksseleccions to showespectacle you
can affectafectar your emotionsemocions.
241
798640
4520
que el que l'algoritme elegeix mostrar-te
pot afectar les teves emocions.
13:36
But that's not all.
242
804600
1200
Però això no és tot.
13:38
It alsotambé affectsafecta politicalpolític behaviorcomportament.
243
806280
2360
També afecta el comportament polític.
13:41
So in 2010, in the midtermmeitat de període electionsEleccions,
244
809360
4656
El 2010, en les eleccions parcials,
13:46
FacebookFacebook did an experimentexperiment
on 61 millionmilions people in the US
245
814040
5896
Facebook va fer un experiment
a 61 milions de persones al Estats Units
13:51
that was discloseddonar a conèixer after the factfet.
246
819960
1896
que es va revelar després.
13:53
So some people were shownmostrat,
"TodayAvui is electionelecció day,"
247
821880
3416
A algunes persones els van mostrar:
"Avui són les eleccions,"
13:57
the simplermés simple one,
248
825320
1376
el més simple,
13:58
and some people were shownmostrat
the one with that tinypetit tweakpessigar
249
826720
3896
i a alguns els en van mostrar
un amb la lleugera modificació
14:02
with those little thumbnailsungles
250
830640
2096
de les imatges en miniatura
14:04
of your friendsamics who clickedclic on "I votedvotat."
251
832760
2840
dels teus amics que clicaren a "He votat".
14:09
This simplesenzill tweakpessigar.
252
837000
1400
Una simple modificació.
14:11
OK? So the picturesimatges were the only changecanviar,
253
839520
4296
D'acord? Les imatges foren l'únic canvi,
14:15
and that postpublicació shownmostrat just onceun cop
254
843840
3256
i la publicació mostrada només un cop
14:19
turnedconvertit out an additionaladdicional 340,000 votersvotants
255
847120
6056
va fer participar 340.000 votants més
14:25
in that electionelecció,
256
853200
1696
en aquelles eleccions,
14:26
accordingsegons to this researchrecerca
257
854920
1696
d'acord amb aquesta investigació
14:28
as confirmedconfirmat by the votervotant rollsrotlles.
258
856640
2520
i confirmat per les llistes de votants.
14:32
A flukeXamba? No.
259
860920
1656
Casualitat? No.
14:34
Because in 2012,
they repeatedrepetit the samemateix experimentexperiment.
260
862600
5360
Perquè el 2012, repetiren
el mateix experiment.
14:40
And that time,
261
868840
1736
I aquella vegada,
14:42
that civiccívic messagemissatge shownmostrat just onceun cop
262
870600
3296
aquell missatge cívic
mostrat només una vegada
14:45
turnedconvertit out an additionaladdicional 270,000 votersvotants.
263
873920
4440
va fer participar 270.000 votants més.
14:51
For referencereferència, the 2016
US presidentialpresidencial electionelecció
264
879160
5216
Per tenir una referència, les eleccions
presidencials als Estats Units de 2016
14:56
was decidedva decidir by about 100,000 votesvots.
265
884400
3520
es varen decidir per uns 100.000 vots.
15:01
Now, FacebookFacebook can alsotambé
very easilyfàcilment inferinferir what your politicspolítica are,
266
889360
4736
Facebook també pot deduir fàcilment
la teva orientació política,
15:06
even if you've never
discloseddonar a conèixer them on the sitelloc.
267
894120
2256
encara que mai
l'hagis revelat a la pàgina.
15:08
Right? These algorithmsalgorismes
can do that quitebastant easilyfàcilment.
268
896400
2520
Aquests algoritmes ho poden fer fàcilment.
15:11
What if a platformplataforma with that kindamable of powerpoder
269
899960
3896
I si una plataforma
amb aquest tipus de poder
15:15
decidesdecideix to turngirar out supporterspartidaris
of one candidatecandidat over the other?
270
903880
5040
decideix que participin més seguidors
d'un candidat que de l'altre?
15:21
How would we even know about it?
271
909680
2440
Com ens n'assebentaríem?
15:25
Now, we startedva començar from someplaceen algun lloc
seeminglyaparentment innocuousinnocu --
272
913560
4136
Hem començat des d'un lloc
aparentment innocu --
15:29
onlineen línia addsafegeix followingsegüent us around --
273
917720
2216
anuncis online que ens segueixen arreu --
15:31
and we'vetenim landedaterrat someplaceen algun lloc elsealtra cosa.
274
919960
1840
i hem acabat en un lloc diferent.
15:35
As a publicpúblic and as citizensciutadans,
275
923480
2456
Com a públic i com a ciutadans,
15:37
we no longermés llarg know
if we're seeingveient the samemateix informationinformació
276
925960
3416
ja no sabem si estem veient
la mateixa informació
15:41
or what anybodyningú elsealtra cosa is seeingveient,
277
929400
1480
o el que algú altre està veient,
15:43
and withoutsense a commoncomú basisbase of informationinformació,
278
931680
2576
i sense una base d'informació comuna,
15:46
little by little,
279
934280
1616
a poc a poc,
15:47
publicpúblic debatedebat is becomingconvertint-se impossibleimpossible,
280
935920
3216
el debat públic s'està tornant impossible,
15:51
and we're just at
the beginninginici stagesetapes of this.
281
939160
2976
i això són només
les fases inicials de tot això.
15:54
These algorithmsalgorismes can quitebastant easilyfàcilment inferinferir
282
942160
3456
Aquests algoritmes poden deduir fàcilment
15:57
things like your people'spersones ethnicityetnicitat,
283
945640
3256
coses com l'etnicitat de la gent,
16:00
religiousreligiosa and politicalpolític viewsvistes,
personalitypersonalitat traitscaracterístiques,
284
948920
2336
orientació religiosa i política,
trets personals,
16:03
intelligenceintel·ligència, happinessfelicitat,
use of addictiveaddictiu substancessubstàncies,
285
951280
3376
intel·ligència, felicitat,
ús de substàncies addictives,
16:06
parentalparental separationseparació, ageedat and gendersgèneres,
286
954680
3136
separació parental, edat i gènere,
16:09
just from FacebookFacebook likesM'agrada.
287
957840
1960
només pels "m'agrada" a Facebook.
16:13
These algorithmsalgorismes can identifyidentificar protestersmanifestants
288
961440
4056
Aquests algoritmes poden identificar
els manifestants
16:17
even if theirels seus facescares
are partiallyparcialment concealedoculta.
289
965520
2760
encara que les seves cares
estiguin parcialment cobertes.
16:21
These algorithmsalgorismes maypot be ablecapaç
to detectdetectar people'spersones sexualsexual orientationorientació
290
969720
6616
Aquests algoritmes podrien ser capaços
de detectar l'orientació sexual de la gent
16:28
just from theirels seus datingcites profileperfil picturesimatges.
291
976360
3200
només per la foto de perfil
de les seves cites.
16:33
Now, these are probabilisticprobabilístic guessesendevina,
292
981560
2616
Això són només suposicions probables,
16:36
so they're not going
to be 100 percentpercentatge right,
293
984200
2896
així que no seran 100% correctes,
16:39
but I don't see the powerfulpotent resistingresistir
the temptationtemptació to use these technologiestecnologies
294
987120
4896
però no m'imagino als poderosos resistint
la temptació d'usar aquestes tecnologies
16:44
just because there are
some falsefals positivespositius,
295
992040
2176
només perquè hi ha alguns falsos positius,
16:46
whichquin will of coursecurs createcrear
a wholetot other layercapa of problemsproblemes.
296
994240
3256
que és clar que afegiran
una altra capa als problemes.
16:49
ImagineImaginar what a stateestat can do
297
997520
2936
Imagina el que un estat pot fer
16:52
with the immenseimmens amountquantitat of datadades
it has on its citizensciutadans.
298
1000480
3560
amb la quantitat d'informació
que té dels ciutadans.
16:56
ChinaXina is alreadyja usingutilitzant
facecara detectiondetecció technologytecnologia
299
1004680
4776
La Xina ja està usant
tecnologia de detecció facial
17:01
to identifyidentificar and arrestaturar people.
300
1009480
2880
per a identificar i arrestar persones.
17:05
And here'sheus aquí the tragedytragèdia:
301
1013280
2136
I aquí ve la tragèdia:
17:07
we're buildingedifici this infrastructureinfraestructura
of surveillancevigilància authoritarianisml'autoritarisme
302
1015440
5536
estem construint aquesta infraestructura
de vigilància autoritària
17:13
merelysimplement to get people to clickfeu clic a on adsanuncis.
303
1021000
2960
merament per fer
que la gent cliqui anuncis.
17:17
And this won'tno ho farà be
Orwell'sDe Orwell authoritarianisml'autoritarisme.
304
1025240
2576
I això no serà l'autoritarisme d'Orwell.
17:19
This isn't "1984."
305
1027839
1897
AIxò no és "1984".
17:21
Now, if authoritarianisml'autoritarisme
is usingutilitzant overtobert fearpor to terrorizeterrorize us,
306
1029760
4576
Si l'autoritarisme empra obertament
la por per espantar-nos,
17:26
we'll all be scaredespantat, but we'll know it,
307
1034359
2897
ens espantarem, però ho sabrem,
17:29
we'll hateodi it and we'll resistresistir it.
308
1037280
2200
ho odiarem i ens resistirem.
17:32
But if the people in powerpoder
are usingutilitzant these algorithmsalgorismes
309
1040880
4416
Però si la gent en el poder
empra aquests algoritmes
17:37
to quietlytranquil·lament watch us,
310
1045319
3377
per observar-nos en silenci,
17:40
to judgejutge us and to nudgeempeny us,
311
1048720
2080
per jutjat-nos i influir-nos,
17:43
to predictpredir and identifyidentificar
the troublemakerspicaplets and the rebelsrebels,
312
1051720
4176
per a predir i identificar
els problemàtics i els rebels,
17:47
to deploydesplegar persuasionpersuasió
architecturesarquitectures at scaleescala
313
1055920
3896
per aplicar arquitectures
de persuassió a escala
17:51
and to manipulatemanipular individualsindividus one by one
314
1059840
4136
i manipular els individus un a un
17:56
usingutilitzant theirels seus personalpersonal, individualindividual
weaknessesdebilitats and vulnerabilitiesvulnerabilitats,
315
1064000
5440
emprant les seves debilitats
i vulnerabilitats personals i individuals,
18:02
and if they're doing it at scaleescala
316
1070720
2200
i si ho fan a escala
18:06
througha través our privateprivat screenspantalles
317
1074080
1736
a través de les pantalles privades
18:07
so that we don't even know
318
1075840
1656
perqué ni tan sols sapiguem
18:09
what our fellowcompany citizensciutadans
and neighborsveïns are seeingveient,
319
1077520
2760
el que els nostres conciutadans
i veïns estan veient,
18:13
that authoritarianisml'autoritarisme
will envelopembolicar us like a spider'sde aranya webweb
320
1081560
4816
aquest autoritarisme
ens envoltarà com una teranyina
18:18
and we maypot not even know we're in it.
321
1086400
2480
i potser no sabrem que estem a dins.
18:22
So Facebook'sDe Facebook marketmercat capitalizationcapitalització
322
1090440
2936
Per això la capitalització de mercat
per part de Facebook
18:25
is approachings'acosta halfla meitat a trilliontrillió dollarsdòlars.
323
1093400
3296
s'acosta al trilió i mig de dòlars.
18:28
It's because it worksfunciona great
as a persuasionpersuasió architecturearquitectura.
324
1096720
3120
Es deu a que funciona de meravella
com a arquitectura persuasiva.
18:33
But the structureestructura of that architecturearquitectura
325
1101760
2816
Però l'estructura d'aquesta arquitectura
18:36
is the samemateix whetherja sigui you're sellingvenda shoessabates
326
1104600
3216
és la mateix estiguis venent sabates
18:39
or whetherja sigui you're sellingvenda politicspolítica.
327
1107840
2496
o venent política.
18:42
The algorithmsalgorismes do not know the differencediferència.
328
1110360
3120
Els algoritmes no saben la diferència.
18:46
The samemateix algorithmsalgorismes setconjunt loosesolt upondamunt us
329
1114240
3296
Els mateixos algoritmes que ens apliquen
18:49
to make us more pliableflexible for adsanuncis
330
1117560
3176
per fer-nos més manipulables
per part dels anuncis
18:52
are alsotambé organizingorganitzant our politicalpolític,
personalpersonal and socialsocial informationinformació flowsfluxos,
331
1120760
6736
també organitzen els nostres fluxes
d'informació política, personal i social,
18:59
and that's what's got to changecanviar.
332
1127520
1840
i això és el que ha de canviar.
19:02
Now, don't get me wrongmal,
333
1130240
2296
No em malinterpreteu,
19:04
we use digitaldigital platformsplataformes
because they provideproporcionar us with great valuevalor.
334
1132560
3680
empram plataformes digitals
perquè ens aporten molt.
19:09
I use FacebookFacebook to keep in touchtocar
with friendsamics and familyfamília around the worldmón.
335
1137120
3560
Jo faig servir Facebook per contactar
amb amics i família arreu del món.
19:14
I've writtenescrit about how crucialcrucial
socialsocial mediamitjans de comunicació is for socialsocial movementsmoviments.
336
1142000
5776
He escrit sobre l'enorme pes de les xarxes
socials en els moviments socials.
19:19
I have studiedestudiat how
these technologiestecnologies can be used
337
1147800
3016
He estudiat com aquestes tecnologies
es podem emprar
19:22
to circumventeludir censorshipcensura around the worldmón.
338
1150840
2480
per evitar la censura arreu del món.
19:27
But it's not that the people who runcorrer,
you know, FacebookFacebook or GoogleGoogle
339
1155280
6416
Però no és que els directors
de Facebook o Google
19:33
are maliciouslymaliciosament and deliberatelydeliberadament tryingintentant
340
1161720
2696
estiguin intentant
maliciosament i deliberadament
19:36
to make the countrypaís
or the worldmón more polarizedPolarització
341
1164440
4456
fer el país o el món més polaritzat
19:40
and encourageanimar extremisml'extremisme.
342
1168920
1680
i animar l'extremisme.
19:43
I readllegir the manymolts
well-intentionedben intencionat statementsdeclaracions
343
1171440
3976
Vaig llegir moltes declaracions
ben intencionades
19:47
that these people put out.
344
1175440
3320
que aquesta gent va fer.
19:51
But it's not the intentintenció or the statementsdeclaracions
people in technologytecnologia make that mattermatèria,
345
1179600
6056
Però no són la intenció o les declaracions
de la gent a la tecnologia el que importa,
19:57
it's the structuresestructures
and businessnegocis modelsmodels they're buildingedifici.
346
1185680
3560
són les estructures i els models de negoci
que estan construint.
20:02
And that's the corenucli central of the problemproblema.
347
1190360
2096
I això és el nucli del problema.
20:04
EitherQualsevol FacebookFacebook is a giantgegant con
of halfla meitat a trilliontrillió dollarsdòlars
348
1192480
4720
O Facebook és una estafa gegant
d'un trilió i mig de dòlars
20:10
and adsanuncis don't work on the sitelloc,
349
1198200
1896
i els anuncis no funcionen a la pàgina,
20:12
it doesn't work
as a persuasionpersuasió architecturearquitectura,
350
1200120
2696
i no funciona com a estructura persuasiva,
20:14
or its powerpoder of influenceinfluència
is of great concerninquietud.
351
1202840
4120
o el seu poder d'influència
ens hauria de preocupar.
20:20
It's eithertampoc one or the other.
352
1208560
1776
És una o l'altra.
20:22
It's similarsimilar for GoogleGoogle, too.
353
1210360
1600
És similar en el cas de Google.
20:24
So what can we do?
354
1212880
2456
Què podem fer?
20:27
This needsnecessitats to changecanviar.
355
1215360
1936
Això ha de canviar.
20:29
Now, I can't offeroferta a simplesenzill reciperecepta,
356
1217320
2576
No puc oferir una recepta única,
20:31
because we need to restructurereestructurar
357
1219920
2256
perquè necessitem reestructurar
20:34
the wholetot way our
digitaldigital technologytecnologia operatesopera.
358
1222200
3016
per complet la manera com
la tecnologia digital opera.
20:37
Everything from the way
technologytecnologia is developeddesenvolupat
359
1225240
4096
Des de la manera com
la tecnologia es desenvolupa
20:41
to the way the incentivesincentius,
economiceconòmic and otherwised'una altra manera,
360
1229360
3856
fins a la manera com els incentius,
tant econòmics com d'altres,
20:45
are builtconstruït into the systemsistema.
361
1233240
2280
s'encaixen en el sistema.
20:48
We have to facecara and try to dealacord with
362
1236480
3456
Ho hem d'afrontar i intentar lidiar amb
20:51
the lackfalta of transparencytransparència
createdcreat by the proprietarypropietari algorithmsalgorismes,
363
1239960
4656
la manca de transparència creada
pels algoritmes patentats,
20:56
the structuralestructural challengedesafiament
of machinemàquina learning'sde l'aprenentatge opacityopacitat,
364
1244640
3816
el repte estructural de l'opacitat
de l'aprenentatge automàtic,
21:00
all this indiscriminateindiscriminada datadades
that's beingser collectedrecollit about us.
365
1248480
3400
tota aquesta informació indiscriminada
que estan recollint.
21:05
We have a biggran tasktasca in frontfront of us.
366
1253000
2520
Tenim una gran tasca al davant.
21:08
We have to mobilizemobilitzar our technologytecnologia,
367
1256160
2680
Hem de mobilitzar la nostra tecnologia,
21:11
our creativitycreativitat
368
1259760
1576
la nostra creativitat
21:13
and yes, our politicspolítica
369
1261360
1880
i sí, la nostra política
21:16
so that we can buildconstruir
artificialartificial intelligenceintel·ligència
370
1264240
2656
per a que puguem construir
intel·ligència artificial
21:18
that supportssuports us in our humanhumà goalsmetes
371
1266920
3120
que ens ajudi amb els objectius humans
21:22
but that is alsotambé constrainedrestringit
by our humanhumà valuesvalors.
372
1270800
3920
però que estigui restringida
pels nostres valors humans.
21:27
And I understandentendre this won'tno ho farà be easyfàcil.
373
1275600
2160
I entenc que això no serà fàcil.
21:30
We mightpotser not even easilyfàcilment agreeacordar
on what those termstermes mean.
374
1278360
3600
Potser ni tan sols ens posarem d'acord
amb facilitat sobre aquest termes.
21:34
But if we take seriouslyde debò
375
1282920
2400
Però si ens prenem seriosament
21:38
how these systemssistemes that we
dependdepenen on for so much operatefuncionar,
376
1286240
5976
com aquests sistemes,
dels que depenem tant, funcionen
21:44
I don't see how we can postponeajornar
this conversationconversa anymoremés.
377
1292240
4120
no veig com podem seguir
posposant aquesta conversació.
21:49
These structuresestructures
378
1297200
2536
Aquestes estructures
21:51
are organizingorganitzant how we functionfunció
379
1299760
4096
estan organitzant com funcionem
21:55
and they're controllingcontrolant
380
1303880
2296
i estan controlant
21:58
what we can and we cannotno pot do.
381
1306200
2616
el que podem i no podem fer.
22:00
And manymolts of these ad-financedfinançat d'anunci platformsplataformes,
382
1308840
2456
I moltes plataformes
finançades per anuncis,
22:03
they boastcompten amb that they're freegratuït.
383
1311320
1576
presumeixen de que són lliures.
22:04
In this contextcontext, it meanssignifica
that we are the productproducte that's beingser soldvenut.
384
1312920
4560
En aquest context significa que nosaltres
som el producte que s'està venent.
22:10
We need a digitaldigital economyeconomia
385
1318840
2736
Necessitem una economia digital
22:13
where our datadades and our attentionatenció
386
1321600
3496
on la nostra informació
i la nostra atenció
22:17
is not for salevenda to the highest-biddinglicitació més alt
authoritarianautoritària or demagoguedemagog.
387
1325120
5080
no sigui venuda a l'autoritari
o al demagog que aposti més fort.
22:23
(ApplauseAplaudiments)
388
1331160
3800
(Aplaudiments)
22:30
So to go back to
that HollywoodHollywood paraphraseparàfrasi,
389
1338480
3256
Així que per tornar
a la paràfrasi de Hollywood,
22:33
we do want the prodigiousprodigiosa potentialpotencial
390
1341760
3736
sí que volem un potencial prodigiós
22:37
of artificialartificial intelligenceintel·ligència
and digitaldigital technologytecnologia to blossomflor,
391
1345520
3200
d'intel·ligència artificial
i tecnologia que floreixi,
22:41
but for that, we musthaver de facecara
this prodigiousprodigiosa menaceamenaça,
392
1349400
4936
però per això, hem de fer front a
aquesta amenaça prodigiosa,
22:46
open-eyedOpen-Eyed and now.
393
1354360
1936
amb els ulls oberts i ara.
22:48
Thank you.
394
1356320
1216
Gràcies.
22:49
(ApplauseAplaudiments)
395
1357560
4640
(Aplaudiments)

▲Back to top

ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.

Why you should listen

We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.

Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.

Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.

More profile about the speaker
Zeynep Tufekci | Speaker | TED.com