ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.

Why you should listen

We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.

Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.

Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.

More profile about the speaker
Zeynep Tufekci | Speaker | TED.com
TEDGlobal>NYC

Zeynep Tufekci: We're building a dystopia just to make people click on ads

Zeynep Tufekci: Stiamo costruendo una distopia, solo per far cliccare la gente sulle pubblicità

Filmed:
2,866,905 views

Stiamo costruendo una distopia basata sull'intelligenza artificiale, un clic alla volta, dice la tecno-sociologa Zeynep Tufekci. In un intervento rivelatore, ci spiega come in aziende come Facebook, Google e Amazon gli stessi algoritmi utilizzati per attirare clic sulle pubblicità vengono usati anche per organizzare l'accesso a informazioni politiche e sociali. E non sono le macchine la vera minaccia. Dobbiamo capire come chi ha potere potrebbe utilizzare l'Intelligenza Artificiale per controllarci -- e le misure che possiamo prendere.
- Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread. Full bio

Double-click the English transcript below to play the video.

00:12
So when people voicevoce fearspaure
of artificialartificiale intelligenceintelligenza,
0
760
3536
Quando la gente dà voce alle paure
legate all'intelligenza artificiale,
00:16
very oftenspesso, they invokeinvocare imagesimmagini
of humanoidumanoide robotsrobot runcorrere amokAmok.
1
4320
3976
molto spesso evoca immagini
di robot umanoidi usciti fuori controllo.
00:20
You know? TerminatorTerminator?
2
8320
1240
Avete presente Terminator?
00:22
You know, that mightpotrebbe be
something to considerprendere in considerazione,
3
10400
2336
Potrebbe essere una possibilità
da considerare,
00:24
but that's a distantlontano threatminaccia.
4
12760
1856
ma si tratta di una minaccia remota.
00:26
Or, we fretfret about digitaldigitale surveillancesorveglianza
5
14640
3456
Oppure, ci agitiamo
per il controllo digitale
00:30
with metaphorsmetafore from the pastpassato.
6
18120
1776
usando metafore del passato.
00:31
"1984," GeorgeGeorge Orwell'sOrwell "1984,"
7
19920
2656
"1984" di George Orwell
00:34
it's hittingcolpire the bestsellerBest-Seller listsliste again.
8
22600
2280
è di nuovo tra i bestseller.
00:37
It's a great booklibro,
9
25960
1416
È un gran libro,
00:39
but it's not the correctcorretta dystopiadistopia
for the 21stst centurysecolo.
10
27400
3880
ma non è la corretta distopia
da applicare al 21esimo secolo.
00:44
What we need to fearpaura mostmaggior parte
11
32080
1416
Ciò che dobbiamo temere
00:45
is not what artificialartificiale intelligenceintelligenza
will do to us on its ownproprio,
12
33520
4776
non è cosa l'intelligenza artificiale
possa fare di per sé,
00:50
but how the people in powerenergia
will use artificialartificiale intelligenceintelligenza
13
38320
4736
ma come le persone di potere
potranno utilizzarla
00:55
to controlcontrollo us and to manipulatemanipolare us
14
43080
2816
per controllarci e manipolarci
00:57
in novelromanzo, sometimesa volte hiddennascosto,
15
45920
3136
in modi nuovi, talvolta nascosti,
01:01
subtlesottile and unexpectedinaspettato waysmodi.
16
49080
3016
sottili e inaspettati.
01:04
Much of the technologytecnologia
17
52120
1856
Gran parte della tecnologia
01:06
that threatensminaccia our freedomla libertà
and our dignitydignità in the near-termbreve termine futurefuturo
18
54000
4336
che mette a rischio la nostra libertà
e dignità nel futuro imminente
01:10
is beingessere developedsviluppato by companiesaziende
19
58360
1856
viene sviluppato da aziende
01:12
in the businessattività commerciale of capturingcattura
and sellingvendita our datadati and our attentionAttenzione
20
60240
4936
che guadagnano catturando
e rivendendo i nostri dati e attenzione
01:17
to advertisersgli inserzionisti and othersaltri:
21
65200
2256
a inserzionisti e altre entità:
01:19
FacebookFacebook, GoogleGoogle, AmazonAmazon,
22
67480
3416
Facebook, Google, Amazon,
01:22
AlibabaAlibaba, TencentTencent.
23
70920
1880
Alibaba, Tencent.
01:26
Now, artificialartificiale intelligenceintelligenza has startediniziato
bolsteringrafforzando theirloro businessattività commerciale as well.
24
74040
5496
Ora l'intelligenza artificiale comincia
a rafforzare il loro business.
01:31
And it maypuò seemsembrare
like artificialartificiale intelligenceintelligenza
25
79560
2096
E sembrerebbe
che l'intelligenza artificiale
01:33
is just the nextIl prossimo thing after onlinein linea adsAnnunci.
26
81680
2856
sia il passo successivo
alla pubblicità online.
01:36
It's not.
27
84560
1216
Non lo è.
01:37
It's a jumpsaltare in categorycategoria.
28
85800
2456
È un salto di categoria.
01:40
It's a wholetotale differentdiverso worldmondo,
29
88280
2576
È un mondo totalmente differente,
01:42
and it has great potentialpotenziale.
30
90880
2616
con un grosso potenziale.
01:45
It could accelerateaccelerare our understandingcomprensione
of manymolti areasle zone of studystudia and researchricerca.
31
93520
6920
Potrebbe accelerare la nostra comprensione
in molte aree di studio e di ricerca.
01:53
But to paraphraseparafrasi
a famousfamoso HollywoodHollywood philosopherfilosofo,
32
101120
3496
Ma per parafrasare
un famoso filosofo di Hollywood,
01:56
"With prodigiousprodigiosa potentialpotenziale
comesviene prodigiousprodigiosa riskrischio."
33
104640
3640
"Da un grande potenziale
derivano grandi rischi"
02:01
Now let's look at a basicdi base factfatto
of our digitaldigitale livesvite, onlinein linea adsAnnunci.
34
109120
3936
Guardiamo a un fatto semplice
delle nostre vite digitali, la pubblicità.
02:05
Right? We kindgenere of dismisschiudere them.
35
113080
2896
Giusto? Tendiamo a ignorarle.
02:08
They seemsembrare crudegreggio, ineffectiveinefficace.
36
116000
1976
Sembrano rozze, di scarso effetto.
02:10
We'veAbbiamo all had the experienceEsperienza
of beingessere followedseguita on the webweb
37
118000
4256
Tutti abbiamo avuto la sensazione
di essere inseguiti sul web
02:14
by an adanno Domini basedbasato on something
we searchedcercato or readleggere.
38
122280
2776
da pubblicità basate su cose
che abbiamo cercato o letto.
02:17
You know, you look up a pairpaio of bootsstivali
39
125080
1856
Lo sapete, cercate un paio di stivali
02:18
and for a weeksettimana, those bootsstivali are followinga seguire
you around everywhereovunque you go.
40
126960
3376
e per giorni, questi stivali vi seguiranno
dovunque andiate.
02:22
Even after you succumbsoccombere and buyacquistare them,
they're still followinga seguire you around.
41
130360
3656
Persino quando cedete e li acquistate,
continueranno a seguirvi ancora.
02:26
We're kindgenere of inuredinured to that kindgenere
of basicdi base, cheapa buon mercato manipulationmanipolazione.
42
134040
3016
Siamo quasi abituati a questo tipo
di manipolazione grossolana.
02:29
We rollrotolo our eyesocchi and we think,
"You know what? These things don't work."
43
137080
3400
Alziamo gli occhi e pensiamo,
"Sai? Queste cose non funzionano."
02:33
ExceptTranne per il fatto, onlinein linea,
44
141720
2096
Tranne che, online,
02:35
the digitaldigitale technologiestecnologie are not just adsAnnunci.
45
143840
3600
le tecnologie digitali
non sono solo pubblicità.
02:40
Now, to understandcapire that,
let's think of a physicalfisico worldmondo exampleesempio.
46
148240
3120
Per capire meglio,
prendiamo un esempio del mondo fisico.
02:43
You know how, at the checkoutcheck-out counterscontatori
at supermarketssupermercati, nearvicino the cashiercassiere,
47
151840
4656
Sapete che nei supermercati,
proprio vicino alle casse
02:48
there's candycaramella and gumGum
at the eyeocchio levellivello of kidsbambini?
48
156520
3480
trovate dolci e gomme
ad altezza occhi di bambino?
02:52
That's designedprogettato to make them
whinegemito at theirloro parentsgenitori
49
160800
3496
È fatto apposta
per farli piagnucolare
02:56
just as the parentsgenitori
are about to sortordinare of checkdai un'occhiata out.
50
164320
3080
proprio mentre i genitori
stanno per pagare alla cassa.
03:00
Now, that's a persuasionpersuasione architecturearchitettura.
51
168040
2640
Questa è architettura persuasiva.
03:03
It's not nicesimpatico, but it kindgenere of workslavori.
52
171160
3096
Non è bella, ma funziona.
03:06
That's why you see it
in everyogni supermarketsupermercato.
53
174280
2040
E infatti la vedete
in tutti i supermarket.
03:08
Now, in the physicalfisico worldmondo,
54
176720
1696
Nel mondo reale,
03:10
suchcome persuasionpersuasione architecturesarchitetture
are kindgenere of limitedlimitato,
55
178440
2496
queste architetture persuasive
sono un po' limitate,
03:12
because you can only put
so manymolti things by the cashiercassiere. Right?
56
180960
4816
perché si può caricare
fino a un certo punto l'angolo della cassa.
03:17
And the candycaramella and gumGum,
it's the samestesso for everyonetutti,
57
185800
4296
Inoltre dolci e gomme,
sono uguali per tutti,
03:22
even thoughanche se it mostlysoprattutto workslavori
58
190120
1456
anche se funziona di più
03:23
only for people who have
whinylamentoso little humansgli esseri umani besideaccanto them.
59
191600
4040
per le persone che hanno
piccoli bimbi frignanti accanto.
03:29
In the physicalfisico worldmondo,
we livevivere with those limitationslimitazioni.
60
197160
3920
Nel mondo fisico,
viviamo con queste limitazioni.
03:34
In the digitaldigitale worldmondo, thoughanche se,
61
202280
1936
Nel mondo digitale, invece,
03:36
persuasionpersuasione architecturesarchitetture
can be builtcostruito at the scalescala of billionsmiliardi
62
204240
4320
le architetture persuasive
possono essere costruite
su larghissima scala
03:41
and they can targetbersaglio, inferdedurre, understandcapire
63
209840
3856
e possono colpire, dedurre, capire
03:45
and be deployedschierato at individualsindividui
64
213720
2896
essere su misura per singoli individui
03:48
one by one
65
216640
1216
uno per uno
03:49
by figuringcapire out your weaknessespunti deboli,
66
217880
2136
scoprendo le debolezze,
03:52
and they can be sentinviato
to everyone'sdi tutti phoneTelefono privateprivato screenschermo,
67
220040
5616
e possono essere inviate
sugli schermi privati dei nostri telefoni,
03:57
so it's not visiblevisibile to us.
68
225680
2256
così da non essere visibili.
03:59
And that's differentdiverso.
69
227960
1256
E questo è differente.
04:01
And that's just one of the basicdi base things
that artificialartificiale intelligenceintelligenza can do.
70
229240
3576
Questa è una delle cose basilari
che l'intelligenza artificiale può fare.
04:04
Now, let's take an exampleesempio.
71
232840
1336
Facciamo un esempio.
04:06
Let's say you want to sellvendere
planeaereo ticketsBiglietti to VegasVegas. Right?
72
234200
2696
Poniamo caso vogliate vendere
voli verso Las Vegas, ok?
04:08
So in the oldvecchio worldmondo, you could think
of some demographicsdemografici to targetbersaglio
73
236920
3496
Nel vecchio mondo, potreste pensare
a un target demografico da colpire
04:12
basedbasato on experienceEsperienza
and what you can guessindovina.
74
240440
2520
basato sull'esperienza
e su alcune supposizioni.
04:15
You mightpotrebbe try to advertisepubblicizzare to, oh,
75
243560
2816
Avreste diretto la pubblicità
04:18
menuomini betweenfra the agesevo of 25 and 35,
76
246400
2496
a uomini tra i 25 e i 35,
04:20
or people who have
a highalto limitlimite on theirloro creditcredito cardcarta,
77
248920
3936
o persone con un plafond alto
nelle carte di credito
04:24
or retiredritirato couplescoppie. Right?
78
252880
1376
o coppie in pensione.Giusto?
04:26
That's what you would do in the pastpassato.
79
254280
1816
Questo è ciò che avreste fatto ieri.
04:28
With biggrande datadati and machinemacchina learningapprendimento,
80
256120
2896
Grazie a Big Data e Machine Learning,
04:31
that's not how it workslavori anymorepiù.
81
259040
1524
non funziona più così.
04:33
So to imagineimmaginare that,
82
261320
2176
Per aiutarvi a capire,
04:35
think of all the datadati
that FacebookFacebook has on you:
83
263520
3856
pensate a tutti i dati
che Facebook ha su di voi:
04:39
everyogni statusstato updateaggiornare you ever typeddigitato,
84
267400
2536
tutti gli aggiornamenti che avete scritto,
04:41
everyogni MessengerMessenger conversationconversazione,
85
269960
2016
tutte le chat su Messenger,
04:44
everyogni placeposto you loggedregistrati in from,
86
272000
1880
i posti da cui vi siete collegati,
04:48
all your photographsfotografie
that you uploadedcaricato there.
87
276400
3176
tutte le foto che avete aggiunto.
04:51
If you startinizio typingdigitando something
and changemodificare your mindmente and deleteElimina it,
88
279600
3776
Se cominciate a scrivere qualcosa
e poi ci ripensate e cancellate,
04:55
FacebookFacebook keepsmantiene those
and analyzesanalisi them, too.
89
283400
3200
Facebook conserva
e analizza anche quello.
04:59
IncreasinglySempre più, it triescerca
to matchincontro you with your offlinedisconnesso datadati.
90
287160
3936
Prova sempre di più a collegarvi
con i vostri dati offline.
05:03
It alsoanche purchasesacquisti
a lot of datadati from datadati brokersBroker.
91
291120
3176
E compra pure dei dati
da altri fornitori esterni.
05:06
It could be everything
from your financialfinanziario recordsrecord
92
294320
3416
Dati di varia natura
come movimenti finanziari
05:09
to a good chunkpezzo of your browsingnavigazione historystoria.
93
297760
2120
o la storia delle pagine
che avete visitato.
05:12
Right? In the US,
suchcome datadati is routinelydi routine collectedraccolto,
94
300360
5416
Negli Stati Uniti questi dati
vengono raccolti con regolarità,
05:17
collatedfascicolate and soldvenduto.
95
305800
1960
esaminati e rivenduti.
05:20
In EuropeEuropa, they have tougherpiù dura rulesregole.
96
308320
2440
In Europa le leggi sono più restrittive.
05:23
So what happensaccade then is,
97
311680
2200
Quindi, ciò che accade
05:26
by churningzangolatura throughattraverso all that datadati,
these machine-learningapprendimento automatico algorithmsalgoritmi --
98
314920
4016
macinando tutti questi dati,
gli algoritmi "machine learning"
05:30
that's why they're calledchiamato
learningapprendimento algorithmsalgoritmi --
99
318960
2896
proprio per questo sono chiamati
algoritmi di "apprendimento"
05:33
they learnimparare to understandcapire
the characteristicscaratteristiche of people
100
321880
4096
apprendono come capire
le caratteristiche della gente
05:38
who purchasedacquistati ticketsBiglietti to VegasVegas before.
101
326000
2520
che ha comprato in precedenza
biglietti per Las Vegas
05:41
When they learnimparare this from existingesistente datadati,
102
329760
3536
Così come imparano dai dati esistenti,
05:45
they alsoanche learnimparare
how to applyapplicare this to newnuovo people.
103
333320
3816
imparano anche come applicarlo
a nuove persone.
05:49
So if they're presentedpresentata with a newnuovo personpersona,
104
337160
3056
Quindi quando si trovano davanti
un nuovo soggetto
05:52
they can classifyclassificare whetherse that personpersona
is likelyprobabile to buyacquistare a ticketbiglietto to VegasVegas or not.
105
340240
4640
possono classificarlo e dire se vorrebbe
o meno un biglietto per Las Vegas
05:57
Fine. You're thinkingpensiero,
an offeroffrire to buyacquistare ticketsBiglietti to VegasVegas.
106
345720
5456
Bene. Starete pensando,
un'offerta su un volo per Las Vegas.
06:03
I can ignoreignorare that.
107
351200
1456
Posso ignorarla.
06:04
But the problemproblema isn't that.
108
352680
2216
Ma non è quello il problema.
06:06
The problemproblema is,
109
354920
1576
Il problema è
06:08
we no longerpiù a lungo really understandcapire
how these complexcomplesso algorithmsalgoritmi work.
110
356520
4136
che non riusciamo più a capire
come funzionano questi algoritmi complessi
06:12
We don't understandcapire
how they're doing this categorizationcategorizzazione.
111
360680
3456
non capiamo
come facciano questa categorizzazione.
06:16
It's giantgigante matricesmatrici,
thousandsmigliaia of rowsrighe and columnscolonne,
112
364160
4416
Sono matrici giganti,
con migliaia di righe e colonne,
06:20
maybe millionsmilioni of rowsrighe and columnscolonne,
113
368600
1960
forse milioni di righe e colonne,
06:23
and not the programmersprogrammatori
114
371320
2640
e né i programmatori
06:26
and not anybodynessuno who lookssembra at it,
115
374760
1680
né nessuno di quelli che ha accesso,
06:29
even if you have all the datadati,
116
377440
1496
anche se possiede tutti i dati,
06:30
understandscapisce anymorepiù
how exactlydi preciso it's operatingoperativo
117
378960
4616
capisce più
come stia funzionando esattamente
06:35
any more than you'dfaresti know
what I was thinkingpensiero right now
118
383600
3776
non più di quanto voi potreste capire
a cosa sto pensando ora
06:39
if you were shownmostrato
a crossattraversare sectionsezione of my braincervello.
119
387400
3960
se vi fosse mostrata
una sezione del mio cervello.
06:44
It's like we're not programmingprogrammazione anymorepiù,
120
392360
2576
È come se non programmassimo più,
06:46
we're growingin crescita intelligenceintelligenza
that we don't trulyveramente understandcapire.
121
394960
4400
ma accresciamo un'intelligenza
che non riusciamo a capire davvero.
06:52
And these things only work
if there's an enormousenorme amountquantità of datadati,
122
400520
3976
Tutto questo funziona
solo attraverso un'enorme quantità di dati,
06:56
so they alsoanche encourageincoraggiare
deepin profondità surveillancesorveglianza on all of us
123
404520
5096
cosicché viene favorito
un controllo approfondito su tutti noi
07:01
so that the machinemacchina learningapprendimento
algorithmsalgoritmi can work.
124
409640
2336
per far funzionare gli algoritmi
di apprendimento
07:04
That's why FacebookFacebook wants
to collectraccogliere all the datadati it can about you.
125
412000
3176
Per questo Facebook vuole raccogliere
tutti i vostri dati.
07:07
The algorithmsalgoritmi work better.
126
415200
1576
L'algoritmo funziona meglio.
07:08
So let's pushspingere that VegasVegas exampleesempio a bitpo.
127
416800
2696
Spingiamo ancora di più
l'esempio di Las Vegas.
07:11
What if the systemsistema
that we do not understandcapire
128
419520
3680
E se questo sistema
che non riusciamo a comprendere
07:16
was pickingscelta up that it's easierPiù facile
to sellvendere VegasVegas ticketsBiglietti
129
424200
5136
avesse imparato che è più semplice
vendere biglietti per Las Vegas
07:21
to people who are bipolarbipolare
and about to enteraccedere the manicmaniacale phasefase.
130
429360
3760
a persone bipolari e sul punto
di entrare nella fase maniacale.
07:25
SuchTali people tendtendere to becomediventare
overspendersoverspenders, compulsivecompulsivo gamblersgiocatori d'azzardo.
131
433640
4920
Queste persone tendono a spendere di più
e a diventare scommettitori compulsivi.
07:31
They could do this, and you'dfaresti have no cluetraccia
that's what they were pickingscelta up on.
132
439280
4456
Potrebbero pescare da quel bacino
e nessuno potrebbe mai saperlo.
07:35
I gaveha dato this exampleesempio
to a bunchmazzo of computercomputer scientistsscienziati onceuna volta
133
443760
3616
Ho fatto questo esempio
a un gruppo di ingegneri, una volta
07:39
and afterwardsin seguito, one of them cameè venuto up to me.
134
447400
2056
e subito dopo, uno di loro è venuto da me.
07:41
He was troubledagitato and he said,
"That's why I couldn'tnon poteva publishpubblicare it."
135
449480
3520
Era turbato e mi disse,
"ecco perché non posso pubblicarlo"
07:45
I was like, "Couldn'tNon poteva publishpubblicare what?"
136
453600
1715
E io, "Non pubblicare cosa?"
07:47
He had triedprovato to see whetherse you can indeedinfatti
figurefigura out the onsetinizio of maniaMania
137
455800
5856
Aveva provato a vedere se fosse possibile
comprendere uno stato maniacale
07:53
from socialsociale mediamedia postsPost
before clinicalclinico symptomssintomi,
138
461680
3216
dai post sui social media
prima dei sintomi clinici,
07:56
and it had workedlavorato,
139
464920
1776
e aveva funzionato,
07:58
and it had workedlavorato very well,
140
466720
2056
aveva funzionato benissimo,
08:00
and he had no ideaidea how it workedlavorato
or what it was pickingscelta up on.
141
468800
4880
e lui non aveva idea di come funzionasse
e cosa stesse pescando.
08:06
Now, the problemproblema isn't solvedrisolto
if he doesn't publishpubblicare it,
142
474840
4416
Il problema non si risolve
se lui non pubblica il software,
08:11
because there are alreadygià companiesaziende
143
479280
1896
perché ci sono già aziende
08:13
that are developingin via di sviluppo
this kindgenere of technologytecnologia,
144
481200
2536
che stanno sviluppando
questo tipo di tecnologia,
08:15
and a lot of the stuffcose
is just off the shelfmensola.
145
483760
2800
e una buona parte è già disponibile.
08:19
This is not very difficultdifficile anymorepiù.
146
487240
2576
Non è più una cosa complicata.
08:21
Do you ever go on YouTubeYouTube
meaningsenso to watch one videovideo
147
489840
3456
Andate mai su YouTube
con l'idea di guardare un video
08:25
and an hourora laterdopo you've watchedguardato 27?
148
493320
2360
e un'ora dopo ne avete guardati 27?
08:28
You know how YouTubeYouTube
has this columncolonna on the right
149
496760
2496
Sapete che YouTube ha questa colonna
sulla destra
08:31
that saysdice, "Up nextIl prossimo"
150
499280
2216
che dice "Prossimi video"
08:33
and it autoplaysautoplays something?
151
501520
1816
e poi ne parte in automatico un altro?
08:35
It's an algorithmalgoritmo
152
503360
1216
È un algoritmo
08:36
pickingscelta what it thinkspensa
that you mightpotrebbe be interestedinteressato in
153
504600
3616
che sceglie qualcosa che pensa
possa interessarvi
08:40
and maybe not find on your ownproprio.
154
508240
1536
che magari non trovate da soli.
08:41
It's not a humanumano editoreditore.
155
509800
1256
Non è un editor umano.
08:43
It's what algorithmsalgoritmi do.
156
511080
1416
Lo fa un algoritmo.
08:44
It pickspicconi up on what you have watchedguardato
and what people like you have watchedguardato,
157
512520
4736
Studia quello che avete guardato voi
e le persone simili a voi
08:49
and infersdeduce that that mustdovere be
what you're interestedinteressato in,
158
517280
4216
e desume quello
che potrebbe interessarvi,
08:53
what you want more of,
159
521520
1255
cosa vorreste di più,
08:54
and just showsSpettacoli you more.
160
522799
1336
e ve ne mostra di più.
08:56
It soundssuoni like a benignbenigno
and usefulutile featurecaratteristica,
161
524159
2201
Sembra una funzionalità
innocua e utile
08:59
excepttranne when it isn't.
162
527280
1200
tranne quando non lo è.
09:01
So in 2016, I attendedha partecipato ralliesraduni
of then-candidateallora-il candidato DonaldDonald TrumpBriscola
163
529640
6960
Nel 2016, ho partecipato a raduni
dell'allora candidato Donald Trump
09:09
to studystudia as a scholarScholar
the movementmovimento supportingsupporto him.
164
537840
3336
per studiare accademicamente
il movimento che lo supportava.
09:13
I studystudia socialsociale movementsmovimenti,
so I was studyingstudiando it, too.
165
541200
3456
Studio movimenti sociali,
così studiavo anche quello.
09:16
And then I wanted to writeScrivi something
about one of his ralliesraduni,
166
544680
3336
Volevo scrivere qualcosa
su uno di quei raduni,
09:20
so I watchedguardato it a fewpochi timesvolte on YouTubeYouTube.
167
548040
1960
e l'ho guardato qualche volta su YouTube.
09:23
YouTubeYouTube startediniziato recommendingraccomandare to me
168
551240
3096
YouTube ha cominciato a raccomandarmi
09:26
and autoplayingriproduzione automatica to me
whitebianca supremacistdella supremazia videosvideo
169
554360
4256
e a far partire video
sui suprematisti bianchi
09:30
in increasingcrescente orderordine of extremismestremismo.
170
558640
2656
in crescente ordine di estremismo.
09:33
If I watchedguardato one,
171
561320
1816
Ne guardavo uno,
09:35
it servedservito up one even more extremeestremo
172
563160
2976
me ne proponeva uno ancora più estremo
09:38
and autoplayedautoplayed that one, too.
173
566160
1424
che partiva in automatico.
09:40
If you watch HillaryHillary ClintonClinton
or BernieBernie SandersSanders contentsoddisfare,
174
568320
4536
Se guardi contenuti di Hillary Clinton
o di Bernie Sanders
09:44
YouTubeYouTube recommendsraccomanda
and autoplaysautoplays conspiracycospirazione left,
175
572880
4696
YouTube raccomanda e fa partire
video cospirazionisti di sinistra,
09:49
and it goesva downhilldiscesa from there.
176
577600
1760
e da lì sempre più giù.
09:52
Well, you mightpotrebbe be thinkingpensiero,
this is politicspolitica, but it's not.
177
580480
3056
Bene, potreste pensare,
questa è politica. Ma non lo è.
09:55
This isn't about politicspolitica.
178
583560
1256
Non si tratta di politica.
09:56
This is just the algorithmalgoritmo
figuringcapire out humanumano behaviorcomportamento.
179
584840
3096
Si tratta di un algoritmo
che ha compreso la natura umana.
09:59
I onceuna volta watchedguardato a videovideo
about vegetarianismvegetarismo on YouTubeYouTube
180
587960
4776
Una volta ho guardato un video
sul vegetarianismo su YouTube
10:04
and YouTubeYouTube recommendedconsigliato
and autoplayedautoplayed a videovideo about beingessere veganCucina vegana.
181
592760
4936
e YouTube mi ha consigliato un video
sull'essere vegani.
10:09
It's like you're never
hardcorehardcore enoughabbastanza for YouTubeYouTube.
182
597720
3016
È come se non ci credete mai abbastanza
per YouTube
10:12
(LaughterRisate)
183
600760
1576
(Risate)
10:14
So what's going on?
184
602360
1560
Allora cosa succede?
10:16
Now, YouTube'sDi YouTube algorithmalgoritmo is proprietaryproprietarie,
185
604520
3536
Anche se l'algoritmo di YouTube
è proprietario
10:20
but here'secco what I think is going on.
186
608080
2360
ecco cosa penso stia accadendo.
10:23
The algorithmalgoritmo has figuredfigurato out
187
611360
2096
L'algoritmo ha capito
10:25
that if you can enticeinvogliare people
188
613480
3696
che se puoi attrarre la gente
10:29
into thinkingpensiero that you can
showmostrare them something more hardcorehardcore,
189
617200
3736
a pensare che puoi mostrargli
qualcosa di ancora più spinto,
10:32
they're more likelyprobabile to stayrestare on the siteluogo
190
620960
2416
la gente rimarrà sul sito
con maggiore probabilità
10:35
watchingGuardando videovideo after videovideo
going down that rabbitconiglio holebuco
191
623400
4416
guardando video dopo video
scendendo giù nella tana del coniglio
10:39
while GoogleGoogle servesservi them adsAnnunci.
192
627840
1680
mentre Google mostra le pubblicità.
10:43
Now, with nobodynessuno mindingbadando
the ethicsetica of the storenegozio,
193
631760
3120
Mentre nessuno si accorge
dei risvolti etici,
10:47
these sitessiti can profileprofilo people
194
635720
4240
questi siti possono profilare persone
10:53
who are JewEbreo hatersHaters,
195
641680
1920
che odiano gli ebrei,
10:56
who think that JewsEbrei are parasitesparassiti
196
644360
2480
che pensano che gli ebrei siano parassiti
11:00
and who have suchcome explicitesplicito
anti-Semiticanti-Semitic contentsoddisfare,
197
648320
4920
e chi ha contenuti antisemiti
così espliciti,
11:06
and let you targetbersaglio them with adsAnnunci.
198
654080
2000
e vi consente
di usarli come bersaglio
per le pubblicità.
11:09
They can alsoanche mobilizemobilitare algorithmsalgoritmi
199
657200
3536
Possono anche sguinzagliare gli algoritmi
11:12
to find for you look-alikelook-alike audiencespubblico,
200
660760
3136
per trovare per voi
gruppi di utenti simili,
11:15
people who do not have suchcome explicitesplicito
anti-Semiticanti-Semitic contentsoddisfare on theirloro profileprofilo
201
663920
5576
gente che sebbene non mostri
contenuti antisemiti così espliciti
11:21
but who the algorithmalgoritmo detectsrileva
maypuò be susceptiblesuscettibile to suchcome messagesmessaggi,
202
669520
6176
viene riconosciuta dall'algoritmo
come sensibile a questo tipo di messaggi,
11:27
and letslascia you targetbersaglio them with adsAnnunci, too.
203
675720
1920
e vi fa bersagliare anche loro.
11:30
Now, this maypuò soundsuono
like an implausiblenon plausibile exampleesempio,
204
678680
2736
Questo potrebbe sembrare
un esempio poco plausibile,
11:33
but this is realvero.
205
681440
1320
però è davvero reale.
11:35
ProPublicaProPublica investigatedindagato this
206
683480
2136
ProPublica ha investigato
11:37
and foundtrovato that you can indeedinfatti
do this on FacebookFacebook,
207
685640
3616
e scoperto che è possibile farlo davvero
su Facebook
11:41
and FacebookFacebook helpfullygentile
offeredofferta up suggestionsSuggerimenti
208
689280
2416
e che Facebook amichevolmente
ha dato suggerimenti
11:43
on how to broadenampliare that audiencepubblico.
209
691720
1600
su come espandere quest'audience.
11:46
BuzzFeedBuzzFeed triedprovato it for GoogleGoogle,
and very quicklyvelocemente they foundtrovato,
210
694720
3016
BuzzFeed ha provato a farlo con Google,
e ha subito scoperto
11:49
yepYep, you can do it on GoogleGoogle, too.
211
697760
1736
che sì, si può fare anche su Google.
11:51
And it wasn'tnon era even expensivecostoso.
212
699520
1696
E che non era nemmeno caro.
11:53
The ProPublicaProPublica reporterreporter
spentspeso about 30 dollarsdollari
213
701240
4416
Il giornalista di ProPublica
ha speso circa 30 dollari
11:57
to targetbersaglio this categorycategoria.
214
705680
2240
per colpire questa categoria.
12:02
So last yearanno, DonaldDonald Trump'sTrump
socialsociale mediamedia managermanager disclosedcomunicati
215
710600
5296
Il Social Media Manager di Trump
ha rivelato che l'anno scorso
12:07
that they were usingutilizzando FacebookFacebook darkbuio postsPost
to demobilizevenisse smobilitato people,
216
715920
5336
hanno utilizzato i post nascosti
di Facebook per smobilitare la gente,
12:13
not to persuadepersuadere them,
217
721280
1376
non per persuaderla,
12:14
but to convinceconvincere them not to votevotazione at all.
218
722680
2800
ma per convincerla di non votare affatto.
12:18
And to do that,
they targetedmirata specificallyspecificamente,
219
726520
3576
E per farlo,
hanno preso come target specifico
12:22
for exampleesempio, African-AmericanAfrican-American menuomini
in keychiave citiescittà like PhiladelphiaPhiladelphia,
220
730120
3896
per esempio, uomini afroamericani
in città chiave come Philadelphia
12:26
and I'm going to readleggere
exactlydi preciso what he said.
221
734040
2456
e ora vi leggo
esattamente quello che ha detto.
12:28
I'm quotingcitando.
222
736520
1216
Sto citando.
12:29
They were usingutilizzando "nonpublicnonPublic postsPost
223
737760
3016
Stavano utilizzando, "Post non pubblici
12:32
whosedi chi viewershipaudience the campaigncampagna controlscontrolli
224
740800
2176
la cui audience è controllata
nella campagna
12:35
so that only the people
we want to see it see it.
225
743000
3776
in modo tale che solo gente
che noi vogliamo che veda, vedrà.
12:38
We modeledmodellata this.
226
746800
1216
L'abbiamo costruita così.
12:40
It will dramaticallydrammaticamente affectinfluenzare her abilitycapacità
to turnturno these people out."
227
748040
4720
Questo aumenterà enormemente
la capacità di spegnere queste persone."
12:45
What's in those darkbuio postsPost?
228
753720
2280
Cosa c'era in questi post nascosti?
12:48
We have no ideaidea.
229
756480
1656
Non ne abbiamo la minima idea.
12:50
FacebookFacebook won'tnon lo farà tell us.
230
758160
1200
Facebook non ce lo dirà.
12:52
So FacebookFacebook alsoanche algorithmicallyalgoritmicamente
arrangesorganizza the postsPost
231
760480
4376
L'algoritmo di Facebook
dispone i post
12:56
that your friendsamici put on FacebookFacebook,
or the pagespagine you followSeguire.
232
764880
3736
che i vostri amici o le pagine che seguite
pubblicano.
13:00
It doesn't showmostrare you
everything chronologicallyin ordine cronologico.
233
768640
2216
Non ve li mostra
in ordine cronologico.
13:02
It putsmette the orderordine in the way
that the algorithmalgoritmo thinkspensa will enticeinvogliare you
234
770880
4816
L'algoritmo li riordina in modo tale
che vi inducano
13:07
to stayrestare on the siteluogo longerpiù a lungo.
235
775720
1840
a stare più a lungo sul sito.
13:11
Now, so this has a lot of consequencesconseguenze.
236
779040
3376
E questo ha molte conseguenze.
13:14
You maypuò be thinkingpensiero
somebodyqualcuno is snubbingsnobba you on FacebookFacebook.
237
782440
3800
Potreste pensare che qualcuno
vi stia ignorando su Facebook.
13:18
The algorithmalgoritmo maypuò never
be showingmostrando your postinviare to them.
238
786800
3256
L'algoritmo potrebbe non mostrare mai
i vostri post.
13:22
The algorithmalgoritmo is prioritizingDare la priorità
some of them and buryingseppellire the othersaltri.
239
790080
5960
L'algoritmo dà priorità ad alcuni di loro
e seppellisce gli altri.
13:29
ExperimentsEsperimenti showmostrare
240
797320
1296
Esperimenti mostrano
13:30
that what the algorithmalgoritmo pickspicconi to showmostrare you
can affectinfluenzare your emotionsemozioni.
241
798640
4520
che ciò che l'algoritmo sceglie di mostrarvi
può influenzare le vostre emozioni.
13:36
But that's not all.
242
804600
1200
E non è tutto.
13:38
It alsoanche affectscolpisce politicalpolitico behaviorcomportamento.
243
806280
2360
Può influenzare
il comportamento politico.
13:41
So in 2010, in the midtermmedio termine electionselezioni,
244
809360
4656
Così nel 2010,
durante le elezioni di metà mandato,
13:46
FacebookFacebook did an experimentsperimentare
on 61 millionmilione people in the US
245
814040
5896
Facebook ha fatto un esperimento
su 61 milioni di americani
13:51
that was disclosedcomunicati after the factfatto.
246
819960
1896
che è stato reso pubblico subito dopo.
13:53
So some people were shownmostrato,
"TodayOggi is electionelezione day,"
247
821880
3416
Ad alcuni veniva mostrata
"Oggi è il giorno delle elezioni",
13:57
the simplerpiù semplice one,
248
825320
1376
la più semplice,
13:58
and some people were shownmostrato
the one with that tinyminuscolo tweakTweak
249
826720
3896
mentre ad altri veniva mostrata
quella con una piccola variazione
14:02
with those little thumbnailsminiature
250
830640
2096
con le piccole foto
14:04
of your friendsamici who clickedcliccato on "I votedvotato."
251
832760
2840
degli amici che hanno cliccato
su "Ho votato".
14:09
This simplesemplice tweakTweak.
252
837000
1400
Questa semplice modifica.
14:11
OK? So the picturesimmagini were the only changemodificare,
253
839520
4296
Ok? Le foto erano l'unica modifica,
14:15
and that postinviare shownmostrato just onceuna volta
254
843840
3256
e quei post mostrati una volta sola
14:19
turnedtrasformato out an additionalUlteriori 340,000 voterselettori
255
847120
6056
hanno portato altri 340 000 votanti
14:25
in that electionelezione,
256
853200
1696
in quella elezione,
14:26
accordingsecondo to this researchricerca
257
854920
1696
secondo questa ricerca,
14:28
as confirmedconfermato by the voterdell'elettore rollsrotoli.
258
856640
2520
come confermato
dalle liste degli elettori.
14:32
A flukeFluke? No.
259
860920
1656
Una coincidenza? No.
14:34
Because in 2012,
they repeatedripetuto the samestesso experimentsperimentare.
260
862600
5360
Perché nel 2012,
hanno ripetuto lo stesso esperimento.
14:40
And that time,
261
868840
1736
E quella volta,
14:42
that civiccivico messagemessaggio shownmostrato just onceuna volta
262
870600
3296
quel messaggio civico mostrato
una sola volta
14:45
turnedtrasformato out an additionalUlteriori 270,000 voterselettori.
263
873920
4440
ha portato altri 270 000 votanti.
14:51
For referenceriferimento, the 2016
US presidentialpresidenziale electionelezione
264
879160
5216
Per la cronaca, nel 2016
le elezioni presidenziali negli USA
14:56
was decideddeciso by about 100,000 votesvoti.
265
884400
3520
sono state decise da circa 100 000 voti.
15:01
Now, FacebookFacebook can alsoanche
very easilyfacilmente inferdedurre what your politicspolitica are,
266
889360
4736
Facebook può anche dedurre
le vostre inclinazioni politiche
15:06
even if you've never
disclosedcomunicati them on the siteluogo.
267
894120
2256
anche se non le avete mai
esposte esplicitamente.
15:08
Right? These algorithmsalgoritmi
can do that quiteabbastanza easilyfacilmente.
268
896400
2520
Gli algoritmi
possono farlo facilmente.
15:11
What if a platformpiattaforma with that kindgenere of powerenergia
269
899960
3896
Cosa accade se una piattaforma
con questo tipo di potere
15:15
decidesdecide to turnturno out supporterstifosi
of one candidatecandidato over the other?
270
903880
5040
decide di "spegnere" i sostenitori
di un candidato in favore dell'altro?
15:21
How would we even know about it?
271
909680
2440
Come potremmo mai accorgercene?
15:25
Now, we startediniziato from someplaceda qualche parte
seeminglyapparentemente innocuousinnocuo --
272
913560
4136
Siamo partiti da qualcosa
che sembrava innocuo -
15:29
onlinein linea addsaggiunge followinga seguire us around --
273
917720
2216
le pubblicità che ci seguono dappertutto -
15:31
and we'venoi abbiamo landedatterrato someplaceda qualche parte elsealtro.
274
919960
1840
e siamo arrivati a qualcos'altro.
15:35
As a publicpubblico and as citizenscittadini,
275
923480
2456
Come pubblico e come cittadini,
15:37
we no longerpiù a lungo know
if we're seeingvedendo the samestesso informationinformazione
276
925960
3416
non sappiamo più
se stiamo guardando le stesse informazioni
15:41
or what anybodynessuno elsealtro is seeingvedendo,
277
929400
1480
o cosa stiano vedendo gli altri
15:43
and withoutsenza a commonComune basisbase of informationinformazione,
278
931680
2576
e senza una base comune d'informazione
15:46
little by little,
279
934280
1616
a poco a poco,
15:47
publicpubblico debatediscussione is becomingdiventando impossibleimpossibile,
280
935920
3216
il dibattito pubblico
sta diventando impossibile,
15:51
and we're just at
the beginninginizio stagesstadi of this.
281
939160
2976
e siamo appena agli stadi iniziali
di tutto questo.
15:54
These algorithmsalgoritmi can quiteabbastanza easilyfacilmente inferdedurre
282
942160
3456
Questi algoritmi
possono facilmente dedurre
15:57
things like your people'spersone di ethnicitygruppo etnico,
283
945640
3256
cose come l'etnia,
16:00
religiousreligioso and politicalpolitico viewsvisualizzazioni,
personalitypersonalità traitstratti,
284
948920
2336
il pensiero politico e religioso,
la personalità
16:03
intelligenceintelligenza, happinessfelicità,
use of addictivedipendenza substancessostanze,
285
951280
3376
l'intelligenza, la felicità,
l'uso di sostanze che danno dipendenza
16:06
parentalparentale separationseparazione, ageetà and genderssessi,
286
954680
3136
le separazioni dei genitori,
l'età e i sessi,
16:09
just from FacebookFacebook likespiace.
287
957840
1960
solo dai like messi su Facebook.
16:13
These algorithmsalgoritmi can identifyidentificare protestersmanifestanti
288
961440
4056
Questi algoritmi possono identificare
i manifestanti
16:17
even if theirloro facesfacce
are partiallyparzialmente concealeda scomparsa.
289
965520
2760
anche se le loro facce
sono parzialmente nascoste.
16:21
These algorithmsalgoritmi maypuò be ablecapace
to detectindividuare people'spersone di sexualsessuale orientationorientamento
290
969720
6616
Questi algoritmi possono essere capaci
di capire l'orientamento sessuale
16:28
just from theirloro datingincontri profileprofilo picturesimmagini.
291
976360
3200
solo dalla foto di profilo
nei siti d'incontri.
16:33
Now, these are probabilisticprobabilistica guessesIndovina,
292
981560
2616
Certo, queste sono sempre
deduzioni probabilistiche,
16:36
so they're not going
to be 100 percentper cento right,
293
984200
2896
quindi non arrivano a una precisione
del 100 per cento
16:39
but I don't see the powerfulpotente resistingresistere
the temptationtentazione to use these technologiestecnologie
294
987120
4896
ma non credo che chi ha potere resista
alla tentazione di usare queste tecnologie
16:44
just because there are
some falsefalso positivespositivi,
295
992040
2176
solo perché esiste
qualche falso positivo,
16:46
whichquale will of coursecorso createcreare
a wholetotale other layerstrato of problemsi problemi.
296
994240
3256
cosa che produrrà un'altra
serie di problemi.
16:49
ImagineImmaginate what a statestato can do
297
997520
2936
Immaginate cosa possa fare uno stato
16:52
with the immenseimmenso amountquantità of datadati
it has on its citizenscittadini.
298
1000480
3560
con l'immensa quantità di dati
che possiede sui propri cittadini.
16:56
ChinaCina is alreadygià usingutilizzando
faceviso detectionrivelazione technologytecnologia
299
1004680
4776
La Cina sta già utilizzando
tecnologie di riconoscimento facciale
17:01
to identifyidentificare and arrestarresto people.
300
1009480
2880
per identificare e arrestare persone.
17:05
And here'secco the tragedytragedia:
301
1013280
2136
Ed ecco la tragedia:
17:07
we're buildingcostruzione this infrastructureinfrastruttura
of surveillancesorveglianza authoritarianismautoritarismo
302
1015440
5536
costruiamo questa infrastruttura
di controllo autoritario
17:13
merelysemplicemente to get people to clickclic on adsAnnunci.
303
1021000
2960
solo per ottenere clic sulle pubblicità.
17:17
And this won'tnon lo farà be
Orwell'sOrwell authoritarianismautoritarismo.
304
1025240
2576
E questo non sarà un autoritarismo
alla Orwell.
17:19
This isn't "1984."
305
1027839
1897
Questo non è "1984".
17:21
Now, if authoritarianismautoritarismo
is usingutilizzando overtevidente fearpaura to terrorizeterrorizzare us,
306
1029760
4576
Se l'autoritarismo utilizza evidenti
meccanismi del terrore per spaventarci,
17:26
we'llbene all be scaredimpaurito, but we'llbene know it,
307
1034359
2897
saremo spaventati, ma sapremo perché,
17:29
we'llbene hateodiare it and we'llbene resistresistere it.
308
1037280
2200
odieremo e resisteremo.
17:32
But if the people in powerenergia
are usingutilizzando these algorithmsalgoritmi
309
1040880
4416
Ma se le persone con potere
usano questo algoritmi
17:37
to quietlytranquillamente watch us,
310
1045319
3377
per osservarci placidamente,
17:40
to judgegiudice us and to nudgegomitata us,
311
1048720
2080
per giudicarci e per spingerci,
17:43
to predictpredire and identifyidentificare
the troublemakersbotte di Natale and the rebelsribelli,
312
1051720
4176
per predire e identificare
i piantagrane e i ribelli,
17:47
to deploydistribuire persuasionpersuasione
architecturesarchitetture at scalescala
313
1055920
3896
per costruire un'architettura
della persuasione su larga scala
17:51
and to manipulatemanipolare individualsindividui one by one
314
1059840
4136
e per manipolare gli individui uno ad uno
17:56
usingutilizzando theirloro personalpersonale, individualindividuale
weaknessespunti deboli and vulnerabilitiesvulnerabilità,
315
1064000
5440
utilizzando le loro debolezze
e vulnerabilità individuali,
18:02
and if they're doing it at scalescala
316
1070720
2200
e se lo fanno su larga scala
18:06
throughattraverso our privateprivato screensschermi
317
1074080
1736
attraverso i nostri schermi privati
18:07
so that we don't even know
318
1075840
1656
cosicché non sappiamo neppure
18:09
what our fellowcompagno citizenscittadini
and neighborsvicini di casa are seeingvedendo,
319
1077520
2760
quello che i nostri concittadini
e vicini stanno vedendo,
18:13
that authoritarianismautoritarismo
will envelopavvolgono us like a spider'sdi ragno webweb
320
1081560
4816
questo autoritarismo
ci avvolgerà come tela di ragno
18:18
and we maypuò not even know we're in it.
321
1086400
2480
senza che ce ne rendiamo conto.
18:22
So Facebook'sDi Facebook marketmercato capitalizationcapitalizzazione
322
1090440
2936
La capitalizzazione di borsa di Facebook
18:25
is approachingsi avvicina halfmetà a trilliontrilioni di dollarsdollari.
323
1093400
3296
sta raggiungendo
il mezzo trilione di dollari.
18:28
It's because it workslavori great
as a persuasionpersuasione architecturearchitettura.
324
1096720
3120
È perché funziona benissimo
come architettura persuasiva.
18:33
But the structurestruttura of that architecturearchitettura
325
1101760
2816
Ma la struttura di questa architettura
18:36
is the samestesso whetherse you're sellingvendita shoesscarpe
326
1104600
3216
è la stessa sia che voi vendiate scarpe
18:39
or whetherse you're sellingvendita politicspolitica.
327
1107840
2496
o che stiate vendendo politica.
18:42
The algorithmsalgoritmi do not know the differencedifferenza.
328
1110360
3120
L'algoritmo non ne conosce la differenza.
18:46
The samestesso algorithmsalgoritmi setimpostato loosesciolto uponsu us
329
1114240
3296
Questi stessi algoritmi
che vengono scatenati su di noi
18:49
to make us more pliableflessibile for adsAnnunci
330
1117560
3176
per renderci più malleabili
alle pubblicità
18:52
are alsoanche organizingorganizzazione our politicalpolitico,
personalpersonale and socialsociale informationinformazione flowsflussi,
331
1120760
6736
organizzano i nostri flussi d'informazione
politica, personale e sociale
18:59
and that's what's got to changemodificare.
332
1127520
1840
e questo è ciò che dovrebbe cambiare.
19:02
Now, don't get me wrongsbagliato,
333
1130240
2296
Non mi fraintendete,
19:04
we use digitaldigitale platformspiattaforme
because they providefornire us with great valuevalore.
334
1132560
3680
usiamo le piattaforme digitali
perché ci forniscono grande valore.
19:09
I use FacebookFacebook to keep in touchtoccare
with friendsamici and familyfamiglia around the worldmondo.
335
1137120
3560
Uso Facebook per tenere contatti con
amici e familiari in tutto il mondo.
19:14
I've writtenscritto about how crucialcruciale
socialsociale mediamedia is for socialsociale movementsmovimenti.
336
1142000
5776
Ho scritto di come siano importanti
i social media per i movimenti sociali.
19:19
I have studiedstudiato how
these technologiestecnologie can be used
337
1147800
3016
Ho studiato come queste tecnologie
possono essere utilizzate
19:22
to circumventeludere censorshipcensura around the worldmondo.
338
1150840
2480
per aggirare la censura nel mondo.
19:27
But it's not that the people who runcorrere,
you know, FacebookFacebook or GoogleGoogle
339
1155280
6416
Non credo che le persone che guidano
Facebook e Google
19:33
are maliciouslymaliziosamente and deliberatelydeliberatamente tryingprovare
340
1161720
2696
stiano maliziosamente
e deliberatamente tentando
19:36
to make the countrynazione
or the worldmondo more polarizedpolarizzato
341
1164440
4456
di rendere il paese o il mondo
più polarizzati
19:40
and encourageincoraggiare extremismestremismo.
342
1168920
1680
incoraggiando gli estremismi.
19:43
I readleggere the manymolti
well-intentionedben intenzionato statementsdichiarazioni
343
1171440
3976
Ho letto molte frasi piene
di buone intenzioni
19:47
that these people put out.
344
1175440
3320
pronunciate da queste persone.
19:51
But it's not the intentintento or the statementsdichiarazioni
people in technologytecnologia make that matterimporta,
345
1179600
6056
Ma non sono le intenzioni o le frasi
di costoro a fare differenza,
19:57
it's the structuresstrutture
and businessattività commerciale modelsModelli they're buildingcostruzione.
346
1185680
3560
ma le strutture e i modelli di business
che costoro stanno costruendo.
20:02
And that's the corenucleo of the problemproblema.
347
1190360
2096
E questo è il nocciolo del problema.
20:04
EitherEntrambi FacebookFacebook is a giantgigante con
of halfmetà a trilliontrilioni di dollarsdollari
348
1192480
4720
O Facebook è una truffa gigante
da mezzo trilione di dollari
20:10
and adsAnnunci don't work on the siteluogo,
349
1198200
1896
dove le pubblicità non funzionano
20:12
it doesn't work
as a persuasionpersuasione architecturearchitettura,
350
1200120
2696
e non funziona
come un'architettura persuasiva
20:14
or its powerenergia of influenceinfluenza
is of great concernpreoccupazione.
351
1202840
4120
o il suo potere d'influenza
è fonte di grande preoccupazione.
20:20
It's eithero one or the other.
352
1208560
1776
O l'uno, o l'altro.
20:22
It's similarsimile for GoogleGoogle, too.
353
1210360
1600
Per Google la storia è simile.
20:24
So what can we do?
354
1212880
2456
Quindi, cosa possiamo fare?
20:27
This needsesigenze to changemodificare.
355
1215360
1936
Serve un cambiamento.
20:29
Now, I can't offeroffrire a simplesemplice recipericetta,
356
1217320
2576
Quindi.
Non posso offrire una ricetta semplice,
20:31
because we need to restructureristrutturazione
357
1219920
2256
perché dobbiamo ristrutturare
per intero
20:34
the wholetotale way our
digitaldigitale technologytecnologia operatesopera.
358
1222200
3016
il modo in cui opera
la tecnologia digitale.
20:37
Everything from the way
technologytecnologia is developedsviluppato
359
1225240
4096
Tutto: dal modo in cui la tecnologia
viene sviluppata
20:41
to the way the incentivesincentivi,
economiceconomico and otherwisealtrimenti,
360
1229360
3856
alla maniera in cui gli incentivi,
economici o di altro tipo,
20:45
are builtcostruito into the systemsistema.
361
1233240
2280
sono costruiti dentro il sistema.
20:48
We have to faceviso and try to dealaffare with
362
1236480
3456
Dobbiamo confrontarci e occuparci
20:51
the lackmancanza of transparencytrasparenza
createdcreato by the proprietaryproprietarie algorithmsalgoritmi,
363
1239960
4656
della mancanza di trasparenza
creata dagli algoritmi proprietari,
20:56
the structuralstrutturale challengesfida
of machinemacchina learning'sdi apprendimento opacityopacità,
364
1244640
3816
la sfida strutturale
dell'opacità del "machine learning",
21:00
all this indiscriminateindiscriminato datadati
that's beingessere collectedraccolto about us.
365
1248480
3400
tutti questi dati su di noi
che vengono raccolti indiscriminatamente.
21:05
We have a biggrande taskcompito in frontdavanti of us.
366
1253000
2520
Abbiamo un grande compito di fronte a noi.
21:08
We have to mobilizemobilitare our technologytecnologia,
367
1256160
2680
Dobbiamo mobilitare
la nostra tecnologia,
21:11
our creativitycreatività
368
1259760
1576
la nostra creatività
21:13
and yes, our politicspolitica
369
1261360
1880
e sì, la nostra politica
21:16
so that we can buildcostruire
artificialartificiale intelligenceintelligenza
370
1264240
2656
così da costruire
un'intelligenza artificiale
21:18
that supportssupporta us in our humanumano goalsobiettivi
371
1266920
3120
che ci supporti
negli obiettivi umani
21:22
but that is alsoanche constrainedcostretto
by our humanumano valuesvalori.
372
1270800
3920
ma che sia anche vincolata
dai nostri valori umani.
21:27
And I understandcapire this won'tnon lo farà be easyfacile.
373
1275600
2160
Capisco che non sarà semplice.
21:30
We mightpotrebbe not even easilyfacilmente agreeessere d'accordo
on what those termscondizioni mean.
374
1278360
3600
Potremmo non accordarci facilmente
sul significato di questi termini.
21:34
But if we take seriouslysul serio
375
1282920
2400
Ma se prendiamo seriamente
21:38
how these systemssistemi that we
dependdipendere on for so much operateoperare,
376
1286240
5976
come operano questi sistemi
da cui dipendiamo così tanto,
21:44
I don't see how we can postponerinviare
this conversationconversazione anymorepiù.
377
1292240
4120
non vedo come possiamo rimandare ancora
questa discussione.
21:49
These structuresstrutture
378
1297200
2536
Queste strutture
21:51
are organizingorganizzazione how we functionfunzione
379
1299760
4096
stanno organizzando
il modo in cui funzioniamo
21:55
and they're controllingcontrollo
380
1303880
2296
e stanno controllando
21:58
what we can and we cannotnon può do.
381
1306200
2616
ciò che possiamo e non possiamo fare.
22:00
And manymolti of these ad-financedannuncio-finanziato platformspiattaforme,
382
1308840
2456
Molte piattaforme
che si finanziano con pubblicità.
22:03
they boastvantare that they're freegratuito.
383
1311320
1576
si vantano di essere gratuite.
22:04
In this contextcontesto, it meanssi intende
that we are the productprodotto that's beingessere soldvenduto.
384
1312920
4560
In questo contesto, significa
che noi siamo i prodotti da vendere.
22:10
We need a digitaldigitale economyeconomia
385
1318840
2736
Serve un'economia digitale
22:13
where our datadati and our attentionAttenzione
386
1321600
3496
dove i nostri dati e la nostra attenzione
22:17
is not for salevendita to the highest-biddingofferta più alta
authoritarianautoritario or demagoguedemagogo.
387
1325120
5080
non sono venduti al miglior offerente
autoritario o demagogo.
22:23
(ApplauseApplausi)
388
1331160
3800
(Applausi)
22:30
So to go back to
that HollywoodHollywood paraphraseparafrasi,
389
1338480
3256
Così, tornando indietro
a quella parafrasi di Hollywood,
22:33
we do want the prodigiousprodigiosa potentialpotenziale
390
1341760
3736
noi vogliamo che il potenziale prodigioso
22:37
of artificialartificiale intelligenceintelligenza
and digitaldigitale technologytecnologia to blossomBlossom,
391
1345520
3200
dell'intelligenza artificiale
e della tecnologia digitale fiorisca,
22:41
but for that, we mustdovere faceviso
this prodigiousprodigiosa menaceminaccia,
392
1349400
4936
ma per farlo, dobbiamo affrontare
questa grande minaccia,
22:46
open-eyedocchi aperti and now.
393
1354360
1936
con occhi aperti e ora.
22:48
Thank you.
394
1356320
1216
Grazie.
22:49
(ApplauseApplausi)
395
1357560
4640
(Applausi)
Translated by antonio parlato
Reviewed by Anna Cristiana Minoli

▲Back to top

ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.

Why you should listen

We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.

Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.

Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.

More profile about the speaker
Zeynep Tufekci | Speaker | TED.com