ABOUT THE SPEAKER
César Hidalgo - Physicist
César Hidalgo studies how teams, cities and nations learn.

Why you should listen

César A. Hidalgo leads the Collective Learning group at The MIT Media Lab and is an associate professor of media arts and sciences at MIT. Hidalgo's work focuses on understanding how teams, organizations, cities and nations learn. At the Collective Learning group, Hidalgo develops software tools to facilitate learning in organizations. His academic publications have been cited more than 10,000 times, and his online systems, including the Observatory of Economic Complexity and DataUSA, have received more than 100 million views and numerous awards.

Hidalgo's latest book, Why Information Grows (2015), has been translated into 10+ languages. He is also the co-author of The Atlas of Economic Complexity (2014) and a co-founder of Datawheel LLC, a company that has professionalized the creation of large data visualization engines.

More profile about the speaker
César Hidalgo | Speaker | TED.com
TED2018

César Hidalgo: A bold idea to replace politicians

César Hidalgo: Un'idea audace per sostituire i politici

Filmed:
2,044,328 views

César Hidalgo ha una proposta radicale per aggiustare il nostro malfunzionante sistema politico: automatizzarlo! In questo provocatorio intervento, ci illustra un'idea audace per scavalcare i politici, che consiste nel consentire ai cittadini di creare delle IA che ci rappresentino in modo personalizzato e partecipino direttamente alle decisioni democratiche. Scoprite un nuovo possibile modo di prendere decisioni collettive, e ampliate la vostra comprensione della democrazia.
- Physicist
César Hidalgo studies how teams, cities and nations learn. Full bio

Double-click the English transcript below to play the video.

Sono solo io,
00:13
Is it just me,
0
1373
1744
o c'è qualcun altro, qui,
00:15
or are there other people here
1
3141
2332
che è un po' deluso dalla democrazia?
00:17
that are a little bitpo
disappointeddeluso with democracydemocrazia?
2
5497
2344
(Applausi)
00:20
(ApplauseApplausi)
3
8986
2336
Diamo un'occhiata a qualche numero.
00:24
So let's look at a fewpochi numbersnumeri.
4
12141
2071
In tutto il mondo,
00:26
If we look acrossattraverso the worldmondo,
5
14934
2173
l'affluenza media
alle elezioni presidenziali,
00:29
the medianmediano turnoutaffluenza alle urne
in presidentialpresidenziale electionselezioni
6
17131
3892
negli ultimi 30 anni,
00:33
over the last 30 yearsanni
7
21047
1651
è stata del solo 67%.
00:34
has been just 67 percentper cento.
8
22722
2622
Se ci spostiamo in Europa,
00:38
Now, if we go to EuropeEuropa
9
26329
1973
e consideriamo quanti hanno votato
alle elezioni parlamentari europee,
00:40
and we look at people that participatedpartecipato
in EUDELL'UNIONE EUROPEA parliamentaryparlamentare electionselezioni,
10
28326
4428
l'affluenza media è stata del 42% appena.
00:44
the medianmediano turnoutaffluenza alle urne in those electionselezioni
11
32778
2071
00:46
is just 42 percentper cento.
12
34873
2104
Ora spostiamoci invece a New York,
00:50
Now let's go to NewNuovo YorkYork,
13
38125
1669
e vediamo quanti hanno votato
nelle ultime elezioni per il sindaco.
00:51
and let's see how manymolti people votedvotato
in the last electionelezione for mayorSindaco.
14
39818
4681
Soltanto il 24% si è presentato alle urne.
00:56
We will find that only
24 percentper cento of people showedha mostrato up to votevotazione.
15
44523
3817
Questo significa che,
se trasmettessero ancora "Friends",
01:01
What that meanssi intende is that,
if "FriendsAmici" was still runningin esecuzione,
16
49063
3095
solo Joey, e forse Phoebe,
si sarebbero presentati a votare.
01:04
JoeyJoey and maybe PhoebePhoebe
would have shownmostrato up to votevotazione.
17
52182
3348
(Risate)
01:07
(LaughterRisate)
18
55554
1290
Ma non possiamo biasimare le persone,
perché sono stanche dei politici
01:09
And you cannotnon può blamecolpa them
because people are tiredstanco of politicianspolitici.
19
57434
4426
e sono stanche di quelle aziende
01:13
And people are tiredstanco of other people
usingutilizzando the datadati that they have generatedgenerato
20
61884
3887
che sfruttano i loro dati, generati
per comunicare con amici e familiari,
01:17
to communicatecomunicare with
theirloro friendsamici and familyfamiglia,
21
65795
2198
per bersagliarli con propaganda
politica su misura.
01:20
to targetbersaglio politicalpolitico propagandapropaganda at them.
22
68017
2094
Ma il fatto è che questa non è una novità.
01:22
But the thing about this
is that this is not newnuovo.
23
70519
2728
Oggi le aziende usano i "Mi piace"
per bersagliarci con propaganda mirata;
01:25
NowadaysAl giorno d'oggi, people use likespiace
to targetbersaglio propagandapropaganda at you
24
73271
3225
01:28
before they use your zipcerniera lampo codecodice
or your genderGenere or your ageetà,
25
76520
3373
ma prima usavano il nostro CAP,
il nostro genere o la nostra età.
Perché l'idea di bersagliare le persone
con propaganda a fini politici
01:31
because the ideaidea of targetingmira people
with propagandapropaganda for politicalpolitico purposesscopi
26
79917
3570
è vecchia come la politica.
01:35
is as oldvecchio as politicspolitica.
27
83511
1592
E il motivo per cui quest'idea esiste
01:37
And the reasonragionare why that ideaidea is there
28
85530
2278
è che la democrazia
ha una vulnerabilità di fondo:
01:39
is because democracydemocrazia
has a basicdi base vulnerabilityvulnerabilità.
29
87832
3472
l'idea di un rappresentante.
01:43
This is the ideaidea of a representativerappresentante.
30
91710
1932
In teoria,
01:46
In principleprincipio, democracydemocrazia is the abilitycapacità
of people to exertesercitare powerenergia.
31
94049
3944
la democrazia è la capacità
dei cittadini di esercitare il potere;
ma in pratica dobbiamo delegare
questo potere a un rappresentante,
01:50
But in practicepratica, we have to delegateDelegato
that powerenergia to a representativerappresentante
32
98017
3818
che possa esercitare
questo potere al posto nostro.
01:53
that can exertesercitare that powerenergia for us.
33
101859
2255
Questo rappresentante
è un collo di bottiglia,
01:56
That representativerappresentante is a bottleneckcollo di bottiglia,
34
104561
1825
01:58
or a weakdebole spotindividuare.
35
106410
1297
o un punto debole.
01:59
It is the placeposto that you want to targetbersaglio
if you want to attackattacco democracydemocrazia
36
107731
3949
E chi vuole attaccare la democrazia
deve intervenire proprio qui:
si attacca la democrazia, infatti,
02:03
because you can capturecatturare democracydemocrazia
by eithero capturingcattura that representativerappresentante
37
111704
3489
o impadronendosi del rappresentante,
o del modo in cui si sceglie.
02:07
or capturingcattura the way
that people choosescegliere it.
38
115217
2148
La domanda, quindi, è:
la storia finisce qui?
02:10
So the biggrande questiondomanda is:
39
118065
1416
02:11
Is this the endfine of historystoria?
40
119505
1704
Non possiamo fare niente di meglio,
02:13
Is this the bestmigliore that we can do
41
121989
3103
02:17
or, actuallyin realtà, are there alternativesalternative?
42
125878
3067
o ci sono delle alternative?
Alcune persone hanno pensato
a delle alternative,
02:22
Some people have been thinkingpensiero
about alternativesalternative,
43
130130
2354
e una delle idee è quella
della democrazia diretta.
02:24
and one of the ideasidee that is out there
is the ideaidea of directdiretto democracydemocrazia.
44
132508
3679
In altre parole, scavalcare
completamente i politici
02:28
This is the ideaidea of bypassingbypassando
politicianspolitici completelycompletamente
45
136790
2479
e far votare la gente
direttamente sulle questioni,
02:31
and havingavendo people votevotazione directlydirettamente on issuesproblemi,
46
139293
2403
direttamente sulle leggi.
02:33
havingavendo people votevotazione directlydirettamente on billsfatture.
47
141720
2265
02:36
But this ideaidea is naiveingenuo
48
144415
1336
Ma è un'idea ingenua,
perché ci sono troppe materie
su cui deliberare.
02:37
because there's too manymolti things
that we would need to choosescegliere.
49
145775
3171
02:40
If you look at the 114thesimo US CongressCongresso,
50
148970
2782
Se guardate al 114esimo
Congresso degli Stati Uniti,
vedrete che la Camera dei Rappresentanti
02:43
you will have seenvisto that
the HouseCasa of RepresentativesRappresentanti
51
151776
2487
ha esaminato oltre 6.000
progetti di legge.
02:46
consideredconsiderato more than 6,000 billsfatture,
52
154287
2889
Il Senato ne ha esaminati più di 3.000.
02:49
the SenateSenato consideredconsiderato
more than 3,000 billsfatture
53
157200
2656
E sono state approvate più di 300 leggi.
02:51
and they approvedapprovato more than 300 lawslegislazione.
54
159880
2808
Sarebbero molte le decisioni
02:54
Those would be manymolti decisionsdecisioni
55
162712
1579
che ognuno di noi
dovrebbe prendere ogni settimana
02:56
that eachogni personpersona would have to make a weeksettimana
56
164315
2187
su questioni di cui sa poco o niente.
02:58
on topicstemi that they know little about.
57
166526
2142
C'è quindi un problema
di "larghezza di banda cognitiva"
03:01
So there's a biggrande cognitiveconoscitivo
bandwidthla larghezza di banda problemproblema
58
169229
2281
03:03
if we're going to try to think about
directdiretto democracydemocrazia as a viablepraticabile alternativealternativa.
59
171534
3992
se valutiamo la democrazia diretta
come possibile alternativa.
Alcuni considerano l'idea
della democrazia "liquida", o fluida,
03:08
So some people think about the ideaidea
of liquidliquido democracydemocrazia, or fluidfluido democracydemocrazia,
60
176205
4435
ovvero l'idea di passare
il proprio potere politico a qualcun altro
03:12
whichquale is the ideaidea that you endorseavalla
your politicalpolitico powerenergia to someonequalcuno,
61
180664
3776
che può a sua volta
passarlo a qualcun altro
03:16
who can endorseavalla it to someonequalcuno elsealtro,
62
184464
1700
03:18
and, eventuallyinfine, you createcreare
a largegrande followerseguace networkRete
63
186188
2541
e creare così un'ampia rete di seguaci
nella quale, alla fine,
poche persone prendono le decisioni
03:20
in whichquale, at the endfine, there's a fewpochi people
that are makingfabbricazione decisionsdecisioni
64
188753
3294
a nome di tutti i loro seguaci
e dei seguaci dei loro seguaci.
03:24
on behalfper conto of all of theirloro followersseguaci
and theirloro followersseguaci.
65
192071
3143
Ma nemmeno questo risolve
il problema della banda cognitiva,
03:28
But this ideaidea alsoanche doesn't solverisolvere
the problemproblema of the cognitiveconoscitivo bandwidthla larghezza di banda
66
196326
4129
e onestamente assomiglia molto
all'idea di avere un rappresentante.
03:32
and, to be honestonesto, it's alsoanche quiteabbastanza similarsimile
to the ideaidea of havingavendo a representativerappresentante.
67
200479
3877
Quello che voglio fare oggi, quindi,
è lanciarvi una provocazione, e chiedervi:
03:36
So what I'm going to do todayoggi is
I'm going to be a little bitpo provocativeprovocatorio,
68
204795
3468
03:40
and I'm going to askChiedere you, well:
69
208277
2300
e se invece di cercare
di scavalcare i politici
03:42
What if, insteadanziché of tryingprovare
to bypassbypass politicianspolitici,
70
210601
6562
provassimo ad automatizzarli?
03:49
we triedprovato to automateautomatizzare them?
71
217187
2200
L'idea dell'automazione non è nuova.
03:57
The ideaidea of automationautomazione is not newnuovo.
72
225871
2926
Risale a più di 300 anni fa,
04:00
It was startediniziato more than 300 yearsanni agofa,
73
228821
2080
quando i tessitori francesi
decisero di automatizzare il telaio.
04:02
when FrenchFrancese weaverstessitori decideddeciso
to automateautomatizzare the loomtelaio.
74
230925
3068
Il vincitore di questa guerra industriale
fu Joseph-Marie Jacquard.
04:06
The winnervincitore of that industrialindustriale warguerra
was Joseph-MarieGiuseppe Maria JacquardJacquard.
75
234820
4360
Era un tessitore e un mercante francese
04:11
He was a FrenchFrancese weaverTessitore and merchantmercante
76
239204
1751
che combinò il telaio e il motore a vapore
per creare dei telai autonomi.
04:12
that marriedsposato the loomtelaio
with the steamvapore enginemotore
77
240979
2440
04:15
to createcreare autonomousautonomo loomstelai.
78
243443
2190
E con questi telai autonomi
acquisì il controllo.
04:17
And in those autonomousautonomo loomstelai,
he gainedguadagnato controlcontrollo.
79
245657
2753
A quel punto avrebbe potuto creare
tessuti più complessi, e più sofisticati,
04:20
He could now make fabricstessuti that were
more complexcomplesso and more sophisticatedsofisticato
80
248434
3885
rispetto a quelli fatti a mano.
04:24
than the onesquelli they
were ablecapace to do by handmano.
81
252343
2128
E vincendo questa guerra industriale,
inoltre, gettò anche le basi
04:27
But alsoanche, by winningvincente that industrialindustriale warguerra,
82
255193
2632
04:29
he laidlaid out what has becomediventare
the blueprintBlueprint of automationautomazione.
83
257849
3524
di quello che sarebbe diventato
il modello di ogni automazione.
Negli ultimi 300 anni, l'automazione
ha seguito sempre lo stesso schema:
04:34
The way that we automateautomatizzare things
for the last 300 yearsanni
84
262135
2870
04:37
has always been the samestesso:
85
265029
1382
prima individuiamo un'esigenza,
04:39
we first identifyidentificare a need,
86
267006
2509
poi creiamo uno strumento
che soddisfi tale esigenza,
04:41
then we createcreare a toolstrumento
to satisfysoddisfare that need,
87
269539
3184
come il telaio in questo caso;
04:44
like the loomtelaio, in this casecaso,
88
272747
2040
e infine analizziamo il modo
in cui le persone lo usano
04:46
and then we studystudia how people use that toolstrumento
89
274811
2391
04:49
to automateautomatizzare that userutente.
90
277226
1485
per automatizzare l'utilizzatore.
È così che siamo passati
dal telaio meccanico al telaio autonomo.
04:51
That's how we cameè venuto
from the mechanicalmeccanico loomtelaio
91
279242
3061
04:54
to the autonomousautonomo loomtelaio,
92
282327
1896
E ci sono voluti mille anni.
04:56
and that tookha preso us a thousandmille yearsanni.
93
284247
2120
Oggi, in soli cento anni,
04:58
Now, it's takenprese us only a hundredcentinaio yearsanni
94
286391
2071
abbiamo ripetuto lo stesso "copione"
nell'automazione dell'automobile.
05:00
to use the samestesso scriptscript
to automateautomatizzare the carauto.
95
288486
3211
Il fatto è che questa volta
l'automazione è "reale".
05:05
But the thing is that, this time around,
96
293286
2452
05:07
automationautomazione is kindgenere of for realvero.
97
295762
2129
Questo è un video che ha condiviso con me
un mio collega di Toshiba
05:09
This is a videovideo that a colleaguecollega of mineil mio
from ToshibaToshiba shareddiviso with me
98
297915
3321
che mostra la fabbrica
che produce memorie a stato solido.
05:13
that showsSpettacoli the factoryfabbrica
that manufacturesproduce solidsolido statestato drivesunità.
99
301260
3259
L'intera fabbrica è robotizzata.
05:16
The entireintero factoryfabbrica is a robotrobot.
100
304543
2018
Non ci sono umani in questa fabbrica.
05:18
There are no humansgli esseri umani in that factoryfabbrica.
101
306585
1925
E i robot lasceranno presto le fabbriche
05:21
And the robotsrobot are soonpresto
to leavepartire the factoriesfabbriche
102
309033
2221
e diventeranno parte del nostro mondo,
parte della nostra forza lavoro.
05:23
and becomediventare partparte of our worldmondo,
103
311278
2022
05:25
becomediventare partparte of our workforceforza lavoro.
104
313324
1835
Nel mio lavoro, quindi,
mi occupo di creare strumenti
05:27
So what I do in my day joblavoro
105
315183
1773
05:28
is actuallyin realtà createcreare toolsutensili that integrateintegrare
datadati for entireintero countriespaesi
106
316980
3992
che integrano dati per intere nazioni
per riuscire a disporre
delle basi necessarie
05:32
so that we can ultimatelyin definitiva have
the foundationsfondazioni that we need
107
320996
3466
per un futuro in cui sarà necessario
gestire anche queste macchine.
05:36
for a futurefuturo in whichquale we need
to alsoanche managegestire those machinesmacchine.
108
324486
3687
Ma oggi non sono qui
per parlarvi di questi strumenti
05:41
But todayoggi, I'm not here
to talk to you about these toolsutensili
109
329195
2906
che integrano dati per le nazioni.
05:44
that integrateintegrare datadati for countriespaesi.
110
332125
1824
Sono qui per parlarvi di un'altra idea
05:46
But I'm here to talk to you
about anotherun altro ideaidea
111
334463
2622
che potrebbe aiutarci a infondere
l'IA nella democrazia.
05:49
that mightpotrebbe help us think about how to use
artificialartificiale intelligenceintelligenza in democracydemocrazia.
112
337109
4865
Perché gli strumenti che creo
05:53
Because the toolsutensili that I buildcostruire
are designedprogettato for executiveesecutivo decisionsdecisioni.
113
341998
4733
sono progettati per prendere
decisioni esecutive.
Queste decisioni possono essere prese
con un certo grado di oggettività,
05:58
These are decisionsdecisioni that can be castlanciare
in some sortordinare of termtermine of objectivityobiettività --
114
346755
3842
come le decisioni
sugli investimenti pubblici.
06:02
publicpubblico investmentinvestimento decisionsdecisioni.
115
350621
1745
Ma ci sono decisioni
che sono di carattere legislativo,
06:04
But there are decisionsdecisioni
that are legislativelegislativo,
116
352885
2631
e le decisioni legislative
06:07
and these decisionsdecisioni that are legislativelegislativo
requirerichiedere communicationcomunicazione amongtra people
117
355540
3787
richiedono comunicazione tra persone
con punti di vista diversi,
06:11
that have differentdiverso pointspunti of viewvista,
118
359351
1700
richiedono partecipazione,
richiedono dibattiti,
06:13
requirerichiedere participationpartecipazione, requirerichiedere debatediscussione,
119
361075
2613
richiedono delibere.
06:15
requirerichiedere deliberationdeliberazione.
120
363712
1478
E per molto tempo abbiamo pensato
06:18
And for a long time,
we have thought that, well,
121
366241
2804
che per migliorare la democrazia
servisse maggiore comunicazione.
06:21
what we need to improveMigliorare democracydemocrazia
is actuallyin realtà more communicationcomunicazione.
122
369069
3460
E così, tutte le tecnologie sviluppate
nel contesto della democrazia,
06:24
So all of the technologiestecnologie that we have
advancedAvanzate in the contextcontesto of democracydemocrazia,
123
372553
3709
che fossero i giornali o i social media,
06:28
whetherse they are newspapersgiornali
or whetherse it is socialsociale mediamedia,
124
376286
2778
hanno cercato di offrirci
una maggiore comunicazione.
06:31
have triedprovato to providefornire us
with more communicationcomunicazione.
125
379088
2382
Ma ci siamo già passati,
06:34
But we'venoi abbiamo been down that rabbitconiglio holebuco,
126
382103
1822
e sappiamo che questo
non risolverà il problema,
06:35
and we know that's not
what's going to solverisolvere the problemproblema.
127
383949
2748
perché non è un problema di comunicazione,
ma di "larghezza di banda" cognitiva.
06:38
Because it's not a communicationcomunicazione problemproblema,
128
386721
1996
06:40
it's a cognitiveconoscitivo bandwidthla larghezza di banda problemproblema.
129
388741
1748
E se il problema è
di larghezza di banda cognitiva,
06:42
So if the problemproblema is one
of cognitiveconoscitivo bandwidthla larghezza di banda,
130
390513
2366
06:44
well, addingaggiungendo more communicationcomunicazione to people
131
392903
2587
aggiungere ulteriore comunicazione
non risolverà il problema.
06:47
is not going to be
what's going to solverisolvere it.
132
395514
2744
Quello di cui avremo bisogno, invece,
sono altre tecnologie
06:50
What we are going to need insteadanziché
is to have other technologiestecnologie
133
398282
3113
che ci aiutino a gestire
alcune di quelle comunicazioni
06:53
that help us dealaffare with
some of the communicationcomunicazione
134
401419
3046
di cui siamo sovraccaricati.
06:56
that we are overloadedOverload with.
135
404489
2242
Pensate, ad esempio, a un piccolo avatar,
a un agente software,
06:58
Think of, like, a little avataravatar,
136
406755
1699
07:00
a softwareSoftware agentagente,
137
408478
1339
a un Grillo Parlante digitale
07:01
a digitaldigitale JiminyGrillo parlante CricketCricket --
138
409841
1878
(Risate)
07:03
(LaughterRisate)
139
411743
1238
che sia in grado di rispondere
alle domande per conto nostro.
07:05
that basicallyfondamentalmente is ablecapace
to answerrisposta things on your behalfper conto.
140
413005
4012
Se disponessimo di questa tecnologia,
07:09
And if we had that technologytecnologia,
141
417759
1787
potremmo riuscire a liberarci
di alcune comunicazioni
07:11
we would be ablecapace to offloadscaricare
some of the communicationcomunicazione
142
419570
2478
e magari aiutarci
a prendere decisioni migliori,
07:14
and help, maybe, make better decisionsdecisioni
or decisionsdecisioni at a largerpiù grandi scalescala.
143
422072
4147
o su scala più vasta.
E il punto è che anche l'idea
degli agenti software non è nuova.
07:18
And the thing is that the ideaidea
of softwareSoftware agentsagenti is alsoanche not newnuovo.
144
426860
3719
Li usiamo già tutti i giorni.
07:22
We alreadygià use them all the time.
145
430603
2109
Usiamo gli agenti software
07:25
We use softwareSoftware agentsagenti
146
433216
1521
per scegliere quale percorso prendere
per arrivare a destinazione,
07:26
to choosescegliere the way that we're going
to driveguidare to a certaincerto locationPosizione,
147
434761
3675
la musica che ascolteremo,
07:31
the musicmusica that we're going to listen to
148
439070
2101
oppure per ricevere suggerimenti
sui prossimi libri da leggere.
07:33
or to get suggestionsSuggerimenti
for the nextIl prossimo bookslibri that we should readleggere.
149
441758
3021
C'è un'idea, nel XXI secolo,
07:37
So there is an obviousevidente ideaidea
in the 21stst centurysecolo
150
445994
2574
che è tanto ovvia quanto l'idea
07:40
that was as obviousevidente as the ideaidea
151
448592
2643
di combinare, ai tempi di Jacquard,
un motore a vapore e un telaio.
07:43
of puttingmettendo togetherinsieme a steamvapore enginemotore
with a loomtelaio at the time of JacquardJacquard.
152
451259
5581
E quest'idea è combinare
democrazia diretta e agenti software.
07:49
And that ideaidea is combiningcombinando
directdiretto democracydemocrazia with softwareSoftware agentsagenti.
153
457538
4456
Immaginate per un attimo un mondo
07:54
ImagineImmaginate, for a secondsecondo, a worldmondo
154
462849
2121
in cui, anziché avere un rappresentante,
07:56
in whichquale, insteadanziché of havingavendo
a representativerappresentante that representsrappresenta you
155
464994
3166
che rappresenta voi
e milioni di altre persone,
08:00
and millionsmilioni of other people,
156
468184
1574
potete avere un rappresentante
che rappresenti soltanto voi.
08:01
you can have a representativerappresentante
that representsrappresenta only you,
157
469782
3036
Con le vostre sfaccettate
visioni politiche,
08:05
with your nuancedsfumato politicalpolitico viewsvisualizzazioni --
158
473504
2254
quella strana combinazione
di libertarismo e di liberalismo,
08:07
that weirdstrano combinationcombinazione
of libertarianlibertario and liberalliberale
159
475782
3344
un po' di conservatorismo
su alcune questioni
08:11
and maybe a little bitpo
conservativeprudente on some issuesproblemi
160
479150
2392
e grande progressismo su altre.
08:13
and maybe very progressiveprogressivo on othersaltri.
161
481566
2108
I politici di oggi sono "pacchetti"
e sono pieni di compromessi;
08:15
PoliticiansPolitici nowadaysal giorno d'oggi are packagesPacchetti,
and they're fullpieno of compromisescompromessi.
162
483698
3267
ma potreste avere qualcuno
che rappresenti soltanto voi,
08:18
But you mightpotrebbe have someonequalcuno
that can representrappresentare only you,
163
486989
3634
se siete disposti a rinunciare all'idea
che questo rappresentante sia umano.
08:22
if you are willingdisposto to give up the ideaidea
164
490647
1852
08:24
that that representativerappresentante is a humanumano.
165
492523
2249
Se questo rappresentante
fosse un agente software,
08:27
If that representativerappresentante
is a softwareSoftware agentagente,
166
495229
2082
08:29
we could have a senatesenato that has
as manymolti senatorssenatori as we have citizenscittadini.
167
497335
4170
potremmo avere un Senato composto
da un senatore per cittadino.
E questi senatori saranno in grado
di leggere ogni progetto di legge,
08:33
And those senatorssenatori are going to be ablecapace
to readleggere everyogni billconto
168
501529
2858
08:36
and they're going to be ablecapace
to votevotazione on eachogni one of them.
169
504411
2747
e potranno votare ognuno di essi.
C'è un'idea ovvia, quindi,
che potremmo voler considerare.
08:39
So there's an obviousevidente ideaidea
that maybe we want to considerprendere in considerazione.
170
507822
2956
Ma capisco che, oggi come oggi,
08:42
But I understandcapire that in this day and ageetà,
171
510802
2422
quest'idea possa risultare
un po' inquietante.
08:45
this ideaidea mightpotrebbe be quiteabbastanza scarypauroso.
172
513248
1889
Infatti, pensare a un robot
che viene dal futuro,
08:48
In factfatto, thinkingpensiero of a robotrobot
comingvenuta from the futurefuturo
173
516391
3440
per aiutarci a governare,
08:51
to help us runcorrere our governmentsi governi
174
519855
1673
sembra terrificante.
08:53
soundssuoni terrifyingterrificante.
175
521552
1631
Ma è già successo, in realtà.
08:56
But we'venoi abbiamo been there before.
176
524223
1651
(Risate)
08:57
(LaughterRisate)
177
525898
1273
Ed era davvero un tipo a posto.
08:59
And actuallyin realtà he was quiteabbastanza a nicesimpatico guy.
178
527195
2495
(Risate)
09:03
So what would the JacquardJacquard loomtelaio
versionversione of this ideaidea look like?
179
531677
6434
Come sarebbe la versione
del telaio di Jacquard di quest'idea?
Sarebbe un sistema molto semplice.
09:10
It would be a very simplesemplice systemsistema.
180
538135
1901
Immaginate un sistema
nel quale potete loggarvi,
09:12
ImagineImmaginate a systemsistema that you logceppo in
and you createcreare your avataravatar,
181
540060
3458
creare il vostro avatar
e iniziare ad istruirlo.
09:15
and then you're going
to startinizio trainingformazione your avataravatar.
182
543542
2456
Potete fornire al vostro avatar
le vostre abitudini di lettura,
09:18
So you can providefornire your avataravatar
with your readinglettura habitsabitudini,
183
546022
2682
o connetterlo ai vostri social media;
09:20
or connectCollegare it to your socialsociale mediamedia,
184
548728
1861
oppure potete connetterlo ad altri dati,
09:22
or you can connectCollegare it to other datadati,
185
550613
2408
per esempio sottoponendovi
a dei test psicologici.
09:25
for exampleesempio by takingpresa
psychologicalpsicologico teststest.
186
553045
2272
E il bello è che non c'è nessun inganno.
09:27
And the nicesimpatico thing about this
is that there's no deceptioninganno.
187
555341
2968
Non state fornendo dati per comunicare
con i vostri amici e familiari
09:30
You are not providingfornitura datadati to communicatecomunicare
with your friendsamici and familyfamiglia
188
558333
3339
che verranno poi utilizzati
in un sistema politico.
09:33
that then getsprende used in a politicalpolitico systemsistema.
189
561696
3151
State fornendo dati a un sistema
progettato per essere utilizzato
09:36
You are providingfornitura datadati to a systemsistema
that is designedprogettato to be used
190
564871
3704
per prendere decisioni politiche
per conto vostro.
09:40
to make politicalpolitico decisionsdecisioni
on your behalfper conto.
191
568599
2116
Poi, prendete questi dati
e scegliete un algoritmo d'istruzione,
09:43
Then you take that datadati and you choosescegliere
a trainingformazione algorithmalgoritmo,
192
571264
3980
perché è un mercato aperto
09:47
because it's an openAperto marketplacemercato
193
575268
1563
in cui persone differenti
possono inviare algoritmi differenti
09:48
in whichquale differentdiverso people
can submitSottoscrivi differentdiverso algorithmsalgoritmi
194
576855
2786
per prevedere come voterete
sulla base dei dati che avete fornito.
09:51
to predictpredire how you're going to votevotazione,
basedbasato on the datadati you have providedfornito.
195
579665
4394
E il sistema è aperto,
nessuno controlla gli algoritmi;
09:56
And the systemsistema is openAperto,
so nobodynessuno controlscontrolli the algorithmsalgoritmi;
196
584083
3455
alcuni algoritmi diventano popolari,
mentre altri perdono popolarità.
09:59
there are algorithmsalgoritmi
that becomediventare more popularpopolare
197
587562
2112
10:01
and othersaltri that becomediventare lessDi meno popularpopolare.
198
589698
1723
Infine, potete revisionare l'avatar.
10:03
EventuallyAlla fine, you can auditRevisione contabile the systemsistema.
199
591445
1807
Potete osservarlo all'opera,
10:05
You can see how your avataravatar is workinglavoro.
200
593276
1881
e se vi piace lasciarlo
col pilota automatico.
10:07
If you like it,
you can leavepartire it on autopilotpilota automatico.
201
595181
2152
Se invece volete più controllo,
10:09
If you want to be
a little more controllingcontrollo,
202
597357
2062
potete decidere che vi interpelli
prima di qualsiasi decisione;
10:11
you can actuallyin realtà choosescegliere that they askChiedere you
203
599443
1968
10:13
everyogni time they're going
to make a decisiondecisione,
204
601435
2068
oppure potete optare
per una qualunque via di mezzo.
10:15
or you can be anywheredovunque in betweenfra.
205
603527
1635
Uno dei motivi per cui ricorriamo
così poco alla democrazia, forse,
10:17
One of the reasonsmotivi
why we use democracydemocrazia so little
206
605186
2405
10:19
maypuò be because democracydemocrazia
has a very badcattivo userutente interfaceinterfaccia.
207
607615
3568
è la sua interfaccia utente,
che è davvero pessima.
E se la migliorassimo,
potremmo utilizzarla più spesso.
10:23
And if we improveMigliorare the userutente
interfaceinterfaccia of democracydemocrazia,
208
611207
2483
10:25
we mightpotrebbe be ablecapace to use it more.
209
613714
2127
10:28
Of coursecorso, there's a lot of questionsle domande
that you mightpotrebbe have.
210
616452
3207
Naturalmente, ci sono
tante domande che potreste porvi.
Come istruiamo questi avatar?
10:32
Well, how do you traintreno these avatarsAvatar?
211
620473
2161
10:34
How do you keep the datadati securegarantire la?
212
622658
1894
Come manteniamo i dati al sicuro?
Come facciamo a mantenere diffusi,
e revisionabili, questi sistemi?
10:36
How do you keep the systemssistemi
distributeddistribuito and auditableControllabili?
213
624576
3248
Come può accedervi mia nonna ottantenne,
che non sa usare Internet?
10:39
How about my grandmothernonna,
who'schi è 80 yearsanni oldvecchio
214
627848
2062
10:41
and doesn't know how to use the internetInternet?
215
629946
1960
Fidatevi, le ho sentite tutte.
10:44
TrustFiducia me, I've heardsentito them all.
216
632262
2221
10:46
So when you think about an ideaidea like this,
you have to bewareFate attenzione of pessimistspessimisti
217
634507
4560
Quando si pensa a un'idea come questa
bisogna stare attenti ai pessimisti,
10:51
because they are knownconosciuto to have
a problemproblema for everyogni solutionsoluzione.
218
639091
4319
perché trovano sempre
un problema per ogni soluzione.
(Risate)
10:55
(LaughterRisate)
219
643434
1825
10:57
So I want to inviteinvitare you to think
about the biggerpiù grande ideasidee.
220
645283
3040
Perciò voglio invitarvi
a riflettere sulle idee più grandi.
Le domande che vi ho appena elencato
sono idee piccole,
11:00
The questionsle domande I just showedha mostrato you
are little ideasidee
221
648347
3626
11:03
because they are questionsle domande
about how this would not work.
222
651997
2902
perché sono domande su quello
che potrebbe non funzionare.
11:07
The biggrande ideasidee are ideasidee of:
223
655502
1981
Le idee grandi sono incentrate
sulle altre cose che potremmo fare
se funzionasse davvero.
11:09
What elsealtro can you do with this
224
657507
1807
11:11
if this would happenaccadere to work?
225
659338
1889
Una di queste idee è:
beh, chi scrive le leggi?
11:13
And one of those ideasidee is,
well, who writesscrive the lawslegislazione?
226
661774
3445
Inizialmente, potremmo permettere
agli avatar che abbiamo già
11:17
In the beginninginizio, we could have
the avatarsAvatar that we alreadygià have,
227
665854
4223
di votare le leggi scritte dai senatori
o dai politici che abbiamo già.
11:22
votingvoto on lawslegislazione that are writtenscritto
by the senatorssenatori or politicianspolitici
228
670101
3497
11:25
that we alreadygià have.
229
673622
1351
11:27
But if this were to work,
230
675491
1714
Ma se funzionasse,
potremmo scrivere un algoritmo
11:29
you could writeScrivi an algorithmalgoritmo
231
677902
2350
che potrebbe provare a scrivere una legge
11:32
that could try to writeScrivi a lawlegge
232
680276
2150
che otterrebbe una certa
percentuale di approvazione.
11:34
that would get a certaincerto
percentagepercentuale of approvalapprovazione,
233
682450
2421
11:36
and you could reverseinverso the processprocesso.
234
684895
1782
E così il processo si invertirebbe.
11:38
Now, you mightpotrebbe think that this ideaidea
is ludicrousridicolo and we should not do it,
235
686701
3512
Potreste ridicolizzare quest'idea,
e pensare di opporvi;
ma non potete negare
che sia un'idea fattibile
11:42
but you cannotnon può denynegare that it's an ideaidea
that is only possiblepossibile
236
690237
2786
solo in un mondo in cui la democrazia
diretta e gli agenti software
11:45
in a worldmondo in whichquale directdiretto democracydemocrazia
and softwareSoftware agentsagenti
237
693047
3020
sono una possibile
forma di partecipazione.
11:48
are a viablepraticabile formmodulo of participationpartecipazione.
238
696091
2656
Come diamo inizio a questa rivoluzione?
11:52
So how do we startinizio the revolutionrivoluzione?
239
700596
2753
Non possiamo avviare questa rivoluzione
con picchetti o proteste,
11:56
We don't startinizio this revolutionrivoluzione
with picketpicchetto fencesrecinzioni or protestsproteste
240
704238
3310
o chiedendo ai nostri politici attuali
di trasformarsi in robot,
11:59
or by demandingesigente our currentattuale politicianspolitici
to be changedcambiato into robotsrobot.
241
707572
4190
perché non funzionerebbe.
12:03
That's not going to work.
242
711786
1549
La mia idea è molto più semplice,
12:05
This is much more simplesemplice,
243
713359
1612
molto più lenta
12:06
much slowerPiù lentamente
244
714995
1159
e molto più modesta di così,.
12:08
and much more humbleumile.
245
716178
1414
Diamo inizio a questa rivoluzione
creando sistemi semplici come questo
12:09
We startinizio this revolutionrivoluzione by creatingla creazione di
simplesemplice systemssistemi like this in gradGrad schoolsscuole,
246
717616
4349
nelle scuole di specializzazione,
nelle biblioteche e nelle ONG.
12:13
in librarieslibrerie, in nonprofitsorganizzazioni non profit.
247
721989
2094
E cercando di individuare
12:16
And we try to figurefigura out
all of those little questionsle domande
248
724107
2654
tutte quelle piccole domande,
e tutti quei piccoli problemi da risolvere
12:18
and those little problemsi problemi
249
726785
1221
12:20
that we're going to have to figurefigura out
to make this ideaidea something viablepraticabile,
250
728030
3901
per rendere quest'idea
praticabile e degna di fiducia.
12:23
to make this ideaidea something
that we can trustfiducia.
251
731955
2351
E mentre creiamo questi sistemi
12:26
And as we createcreare those systemssistemi that have
a hundredcentinaio people, a thousandmille people,
252
734330
3635
che permetteranno a centinaia, migliaia,
centinaia di migliaia di persone
12:29
a hundredcentinaio thousandmille people votingvoto
in waysmodi that are not politicallypoliticamente bindingassociazione,
253
737989
3770
di votare in modi
non politicamente vincolanti,
acquisiremo fiducia in quest'idea,
12:33
we're going to developsviluppare trustfiducia in this ideaidea,
254
741783
2018
il mondo cambierà
12:35
the worldmondo is going to changemodificare,
255
743825
1519
e quelli che ora sono piccoli,
come mia figlia adesso,
12:37
and those that are as little
as my daughterfiglia is right now
256
745368
2875
12:40
are going to growcrescere up.
257
748267
1337
cresceranno.
E quando mia figlia avrà la mia età,
12:42
And by the time my daughterfiglia is my ageetà,
258
750580
2369
forse quest'idea, che a noi oggi
sembra così assurda,
12:44
maybe this ideaidea, that I know
todayoggi is very crazypazzo,
259
752973
4436
non sarà poi così assurda
per lei e per i suoi amici.
12:49
mightpotrebbe not be crazypazzo to her
and to her friendsamici.
260
757433
4134
12:53
And at that pointpunto,
261
761956
1837
E a quel punto, noi saremo
alla fine della nostra storia.
12:55
we will be at the endfine of our historystoria,
262
763817
2603
Ma loro saranno all'inizio della loro.
12:58
but they will be
at the beginninginizio of theirsloro.
263
766444
2821
Grazie.
13:01
Thank you.
264
769646
1183
(Applausi)
13:02
(ApplauseApplausi)
265
770853
3042
Translated by Silvia Monti
Reviewed by Francesca Cozzitorto

▲Back to top

ABOUT THE SPEAKER
César Hidalgo - Physicist
César Hidalgo studies how teams, cities and nations learn.

Why you should listen

César A. Hidalgo leads the Collective Learning group at The MIT Media Lab and is an associate professor of media arts and sciences at MIT. Hidalgo's work focuses on understanding how teams, organizations, cities and nations learn. At the Collective Learning group, Hidalgo develops software tools to facilitate learning in organizations. His academic publications have been cited more than 10,000 times, and his online systems, including the Observatory of Economic Complexity and DataUSA, have received more than 100 million views and numerous awards.

Hidalgo's latest book, Why Information Grows (2015), has been translated into 10+ languages. He is also the co-author of The Atlas of Economic Complexity (2014) and a co-founder of Datawheel LLC, a company that has professionalized the creation of large data visualization engines.

More profile about the speaker
César Hidalgo | Speaker | TED.com