ABOUT THE SPEAKER
César Hidalgo - Physicist
César Hidalgo studies how teams, cities and nations learn.

Why you should listen

César A. Hidalgo leads the Collective Learning group at The MIT Media Lab and is an associate professor of media arts and sciences at MIT. Hidalgo's work focuses on understanding how teams, organizations, cities and nations learn. At the Collective Learning group, Hidalgo develops software tools to facilitate learning in organizations. His academic publications have been cited more than 10,000 times, and his online systems, including the Observatory of Economic Complexity and DataUSA, have received more than 100 million views and numerous awards.

Hidalgo's latest book, Why Information Grows (2015), has been translated into 10+ languages. He is also the co-author of The Atlas of Economic Complexity (2014) and a co-founder of Datawheel LLC, a company that has professionalized the creation of large data visualization engines.

More profile about the speaker
César Hidalgo | Speaker | TED.com
TED2018

César Hidalgo: A bold idea to replace politicians

César Hidalgo: Een gedurfd idee om politici te vervangen

Filmed:
2,044,328 views

César Hidalgo heeft een radicale suggestie om ons belabberde politieke systeem te herstellen: automatiseer het! In deze provocerende talk schetst hij een gewaagd idee om politici te omzeilen door burgers in staat te stellen gepersonaliseerde AI-vertegenwoordigers te creëren die rechtstreeks deelnemen aan democratische beslissingen. Verken een nieuwe manier om collectieve beslissingen te nemen en breid je begrip van democratie uit.
- Physicist
César Hidalgo studies how teams, cities and nations learn. Full bio

Double-click the English transcript below to play the video.

00:13
Is it just me,
0
1373
1744
Ligt het aan mij
00:15
or are there other people here
1
3141
2332
of zijn er hier nog anderen
00:17
that are a little bitbeetje
disappointedteleurgesteld with democracydemocratie?
2
5497
2344
die een beetje teleurgesteld zijn
in de democratie?
00:20
(ApplauseApplaus)
3
8986
2336
(Applaus)
00:24
So let's look at a fewweinig numbersgetallen.
4
12141
2071
Laten we eens kijken naar wat cijfers.
00:26
If we look acrossaan de overkant the worldwereld-,
5
14934
2173
Als we over de hele wereld kijken,
00:29
the medianmediaan- turnoutopkomst
in presidentialpresidentiële electionsverkiezingen
6
17131
3892
dan was de gemiddelde opkomst
bij presidentsverkiezingen
00:33
over the last 30 yearsjaar
7
21047
1651
in de afgelopen 30 jaar
00:34
has been just 67 percentprocent.
8
22722
2622
slechts 67 procent.
00:38
Now, if we go to EuropeEuropa
9
26329
1973
Als we in Europa kijken
00:40
and we look at people that participateddeelgenomen
in EUEU parliamentaryparlementaire electionsverkiezingen,
10
28326
4428
naar de mensen die deelnamen
aan de parlementsverkiezingen van de EU,
00:44
the medianmediaan- turnoutopkomst in those electionsverkiezingen
11
32778
2071
dan was de gemiddelde opkomst
bij deze verkiezingen
00:46
is just 42 percentprocent.
12
34873
2104
slechts 42 procent.
00:50
Now let's go to NewNieuw YorkYork,
13
38125
1669
Laten we nu eens naar New York gaan
00:51
and let's see how manyveel people votedgestemd
in the last electionverkiezing for mayorburgemeester.
14
39818
4681
en kijken hoeveel mensen stemden
voor de laatste verkiezingen
voor een burgemeester.
00:56
We will find that only
24 percentprocent of people showedtoonden up to votestemmen.
15
44523
3817
We zien dat slechts 24% van de mensen
kwamen opdagen om te stemmen.
01:01
What that meansmiddelen is that,
if "FriendsVrienden" was still runninglopend,
16
49063
3095
Dat zou betekenen
dat als ‘Friends’ nog zou lopen,
01:04
JoeyJoey and maybe PhoebePhoebe
would have showngetoond up to votestemmen.
17
52182
3348
Joey en misschien Phoebe
zouden zijn gaan stemmen.
01:07
(LaughterGelach)
18
55554
1290
(Gelach)
01:09
And you cannotkan niet blameschuld them
because people are tiredmoe of politicianspolitici.
19
57434
4426
Je kunt het ze niet kwalijk nemen,
want de mensen zijn politici beu.
En de mensen zijn het beu
01:13
And people are tiredmoe of other people
usinggebruik makend van the datagegevens that they have generatedgegenereerd
20
61884
3887
dat hun communicatie met vrienden
en familie door anderen gebruikt wordt
01:17
to communicatecommuniceren with
theirhun friendsvrienden and familyfamilie,
21
65795
2198
om politieke propaganda
naar hen te versturen.
01:20
to targetdoel politicalpolitiek propagandapropaganda at them.
22
68017
2094
01:22
But the thing about this
is that this is not newnieuwe.
23
70519
2728
Maar dat is geenszins nieuw.
Tegenwoordig gebruiken ze nog eerder
‘likes’ om propaganda naar je te versturen
01:25
NowadaysTegenwoordig, people use likessympathieën
to targetdoel propagandapropaganda at you
24
73271
3225
01:28
before they use your zipritssluiting codecode
or your gendergeslacht or your ageleeftijd,
25
76520
3373
dan dat ze gebruik maken
van je postcode, geslacht of leeftijd,
01:31
because the ideaidee of targetinggericht op people
with propagandapropaganda for politicalpolitiek purposesdoeleinden
26
79917
3570
omdat het idee om naar mensen propaganda
voor politieke doeleinden te sturen
01:35
is as oldoud as politicspolitiek.
27
83511
1592
zo oud is als de politiek zelf.
01:37
And the reasonreden why that ideaidee is there
28
85530
2278
En dat komt
01:39
is because democracydemocratie
has a basicbasis- vulnerabilitykwetsbaarheid.
29
87832
3472
omdat de democratie
een fundamentele kwetsbaarheid heeft.
01:43
This is the ideaidee of a representativevertegenwoordiger.
30
91710
1932
Dat is het idee van de vertegenwoordiger.
01:46
In principlebeginsel, democracydemocratie is the abilityvermogen
of people to exertoefenen powermacht.
31
94049
3944
In principe is democratie het vermogen
van mensen om macht uit te oefenen.
01:50
But in practicepraktijk, we have to delegatedelegeren
that powermacht to a representativevertegenwoordiger
32
98017
3818
Maar in de praktijk delegeren we
die macht aan een vertegenwoordiger
01:53
that can exertoefenen that powermacht for us.
33
101859
2255
die die macht uitoefent voor ons.
01:56
That representativevertegenwoordiger is a bottleneckbottleneck,
34
104561
1825
Die vertegenwoordiger is een pijnpunt,
01:58
or a weakzwak spotplek.
35
106410
1297
een zwakke plek.
01:59
It is the placeplaats that you want to targetdoel
if you want to attackaanval democracydemocratie
36
107731
3949
Daarop richt je je als je
de democratie wil aanvallen,
02:03
because you can capturevangst democracydemocratie
by eithereen van beide capturingcapturing that representativevertegenwoordiger
37
111704
3489
want democratie kan je controleren
ofwel via deze vertegenwoordiger,
02:07
or capturingcapturing the way
that people chooseKiezen it.
38
115217
2148
ofwel door de manier
waarop mensen kiezen.
02:10
So the biggroot questionvraag is:
39
118065
1416
Dus is de grote vraag:
02:11
Is this the endeinde of historygeschiedenis?
40
119505
1704
Is dit het einde van de geschiedenis?
02:13
Is this the bestbeste that we can do
41
121989
3103
Is dit het beste dat we kunnen
02:17
or, actuallywerkelijk, are there alternativesalternatieven?
42
125878
3067
of zijn er nog alternatieven?
02:22
Some people have been thinkinghet denken
about alternativesalternatieven,
43
130130
2354
Sommige dachten na over alternatieven
02:24
and one of the ideasideeën that is out there
is the ideaidee of directdirect democracydemocratie.
44
132508
3679
en een van de ideeën
is die van directe democratie:
02:28
This is the ideaidee of bypassingomzeilen
politicianspolitici completelyhelemaal
45
136790
2479
het idee om politici te passeren
02:31
and havingmet people votestemmen directlydirect on issueskwesties,
46
139293
2403
en mensen direct
te laten stemmen over kwesties,
02:33
havingmet people votestemmen directlydirect on billsbiljetten.
47
141720
2265
om mensen rechtstreeks
over wetten te laten stemmen.
02:36
But this ideaidee is naivenaief
48
144415
1336
Maar dit idee is naïef,
02:37
because there's too manyveel things
that we would need to chooseKiezen.
49
145775
3171
omdat we over te veel dingen
zouden moeten stemmen.
02:40
If you look at the 114thth US CongressCongres,
50
148970
2782
Als je kijkt naar
het 114e Amerikaanse Congres,
02:43
you will have seengezien that
the HouseHuis of RepresentativesVertegenwoordigers
51
151776
2487
zie je dat het Huis van Afgevaardigden
02:46
consideredbeschouwd more than 6,000 billsbiljetten,
52
154287
2889
meer dan 6.000
en de Senaat meer dan 3.000
wetsvoorstellen moest bekijken,
02:49
the SenateSenaat consideredbeschouwd
more than 3,000 billsbiljetten
53
157200
2656
02:51
and they approvedaangenomen more than 300 lawswetten.
54
159880
2808
en meer dan 300 wetten goedkeurde.
02:54
Those would be manyveel decisionsbeslissingen
55
162712
1579
Dat zouden veel beslissingen zijn
02:56
that eachelk personpersoon would have to make a weekweek
56
164315
2187
waar iedereen tijd in zou moeten steken
02:58
on topicstopics that they know little about.
57
166526
2142
inzake kwesties waar ze weinig over weten.
Dus is er een groot probleem
van cognitieve bandbreedte
03:01
So there's a biggroot cognitivecognitieve
bandwidthbandbreedte problemprobleem
58
169229
2281
03:03
if we're going to try to think about
directdirect democracydemocratie as a viablerendabel alternativealternatief.
59
171534
3992
als we nadenken over directe democratie
als levensvatbaar alternatief.
03:08
So some people think about the ideaidee
of liquidvloeistof democracydemocratie, or fluidvloeistof democracydemocratie,
60
176205
4435
Daarom denken sommigen na
over het idee van vloeibare democratie,
of vloeistofdemocratie,
03:12
whichwelke is the ideaidee that you endorseinstemmen met
your politicalpolitiek powermacht to someoneiemand,
61
180664
3776
waarbij je je politieke macht
aan iemand doorgeeft,
die ze dan weer
aan iemand anders doorgeeft,
03:16
who can endorseinstemmen met it to someoneiemand elseanders,
62
184464
1700
03:18
and, eventuallytenslotte, you createcreëren
a largegroot followervolgeling networknetwerk
63
186188
2541
en je uiteindelijk
een groot volgersnetwerk creëert
03:20
in whichwelke, at the endeinde, there's a fewweinig people
that are makingmaking decisionsbeslissingen
64
188753
3294
waarbij aan het einde enkele mensen
de beslissingen nemen
03:24
on behalfnamens of all of theirhun followersvolgelingen
and theirhun followersvolgelingen.
65
192071
3143
namens al hun volgelingen,
en hún volgelingen.
03:28
But this ideaidee alsoook doesn't solveoplossen
the problemprobleem of the cognitivecognitieve bandwidthbandbreedte
66
196326
4129
Maar dit idee lost ook niet het probleem
van de cognitieve bandbreedte op
en, om eerlijk te zijn,
03:32
and, to be honesteerlijk, it's alsoook quiteheel similarsoortgelijk
to the ideaidee of havingmet a representativevertegenwoordiger.
67
200479
3877
lijkt het ook behoorlijk veel
op het idee van een vertegenwoordiger.
03:36
So what I'm going to do todayvandaag is
I'm going to be a little bitbeetje provocativeprovocerende,
68
204795
3468
Daarom ga ik vandaag een beetje provoceren
03:40
and I'm going to askvragen you, well:
69
208277
2300
en jullie vragen:
03:42
What if, insteadin plaats daarvan of tryingproberen
to bypassBypass politicianspolitici,
70
210601
6562
wat als we nu eens in plaats
van politici te omzeilen,
03:49
we triedbeproefd to automateautomatiseren them?
71
217187
2200
we ze proberen te automatiseren?
03:57
The ideaidee of automationautomatisering is not newnieuwe.
72
225871
2926
Het idee van automatisering is niet nieuw.
04:00
It was startedbegonnen more than 300 yearsjaar agogeleden,
73
228821
2080
Het ontstond meer dan 300 jaar geleden
04:02
when FrenchFrans weaverswevers decidedbeslist
to automateautomatiseren the loomloom.
74
230925
3068
toen Franse wevers besloten
om het weefgetouw te automatiseren.
04:06
The winnerwinnaar of that industrialindustrieel waroorlog
was Joseph-MarieJoseph-Marie JacquardJacquard.
75
234820
4360
De winnaar van die industriële oorlog
was Joseph-Marie Jacquard.
04:11
He was a FrenchFrans weaverWeaver and merchanthandelaar
76
239204
1751
Hij was een Franse wever en handelaar
04:12
that marriedgetrouwd the loomloom
with the steamstoom- enginemotor
77
240979
2440
die het weefgetouw combineerde
met de stoommachine
04:15
to createcreëren autonomousautonoom loomsweefgetouwen.
78
243443
2190
om autonome weefgetouwen te creëren.
04:17
And in those autonomousautonoom loomsweefgetouwen,
he gainedopgedaan controlcontrole.
79
245657
2753
En die autonome weefgetouwen
kon hij controleren.
04:20
He could now make fabricsstoffen that were
more complexcomplex and more sophisticatedgeavanceerde
80
248434
3885
Hij kon nu complexere
en geavanceerdere stoffen maken
04:24
than the onesdegenen they
were ablein staat to do by handhand-.
81
252343
2128
dan degenen die dat manueel deden.
04:27
But alsoook, by winningwinnend that industrialindustrieel waroorlog,
82
255193
2632
Maar door het winnen
van die industriële oorlog
04:29
he laidlaid out what has becomeworden
the blueprintblauwdruk of automationautomatisering.
83
257849
3524
legde hij ook de grondslagen
van de automatisering.
04:34
The way that we automateautomatiseren things
for the last 300 yearsjaar
84
262135
2870
De manier waarop we
de laatste 300 jaar dingen automatiseren,
04:37
has always been the samedezelfde:
85
265029
1382
is altijd dezelfde gebleven:
04:39
we first identifyidentificeren a need,
86
267006
2509
eerst een behoefte identificeren,
04:41
then we createcreëren a toolgereedschap
to satisfyvoldoen that need,
87
269539
3184
dan een werktuig creëren
om aan die behoefte te voldoen,
04:44
like the loomloom, in this casegeval,
88
272747
2040
zoals in dit geval het weefgetouw,
04:46
and then we studystudie how people use that toolgereedschap
89
274811
2391
en dan onderzoeken
hoe mensen dat werktuig gebruiken
04:49
to automateautomatiseren that usergebruiker.
90
277226
1485
om die gebruiker te automatiseren.
04:51
That's how we camekwam
from the mechanicalmechanisch loomloom
91
279242
3061
Zo ontstond het mechanische weefgetouw,
04:54
to the autonomousautonoom loomloom,
92
282327
1896
het autonome weefgetouw.
04:56
and that tooknam us a thousandduizend yearsjaar.
93
284247
2120
Dat kostte ons zowat duizend jaar.
04:58
Now, it's takeningenomen us only a hundredhonderd yearsjaar
94
286391
2071
Het kostte ons slechts honderd jaar
05:00
to use the samedezelfde scriptscript
to automateautomatiseren the carauto.
95
288486
3211
om op dezelfde manier
de auto te automatiseren.
05:05
But the thing is that, this time around,
96
293286
2452
Maar dit keer is het wel
echt automatiseren.
05:07
automationautomatisering is kindsoort of for realecht.
97
295762
2129
05:09
This is a videovideo- that a colleaguecollega of minede mijne
from ToshibaToshiba sharedgedeelde with me
98
297915
3321
Dit is een video van een collega
van me bij Toshiba,
05:13
that showsshows the factoryfabriek
that manufacturesproduceert solidsolide statestaat drivesdrives.
99
301260
3259
over een fabriek
die solid state drives produceert.
05:16
The entiregeheel factoryfabriek is a robotrobot.
100
304543
2018
De gehele fabriek is een robot.
05:18
There are no humansmensen in that factoryfabriek.
101
306585
1925
Er zijn geen mensen in die fabriek.
En de robots zullen al snel
de fabrieken verlaten,
05:21
And the robotsrobots are soonspoedig
to leavehet verlof the factoriesfabrieken
102
309033
2221
05:23
and becomeworden partdeel of our worldwereld-,
103
311278
2022
deel gaan uitmaken van onze wereld
05:25
becomeworden partdeel of our workforcepersoneelsbestand.
104
313324
1835
en medewerkers worden.
05:27
So what I do in my day jobbaan
105
315183
1773
Het is mijn werk
05:28
is actuallywerkelijk createcreëren toolsgereedschap that integrateintegreren
datagegevens for entiregeheel countrieslanden
106
316980
3992
tools te creëren die gegevens
voor hele landen integreren,
05:32
so that we can ultimatelytenslotte have
the foundationsstichtingen that we need
107
320996
3466
zodat we eindelijk de fundamenten
krijgen die we nodig hebben
05:36
for a futuretoekomst in whichwelke we need
to alsoook managebeheren those machinesmachines.
108
324486
3687
voor een toekomst waarin we
ook die machines moeten beheren.
05:41
But todayvandaag, I'm not here
to talk to you about these toolsgereedschap
109
329195
2906
Maar vandaag ga ik
het niet hebben over tools
05:44
that integrateintegreren datagegevens for countrieslanden.
110
332125
1824
die gegevens integreren voor landen.
05:46
But I'm here to talk to you
about anothereen ander ideaidee
111
334463
2622
Ik kom hier praten over een ander idee:
05:49
that mightmacht help us think about how to use
artificialkunstmatig intelligenceintelligentie- in democracydemocratie.
112
337109
4865
hoe we kunstmatige intelligentie
kunnen gebruiken in de democratie.
05:53
Because the toolsgereedschap that I buildbouwen
are designedontworpen for executiveuitvoerend decisionsbeslissingen.
113
341998
4733
Omdat de tools die ik maak,
ontworpen zijn voor uitvoeringsbesluiten.
05:58
These are decisionsbeslissingen that can be castgegoten
in some sortsoort of termtermijn of objectivityobjectiviteit --
114
346755
3842
Dit zijn beslissingen
met een zekere vorm van objectiviteit --
beslissingen over publieke investering.
06:02
publicopenbaar investmentinvestering decisionsbeslissingen.
115
350621
1745
06:04
But there are decisionsbeslissingen
that are legislativewetgevende,
116
352885
2631
Maar er zijn beslissingen
die wetgevend zijn
06:07
and these decisionsbeslissingen that are legislativewetgevende
requirevereisen communicationcommunicatie amongtussen people
117
355540
3787
en die wetgevende besluiten
vereisen communicatie tussen mensen
06:11
that have differentverschillend pointspoints of viewuitzicht,
118
359351
1700
met verschillende perspectieven,
06:13
requirevereisen participationdeelname, requirevereisen debatedebat,
119
361075
2613
vereisen participatie, vereisen debat,
06:15
requirevereisen deliberationoverleg.
120
363712
1478
vereisen overleg.
06:18
And for a long time,
we have thought that, well,
121
366241
2804
Lange tijd dachten we
dat we om de democratie te verbeteren
gewoon meer communicatie nodig hebben.
06:21
what we need to improveverbeteren democracydemocratie
is actuallywerkelijk more communicationcommunicatie.
122
369069
3460
06:24
So all of the technologiestechnologieën that we have
advancedgevorderd in the contextcontext of democracydemocratie,
123
372553
3709
Dus alle hulpmiddelen die belangrijk
zijn geworden voor de democratie,
of het nu kranten of sociale media zijn,
06:28
whetherof they are newspaperskranten
or whetherof it is socialsociaal mediamedia,
124
376286
2778
zijn ons méér communicatie
gaan verstrekken.
06:31
have triedbeproefd to providevoorzien us
with more communicationcommunicatie.
125
379088
2382
Maar van dat vaatje hadden we al getapt
06:34
But we'vewij hebben been down that rabbitkonijn holegat,
126
382103
1822
06:35
and we know that's not
what's going to solveoplossen the problemprobleem.
127
383949
2748
en we weten dat dat
ons probleem niet gaat oplossen.
06:38
Because it's not a communicationcommunicatie problemprobleem,
128
386721
1996
Omdat het geen communicatieprobleem is,
maar een van cognitieve bandbreedte.
06:40
it's a cognitivecognitieve bandwidthbandbreedte problemprobleem.
129
388741
1748
06:42
So if the problemprobleem is one
of cognitivecognitieve bandwidthbandbreedte,
130
390513
2366
Als het probleem er een is
van cognitieve bandbreedte,
06:44
well, addingtoe te voegen more communicationcommunicatie to people
131
392903
2587
dan gaat méér communicatie met mensen
06:47
is not going to be
what's going to solveoplossen it.
132
395514
2744
het niet oplossen.
06:50
What we are going to need insteadin plaats daarvan
is to have other technologiestechnologieën
133
398282
3113
In plaats daarvan gaan we
andere technologieën nodig hebben
06:53
that help us dealtransactie with
some of the communicationcommunicatie
134
401419
3046
om ons te helpen omgaan
06:56
that we are overloadedoverbelast with.
135
404489
2242
met een teveel aan communicatie.
06:58
Think of, like, a little avataravatar,
136
406755
1699
Denk bijvoorbeeld aan een kleine avatar,
07:00
a softwaresoftware agentagent,
137
408478
1339
een software-agent,
07:01
a digitaldigitaal JiminyJiminy CricketCricket --
138
409841
1878
een digitale Japie Krekel --
07:03
(LaughterGelach)
139
411743
1238
(Gelach)
07:05
that basicallyeigenlijk is ablein staat
to answerantwoord things on your behalfnamens.
140
413005
4012
die in principe in jouw plaats
antwoorden kan geven.
07:09
And if we had that technologytechnologie,
141
417759
1787
En als we die technologie hadden,
07:11
we would be ablein staat to offloadafladen
some of the communicationcommunicatie
142
419570
2478
konden we een deel
van de communicatie delegeren
07:14
and help, maybe, make better decisionsbeslissingen
or decisionsbeslissingen at a largergrotere scaleschaal.
143
422072
4147
en misschien betere beslissingen
of grotere beslissingen nemen.
07:18
And the thing is that the ideaidee
of softwaresoftware agentsagenten is alsoook not newnieuwe.
144
426860
3719
Dat idee van software-agenten
is niet eens nieuw.
07:22
We alreadynu al use them all the time.
145
430603
2109
We gebruiken ze al de hele tijd.
07:25
We use softwaresoftware agentsagenten
146
433216
1521
We gebruiken software-agenten
07:26
to chooseKiezen the way that we're going
to driverijden to a certainzeker locationplaats,
147
434761
3675
om ergens naartoe te rijden,
07:31
the musicmuziek- that we're going to listen to
148
439070
2101
om muziek uit te kiezen
07:33
or to get suggestionsSuggesties
for the nextvolgende booksboeken that we should readlezen.
149
441758
3021
of om suggesties voor boeken te krijgen.
07:37
So there is an obviousduidelijk ideaidee
in the 21stst centuryeeuw
150
445994
2574
Dus het is voor de 21e eeuw
vanzelfsprekend idee,
net zo vanzelfsprekend
07:40
that was as obviousduidelijk as the ideaidee
151
448592
2643
als het idee van het combineren
van stoommachine en weefgetouw was
07:43
of puttingzetten togethersamen a steamstoom- enginemotor
with a loomloom at the time of JacquardJacquard.
152
451259
5581
in de tijd van van Jacquard.
07:49
And that ideaidee is combiningcombineren
directdirect democracydemocratie with softwaresoftware agentsagenten.
153
457538
4456
Dat idee is het combineren
van directe democratie
met software-agenten.
07:54
ImagineStel je voor, for a secondtweede, a worldwereld-
154
462849
2121
Stel je even een wereld voor
waarbij in plaats van het hebben
van een vertegenwoordiger
07:56
in whichwelke, insteadin plaats daarvan of havingmet
a representativevertegenwoordiger that representsvertegenwoordigt you
155
464994
3166
die jou en miljoenen
anderen vertegenwoordigt,
08:00
and millionsmiljoenen of other people,
156
468184
1574
08:01
you can have a representativevertegenwoordiger
that representsvertegenwoordigt only you,
157
469782
3036
je er een kan hebben
die alleen jou vertegenwoordigt,
met je eigen genuanceerde
politieke opvattingen --
08:05
with your nuancedgenuanceerd politicalpolitiek viewskeer bekeken --
158
473504
2254
08:07
that weirdvreemd combinationcombinatie
of libertarianLibertarian and liberalliberale
159
475782
3344
die rare combinatie
van libertair en liberaal
en misschien een beetje
conservatief op sommige punten,
08:11
and maybe a little bitbeetje
conservativeconservatief on some issueskwesties
160
479150
2392
08:13
and maybe very progressiveprogressief on othersanderen.
161
481566
2108
en op andere misschien
zeer vooruitstrevend.
08:15
PoliticiansPolitici nowadaysvandaag de dag are packagespakketjes,
and they're fullvol of compromisescompromissen.
162
483698
3267
Politici zijn tegenwoordig
pakketten vol compromissen.
08:18
But you mightmacht have someoneiemand
that can representvertegenwoordigen only you,
163
486989
3634
Maar iemand zou alleen jou
kunnen vertegenwoordigen,
08:22
if you are willinggewillig to give up the ideaidee
164
490647
1852
als je bereid bent het idee op te geven
08:24
that that representativevertegenwoordiger is a humanmenselijk.
165
492523
2249
dat die vertegenwoordiger een mens is.
08:27
If that representativevertegenwoordiger
is a softwaresoftware agentagent,
166
495229
2082
Als die vertegenwoordiger
een software-agent is,
08:29
we could have a senatesenaat that has
as manyveel senatorssenatoren as we have citizensburgers.
167
497335
4170
kunnen we een senaat hebben
met evenveel senatoren als burgers.
08:33
And those senatorssenatoren are going to be ablein staat
to readlezen everyelk billBill
168
501529
2858
En die senatoren konden
elk wetsvoorstel lezen
08:36
and they're going to be ablein staat
to votestemmen on eachelk one of them.
169
504411
2747
en over elk ervan stemmen.
08:39
So there's an obviousduidelijk ideaidee
that maybe we want to consideroverwegen.
170
507822
2956
Dus een voor de hand liggend idee
dat we misschien willen overwegen.
08:42
But I understandbegrijpen that in this day and ageleeftijd,
171
510802
2422
Maar ik begrijp dat op dit moment
08:45
this ideaidee mightmacht be quiteheel scaryeng.
172
513248
1889
dit idee wel heel erg eng kan overkomen.
08:48
In factfeit, thinkinghet denken of a robotrobot
comingkomt eraan from the futuretoekomst
173
516391
3440
Denken aan een robot uit de toekomst
08:51
to help us runrennen our governmentsoverheden
174
519855
1673
om ons te helpen regeren
08:53
soundsklanken terrifyingafschuwelijk.
175
521552
1631
klinkt nogal angstaanjagend.
08:56
But we'vewij hebben been there before.
176
524223
1651
Maar dat hebben we al gehad.
08:57
(LaughterGelach)
177
525898
1273
(Gelach)
08:59
And actuallywerkelijk he was quiteheel a niceleuk guy.
178
527195
2495
En eigenlijk was hij
een heel aardige vent.
09:03
So what would the JacquardJacquard loomloom
versionversie of this ideaidee look like?
179
531677
6434
Hoe zou de 'Jacquards weefgetouw'-versie
van dit idee eruitzien?
09:10
It would be a very simpleeenvoudig systemsysteem.
180
538135
1901
Het zou een zeer eenvoudig systeem zijn.
09:12
ImagineStel je voor a systemsysteem that you loglogboek in
and you createcreëren your avataravatar,
181
540060
3458
Stel je een systeem voor waarop je
je aanmeldt en je avatar creëert,
09:15
and then you're going
to startbegin trainingopleiding your avataravatar.
182
543542
2456
waarna je begint je avatar te trainen.
09:18
So you can providevoorzien your avataravatar
with your readinglezing habitsgewoontes,
183
546022
2682
Je kan je avatar vertrouwd maken
met jouw leesgedrag,
09:20
or connectaansluiten it to your socialsociaal mediamedia,
184
548728
1861
of hem aansluiten op jouw sociale media,
09:22
or you can connectaansluiten it to other datagegevens,
185
550613
2408
of hem voorzien van andere gegevens,
09:25
for examplevoorbeeld by takingnemen
psychologicalpsychologisch teststesten.
186
553045
2272
bijvoorbeeld door het nemen
van psychologische tests.
09:27
And the niceleuk thing about this
is that there's no deceptionbedrog.
187
555341
2968
En het leuke is dat er geen misleiding is.
Je zit geen gegevens te verstrekken
aan je vrienden en familie
09:30
You are not providinghet verstrekken van datagegevens to communicatecommuniceren
with your friendsvrienden and familyfamilie
188
558333
3339
die vervolgens gebruikt worden
in een politiek systeem.
09:33
that then getskrijgt used in a politicalpolitiek systemsysteem.
189
561696
3151
09:36
You are providinghet verstrekken van datagegevens to a systemsysteem
that is designedontworpen to be used
190
564871
3704
Je verstrekt gegevens
aan een systeem dat is ontworpen
om politieke beslissingen
namens jou te nemen.
09:40
to make politicalpolitiek decisionsbeslissingen
on your behalfnamens.
191
568599
2116
09:43
Then you take that datagegevens and you chooseKiezen
a trainingopleiding algorithmalgoritme,
192
571264
3980
Dan kies je vanuit die gegevens
voor een opleidingsalgoritme,
want het is een open markt
09:47
because it's an openOpen marketplacemarktplaats
193
575268
1563
waarin verschillende mensen
verschillende algoritmen kunnen indienen
09:48
in whichwelke differentverschillend people
can submitvoorleggen differentverschillend algorithmsalgoritmen
194
576855
2786
09:51
to predictvoorspellen how you're going to votestemmen,
basedgebaseerde on the datagegevens you have providedvoorzien.
195
579665
4394
om te voorspellen hoe jij gaat stemmen
op basis van de gegevens
die jij hebt verstrekt.
09:56
And the systemsysteem is openOpen,
so nobodyniemand controlscontrols the algorithmsalgoritmen;
196
584083
3455
Het systeem is open,
zodat niemand de algoritmen beheert.
Sommige algoritmen
worden steeds populairder,
09:59
there are algorithmsalgoritmen
that becomeworden more popularpopulair
197
587562
2112
terwijl andere minder populair worden.
10:01
and othersanderen that becomeworden lessminder popularpopulair.
198
589698
1723
10:03
EventuallyUiteindelijk, you can auditaudit the systemsysteem.
199
591445
1807
Uiteindelijk controleer jij het systeem
10:05
You can see how your avataravatar is workingwerkend.
200
593276
1881
en zie je hoe je avatar werkt.
Bevalt hij je, dan kan hij
op de automatische piloot.
10:07
If you like it,
you can leavehet verlof it on autopilotautomatische piloot.
201
595181
2152
10:09
If you want to be
a little more controllinghet controleren,
202
597357
2062
Wil je wat meer controle,
10:11
you can actuallywerkelijk chooseKiezen that they askvragen you
203
599443
1968
dan kun je ervoor kiezen
dat ze je raadplegen
10:13
everyelk time they're going
to make a decisionbesluit,
204
601435
2068
wanneer ze een beslissing gaan nemen --
10:15
or you can be anywhereoveral in betweentussen.
205
603527
1635
of ergens daartussenin.
Dat we de democratie zo weinig gebruiken
10:17
One of the reasonsredenen
why we use democracydemocratie so little
206
605186
2405
10:19
maymei be because democracydemocratie
has a very badslecht usergebruiker interfaceinterface.
207
607615
3568
kan komen door de zeer slechte
gebruikersinterface van de democratie.
10:23
And if we improveverbeteren the usergebruiker
interfaceinterface of democracydemocratie,
208
611207
2483
Als we de gebruikersinterface
van de democratie verbeteren,
10:25
we mightmacht be ablein staat to use it more.
209
613714
2127
gaan we ze misschien meer gebruiken.
10:28
Of courseCursus, there's a lot of questionsvragen
that you mightmacht have.
210
616452
3207
Natuurlijk kan je hier
een hoop vragen bij hebben.
10:32
Well, how do you traintrein these avatarsAvatars?
211
620473
2161
Hoe train je die avatars?
10:34
How do you keep the datagegevens securebeveiligen?
212
622658
1894
Hoe beveilig je de data?
10:36
How do you keep the systemssystemen
distributedgedistribueerd and auditablecontroleerbaar?
213
624576
3248
Hoe houd je de systemen
gedeeld en controleerbaar?
10:39
How about my grandmothergrootmoeder,
who'swie is 80 yearsjaar oldoud
214
627848
2062
Hoe moet het met mijn grootmoeder van 80,
die niet weet hoe
het internet te gebruiken?
10:41
and doesn't know how to use the internetinternet?
215
629946
1960
10:44
TrustVertrouwen me, I've heardgehoord them all.
216
632262
2221
Geloof me, ik heb ze allemaal gehoord.
10:46
So when you think about an ideaidee like this,
you have to bewarePas op of pessimistspessimisten
217
634507
4560
Als je denkt aan een idee als dit,
moet je oppassen voor pessimisten,
10:51
because they are knownbekend to have
a problemprobleem for everyelk solutionoplossing.
218
639091
4319
omdat ze voor elke oplossing
wel een probleem hebben.
10:55
(LaughterGelach)
219
643434
1825
(Gelach)
10:57
So I want to invitenodig uit you to think
about the biggergroter ideasideeën.
220
645283
3040
Ik wil jullie graag uitnodigen
om na te denken over de grotere ideeën.
11:00
The questionsvragen I just showedtoonden you
are little ideasideeën
221
648347
3626
De vragen die ik net liet zien,
zijn kleine ideeën,
11:03
because they are questionsvragen
about how this would not work.
222
651997
2902
omdat het vragen zijn
over hoe dit niet zou werken.
11:07
The biggroot ideasideeën are ideasideeën of:
223
655502
1981
De grote ideeën zijn ideeën over:
11:09
What elseanders can you do with this
224
657507
1807
wat kan je hiermee
11:11
if this would happengebeuren to work?
225
659338
1889
als het zou blijken te werken?
11:13
And one of those ideasideeën is,
well, who writesschrijft the lawswetten?
226
661774
3445
En een van die ideeën is:
wie gaat de wetten schrijven?
11:17
In the beginningbegin, we could have
the avatarsAvatars that we alreadynu al have,
227
665854
4223
In het begin zouden de avatars
die we al hebben,
11:22
votingstemming on lawswetten that are writtengeschreven
by the senatorssenatoren or politicianspolitici
228
670101
3497
kunnen stemmen over wetten
van de hand van de senatoren en politici
11:25
that we alreadynu al have.
229
673622
1351
die we al hebben.
11:27
But if this were to work,
230
675491
1714
Maar als dit zou werken,
11:29
you could writeschrijven an algorithmalgoritme
231
677902
2350
kon je een algoritme schrijven
dat zou kunnen proberen
om een wet te schrijven
11:32
that could try to writeschrijven a lawwet
232
680276
2150
die een bepaald percentage
goedkeuring zou krijgen,
11:34
that would get a certainzeker
percentagepercentage of approvalgoedkeuring,
233
682450
2421
11:36
and you could reverseomgekeerde the processwerkwijze.
234
684895
1782
en kon je het proces omkeren.
11:38
Now, you mightmacht think that this ideaidee
is ludicrousbelachelijk and we should not do it,
235
686701
3512
Nu kan je dit idee belachelijk vinden
waar we maar beter niet aan beginnen,
maar je kunt niet ontkennen
dat het alleen maar mogelijk is
11:42
but you cannotkan niet denyontkennen that it's an ideaidee
that is only possiblemogelijk
236
690237
2786
11:45
in a worldwereld- in whichwelke directdirect democracydemocratie
and softwaresoftware agentsagenten
237
693047
3020
in een wereld waar directe democratie
en software-agenten
11:48
are a viablerendabel formformulier of participationdeelname.
238
696091
2656
een levensvatbare vorm
van participatie zijn.
11:52
So how do we startbegin the revolutionrevolutie?
239
700596
2753
Hoe beginnen we met de revolutie?
11:56
We don't startbegin this revolutionrevolutie
with picketPiket fenceshekken or protestsprotesten
240
704238
3310
We starten deze revolutie niet
met hekken of protesten
11:59
or by demandingveeleisende our currentactueel politicianspolitici
to be changedveranderd into robotsrobots.
241
707572
4190
of door te eisen dat onze huidige politici
veranderd worden in robots.
12:03
That's not going to work.
242
711786
1549
Dat gaat niet werken.
12:05
This is much more simpleeenvoudig,
243
713359
1612
Dit is veel eenvoudiger,
12:06
much slowertragere
244
714995
1159
veel trager
12:08
and much more humblevernederen.
245
716178
1414
en veel bescheidener.
We beginnen met simpele systemen,
zoals in mastersopleidingen,
12:09
We startbegin this revolutionrevolutie by creatinghet creëren van
simpleeenvoudig systemssystemen like this in gradGrad schoolsscholen,
246
717616
4349
12:13
in librariesbibliotheken, in nonprofitsnon-profitorganisaties.
247
721989
2094
in bibliotheken,
in non-profitorganisaties.
12:16
And we try to figurefiguur out
all of those little questionsvragen
248
724107
2654
We proberen om al die kleine vragen
en die kleine problemen te vinden
12:18
and those little problemsproblemen
249
726785
1221
12:20
that we're going to have to figurefiguur out
to make this ideaidee something viablerendabel,
250
728030
3901
om uit te vissen hoe
dit idee levensvatbaar te krijgen,
12:23
to make this ideaidee something
that we can trustvertrouwen.
251
731955
2351
om van dit idee
iets betrouwbaars te maken.
12:26
And as we createcreëren those systemssystemen that have
a hundredhonderd people, a thousandduizend people,
252
734330
3635
En als we systemen creëren
met honderd, duizend,
honderdduizend mensen
12:29
a hundredhonderd thousandduizend people votingstemming
in waysmanieren that are not politicallypolitiek bindingbindende,
253
737989
3770
die stemmen zonder
politiek bindend te zijn,
gaan we vertrouwen krijgen in dit idee.
12:33
we're going to developontwikkelen trustvertrouwen in this ideaidee,
254
741783
2018
12:35
the worldwereld- is going to changeverandering,
255
743825
1519
De wereld gaat veranderen
12:37
and those that are as little
as my daughterdochter is right now
256
745368
2875
en wie zo jong is als mijn dochter nu
12:40
are going to growgroeien up.
257
748267
1337
gaat ermee opgroeien.
12:42
And by the time my daughterdochter is my ageleeftijd,
258
750580
2369
Tegen de tijd dat mijn dochter
zo oud is als ik nu,
12:44
maybe this ideaidee, that I know
todayvandaag is very crazygek,
259
752973
4436
zal dit idee, dat vandaag heel gek klinkt,
12:49
mightmacht not be crazygek to her
and to her friendsvrienden.
260
757433
4134
misschien niet zo gek klinken
voor haar en aan haar vrienden.
12:53
And at that pointpunt,
261
761956
1837
Op dat punt
12:55
we will be at the endeinde of our historygeschiedenis,
262
763817
2603
komen we aan het einde
van onze geschiedenis,
12:58
but they will be
at the beginningbegin of theirshunne.
263
766444
2821
maar begint die van hen.
13:01
Thank you.
264
769646
1183
Dank je.
13:02
(ApplauseApplaus)
265
770853
3042
(Applaus)
Translated by Rik Delaet
Reviewed by Peter Van de Ven

▲Back to top

ABOUT THE SPEAKER
César Hidalgo - Physicist
César Hidalgo studies how teams, cities and nations learn.

Why you should listen

César A. Hidalgo leads the Collective Learning group at The MIT Media Lab and is an associate professor of media arts and sciences at MIT. Hidalgo's work focuses on understanding how teams, organizations, cities and nations learn. At the Collective Learning group, Hidalgo develops software tools to facilitate learning in organizations. His academic publications have been cited more than 10,000 times, and his online systems, including the Observatory of Economic Complexity and DataUSA, have received more than 100 million views and numerous awards.

Hidalgo's latest book, Why Information Grows (2015), has been translated into 10+ languages. He is also the co-author of The Atlas of Economic Complexity (2014) and a co-founder of Datawheel LLC, a company that has professionalized the creation of large data visualization engines.

More profile about the speaker
César Hidalgo | Speaker | TED.com