ABOUT THE SPEAKER
César Hidalgo - Physicist
César Hidalgo studies how teams, cities and nations learn.

Why you should listen

César A. Hidalgo leads the Collective Learning group at The MIT Media Lab and is an associate professor of media arts and sciences at MIT. Hidalgo's work focuses on understanding how teams, organizations, cities and nations learn. At the Collective Learning group, Hidalgo develops software tools to facilitate learning in organizations. His academic publications have been cited more than 10,000 times, and his online systems, including the Observatory of Economic Complexity and DataUSA, have received more than 100 million views and numerous awards.

Hidalgo's latest book, Why Information Grows (2015), has been translated into 10+ languages. He is also the co-author of The Atlas of Economic Complexity (2014) and a co-founder of Datawheel LLC, a company that has professionalized the creation of large data visualization engines.

More profile about the speaker
César Hidalgo | Speaker | TED.com
TED2018

César Hidalgo: A bold idea to replace politicians

Cezar Idalgo (César Hidalgo): Odvažna ideja da se zamene političari

Filmed:
2,044,328 views

Cezar Idalgo ima radikalan predlog za popravljanje našeg manjkavog političkog sistema: automatizujmo ga! U ovom provokativnom govoru, opisuje hrabru ideju da se zaobiđu političari, osnaživanjem građana da stvaraju personalizovane zastupnike veštačke inteligencije koji će direktno da učestvuju u demokratskim odlukama. Istražite novi način donošenja kolektivnih odluka i proširite svoje razumevanje demokratije.
- Physicist
César Hidalgo studies how teams, cities and nations learn. Full bio

Double-click the English transcript below to play the video.

00:13
Is it just me,
0
1373
1744
Da li je do mene,
00:15
or are there other people here
1
3141
2332
ili ovde ima i drugih ljudi
00:17
that are a little bitмало
disappointedразочаран with democracyдемократија?
2
5497
2344
koji su malo razočarani u demokratiju?
00:20
(ApplauseAplauz)
3
8986
2336
(Aplauz)
00:24
So let's look at a fewнеколико numbersбројеви.
4
12141
2071
Pogledajmo neke brojke.
00:26
If we look acrossпреко the worldсвет,
5
14934
2173
Ako pogledamo širom sveta,
00:29
the medianмедиан turnoutodziv birača
in presidentialPredsednički electionsizbori
6
17131
3892
prosečna izlaznost
na predsedničkim izborima
00:33
over the last 30 yearsгодине
7
21047
1651
u proteklih 30 godina
00:34
has been just 67 percentпроценат.
8
22722
2622
je bila svega 67 procenata.
00:38
Now, if we go to EuropeEurope
9
26329
1973
Ako pođemo do Evrope
00:40
and we look at people that participatedучествовали
in EUEU parliamentaryparlamentarni electionsizbori,
10
28326
4428
i pogledamo ljude koji su učestvovali
na parlamentarnim izborima EU,
00:44
the medianмедиан turnoutodziv birača in those electionsizbori
11
32778
2071
prosečna izlaznost na tim izborima
00:46
is just 42 percentпроценат.
12
34873
2104
je svega 42 procenta.
00:50
Now let's go to NewNovi YorkYork,
13
38125
1669
Pođimo sad u Njujork,
00:51
and let's see how manyмноги people votedгласао
in the last electionизбор for mayorградоначелник.
14
39818
4681
i pogledajmo koliko je ljudi glasalo
na poslednjim izborima za gradonačelnika.
00:56
We will find that only
24 percentпроценат of people showedпоказао up to voteгласати.
15
44523
3817
Otkrićemo da se svega 24 procenta
ljudi pojavilo na glasanju.
01:01
What that meansзначи is that,
if "FriendsPrijatelji" was still runningтрчање,
16
49063
3095
To znači da kad bi se i dalje
prikazivali „Prijatelji”,
01:04
JoeyJoey and maybe PhoebePhoebe
would have shownпоказано up to voteгласати.
17
52182
3348
Džoi i možda Fibi
bi se pojavili na glasanju.
01:07
(LaughterSmeh)
18
55554
1290
(Smeh)
01:09
And you cannotне може blameкривицу them
because people are tiredуморан of politiciansполитичари.
19
57434
4426
I ne možete da ih krivite,
jer je ljudima dosta političara.
01:13
And people are tiredуморан of other people
usingКористећи the dataподаци that they have generatedгенерисан
20
61884
3887
I ljudima je dosta drugih ljudi
koji koriste podatke koje su oni stvorili
01:17
to communicateкомуницирајте with
theirњихова friendsпријатељи and familyпородица,
21
65795
2198
da bi razgovarali
sa prijateljima i porodicom,
01:20
to targetциљ politicalполитички propagandapropaganda at them.
22
68017
2094
kako bi usmeravali
političku propagandu na njih.
01:22
But the thing about this
is that this is not newново.
23
70519
2728
Međutim, radi se o tome
da ovo nije novina.
01:25
NowadaysOvih dana, people use likesсвиђа
to targetциљ propagandapropaganda at you
24
73271
3225
Danas ljudi koriste lajkove
radi ciljane propagande ka vama,
01:28
before they use your zipзип codeкод
or your genderпол or your ageстарост,
25
76520
3373
a nekad su koristili poštanski broj,
vaš pol ili vaš uzrast,
01:31
because the ideaидеја of targetingциљање people
with propagandapropaganda for politicalполитички purposesсврхе
26
79917
3570
jer je ideja ciljanja ljudi
u svrhe političke propagande
01:35
is as oldстари as politicsполитика.
27
83511
1592
stara koliko i politika.
01:37
And the reasonразлог why that ideaидеја is there
28
85530
2278
A razlog zašto je ta ideja prisutna
01:39
is because democracyдемократија
has a basicосновно vulnerabilityрањивост.
29
87832
3472
je zato što demokratija
ima osnovnu ranjivost.
01:43
This is the ideaидеја of a representativeпредставник.
30
91710
1932
A radi se o ideji zastupnika.
01:46
In principleпринцип, democracyдемократија is the abilityспособност
of people to exertizvrši powerмоћ.
31
94049
3944
U principu, demokratija je mogućnost
da ljudi vrše vlast.
01:50
But in practiceпракса, we have to delegateDelegat
that powerмоћ to a representativeпредставник
32
98017
3818
U praksi, međutim, moramo
da delegiramo tu moć zastupniku
01:53
that can exertizvrši that powerмоћ for us.
33
101859
2255
koji može da vrši vlast za nas.
01:56
That representativeпредставник is a bottleneckуско грло,
34
104561
1825
Taj zastupnik je usko grlo,
01:58
or a weakслаб spotместо.
35
106410
1297
ili slaba tačka.
01:59
It is the placeместо that you want to targetциљ
if you want to attackнапад democracyдемократија
36
107731
3949
To je mesto koje biste ciljali,
ako želite da napadnete demokratiju,
02:03
because you can captureхватање democracyдемократија
by eitherили capturingхватање that representativeпредставник
37
111704
3489
jer možete da kontrolišete demokratiju
bilo kontrolisanjem tog zastupnika
02:07
or capturingхватање the way
that people chooseизаберите it.
38
115217
2148
ili kontrolisanjem načina
na koji ga ljudi biraju.
Veliko pitanje glasi:
02:10
So the bigвелики questionпитање is:
39
118065
1416
02:11
Is this the endкрај of historyисторија?
40
119505
1704
da li je ovo kraj istorije?
02:13
Is this the bestнајбоље that we can do
41
121989
3103
Da li je ovo najbolje što možemo
02:17
or, actuallyзаправо, are there alternativesalternative?
42
125878
3067
ili zapravo postoje alternative?
02:22
Some people have been thinkingразмишљање
about alternativesalternative,
43
130130
2354
Neki ljudi su razmišljali o alternativama,
02:24
and one of the ideasидеје that is out there
is the ideaидеја of directдиректан democracyдемократија.
44
132508
3679
a jedna od zamisli u opticaju
je zamisao o direktnoj demokratiji.
02:28
This is the ideaидеја of bypassingobilazeći
politiciansполитичари completelyу потпуности
45
136790
2479
Radi se o zamisli zaobilaženja
političara u potpunosti,
02:31
and havingимати people voteгласати directlyдиректно on issuesпитања,
46
139293
2403
gde ljudi direktno glasaju o pitanjima,
02:33
havingимати people voteгласати directlyдиректно on billsрачуне.
47
141720
2265
direktno glasaju za predloge zakona.
02:36
But this ideaидеја is naiveнаивни
48
144415
1336
Međutim, ova ideja je naivna,
02:37
because there's too manyмноги things
that we would need to chooseизаберите.
49
145775
3171
jer ima previše stvari
koje bismo morali da biramo.
02:40
If you look at the 114thтх US CongressKongres,
50
148970
2782
Ako pogledate 114. kongres SAD-a,
02:43
you will have seenвиђено that
the Housekuća of RepresentativesPredstavnici
51
151776
2487
videćete da je Predstavnički dom
02:46
consideredразматрати more than 6,000 billsрачуне,
52
154287
2889
razmatrao preko 6 000 predloga zakona,
02:49
the SenateSenat consideredразматрати
more than 3,000 billsрачуне
53
157200
2656
Senat je razmatrao
preko 3 000 predloga zakona,
02:51
and they approvedодобрена more than 300 lawsЗакони.
54
159880
2808
a odobrili su preko 300 zakona.
02:54
Those would be manyмноги decisionsОдлуке
55
162712
1579
To bi bile brojne odluke
02:56
that eachсваки personособа would have to make a weekНедеља
56
164315
2187
koje bi svaka osoba morala
nedeljno da donese,
02:58
on topicsтеме that they know little about.
57
166526
2142
o temama o kojima malo znaju.
03:01
So there's a bigвелики cognitiveкогнитивни
bandwidthпроток problemпроблем
58
169229
2281
Dakle, imamo veliki problem
sa kognitivnim opsegom
03:03
if we're going to try to think about
directдиректан democracyдемократија as a viableодржив alternativeалтернатива.
59
171534
3992
ako ćemo da razmišljamo o direktnoj
demokratiji kao mogućoj alternativi.
03:08
So some people think about the ideaидеја
of liquidтечност democracyдемократија, or fluidtečnost democracyдемократија,
60
176205
4435
Pa neki ljudi razmatraju ideju
tečne demokratije ili fluidne demokratije,
03:12
whichкоја is the ideaидеја that you endorseodobriti
your politicalполитички powerмоћ to someoneнеко,
61
180664
3776
a to je ideja da date punomoć
za vašu političku moć nekome,
03:16
who can endorseodobriti it to someoneнеко elseдруго,
62
184464
1700
ko može tu punomoć dati nekom drugom,
03:18
and, eventuallyконачно, you createстворити
a largeвелики followersledbenik networkмрежа
63
186188
2541
da biste na kraju stvorili
veliku mrežu pratilaca
03:20
in whichкоја, at the endкрај, there's a fewнеколико people
that are makingстварање decisionsОдлуке
64
188753
3294
u kojoj se na kraju nalazi
nekolicina ljudi koja donosi odluke,
03:24
on behalfу име of all of theirњихова followerspristalice
and theirњихова followerspristalice.
65
192071
3143
u ime svih njihovih pratilaca
i pratilaca tih pratilaca.
03:28
But this ideaидеја alsoтакође doesn't solveреши
the problemпроблем of the cognitiveкогнитивни bandwidthпроток
66
196326
4129
Međutim, ni ova ideja ne rešava
problem kognitivnog opsega,
03:32
and, to be honestпоштен, it's alsoтакође quiteприлично similarслично
to the ideaидеја of havingимати a representativeпредставник.
67
200479
3877
i iskreno, prilično je slična
ideji da imate zastupnika.
03:36
So what I'm going to do todayданас is
I'm going to be a little bitмало provocativepo dnevniku,
68
204795
3468
Zato ću ja danas da budem
malo provokativan,
pa ću vas pitati:
03:40
and I'm going to askпитати you, well:
69
208277
2300
03:42
What if, insteadуместо тога of tryingпокушавајући
to bypassbajpas politiciansполитичари,
70
210601
6562
šta ako bismo umesto pokušavanja
da zaobiđemo političare,
03:49
we triedПокушали to automateAutomatizovanje them?
71
217187
2200
pokušali da ih automatizujemo?
03:57
The ideaидеја of automationAutomatizacija is not newново.
72
225871
2926
Ideja automatizacije nije nova.
04:00
It was startedпочела more than 300 yearsгодине agoпре,
73
228821
2080
Pokrenuta je pre više od 300 godina,
04:02
when Frenchfrancuski weaversTkalje decidedодлучио
to automateAutomatizovanje the loomrazboj.
74
230925
3068
kada su francuski tkači
odlučili da automatizuju razboj.
04:06
The winnerпобедник of that industrialиндустријски warрат
was Joseph-MarieDžozef-Mari JacquardJacquard.
75
234820
4360
Pobednik tog industrijskog rata
je bio Žozef-Mari Žakard.
04:11
He was a Frenchfrancuski weaverWeaver and merchantтрговац
76
239204
1751
On je bio francuski tkalac i trgovac
04:12
that marriedожењен the loomrazboj
with the steamпар engineмотор
77
240979
2440
koji je spojio razboj sa parnim motorom
04:15
to createстворити autonomousаутономно loomsnazire.
78
243443
2190
kako bi napravio automatski razboj.
04:17
And in those autonomousаутономно loomsnazire,
he gainedстекао controlконтрола.
79
245657
2753
Sa tim automatskim razbojima
on je pridobio kontrolu.
04:20
He could now make fabricstkanine that were
more complexкомплекс and more sophisticatedсофистициран
80
248434
3885
Sada je mogao da pravi materijale
koji su složeniji i prefinjeniji
04:24
than the onesоне they
were ableу могуцности to do by handруку.
81
252343
2128
od onih koji su pravljeni ručno.
04:27
But alsoтакође, by winningПобеђивати that industrialиндустријски warрат,
82
255193
2632
Međutim, pobedom u tom industrijskom ratu
04:29
he laidположено out what has becomeпостати
the blueprintnacrt of automationAutomatizacija.
83
257849
3524
postavio je i temelje nečemu
što će postati obrazac automatizacije.
04:34
The way that we automateAutomatizovanje things
for the last 300 yearsгодине
84
262135
2870
Način na koji automatizujemo stvari
u proteklih 300 godina
04:37
has always been the sameисти:
85
265029
1382
je oduvek bio isti:
04:39
we first identifyидентификовати a need,
86
267006
2509
prvo identifikujemo potrebu,
04:41
then we createстворити a toolоруђе
to satisfyзадовољити that need,
87
269539
3184
potom napravimo oruđe
da zadovoljimo potrebu,
04:44
like the loomrazboj, in this caseслучај,
88
272747
2040
poput razboja u ovom slučaju,
04:46
and then we studyстудија how people use that toolоруђе
89
274811
2391
a potom izučavamo
kako ljudi koriste to oruđe
04:49
to automateAutomatizovanje that userкорисник.
90
277226
1485
da bismo automatizovali korisnika.
04:51
That's how we cameДошао
from the mechanicalмеханички loomrazboj
91
279242
3061
Tako smo prešli sa mehaničkog razboja
04:54
to the autonomousаутономно loomrazboj,
92
282327
1896
na automatski razboj,
04:56
and that tookузела us a thousandхиљада yearsгодине.
93
284247
2120
a za to nam je bilo potrebno
hiljadu godina.
04:58
Now, it's takenузети us only a hundredсто yearsгодине
94
286391
2071
Bilo nam je potrebno svega sto godina
05:00
to use the sameисти scriptSkripta
to automateAutomatizovanje the carауто.
95
288486
3211
da korstimo isti scenario
da automatizujemo automobil.
05:05
But the thing is that, this time around,
96
293286
2452
Međutim, radi se o tome da je ovaj put
05:07
automationAutomatizacija is kindкинд of for realправи.
97
295762
2129
automatizacije nekako stvarna.
05:09
This is a videoвидео that a colleagueколега of mineмој
from ToshibaToshiba sharedдељени with me
98
297915
3321
Ovo je snimak koji je moj kolega
iz Tošibe podelio sa mnom.
05:13
that showsпоказује the factoryфабрика
that manufacturesproizvodi solidчврст stateдржава drivesпогони.
99
301260
3259
On pokazuje fabriku
koja proizvodi poluprovodničke diskove.
05:16
The entireцео factoryфабрика is a robotробот.
100
304543
2018
Čitava fabrika je robot.
05:18
There are no humansљуди in that factoryфабрика.
101
306585
1925
Nema ljudi u fabrici.
05:21
And the robotsроботи are soonускоро
to leaveодлази the factoriesфабрике
102
309033
2221
A roboti će uskoro da napuste fabrike
05:23
and becomeпостати partдео of our worldсвет,
103
311278
2022
i da postanu deo našeg sveta,
05:25
becomeпостати partдео of our workforceрадна снага.
104
313324
1835
deo naše radne snage.
05:27
So what I do in my day jobпосао
105
315183
1773
Dakle, moj dnevni posao
05:28
is actuallyзаправо createстворити toolsалати that integrateинтегрирати
dataподаци for entireцео countriesземље
106
316980
3992
je zapravo stvaranje oruđa koja integrišu
podatke celokupnih država
05:32
so that we can ultimatelyна крају have
the foundationstemelje that we need
107
320996
3466
kako bismo na kraju imali potrebne osnove
05:36
for a futureбудућност in whichкоја we need
to alsoтакође manageуправљати those machinesмашине.
108
324486
3687
za budućnost u kojoj moramo
i da upravljamo tim mašinama.
05:41
But todayданас, I'm not here
to talk to you about these toolsалати
109
329195
2906
Međutim, danas nisam ovde
da vam pričam o tim oruđima
05:44
that integrateинтегрирати dataподаци for countriesземље.
110
332125
1824
koja integrišu državne podatke,
05:46
But I'm here to talk to you
about anotherдруги ideaидеја
111
334463
2622
nego sam ovde da govorim
o jednoj drugoj ideji
05:49
that mightМожда help us think about how to use
artificialвештачки intelligenceинтелигенција in democracyдемократија.
112
337109
4865
koja bi nam mogla pomoći u razmišljanju
kako da koristimo
veštačku inteligenciju u demokratiji.
05:53
Because the toolsалати that I buildизградити
are designedдизајниран for executiveизвршни decisionsОдлуке.
113
341998
4733
Jer su oruđa koja sam napravio
dizajnirana za izvršne odluke.
05:58
These are decisionsОдлуке that can be castцаст
in some sortврста of termтермина of objectivityобјективност --
114
346755
3842
To su odluke koje mogu da se donesu
u nekom obliku objektivnosti -
06:02
publicјавно investmentинвестиција decisionsОдлуке.
115
350621
1745
odluke o javnim investicijama.
06:04
But there are decisionsОдлуке
that are legislativezakonodavne,
116
352885
2631
Međutim, postoje zakonodavne odluke,
06:07
and these decisionsОдлуке that are legislativezakonodavne
requireзахтевати communicationкомуникација amongмеђу people
117
355540
3787
a te zakonodavne odluke
zahtevaju komunikaciju među ljudima
06:11
that have differentразличит pointsбодова of viewпоглед,
118
359351
1700
koji imaju različite tačke gledišta,
06:13
requireзахтевати participationучешће, requireзахтевати debateдебате,
119
361075
2613
zahtevaju učešće, debatu,
06:15
requireзахтевати deliberationrazmatranja.
120
363712
1478
zahtevaju razmatranje.
06:18
And for a long time,
we have thought that, well,
121
366241
2804
Dugo vremena smo smatrali da,
kako bismo unapredili demokratiju,
zapravo nam je potrebno više komunikacije.
06:21
what we need to improveпобољшати democracyдемократија
is actuallyзаправо more communicationкомуникација.
122
369069
3460
06:24
So all of the technologiesтехнологије that we have
advancedнапредни in the contextконтекст of democracyдемократија,
123
372553
3709
Pa su sve tehnologije koje smo unapredili
u tom kontekstu demokratije,
bilo da se radi o novinama
ili društvenim mrežama,
06:28
whetherда ли је they are newspapersновине
or whetherда ли је it is socialсоцијално mediaмедији,
124
376286
2778
06:31
have triedПокушали to provideпружити us
with more communicationкомуникација.
125
379088
2382
pokušale da nam obezbede
više komunikacije.
06:34
But we'veми смо been down that rabbitzec holeрупа,
126
382103
1822
Ali već smo prošli tu zamku
i znamo da to neće da reši problem.
06:35
and we know that's not
what's going to solveреши the problemпроблем.
127
383949
2748
Jer se ne radi o problemu u komunikaciji,
06:38
Because it's not a communicationкомуникација problemпроблем,
128
386721
1996
radi se o problemu kognitivnog opsega.
06:40
it's a cognitiveкогнитивни bandwidthпроток problemпроблем.
129
388741
1748
06:42
So if the problemпроблем is one
of cognitiveкогнитивни bandwidthпроток,
130
390513
2366
Ako se radi o problemu
kognitivnog opsega,
06:44
well, addingдодавање more communicationкомуникација to people
131
392903
2587
dodavanje više komunikacije među ljudima
06:47
is not going to be
what's going to solveреши it.
132
395514
2744
neće rešiti problem.
06:50
What we are going to need insteadуместо тога
is to have other technologiesтехнологије
133
398282
3113
Umesto toga će nam biti
potrebne nove tehnologije,
06:53
that help us dealдоговор with
some of the communicationкомуникација
134
401419
3046
koje će nam pomoći da se rešimo
dela ove komunikacije
06:56
that we are overloadedpreopterećen with.
135
404489
2242
kojom smo zatrpani.
06:58
Think of, like, a little avatarаватар,
136
406755
1699
Zamislite na primer, malog avatara,
07:00
a softwareсофтвер agentAgente,
137
408478
1339
softverskog agenta,
07:01
a digitalдигитални JiminyJiminy CricketKriket --
138
409841
1878
digitalnog cvrčka iz Pinokija, Džiminija -
07:03
(LaughterSmeh)
139
411743
1238
(Smeh)
07:05
that basicallyу основи is ableу могуцности
to answerодговор things on your behalfу име.
140
413005
4012
koji je u stanju da odgovara u vaše ime.
07:09
And if we had that technologyтехнологија,
141
417759
1787
Ako bismo imali tu tehnologiju,
07:11
we would be ableу могуцности to offloadоффлоад
some of the communicationкомуникација
142
419570
2478
bili bismo u stanju da se oslobodimo
dela te komunikacije,
07:14
and help, maybe, make better decisionsОдлуке
or decisionsОдлуке at a largerвеће scaleСкала.
143
422072
4147
i možda pomognemo donošenju
boljih odluka ili odluka većeg obima.
07:18
And the thing is that the ideaидеја
of softwareсофтвер agentsагенти is alsoтакође not newново.
144
426860
3719
Stvar je u tome da ideja
o softverskim agentima nije nova.
07:22
We alreadyвећ use them all the time.
145
430603
2109
Već ih stalno koristimo.
07:25
We use softwareсофтвер agentsагенти
146
433216
1521
Koristimo softverske agente
07:26
to chooseизаберите the way that we're going
to driveпогон to a certainизвестан locationлокација,
147
434761
3675
da odlučimo put kojim ćemo
da vozimo do određene lokacije,
07:31
the musicмузика that we're going to listen to
148
439070
2101
koju ćemo muziku slušati,
07:33
or to get suggestionssugestije
for the nextследећи booksкњиге that we should readчитати.
149
441758
3021
ili da nam preporuče sledeću knjigu
koju bi trebalo da pročitamo.
07:37
So there is an obviousочигледан ideaидеја
in the 21stст centuryвек
150
445994
2574
Dakle, postoji očigledna ideja u 21. veku
07:40
that was as obviousочигледан as the ideaидеја
151
448592
2643
koja je jednako očigledna kao i ideja
07:43
of puttingстављање togetherзаједно a steamпар engineмотор
with a loomrazboj at the time of JacquardJacquard.
152
451259
5581
da se sastave parni motor
i razboj u Žakardovo vreme.
07:49
And that ideaидеја is combiningкомбиновање
directдиректан democracyдемократија with softwareсофтвер agentsагенти.
153
457538
4456
A ta ideja je kombinovanje direktne
demokratije i softverskih agenata.
07:54
ImagineZamislite, for a secondдруго, a worldсвет
154
462849
2121
Zamislite za trenutak svet
07:56
in whichкоја, insteadуместо тога of havingимати
a representativeпредставник that representsпредставља you
155
464994
3166
u kome, umesto što imate
zastupnika koji zastupa
08:00
and millionsмилиони of other people,
156
468184
1574
vas i milione drugih ljudi,
08:01
you can have a representativeпредставник
that representsпредставља only you,
157
469782
3036
možete da imate zastupnika
koji zastupa samo vas,
08:05
with your nuancediznijansirana politicalполитички viewsвиевс --
158
473504
2254
sa vašim nijansiranim
političkim stavovima -
08:07
that weirdчудан combinationкомбинација
of libertarianLibertarijanski and liberalLiberalni
159
475782
3344
tu čudnu kombinaciju
libertarijanca i liberala,
08:11
and maybe a little bitмало
conservativeконзервативан on some issuesпитања
160
479150
2392
i možda po nekim pitanjima
malo konzervativca,
a po nekim drugim, vrlo progresivnog.
08:13
and maybe very progressiveпрогресивно on othersдруги.
161
481566
2108
08:15
PoliticiansPolitičari nowadaysданас are packagesпакети,
and they're fullпуна of compromiseskompromise.
162
483698
3267
Današnji političari su paketi
i puni su kompromisa.
08:18
But you mightМожда have someoneнеко
that can representзаступати only you,
163
486989
3634
Međutim, možete da imate nekoga
ko može da predstavlja samo vas,
08:22
if you are willingспремни to give up the ideaидеја
164
490647
1852
ako ste spremni da odustanete od ideje
08:24
that that representativeпредставник is a humanљудско.
165
492523
2249
da je zastupnik ljudsko biće.
08:27
If that representativeпредставник
is a softwareсофтвер agentAgente,
166
495229
2082
Da je taj zastupnik softverski agent,
08:29
we could have a senateсенат that has
as manyмноги senatorsSenatori as we have citizensГрађани.
167
497335
4170
mogli bismo da imamo senat koji bi imao
onoliko senatora koliko imamo stanovnika.
08:33
And those senatorsSenatori are going to be ableу могуцности
to readчитати everyсваки billрачун
168
501529
2858
A ti senatori bi bili u stanju
da čitaju svaki predlog zakona,
08:36
and they're going to be ableу могуцности
to voteгласати on eachсваки one of them.
169
504411
2747
i da glasaju o svakom od njih.
08:39
So there's an obviousочигледан ideaидеја
that maybe we want to considerразмотрити.
170
507822
2956
Dakle, imamo očiglednu ideju
koju bismo možda želeli da razmotrimo.
08:42
But I understandРазумем that in this day and ageстарост,
171
510802
2422
Međutim, razumem da u današnje vreme
08:45
this ideaидеја mightМожда be quiteприлично scaryстрашно.
172
513248
1889
ova ideja može biti prilično zastrašujuća.
08:48
In factчињеница, thinkingразмишљање of a robotробот
comingдолазе from the futureбудућност
173
516391
3440
U stvari, razmišljati o robotu
koji dolazi iz budućnosti
08:51
to help us runтрцати our governmentsвлада
174
519855
1673
da nam pomogne da vodimo države
08:53
soundsзвуци terrifyingзастрашујуће.
175
521552
1631
zvuči zastrašujuće.
08:56
But we'veми смо been there before.
176
524223
1651
Međutim, već smo to doživeli.
08:57
(LaughterSmeh)
177
525898
1273
(Smeh)
08:59
And actuallyзаправо he was quiteприлично a niceлеп guy.
178
527195
2495
I zapravo je bio prilično fin momak.
09:03
So what would the JacquardJacquard loomrazboj
versionверзија of this ideaидеја look like?
179
531677
6434
Kako bi Žakardova ideja razboja
u ovoj verziji izgledala?
09:10
It would be a very simpleједноставно systemсистем.
180
538135
1901
To bi bio veoma jednostavan sistem.
09:12
ImagineZamislite a systemсистем that you logПријава in
and you createстворити your avatarаватар,
181
540060
3458
Zamislite sistem u koji se ulogujete
i napravite svoj avatar,
09:15
and then you're going
to startпочетак trainingобука your avatarаватар.
182
543542
2456
a potom počinjete
da obučavate svog avatara.
09:18
So you can provideпружити your avatarаватар
with your readingчитање habitsнавике,
183
546022
2682
Možete da prenesete na vaš avatar
soptvene čitalačke skolonosti,
09:20
or connectцоннецт it to your socialсоцијално mediaмедији,
184
548728
1861
ili da ga povežete
sa vašim društvenim mrežama,
09:22
or you can connectцоннецт it to other dataподаци,
185
550613
2408
ili da ga povežete s drugim podacima,
09:25
for exampleпример by takingузимајући
psychologicalпсихолошки testsтестови.
186
553045
2272
na primer, rešavajući psihološke testove.
09:27
And the niceлеп thing about this
is that there's no deceptionobmana.
187
555341
2968
Dobra stvar kod ovoga
je ta što nema obmane.
09:30
You are not providingобезбеђујући dataподаци to communicateкомуницирајте
with your friendsпријатељи and familyпородица
188
558333
3339
Ne dajete podatke kako biste komunicirali
sa prijateljima i porodicom,
09:33
that then getsдобива used in a politicalполитички systemсистем.
189
561696
3151
a da se to kasnije koristi
u političkom sistemu.
09:36
You are providingобезбеђујући dataподаци to a systemсистем
that is designedдизајниран to be used
190
564871
3704
Pružate podatke sistemu
koji je osmišljen da se koristi
09:40
to make politicalполитички decisionsОдлуке
on your behalfу име.
191
568599
2116
kako bi donosio
političke odluke u vaše ime.
09:43
Then you take that dataподаци and you chooseизаберите
a trainingобука algorithmalgoritam,
192
571264
3980
Potom uzmete te podatke
i odaberete algoritam za obuku,
09:47
because it's an openотворен marketplaceтржиште
193
575268
1563
jer se radi o otvorenom tržištu,
09:48
in whichкоја differentразличит people
can submitприхвати differentразличит algorithmsалгоритми
194
576855
2786
u kome različiti ljudi
mogu da prilože različite algoritme
09:51
to predictпредвидети how you're going to voteгласати,
basedзаснован on the dataподаци you have providedобезбеђени.
195
579665
4394
kako bi predvideli kako ćete da glasate
na osnovu podataka koje ste ponudili.
09:56
And the systemсистем is openотворен,
so nobodyнико controlsконтроле the algorithmsалгоритми;
196
584083
3455
A sistem je otvoren,
dakle, niko ne kontroliše algoritme;
09:59
there are algorithmsалгоритми
that becomeпостати more popularпопуларно
197
587562
2112
tu su algoritmi koji će biti popularniji
i drugi koji će da budu manje popularni.
10:01
and othersдруги that becomeпостати lessмање popularпопуларно.
198
589698
1723
Naposletku, možete da revidirate sistem.
10:03
EventuallyNa kraju, you can auditrevizija the systemсистем.
199
591445
1807
10:05
You can see how your avatarаватар is workingрад.
200
593276
1881
Možete da vidite
kako vaš avatar funkcioniše.
10:07
If you like it,
you can leaveодлази it on autopilotauto-pilot.
201
595181
2152
Ako vam se dopada,
stavite ga na sistem autopilota.
10:09
If you want to be
a little more controllingконтролисање,
202
597357
2062
Ako želite da imate malo veću kontrolu,
10:11
you can actuallyзаправо chooseизаберите that they askпитати you
203
599443
1968
možete zapravo da odaberete da vas pitaju
kad god treba da donesu neku odluku,
10:13
everyсваки time they're going
to make a decisionодлука,
204
601435
2068
ili možete da budete negde u sredini.
10:15
or you can be anywhereбило где in betweenизмеђу.
205
603527
1635
Jedan od razloga zašto
tako malo koristimo demokratiju
10:17
One of the reasonsразлоге
why we use democracyдемократија so little
206
605186
2405
je možda taj što demokratija
ima veoma loš korisnički pristup.
10:19
mayможе be because democracyдемократија
has a very badлоше userкорисник interfaceприступ.
207
607615
3568
10:23
And if we improveпобољшати the userкорисник
interfaceприступ of democracyдемократија,
208
611207
2483
Ako bismo unapredili
korisnički pristup demokratije,
10:25
we mightМожда be ableу могуцности to use it more.
209
613714
2127
možda bismo mogli da je više koristimo.
10:28
Of courseкурс, there's a lot of questionsпитања
that you mightМожда have.
210
616452
3207
Naravno, verovatno imate gomilu pitanja.
10:32
Well, how do you trainвоз these avatarsAvatari?
211
620473
2161
Kako da obučavate ove avatare?
10:34
How do you keep the dataподаци secureOsigurajte?
212
622658
1894
Kako da vaši podaci budu bezbedni?
10:36
How do you keep the systemsсистема
distributedдистрибуирани and auditablenadgledaju?
213
624576
3248
Kako da vaš sistem bude
raspodeljen i podložan reviziji?
10:39
How about my grandmotherбака,
who'sко је 80 yearsгодине oldстари
214
627848
2062
Šta je sa mojom bakom koja ima 80 godina
10:41
and doesn't know how to use the internetинтернет?
215
629946
1960
i ne zna kako da koristi internet?
10:44
TrustPouzdanost me, I've heardслушао them all.
216
632262
2221
Verujte mi, sva ta pitanja sam čuo.
10:46
So when you think about an ideaидеја like this,
you have to bewareČuvajte se of pessimistsпесимисти
217
634507
4560
Kada razmišljate o ovakvoj ideji,
morate da se pazite pesimista,
10:51
because they are knownпознат to have
a problemпроблем for everyсваки solutionрешење.
218
639091
4319
jer su poznati po tome što imaju
problem za svako rešenje.
10:55
(LaughterSmeh)
219
643434
1825
(Smeh)
10:57
So I want to inviteпозовите you to think
about the biggerвеће ideasидеје.
220
645283
3040
Želim da vas pozovem
da razmišljate o većim idejama.
11:00
The questionsпитања I just showedпоказао you
are little ideasидеје
221
648347
3626
Pitanja koja sam vam
upravo pokazao su male ideje,
11:03
because they are questionsпитања
about how this would not work.
222
651997
2902
jer se radi o pitanjima
zašto ovo ne bi funkcionisalo.
11:07
The bigвелики ideasидеје are ideasидеје of:
223
655502
1981
Velike ideje su:
11:09
What elseдруго can you do with this
224
657507
1807
šta još možemo da uradimo s ovim,
11:11
if this would happenдесити се to work?
225
659338
1889
ukoliko bi ovo funkcionisalo?
11:13
And one of those ideasидеје is,
well, who writesпише the lawsЗакони?
226
661774
3445
A jedna od tih ideja je: ko piše zakone?
11:17
In the beginningпочетак, we could have
the avatarsAvatari that we alreadyвећ have,
227
665854
4223
U početku bismo mogli da imamo
avatare koje već imamo,
11:22
votingгласање on lawsЗакони that are writtenнаписано
by the senatorsSenatori or politiciansполитичари
228
670101
3497
koji glasaju za zakone koje su pisali
senatori ili političari
11:25
that we alreadyвећ have.
229
673622
1351
koje već imamo.
11:27
But if this were to work,
230
675491
1714
Međutim, ako bi ovo proradilo,
11:29
you could writeпиши an algorithmalgoritam
231
677902
2350
mogli biste da napišete algoritam
11:32
that could try to writeпиши a lawзакон
232
680276
2150
koji bi pokušao da napiše zakon
11:34
that would get a certainизвестан
percentageпроценат of approvalodobrenje,
233
682450
2421
koji bi dobio određen procenat podrške,
11:36
and you could reverseобратно the processпроцес.
234
684895
1782
i mogli biste da obrnete proces.
11:38
Now, you mightМожда think that this ideaидеја
is ludicrousludost and we should not do it,
235
686701
3512
Možda smatrate da je ova ideja smešna
i da ne bi trebalo to da radimo,
11:42
but you cannotне може denyнегирати that it's an ideaидеја
that is only possibleмогуће
236
690237
2786
ali ne možete da negirate
da je ova ideja jedino moguća
11:45
in a worldсвет in whichкоја directдиректан democracyдемократија
and softwareсофтвер agentsагенти
237
693047
3020
u svetu u kome su direktna demokratija
i softverski agenti
11:48
are a viableодржив formобразац of participationучешће.
238
696091
2656
održivi oblici učešća.
11:52
So how do we startпочетак the revolutionреволуција?
239
700596
2753
Kako da otpočnemo revoluciju?
11:56
We don't startпочетак this revolutionреволуција
with picketdrvena fencesograda or protestsпротести
240
704238
3310
Ne započinjemo ovu revoluciju
tarabama ili protestima,
11:59
or by demandingзахтеван our currentТренутни politiciansполитичари
to be changedпромењено into robotsроботи.
241
707572
4190
ili zahtevajući od trenutnih političara
da se pretvore u robote.
12:03
That's not going to work.
242
711786
1549
To neće funkcionisati.
12:05
This is much more simpleједноставно,
243
713359
1612
Ovo je mnogo jednostavnije,
12:06
much slowerспорији
244
714995
1159
mnogo sporije
12:08
and much more humbleпонизан.
245
716178
1414
i mnogo skromnije.
12:09
We startпочетак this revolutionреволуција by creatingстварање
simpleједноставно systemsсистема like this in gradgrad schoolsшколе,
246
717616
4349
Počinjemo revoluciju stvarajući
proste sisteme poput ovog na fakultetima,
12:13
in librariesбиблиотеке, in nonprofitsneprofitne organizacije.
247
721989
2094
ili u bibliotekama,
neprofitnim organizacijama.
12:16
And we try to figureфигура out
all of those little questionsпитања
248
724107
2654
I pokušavamo da shvatimo
sva ta mala pitanja,
12:18
and those little problemsпроблеми
249
726785
1221
te male probleme,
12:20
that we're going to have to figureфигура out
to make this ideaидеја something viableодржив,
250
728030
3901
koje ćemo morati da rešimo
da bi ova ideja postala održiva,
12:23
to make this ideaидеја something
that we can trustповерење.
251
731955
2351
kako bi ova ideja postala
nešto čemu možemo verovati.
12:26
And as we createстворити those systemsсистема that have
a hundredсто people, a thousandхиљада people,
252
734330
3635
Kako stvaramo ove sisteme
sa stotinama, hiljadama,
12:29
a hundredсто thousandхиљада people votingгласање
in waysначини that are not politicallyполитички bindingpovezivanje,
253
737989
3770
stotinama hiljada ljudi koji glasaju
na načine koji nisu politički obavezujući,
12:33
we're going to developразвити trustповерење in this ideaидеја,
254
741783
2018
izgradićemo poverenje u ovu ideju,
12:35
the worldсвет is going to changeпромена,
255
743825
1519
svet će se promeniti,
12:37
and those that are as little
as my daughterћерка is right now
256
745368
2875
a oni koji su mladi, kao moja ćerka danas,
12:40
are going to growрасту up.
257
748267
1337
će odrasti.
12:42
And by the time my daughterћерка is my ageстарост,
258
750580
2369
A kad moja ćerka bude mojih godina,
12:44
maybe this ideaидеја, that I know
todayданас is very crazyлуд,
259
752973
4436
možda će ova ideja, za koju znam
da danas zvuči sumanuto,
12:49
mightМожда not be crazyлуд to her
and to her friendsпријатељи.
260
757433
4134
njoj i njenim prijateljima
neće biti sumanuta.
12:53
And at that pointтачка,
261
761956
1837
A u tom trenutku,
12:55
we will be at the endкрај of our historyисторија,
262
763817
2603
mi ćemo biti na kraju naše istorije,
12:58
but they will be
at the beginningпочетак of theirsnjihova.
263
766444
2821
ali oni će biti na početku njihove.
13:01
Thank you.
264
769646
1183
Hvala vam.
13:02
(ApplauseAplauz)
265
770853
3042
(Aplauz)
Translated by Milenka Okuka
Reviewed by Kristina Radosavljević

▲Back to top

ABOUT THE SPEAKER
César Hidalgo - Physicist
César Hidalgo studies how teams, cities and nations learn.

Why you should listen

César A. Hidalgo leads the Collective Learning group at The MIT Media Lab and is an associate professor of media arts and sciences at MIT. Hidalgo's work focuses on understanding how teams, organizations, cities and nations learn. At the Collective Learning group, Hidalgo develops software tools to facilitate learning in organizations. His academic publications have been cited more than 10,000 times, and his online systems, including the Observatory of Economic Complexity and DataUSA, have received more than 100 million views and numerous awards.

Hidalgo's latest book, Why Information Grows (2015), has been translated into 10+ languages. He is also the co-author of The Atlas of Economic Complexity (2014) and a co-founder of Datawheel LLC, a company that has professionalized the creation of large data visualization engines.

More profile about the speaker
César Hidalgo | Speaker | TED.com