ABOUT THE SPEAKER
César Hidalgo - Physicist
César Hidalgo studies how teams, cities and nations learn.

Why you should listen

César A. Hidalgo leads the Collective Learning group at The MIT Media Lab and is an associate professor of media arts and sciences at MIT. Hidalgo's work focuses on understanding how teams, organizations, cities and nations learn. At the Collective Learning group, Hidalgo develops software tools to facilitate learning in organizations. His academic publications have been cited more than 10,000 times, and his online systems, including the Observatory of Economic Complexity and DataUSA, have received more than 100 million views and numerous awards.

Hidalgo's latest book, Why Information Grows (2015), has been translated into 10+ languages. He is also the co-author of The Atlas of Economic Complexity (2014) and a co-founder of Datawheel LLC, a company that has professionalized the creation of large data visualization engines.

More profile about the speaker
César Hidalgo | Speaker | TED.com
TED2018

César Hidalgo: A bold idea to replace politicians

César Hidalgo: Politikacıların yerine geçecek cesur bir fikir

Filmed:
2,044,328 views

César Hidalgo'nun bozuk siyasi sistemimizi düzeltmek için radikal bir önerisi var: Sistemi makineleştirmek! Bu provokatif konuşmada, vatandaşları güçlendirip demokratik kararlarda doğrudan katılım gösteren kişileştirilmiş yapay zeka temsilcileri yaratarak politikacıları es geçmeye ilişkin cesur düşüncesini aktarıyor. Toplu kararları almanın yeni yolunu keşfedin ve demokrasi anlayışınızı genişletin.
- Physicist
César Hidalgo studies how teams, cities and nations learn. Full bio

Double-click the English transcript below to play the video.

00:13
Is it just me,
0
1373
1744
Sadece ben miyim,
yoksa demokrasiden biraz hayal
kırıklığına uğramış başkaları da var mı?
00:15
or are there other people here
1
3141
2332
00:17
that are a little bitbit
disappointedhayal kırıklığına uğramış with democracydemokrasi?
2
5497
2344
00:20
(ApplauseAlkış)
3
8986
2336
(Alkış)
00:24
So let's look at a fewaz numberssayılar.
4
12141
2071
O zaman bazı rakamlara bir göz atalım.
00:26
If we look acrosskarşısında the worldDünya,
5
14934
2173
Dünyaya bir bakacak olursak
00:29
the medianmedyan turnoutkatılım
in presidentialCumhurbaşkanlığı electionsseçimleri
6
17131
3892
son 30 yıldaki başkanlık
seçimlerinde sandığa gitme oranı
00:33
over the last 30 yearsyıl
7
21047
1651
00:34
has been just 67 percentyüzde.
8
22722
2622
yalnızca %67.
00:38
Now, if we go to EuropeEurope
9
26329
1973
Şimdi, Avrupa'ya gidersek
00:40
and we look at people that participatedkatıldı
in EUAB parliamentaryParlamento electionsseçimleri,
10
28326
4428
ve AB parlamento seçimlerinde
katılım oranına bakacak olursak
ortalama oran sadece %42 olmuş.
00:44
the medianmedyan turnoutkatılım in those electionsseçimleri
11
32778
2071
00:46
is just 42 percentyüzde.
12
34873
2104
00:50
Now let's go to NewYeni YorkYork,
13
38125
1669
Şimdi, New York'a gidelim
00:51
and let's see how manyçok people votedolarak
in the last electionseçim for mayorBelediye Başkanı.
14
39818
4681
ve son belediye başkanı seçimlerinde
kaç kişi oy vermiş bir bakalım.
00:56
We will find that only
24 percentyüzde of people showedgösterdi up to voteoy.
15
44523
3817
Görüyoruz ki seçmenlerin
sadece %24'ü oy vermeye gitmiş.
01:01
What that meansanlamına geliyor is that,
if "FriendsArkadaşlar" was still runningkoşu,
16
49063
3095
Bu demek oluyor ki
"Friends" hala yayınlanıyor olsaydı
01:04
JoeyJoey and maybe PhoebePhoebe
would have showngösterilen up to voteoy.
17
52182
3348
Joey ve belki bir de Phoebe
oy vermeye gitmiş olacaktı.
01:07
(LaughterKahkaha)
18
55554
1290
(Gülüşmeler)
01:09
And you cannotyapamam blamesuçlama them
because people are tiredyorgun of politicianssiyasetçiler.
19
57434
4426
Onları suçlayamazsınız
çünkü insanlar politikacılardan sıkıldı.
01:13
And people are tiredyorgun of other people
usingkullanma the dataveri that they have generatedoluşturulan
20
61884
3887
Arkadaşları ve aileleri ile
iletişim kurmak için oluşturdukları veriyi
01:17
to communicateiletişim kurmak with
theironların friendsarkadaşlar and familyaile,
21
65795
2198
siyasi propaganda hedefi yapmak
için kullanan insanlardan sıkıldılar.
01:20
to targethedef politicalsiyasi propagandapropaganda at them.
22
68017
2094
Ancak mesele şu ki
bu yeni bir şey değil.
01:22
But the thing about this
is that this is not newyeni.
23
70519
2728
01:25
NowadaysGünümüzde, people use likesseviyor
to targethedef propagandapropaganda at you
24
73271
3225
Bugünlerde posta kodunu, yaşını
veya cinsiyetini kullanmadan önce
01:28
before they use your zipzip codekod
or your genderCinsiyet or your ageyaş,
25
76520
3373
sizi propaganda hedefi yapmak için
beğenileri kullanıyorlar,
çünkü siyasi amaçlar için insanları
propaganda ile hedef gösterme düşüncesi
01:31
because the ideaFikir of targetinghedeflemesi people
with propagandapropaganda for politicalsiyasi purposesamaçlar
26
79917
3570
01:35
is as oldeski as politicssiyaset.
27
83511
1592
politika kadar eski.
01:37
And the reasonneden why that ideaFikir is there
28
85530
2278
Bu düşüncenin olmasının sebebi ise
demokrasinin temel bir zafiyeti olması.
01:39
is because democracydemokrasi
has a basictemel vulnerabilityGüvenlik açığı.
29
87832
3472
Bu, bir temsilcinin olması düşüncesi.
01:43
This is the ideaFikir of a representativetemsilci.
30
91710
1932
01:46
In principleprensip, democracydemokrasi is the abilitykabiliyet
of people to exertuygulamayın powergüç.
31
94049
3944
Prensip olarak demokrasi, insanların
gücü kullanabilme becerisidir.
Ancak uygulamada, bu gücü
bizim için kullanacak
01:50
But in practiceuygulama, we have to delegatetemsilci
that powergüç to a representativetemsilci
32
98017
3818
01:53
that can exertuygulamayın that powergüç for us.
33
101859
2255
bir temsilciye devretmeliyiz.
01:56
That representativetemsilci is a bottleneckdarboğaz,
34
104561
1825
Bu temsilci ise bir ayak bağı
01:58
or a weakzayıf spotyer.
35
106410
1297
veya bir zayıf nokta.
Eğer demokrasiye saldırmak istiyorsanız
hedef almak isteyeceğiniz bu yerdir,
01:59
It is the placeyer that you want to targethedef
if you want to attacksaldırı democracydemokrasi
36
107731
3949
02:03
because you can captureele geçirmek democracydemokrasi
by eitherya capturingyakalama that representativetemsilci
37
111704
3489
çünkü ya temsilciyi ya da insanların
onu seçtiği yolu ele geçirerek
02:07
or capturingyakalama the way
that people chooseseçmek it.
38
115217
2148
demokrasiyi ele geçirebilirsiniz.
02:10
So the bigbüyük questionsoru is:
39
118065
1416
Bu yüzden asıl soru şu:
02:11
Is this the endson of historytarih?
40
119505
1704
Tarihin sonu bu mu?
02:13
Is this the besten iyi that we can do
41
121989
3103
Yapabileceğimiz en iyi şey bu mu,
02:17
or, actuallyaslında, are there alternativesalternatifleri?
42
125878
3067
yoksa gerçekten de alternatifler var mı?
02:22
Some people have been thinkingdüşünme
about alternativesalternatifleri,
43
130130
2354
Bazı insanlar alternatifler
hakkında düşünüyor
02:24
and one of the ideasfikirler that is out there
is the ideaFikir of directdirekt democracydemokrasi.
44
132508
3679
ve düşüncelerinden birisi ise
doğrudan demokrasi fikri.
02:28
This is the ideaFikir of bypassingyan yol
politicianssiyasetçiler completelytamamen
45
136790
2479
Bu, politikacıları
tamamen atlama düşüncesi
ve insanların direkt olarak
sorunlar, kanunlar hakkında oy vermesi.
02:31
and havingsahip olan people voteoy directlydirekt olarak on issuessorunlar,
46
139293
2403
02:33
havingsahip olan people voteoy directlydirekt olarak on billsfatura.
47
141720
2265
02:36
But this ideaFikir is naivesaf
48
144415
1336
Ancak bu düşünce naif,
02:37
because there's too manyçok things
that we would need to chooseseçmek.
49
145775
3171
çünkü seçmemiz gereken birçok şey var.
114. ABD Kongresi'ne bakarsanız
02:40
If you look at the 114thinci US CongressKongre,
50
148970
2782
02:43
you will have seengörüldü that
the HouseEv of RepresentativesTemsilcileri
51
151776
2487
Temsilciler Meclisinin
6 binden fazla kanunu,
02:46
considereddüşünülen more than 6,000 billsfatura,
52
154287
2889
Senatonun ise 3 binden fazla kanunu
göz önünde bulundurduğunu
02:49
the SenateSenato considereddüşünülen
more than 3,000 billsfatura
53
157200
2656
ve 300'den fazla kanunu
onayladıklarını görüceksiniz.
02:51
and they approvedonaylı more than 300 lawsyasalar.
54
159880
2808
Bunlar, çok az bildikleri konular üzerine
02:54
Those would be manyçok decisionskararlar
55
162712
1579
02:56
that eachher personkişi would have to make a weekhafta
56
164315
2187
her insanın bir haftasını
ayıracağı birçok karar olurdu.
02:58
on topicskonular that they know little about.
57
166526
2142
03:01
So there's a bigbüyük cognitivebilişsel
bandwidthBant genişliği problemsorun
58
169229
2281
Doğrudan demokrasiyi uygulanabilir
bir alternatif olarak düşünecek olursak
03:03
if we're going to try to think about
directdirekt democracydemokrasi as a viableyaşayabilir alternativealternatif.
59
171534
3992
bant aralığı geniş,
büyük bilişsel bir problem var.
Bazı insanlar delege
demokrasisini düşünüyorlar,
03:08
So some people think about the ideaFikir
of liquidsıvı democracydemokrasi, or fluidsıvı democracydemokrasi,
60
176205
4435
onun da başkasına devredeceği
birine siyasi gücünüzü devrettiğiniz
03:12
whichhangi is the ideaFikir that you endorseonaylamaz
your politicalsiyasi powergüç to someonebirisi,
61
180664
3776
03:16
who can endorseonaylamaz it to someonebirisi elsebaşka,
62
184464
1700
ve en sonunda tüm destekçilerin adına
karar veren birkaç insanın olduğu
03:18
and, eventuallysonunda, you createyaratmak
a largegeniş followertakipçisi network
63
186188
2541
03:20
in whichhangi, at the endson, there's a fewaz people
that are makingyapma decisionskararlar
64
188753
3294
daha geniş bir destekçi ağı
yarattığınız bir düşünce.
03:24
on behalfadına of all of theironların followerstakipçileri
and theironların followerstakipçileri.
65
192071
3143
03:28
But this ideaFikir alsoAyrıca doesn't solveçözmek
the problemsorun of the cognitivebilişsel bandwidthBant genişliği
66
196326
4129
Ancak bu düşünce bilişsel
bant genişliği problemini çözmüyor
ve dürüst olmak gerekirse bir temsilcinin
olması fikrine de oldukça benziyor.
03:32
and, to be honestdürüst, it's alsoAyrıca quiteoldukça similarbenzer
to the ideaFikir of havingsahip olan a representativetemsilci.
67
200479
3877
03:36
So what I'm going to do todaybugün is
I'm going to be a little bitbit provocativekışkırtıcı,
68
204795
3468
Bu yüzden bugün yapacağım şey
biraz provokatif olmak olacak
ve size şu soruyu soracağım:
03:40
and I'm going to asksormak you, well:
69
208277
2300
Politikacıları es geçmek yerine
03:42
What if, insteadyerine of tryingçalışıyor
to bypassyan yol politicianssiyasetçiler,
70
210601
6562
onları makineleştirsek ne olurdu?
03:49
we trieddenenmiş to automateotomatikleştirmek them?
71
217187
2200
03:57
The ideaFikir of automationOtomasyon is not newyeni.
72
225871
2926
Makineleştirme düşüncesi yeni değil.
04:00
It was startedbaşladı more than 300 yearsyıl agoönce,
73
228821
2080
Fransız dokumacılar 300 yıl kadar önce
dokuma tezgâhını makineleştirmeye
karar verdiklerinde başlamıştı.
04:02
when FrenchFransızca weaversdokumacılar decidedkarar
to automateotomatikleştirmek the loomtezgah.
74
230925
3068
04:06
The winnerkazanan of that industrialSanayi warsavaş
was Joseph-MarieMustafa JacquardJakarlı.
75
234820
4360
Sanayi savaşının kazananı
Joseph-Marie Jacquard'tı.
04:11
He was a FrenchFransızca weaverWeaver and merchanttüccar
76
239204
1751
Otonom dokuma tezgâhları yaratmak için
buhar makineli dokuma tezgâhı ile evlenen
04:12
that marriedevli the loomtezgah
with the steambuhar enginemotor
77
240979
2440
Fransız bir dokumacı ve tüccardı.
04:15
to createyaratmak autonomousözerk loomsdokuma tezgahları.
78
243443
2190
04:17
And in those autonomousözerk loomsdokuma tezgahları,
he gainedkazanmış controlkontrol.
79
245657
2753
Otonom dokuma tezgâhlarıyla
kontrolü eline aldı.
Böylece elle yaptıklarından daha kompleks
ve çok yönlü kumaşlar yapabiliyordu.
04:20
He could now make fabricsKumaşlar that were
more complexkarmaşık and more sophisticatedsofistike
80
248434
3885
04:24
than the onesolanlar they
were ableyapabilmek to do by handel.
81
252343
2128
04:27
But alsoAyrıca, by winningkazanan that industrialSanayi warsavaş,
82
255193
2632
Ancak aynı zamanda
sanayi savaşını kazanarak
makineleşmenin şablonunu çıkardı.
04:29
he laidkoydu out what has becomeolmak
the blueprintBlueprint of automationOtomasyon.
83
257849
3524
04:34
The way that we automateotomatikleştirmek things
for the last 300 yearsyıl
84
262135
2870
Son 300 yıldır nesneleri
makineştirme şeklimiz
hep aynı oldu:
04:37
has always been the sameaynı:
85
265029
1382
04:39
we first identifybelirlemek a need,
86
267006
2509
İlk önce bir ihtiyacı tanımlıyoruz,
daha sonrasında bu ihtiyacı
giderecek bir alet yaratıyoruz,
04:41
then we createyaratmak a toolaraç
to satisfytatmin etmek that need,
87
269539
3184
bu durumda bir dokuma tezgâhı gibi,
04:44
like the loomtezgah, in this casedurum,
88
272747
2040
daha sonra makineleştirmek için
04:46
and then we studyders çalışma how people use that toolaraç
89
274811
2391
insanların bu aleti
nasıl kullandıklarını inceliyoruz.
04:49
to automateotomatikleştirmek that userkullanıcı.
90
277226
1485
04:51
That's how we camegeldi
from the mechanicalmekanik loomtezgah
91
279242
3061
İşte bu şekilde mekanik dokuma tezgâhından
otonom dokuma tezgâhına geçtik
04:54
to the autonomousözerk loomtezgah,
92
282327
1896
04:56
and that tookaldı us a thousandbin yearsyıl.
93
284247
2120
ve bu, bin yılımızı aldı.
Şimdi ise arabayı otomatikleştirmek için
04:58
Now, it's takenalınmış us only a hundredyüz yearsyıl
94
286391
2071
05:00
to use the sameaynı scriptkomut dosyası
to automateotomatikleştirmek the cararaba.
95
288486
3211
aynı senaryoyu kullanmak
sadece yüz yılımızı aldı.
05:05
But the thing is that, this time around,
96
293286
2452
Ancak mesele şu ki bu sefer
makineleşme adeta gerçek.
05:07
automationOtomasyon is kindtür of for realgerçek.
97
295762
2129
05:09
This is a videovideo that a colleagueçalışma arkadaşı of mineMayın
from ToshibaToshiba sharedpaylaşılan with me
98
297915
3321
Bu, Toshiba'da çalışan
iş arkadaşımın benimle paylaştığı
katı hal sürücüleri üreten
fabrikayı gösteren bir video.
05:13
that showsgösterileri the factoryfabrika
that manufacturesüreten solidkatı statebelirtmek, bildirmek drivessürücüler.
99
301260
3259
Tüm fabrika bir robot.
05:16
The entiretüm factoryfabrika is a robotrobot.
100
304543
2018
05:18
There are no humansinsanlar in that factoryfabrika.
101
306585
1925
Bu fabrikada insan yok.
Robotlar yakında
fabrikaları terk edecekler
05:21
And the robotsrobotlar are soonyakında
to leaveayrılmak the factoriesfabrikalar
102
309033
2221
05:23
and becomeolmak partBölüm of our worldDünya,
103
311278
2022
ve dünyamızın bir parçası olucaklar,
05:25
becomeolmak partBölüm of our workforceişgücü.
104
313324
1835
iş gücümüzün bir parçası olacaklar.
Günlük olarak işimde yaptığım şey aslında
05:27
So what I do in my day job
105
315183
1773
05:28
is actuallyaslında createyaratmak toolsaraçlar that integratebirleştirmek
dataveri for entiretüm countriesülkeler
106
316980
3992
bu makineleri aynı zamanda idare
etmemiz gereken bir gelecek için
05:32
so that we can ultimatelyen sonunda have
the foundationsVakıflar that we need
107
320996
3466
nihayetinde ihtiyacımız olan
temellere sahip olabilelim diye
05:36
for a futuregelecek in whichhangi we need
to alsoAyrıca manageyönetmek those machinesmakineler.
108
324486
3687
tüm ülkeler için verileri
birleştirecek aletler yaratmak.
05:41
But todaybugün, I'm not here
to talk to you about these toolsaraçlar
109
329195
2906
Ancak bugün size ülkeler için
verileri birleştiren bu aletlerden
05:44
that integratebirleştirmek dataveri for countriesülkeler.
110
332125
1824
bahsetmek için burada değilim.
05:46
But I'm here to talk to you
about anotherbir diğeri ideaFikir
111
334463
2622
Aksine, yapay zekanın demokraside nasıl
kullanılacağını düşünmemize yardım edecek
05:49
that mightbelki help us think about how to use
artificialyapay intelligencezeka in democracydemokrasi.
112
337109
4865
başka bir fikirden
bahsetmek için buradayım.
05:53
Because the toolsaraçlar that I buildinşa etmek
are designedtasarlanmış for executiveyönetici decisionskararlar.
113
341998
4733
Çünkü yaptığım aletler
idari kararlar için tasarlandı.
Bunlar, bir çeşit tarafsızlık
terimini paylaşabilen kararlar:
05:58
These are decisionskararlar that can be castoyuncular
in some sortçeşit of termterim of objectivitytarafsızlık --
114
346755
3842
kamu yatırımı kararları.
06:02
publichalka açık investmentyatırım decisionskararlar.
115
350621
1745
06:04
But there are decisionskararlar
that are legislativeyasama,
116
352885
2631
Ancak yasama kararları da var
ve kanun koyucu bu kararlar farklı
bakış açılara sahip insanlar arasında
06:07
and these decisionskararlar that are legislativeyasama
requiregerektirir communicationiletişim amongarasında people
117
355540
3787
iletişimi, katılımı, tartışmayı,
kafa yormayı
06:11
that have differentfarklı pointsmakas of viewgörünüm,
118
359351
1700
06:13
requiregerektirir participationkatılım, requiregerektirir debatetartışma,
119
361075
2613
gerektiriyor.
06:15
requiregerektirir deliberationmüzakere.
120
363712
1478
Uzun bir zamandır şunu düşünüyorduk;
06:18
And for a long time,
we have thought that, well,
121
366241
2804
demokrasiyi geliştirmek için gereken şey
aslında daha fazla iletişim.
06:21
what we need to improveiyileştirmek democracydemokrasi
is actuallyaslında more communicationiletişim.
122
369069
3460
Bu yüzden demokrasi bağlamı içinde
geliştirdiğimiz tüm teknolojiler,
06:24
So all of the technologiesteknolojiler that we have
advancedileri in the contextbağlam of democracydemokrasi,
123
372553
3709
06:28
whetherolup olmadığını they are newspapersgazeteler
or whetherolup olmadığını it is socialsosyal mediamedya,
124
376286
2778
ister gazete
ister sosyal medya olsun,
06:31
have trieddenenmiş to providesağlamak us
with more communicationiletişim.
125
379088
2382
bize daha fazla iletişim
sağlamaya çalıştılar.
Ancak tavşan deliğine düştük
06:34
But we'vebiz ettik been down that rabbittavşan holedelik,
126
382103
1822
ve problemi çözecek şeyin
o olmadığını biliyoruz.
06:35
and we know that's not
what's going to solveçözmek the problemsorun.
127
383949
2748
Çünkü bir iletişim problemi değil,
06:38
Because it's not a communicationiletişim problemsorun,
128
386721
1996
bilişsel bant genişliği problemi.
06:40
it's a cognitivebilişsel bandwidthBant genişliği problemsorun.
129
388741
1748
O halde problem
bilişsel bant genişliği ise
06:42
So if the problemsorun is one
of cognitivebilişsel bandwidthBant genişliği,
130
390513
2366
insanlara daha fazla iletişim sağlamak
06:44
well, addingekleme more communicationiletişim to people
131
392903
2587
problemi çözecek şey olmayacaktır.
06:47
is not going to be
what's going to solveçözmek it.
132
395514
2744
İhtiyacımız olan şey,
06:50
What we are going to need insteadyerine
is to have other technologiesteknolojiler
133
398282
3113
aşırı yüklendiğimiz bazı iletişimlerle
baş etmemize yardımcı olacak
06:53
that help us dealanlaştık mı with
some of the communicationiletişim
134
401419
3046
başka teknolojiler elde etmek.
06:56
that we are overloadedaşırı with.
135
404489
2242
Küçük bir avatar gibi düşünün,
06:58
Think of, like, a little avataravatar,
136
406755
1699
07:00
a softwareyazılım agentAjan,
137
408478
1339
bir yazılım aracısı,
07:01
a digitaldijital JiminyJiminy CricketKriket --
138
409841
1878
dijital bir Jiminy Cricket,
(Gülüşmeler)
07:03
(LaughterKahkaha)
139
411743
1238
07:05
that basicallytemel olarak is ableyapabilmek
to answerCevap things on your behalfadına.
140
413005
4012
temelde sizin adınıza
cevaplayabilen bir şey.
Eğer bu teknolojimiz olsaydı
07:09
And if we had that technologyteknoloji,
141
417759
1787
bazı iletişimlerin yüklerini boşaltabilir
07:11
we would be ableyapabilmek to offloadsatmak
some of the communicationiletişim
142
419570
2478
07:14
and help, maybe, make better decisionskararlar
or decisionskararlar at a largerdaha büyük scaleölçek.
143
422072
4147
ve belki de daha geniş kapsamda
daha iyi kararlar verebilirdik.
07:18
And the thing is that the ideaFikir
of softwareyazılım agentsajanları is alsoAyrıca not newyeni.
144
426860
3719
Durum şu ki yazılım aracısı
düşüncesi yeni bile değil.
Zaten onları her zaman kullanıyoruz.
07:22
We alreadyzaten use them all the time.
145
430603
2109
07:25
We use softwareyazılım agentsajanları
146
433216
1521
Yazılım araçlarını belli bir konuma
gideceğimiz yolu seçmek,
07:26
to chooseseçmek the way that we're going
to drivesürücü to a certainbelli locationyer,
147
434761
3675
07:31
the musicmüzik that we're going to listen to
148
439070
2101
dinleyeceğimiz müziği seçmek
07:33
or to get suggestionsöneriler
for the nextSonraki bookskitaplar that we should readokumak.
149
441758
3021
veya okumamız gereken sonraki kitap için
öneri almak için kullanıyoruz.
Jacquard zamanında bir dokuma tezgâhıyla
bir buhar makinesini birleştirmek kadar
07:37
So there is an obviousaçık ideaFikir
in the 21stst centuryyüzyıl
150
445994
2574
07:40
that was as obviousaçık as the ideaFikir
151
448592
2643
07:43
of puttingkoyarak togetherbirlikte a steambuhar enginemotor
with a loomtezgah at the time of JacquardJakarlı.
152
451259
5581
bariz bir düşünce 21. yüzyılda da var.
07:49
And that ideaFikir is combiningbirleştirme
directdirekt democracydemokrasi with softwareyazılım agentsajanları.
153
457538
4456
Bu düşünce ise doğrudan demokrasiyi
yazılım araçlarıyla birleştirmek.
07:54
ImagineHayal, for a secondikinci, a worldDünya
154
462849
2121
Bir saniyeliğine düşünün,
sizi ve diğer milyonlarca insanı
temsil eden bir temsilci yerine
07:56
in whichhangi, insteadyerine of havingsahip olan
a representativetemsilci that representstemsil you
155
464994
3166
08:00
and millionsmilyonlarca of other people,
156
468184
1574
sadece sizi temsil eden bir temsilcinin
olduğu bir dünyayı düşünün;
08:01
you can have a representativetemsilci
that representstemsil only you,
157
469782
3036
incelikli siyasi görüşlerinizle birlikte,
08:05
with your nuancednüanslı politicalsiyasi viewsgörünümler --
158
473504
2254
liberteryenizm ve liberalizmin
garip birleşimi
08:07
that weirdtuhaf combinationkombinasyon
of libertarianözgürlükçü and liberalliberal
159
475782
3344
ve belki de bazı sorunlara
biraz muhafazakar
08:11
and maybe a little bitbit
conservativemuhafazakâr on some issuessorunlar
160
479150
2392
ve belki de diğerlerine
oldukça ilerici tutum.
08:13
and maybe very progressiveilerici on othersdiğerleri.
161
481566
2108
08:15
PoliticiansPolitikacılar nowadaysşu günlerde are packagespaketler,
and they're fulltam of compromisesuzlaşma.
162
483698
3267
Politikacılar bugünlerde paketler
ve uzlaşmalarla dolular.
Ancak o temsilcinin insan olduğu
düşüncesinden vazgeçmeye hazırsanız
08:18
But you mightbelki have someonebirisi
that can representtemsil etmek only you,
163
486989
3634
08:22
if you are willingistekli to give up the ideaFikir
164
490647
1852
sadece sizi temsil eden
birine sahip olabilirsiniz.
08:24
that that representativetemsilci is a humaninsan.
165
492523
2249
Eğer o temsilci bir yazılım aracısıysa
08:27
If that representativetemsilci
is a softwareyazılım agentAjan,
166
495229
2082
08:29
we could have a senatesenato that has
as manyçok senatorsSenatörler as we have citizensvatandaşlar.
167
497335
4170
vatandaş sayımız kadar
senatörleri olan bir senatomuz olabilir.
08:33
And those senatorsSenatörler are going to be ableyapabilmek
to readokumak everyher billfatura
168
501529
2858
Bu senatörler her kanunu okuyabilecek
08:36
and they're going to be ableyapabilmek
to voteoy on eachher one of them.
169
504411
2747
ve her biri için oy kullanabilecekler.
Ayrıca göz önünde bulundurmak
isteyeceğimiz bariz bir düşünce daha var.
08:39
So there's an obviousaçık ideaFikir
that maybe we want to considerdüşünmek.
170
507822
2956
Ancak bu günde ve çağda bu düşüncenin
oldukça korkutucu olabileceğini anlıyorum.
08:42
But I understandanlama that in this day and ageyaş,
171
510802
2422
08:45
this ideaFikir mightbelki be quiteoldukça scarykorkutucu.
172
513248
1889
Aslında hükûmetlerimizi
yönetmemize yardımcı olacak
08:48
In factgerçek, thinkingdüşünme of a robotrobot
cominggelecek from the futuregelecek
173
516391
3440
08:51
to help us runkoş our governmentshükümetler
174
519855
1673
gelecekten gelen bir robotun
düşüncesi kulağa korkutucu geliyor.
08:53
soundssesleri terrifyingdehşet verici.
175
521552
1631
Ancak biz de bu yollardan geçtik.
08:56
But we'vebiz ettik been there before.
176
524223
1651
08:57
(LaughterKahkaha)
177
525898
1273
(Gülüşmeler)
08:59
And actuallyaslında he was quiteoldukça a niceGüzel guy.
178
527195
2495
Gerçekten de oldukça iyi bir adamdı.
09:03
So what would the JacquardJakarlı loomtezgah
versionversiyon of this ideaFikir look like?
179
531677
6434
Bu düşüncenin Jacquard dokuma
tezgâhı versiyonu nasıl olurdu?
09:10
It would be a very simplebasit systemsistem.
180
538135
1901
Çok basit bir sistem olurdu.
09:12
ImagineHayal a systemsistem that you logkütük in
and you createyaratmak your avataravatar,
181
540060
3458
Giriş yaptığınız
ve avatarınızı yarattığınız
ve sonra avatarınızı eğitmeye
başladığınız bir sistem düşünün.
09:15
and then you're going
to startbaşlama trainingEğitim your avataravatar.
182
543542
2456
09:18
So you can providesağlamak your avataravatar
with your readingokuma habitsalışkanlıkları,
183
546022
2682
Böylece avatarınıza okuma
alışkanlıklarınızı sağlayabilir
09:20
or connectbağlamak it to your socialsosyal mediamedya,
184
548728
1861
veya sosyal medyanıza bağlayabilir
09:22
or you can connectbağlamak it to other dataveri,
185
550613
2408
veya başka bir veriye bağlayabilirsiniz,
09:25
for exampleörnek by takingalma
psychologicalpsikolojik teststestler.
186
553045
2272
örneğin psikolojik testler yapmaya.
Bunda güzel olan şey şu ki aldatmaca yok.
09:27
And the niceGüzel thing about this
is that there's no deceptionaldatma.
187
555341
2968
09:30
You are not providingsağlama dataveri to communicateiletişim kurmak
with your friendsarkadaşlar and familyaile
188
558333
3339
Arkadaşlarınızla ve ailenizle
iletişim kurmak için verdiğiniz veri
daha sonrasında siyasi
bir sistemde kullanılmıyor.
09:33
that then getsalır used in a politicalsiyasi systemsistem.
189
561696
3151
Sizin adınıza siyasi kararlar vermek için
tasarlanan bir sisteme veri sağlıyorsunuz.
09:36
You are providingsağlama dataveri to a systemsistem
that is designedtasarlanmış to be used
190
564871
3704
09:40
to make politicalsiyasi decisionskararlar
on your behalfadına.
191
568599
2116
09:43
Then you take that dataveri and you chooseseçmek
a trainingEğitim algorithmalgoritma,
192
571264
3980
Daha sonra o veriyi alıyor
ve bir eğitim algoritması seçiyorsunuz
09:47
because it's an openaçık marketplacepazar
193
575268
1563
çünkü bu, farklı insanların
verdiğiniz veriler bazında
09:48
in whichhangi differentfarklı people
can submitGönder differentfarklı algorithmsalgoritmalar
194
576855
2786
nasıl oy vereceğinizi tahmin eden farkı
algoritmalara yüklediği açık bir pazar.
09:51
to predicttahmin how you're going to voteoy,
basedmerkezli on the dataveri you have providedsağlanan.
195
579665
4394
Sistem açık, böylelikle de kimse
algoritmaları kontrol etmiyor;
09:56
And the systemsistem is openaçık,
so nobodykimse controlskontroller the algorithmsalgoritmalar;
196
584083
3455
daha popüler olan algoritmalar da
09:59
there are algorithmsalgoritmalar
that becomeolmak more popularpopüler
197
587562
2112
daha az popüler olanlar da var.
10:01
and othersdiğerleri that becomeolmak lessaz popularpopüler.
198
589698
1723
En sonunda sistemi denetleyebilirsiniz.
10:03
EventuallySonunda, you can auditDenetim the systemsistem.
199
591445
1807
Avatarınızın nasıl çalıştığını görebilir,
10:05
You can see how your avataravatar is workingçalışma.
200
593276
1881
beğenirseniz otomatik
pilotta bırakabilirsiniz.
10:07
If you like it,
you can leaveayrılmak it on autopilototomatik pilot.
201
595181
2152
Biraz daha fazla
denetleyici olmak istiyorsanız
10:09
If you want to be
a little more controllingkontrol,
202
597357
2062
bir karar verecekleri her seferinde
size sormalarını seçebilirsiniz
10:11
you can actuallyaslında chooseseçmek that they asksormak you
203
599443
1968
10:13
everyher time they're going
to make a decisionkarar,
204
601435
2068
veya arada bir yerde olabilirsiniz.
10:15
or you can be anywhereherhangi bir yer in betweenarasında.
205
603527
1635
Demokrasiyi bu kadar az
kullanmamızın nedenlerinden biri de
10:17
One of the reasonsnedenleri
why we use democracydemokrasi so little
206
605186
2405
10:19
mayMayıs ayı be because democracydemokrasi
has a very badkötü userkullanıcı interfacearayüzey.
207
607615
3568
demokrasinin çok kötü
bir kullanıcı arayüzü olması olabilir.
Eğer demokrasinin
kullanıcı arayüzünü geliştirebilirsek
10:23
And if we improveiyileştirmek the userkullanıcı
interfacearayüzey of democracydemokrasi,
208
611207
2483
daha fazla kullanabiliriz.
10:25
we mightbelki be ableyapabilmek to use it more.
209
613714
2127
Tabii ki, çok sorunuz olabilir.
10:28
Of coursekurs, there's a lot of questionssorular
that you mightbelki have.
210
616452
3207
Bu avatarları nasıl eğitirsiniz?
10:32
Well, how do you traintren these avatarsAvatarlar?
211
620473
2161
10:34
How do you keep the dataveri securegüvenli?
212
622658
1894
Verileri nasıl güvenli tutarsınız?
10:36
How do you keep the systemssistemler
distributeddağıtılmış and auditableDenetlene -bilir?
213
624576
3248
Sistemleri nasıl yayılmış
ve denetlenebilir tutarsınız?
10:39
How about my grandmotherbüyükanne,
who'skim 80 yearsyıl oldeski
214
627848
2062
Peki ya internetin nasıl kullanıldığını
bilmeyen 80 yaşındaki büyükannem?
10:41
and doesn't know how to use the internetInternet?
215
629946
1960
Bana güvenin, hepsini duydum.
10:44
TrustGüven me, I've heardduymuş them all.
216
632262
2221
Bunun gibi bir fikri düşündüğünüzde
karamsarlara dikkat etmek zorundasınız,
10:46
So when you think about an ideaFikir like this,
you have to bewaredikkatli olun of pessimistskötümserler
217
634507
4560
çünkü her çözümle
bir problemi olmalarıyla bilinirler.
10:51
because they are knownbilinen to have
a problemsorun for everyher solutionçözüm.
218
639091
4319
(Gülüşmeler)
10:55
(LaughterKahkaha)
219
643434
1825
Bu yüzden daha büyük fikirleri
düşünmeye sizi davet etmek istiyorum.
10:57
So I want to inviteDavet etmek you to think
about the biggerDaha büyük ideasfikirler.
220
645283
3040
11:00
The questionssorular I just showedgösterdi you
are little ideasfikirler
221
648347
3626
Size gösterdiğim sorular küçük fikirler,
11:03
because they are questionssorular
about how this would not work.
222
651997
2902
çünkü onlar bunun nasıl işe
yaramayacağı hakkında sorular.
Büyük fikirler şunlardır:
11:07
The bigbüyük ideasfikirler are ideasfikirler of:
223
655502
1981
11:09
What elsebaşka can you do with this
224
657507
1807
Eğer bu işe yaramazsa
bununla başka ne yapabilirsin?
11:11
if this would happenolmak to work?
225
659338
1889
Bu fikirlerden biri ise şu:
11:13
And one of those ideasfikirler is,
well, who writesyazıyor the lawsyasalar?
226
661774
3445
Kanunları kim yazıyor?
11:17
In the beginningbaşlangıç, we could have
the avatarsAvatarlar that we alreadyzaten have,
227
665854
4223
Başlangıçta çoktan var olan senatörler
veya politikacılar tarafından yazılmış
11:22
votingoylama on lawsyasalar that are writtenyazılı
by the senatorsSenatörler or politicianssiyasetçiler
228
670101
3497
kanunlara oy veren avatarlarımız olabilir.
11:25
that we alreadyzaten have.
229
673622
1351
11:27
But if this were to work,
230
675491
1714
Ancak bunun işe yaraması için
11:29
you could writeyazmak an algorithmalgoritma
231
677902
2350
belli bir oranda onay alacak bir kanunu
yazmaya çalışan bir algoritma yazabilir
11:32
that could try to writeyazmak a lawhukuk
232
680276
2150
11:34
that would get a certainbelli
percentageyüzde of approvalonay,
233
682450
2421
11:36
and you could reverseters the processsüreç.
234
684895
1782
ve süreci değiştirebilirsiniz.
11:38
Now, you mightbelki think that this ideaFikir
is ludicrousgülünç and we should not do it,
235
686701
3512
Bu düşüncenin saçma olduğunu
ve yapmamamız gerektiğini düşünebilirsiniz
11:42
but you cannotyapamam denyreddetmek that it's an ideaFikir
that is only possiblemümkün
236
690237
2786
ancak doğrudan demokrasinin
ve yazılım araçlarının
katılımın uygulanabilir
bir formu olduğu bir dünyada
11:45
in a worldDünya in whichhangi directdirekt democracydemokrasi
and softwareyazılım agentsajanları
237
693047
3020
bu düşüncenin mümkün
olduğunu inkar edemezsiniz.
11:48
are a viableyaşayabilir formform of participationkatılım.
238
696091
2656
11:52
So how do we startbaşlama the revolutiondevrim?
239
700596
2753
Peki, devrimi nasıl başlatıyoruz?
Protestolarla veya şu anki politikacıların
robotlara dönüşmesini talep ederek
11:56
We don't startbaşlama this revolutiondevrim
with picketkazık fencesçitler or protestsprotestolar
240
704238
3310
11:59
or by demandingzahmetli our currentşimdiki politicianssiyasetçiler
to be changeddeğişmiş into robotsrobotlar.
241
707572
4190
bu devrimi başlatmıyoruz.
12:03
That's not going to work.
242
711786
1549
Bu, işe yaramaz.
12:05
This is much more simplebasit,
243
713359
1612
Bu, çok daha basit,
12:06
much slowerYavaş
244
714995
1159
daha yavaş
12:08
and much more humblemütevazi.
245
716178
1414
ve çok daha alçakgönüllü.
Bu devrimi; yüksekokullar, kar amacı
gütmeyen yerler, kütüphaneler gibi
12:09
We startbaşlama this revolutiondevrim by creatingoluşturma
simplebasit systemssistemler like this in gradyüksek lisans schoolsokullar,
246
717616
4349
yerlerde basit sistemler
yaratarak başlatıyoruz.
12:13
in librarieskütüphaneler, in nonprofitskar amacı gütmeyen.
247
721989
2094
12:16
And we try to figureşekil out
all of those little questionssorular
248
724107
2654
Bu düşünceyi uygulanabilir
ve güvenilir yapmak için
12:18
and those little problemssorunlar
249
726785
1221
12:20
that we're going to have to figureşekil out
to make this ideaFikir something viableyaşayabilir,
250
728030
3901
bu küçük problemleri çözmeye çalışıyoruz.
12:23
to make this ideaFikir something
that we can trustgüven.
251
731955
2351
Yüzlerce, binlerce, yüz binlerce insanı
siyasi olarak zorlamayan bir şekilde
12:26
And as we createyaratmak those systemssistemler that have
a hundredyüz people, a thousandbin people,
252
734330
3635
12:29
a hundredyüz thousandbin people votingoylama
in waysyolları that are not politicallypolitik olarak bindingbağlama,
253
737989
3770
oy verdikleri bu sistemleri yarattıkça
bu düşünceye karşı güven oluşturacağız,
12:33
we're going to developgeliştirmek trustgüven in this ideaFikir,
254
741783
2018
dünya değişecek
12:35
the worldDünya is going to changedeğişiklik,
255
743825
1519
12:37
and those that are as little
as my daughterkız evlat is right now
256
745368
2875
ve şu anda kızım kadar
küçük olanlar büyüyecek.
12:40
are going to growbüyümek up.
257
748267
1337
12:42
And by the time my daughterkız evlat is my ageyaş,
258
750580
2369
Kızım benim yaşıma gelene kadar
12:44
maybe this ideaFikir, that I know
todaybugün is very crazyçılgın,
259
752973
4436
belki de bugün oldukça çılgın
olduğunu bildiğim bu düşünce
12:49
mightbelki not be crazyçılgın to her
and to her friendsarkadaşlar.
260
757433
4134
ona ve arkadaşlarına
hiç de çılgınca gelmeyebilir.
12:53
And at that pointpuan,
261
761956
1837
Bu noktada
12:55
we will be at the endson of our historytarih,
262
763817
2603
tarihimizin sonunda olacağız
ancak onlar, onlarınkinin
başlangıcında olacaklar.
12:58
but they will be
at the beginningbaşlangıç of theirsonların.
263
766444
2821
13:01
Thank you.
264
769646
1183
Teşekkür ederim.
13:02
(ApplauseAlkış)
265
770853
3042
(Alkış)
Translated by Gözde Alpçetin
Reviewed by Merve Kılıç

▲Back to top

ABOUT THE SPEAKER
César Hidalgo - Physicist
César Hidalgo studies how teams, cities and nations learn.

Why you should listen

César A. Hidalgo leads the Collective Learning group at The MIT Media Lab and is an associate professor of media arts and sciences at MIT. Hidalgo's work focuses on understanding how teams, organizations, cities and nations learn. At the Collective Learning group, Hidalgo develops software tools to facilitate learning in organizations. His academic publications have been cited more than 10,000 times, and his online systems, including the Observatory of Economic Complexity and DataUSA, have received more than 100 million views and numerous awards.

Hidalgo's latest book, Why Information Grows (2015), has been translated into 10+ languages. He is also the co-author of The Atlas of Economic Complexity (2014) and a co-founder of Datawheel LLC, a company that has professionalized the creation of large data visualization engines.

More profile about the speaker
César Hidalgo | Speaker | TED.com