ABOUT THE SPEAKER
Kenneth Cukier - Data Editor of The Economist
Kenneth Cukier is the Data Editor of The Economist. From 2007 to 2012 he was the Tokyo correspondent, and before that, the paper’s technology correspondent in London, where his work focused on innovation, intellectual property and Internet governance. Kenneth is also the co-author of Big Data: A Revolution That Will Transform How We Live, Work, and Think with Viktor Mayer-Schönberger in 2013, which was a New York Times Bestseller and translated into 16 languages.

Why you should listen

As Data Editor of The Economist and co-author of Big Data: A Revolution That Will Transform How We Live, Work, and Think, Kenneth Cukier has spent years immersed in big data, machine learning -- and the impact of both. What's the future of big data-driven technology and design? To find out, watch this talk.

More profile about the speaker
Kenneth Cukier | Speaker | TED.com
TEDSalon Berlin 2014

Kenneth Cukier: Big data is better data

Kenet Kukir (Kenneth Cukier): Veliki podaci su bolji podaci

Filmed:
1,663,038 views

Samoupravljajuća vozila su bila samo početak. Šta je budućnost tehnologije i dizajna potpomognutih velikim podacima? Kroz uzbudljiv naučni govor, Kenet Kukir razmatra šta je sledeće za mašinsko učenje - i ljudsko saznanje.
- Data Editor of The Economist
Kenneth Cukier is the Data Editor of The Economist. From 2007 to 2012 he was the Tokyo correspondent, and before that, the paper’s technology correspondent in London, where his work focused on innovation, intellectual property and Internet governance. Kenneth is also the co-author of Big Data: A Revolution That Will Transform How We Live, Work, and Think with Viktor Mayer-Schönberger in 2013, which was a New York Times Bestseller and translated into 16 languages. Full bio

Double-click the English transcript below to play the video.

00:12
America'sAmerike favoriteомиљени piepitu is?
0
787
3845
Koja je omiljena američka pita?
00:16
AudiencePubliku: AppleJabuka.
KennethKenneth CukierCukier: AppleJabuka. Of courseкурс it is.
1
4632
3506
Publika: Od jabuke.
Kenet Kukir: Od jabuke. Naravno.
Kako to znamo?
00:20
How do we know it?
2
8138
1231
00:21
Because of dataподаци.
3
9369
2753
Zbog podataka.
00:24
You look at supermarketсупер маркет salesпродаја.
4
12122
2066
Posmatramo rasprodaju u supermarketima,
00:26
You look at supermarketсупер маркет
salesпродаја of 30-centimeter-centimetar piesPite
5
14188
2866
prodaju zamrznutih pita prečnika 30 cm,
00:29
that are frozenсмрзнуто, and appleјабука winsпобеда, no contestтакмичење.
6
17054
4075
i jabuka pobeđuje.
Bez konkurencije.
Najveći deo prodaje je od jabuka.
00:33
The majorityвећина of the salesпродаја are appleјабука.
7
21129
5180
00:38
But then supermarketssupermarketi startedпочела sellingпродаја
8
26309
2964
Zatim su supermarketi
počeli da prodaju manje pite,
00:41
smallerмањи, 11-centimeter-centimetar piesPite,
9
29273
2583
pite prečnika 11 cm.
00:43
and suddenlyизненада, appleјабука fellпао to fourthчетврто or fifthпети placeместо.
10
31856
4174
Odjednom, jabuka pada
na četvrto ili peto mesto.
00:48
Why? What happenedдесило?
11
36030
2875
Zašto? Šta se dogodilo?
00:50
Okay, think about it.
12
38905
2818
Dobro. Razmislite o tome.
00:53
When you buyкупити a 30-centimeter-centimetar piepitu,
13
41723
3848
Kada kupite pitu od 30cm,
00:57
the wholeцела familyпородица has to agreeдоговорити се,
14
45571
2261
cela porodica mora da se složi,
00:59
and appleјабука is everyone'sсвима secondдруго favoriteомиљени.
15
47832
3791
a pita od jabuka je svima
drugi omiljeni izbor.
01:03
(LaughterSmeh)
16
51623
1935
(Smeh)
01:05
But when you buyкупити an individualпојединац 11-centimeter-centimetar piepitu,
17
53558
3615
Ali kad kupite zasebnu pitu od 11cm,
01:09
you can buyкупити the one that you want.
18
57173
3745
možete da kupite onu koju vi hoćete.
01:12
You can get your first choiceизбор.
19
60918
4015
Možete da uzmete vaš prvi izbor.
01:16
You have more dataподаци.
20
64933
1641
Imate više podataka.
01:18
You can see something
21
66574
1554
Možete da vidite nešto
01:20
that you couldn'tније могао see
22
68128
1132
što niste mogli da vidite
kada ste ih imali u manjim količinama.
01:21
when you only had smallerмањи amountsизноси of it.
23
69260
3953
Dakle, poenta je da više podataka
01:25
Now, the pointтачка here is that more dataподаци
24
73213
2475
01:27
doesn't just let us see more,
25
75688
2283
ne samo što nam omogućava da vidimo više,
01:29
more of the sameисти thing we were looking at.
26
77971
1854
više o tome što posmatramo.
01:31
More dataподаци allowsомогућава us to see newново.
27
79825
3613
Više podataka nam omogućava
da vidimo novo.
01:35
It allowsомогућава us to see better.
28
83438
3094
Omogućava nam da vidimo bolje.
01:38
It allowsомогућава us to see differentразличит.
29
86532
3656
Omogućava nam da vidimo različito.
01:42
In this caseслучај, it allowsомогућава us to see
30
90188
3173
U ovom slučaju, omogućava nam da vidimo
01:45
what America'sAmerike favoriteомиљени piepitu is:
31
93361
2913
koja je omiljena američka pita:
01:48
not appleјабука.
32
96274
2542
nije od jabuka.
01:50
Now, you probablyвероватно all have heardслушао the termтермина bigвелики dataподаци.
33
98816
3614
Svi ste verovatno čuli izraz
"veliki podaci".
01:54
In factчињеница, you're probablyвероватно sickболестан of hearingслух the termтермина
34
102430
2057
Verovatno vam je i loše
na pomenu izraza
01:56
bigвелики dataподаци.
35
104487
1630
"veliki podaci".
01:58
It is trueистина that there is a lot of hypeHype around the termтермина,
36
106117
3330
Tačno je da se podigla velika buka
oko ovog izraza,
02:01
and that is very unfortunateнесретни,
37
109447
2332
što je loše.
02:03
because bigвелики dataподаци is an extremelyизузетно importantважно toolоруђе
38
111779
3046
Zato što su veliki podaci veoma važan alat
02:06
by whichкоја societyдруштво is going to advanceунапред.
39
114825
3734
pomoću kog će društvo da napreduje.
02:10
In the pastпрошлост, we used to look at smallмали dataподаци
40
118559
3561
U prošlosti smo posmatrali "male podatke"
02:14
and think about what it would mean
41
122120
1704
i razmišljali o tome šta bi značilo
02:15
to try to understandРазумем the worldсвет,
42
123824
1496
da pokušamo da razumemo svet,
02:17
and now we have a lot more of it,
43
125320
1991
a sada ih imamo mnogo više,
02:19
more than we ever could before.
44
127311
2722
više nego što smo ikada imali.
02:22
What we find is that when we have
45
130033
1877
Shvatili smo da kada imamo
mnogo podataka,
02:23
a largeвелики bodyтело of dataподаци, we can fundamentallyфундаментално do things
46
131910
2724
u principu možemo uraditi stvari
02:26
that we couldn'tније могао do when we
only had smallerмањи amountsизноси.
47
134634
3276
koje nismo mogli sa manje podataka.
02:29
BigVeliki dataподаци is importantважно, and bigвелики dataподаци is newново,
48
137910
2641
Veliki podaci su bitni,
i to je nešto novo,
02:32
and when you think about it,
49
140551
1777
kada razmislimo o tome,
02:34
the only way this planetПланета is going to dealдоговор
50
142328
2216
jedini način na koji će se planeta suočiti
02:36
with its globalглобално challengesизазове
51
144544
1789
sa svojim globalnim izazovima -
02:38
to feedнапајање people, supplyснабдевање them with medicalмедицински careнега,
52
146333
3537
nahraniti ljude, obezbediti im
medicinsku negu,
02:41
supplyснабдевање them with energyенергија, electricityелектрична енергија,
53
149870
2810
pružiti im energiju, struju,
da se pobrine da ne izgore
02:44
and to make sure they're not burntзапаљен to a crispKrisp
54
152680
1789
02:46
because of globalглобално warmingзагревање
55
154469
1238
zbog globalnog zagrevanja -
02:47
is because of the effectiveефикасан use of dataподаци.
56
155707
4195
jeste zbog efikasne upotrebe podataka.
02:51
So what is newново about bigвелики
dataподаци? What is the bigвелики dealдоговор?
57
159902
3870
Šta je novo u vezi sa velikim podacima?
U čemu je velika caka?
02:55
Well, to answerодговор that questionпитање, let's think about
58
163772
2517
Da bismo odgovorili na to pitanje,
razmislimo kako su informacije izgledale,
02:58
what informationинформације lookedпогледао like,
59
166289
1896
03:00
physicallyфизички lookedпогледао like in the pastпрошлост.
60
168185
3034
fizički izgledale u prošlosti.
03:03
In 1908, on the islandострво of CreteCrete,
61
171219
3611
1908. godine na Kritu,
03:06
archaeologistsArheolozi discoveredоткривени a clayглине discdisk.
62
174830
4735
arheolozi su pronašli glineni disk.
03:11
They datedдатум it from 2000 B.C., so it's 4,000 yearsгодине oldстари.
63
179565
4059
Smestili su ga oko 2000. g. pre Hrista,
dakle star je 4000 godina.
03:15
Now, there's inscriptionsnatpisi on this discdisk,
64
183624
2004
Na tom disku postoji zapis,
03:17
but we actuallyзаправо don't know what it meansзначи.
65
185628
1327
ali ne znamo šta on znači.
03:18
It's a completeкомплетан mysteryМистерија, but the pointтачка is that
66
186955
2098
Potpuna je zagonetka,
ali poenta je u tome
03:21
this is what informationинформације used to look like
67
189053
1928
da su tako informacije izgledale
03:22
4,000 yearsгодине agoпре.
68
190981
2089
pre 4000 godina.
03:25
This is how societyдруштво storedskladište
69
193070
2548
Tako je društvo čuvalo
03:27
and transmittedprenose informationинформације.
70
195618
3524
i prenosilo informacije.
03:31
Now, societyдруштво hasn'tније advancedнапредни all that much.
71
199142
4160
Društvo nije baš toliko napredovalo.
03:35
We still storeпродавница informationинформације on discsdiskovi,
72
203302
3474
I dalje čuvamo informacije na diskovima,
03:38
but now we can storeпродавница a lot more informationинформације,
73
206776
3184
ali danas možemo da čuvamo mnogo više,
03:41
more than ever before.
74
209960
1260
više nego ikada.
03:43
SearchingPretraživanje it is easierлакше. CopyingKopiranje it easierлакше.
75
211220
3093
Pretraživanje je lakše.
Kopiranje je lakše.
03:46
SharingDijeljenje it is easierлакше. ProcessingObrada it is easierлакше.
76
214313
3500
Deljenje je lakše. Obrada je lakša.
03:49
And what we can do is we can reuseпоновна употреба this informationинформације
77
217813
2766
Možemo da koristimo te informacije iznova,
03:52
for usesкористи that we never even imaginedзамишљен
78
220579
1834
na načine na koje nismo ni zamišljali
03:54
when we first collectedприкупљени the dataподаци.
79
222413
3195
kada smo počeli da sakupljamo podatke.
03:57
In this respectпоштовање, the dataподаци has goneотишла
80
225608
2252
U tom smislu,
podaci su prešli iz skladištenja u protok.
03:59
from a stockакција to a flowток,
81
227860
3532
04:03
from something that is stationarystacionarni and staticstatički
82
231392
3938
Od nečega što je stacionarno i statično
04:07
to something that is fluidtečnost and dynamicдинамичан.
83
235330
3609
do nečega što je fluidno i dinamično.
04:10
There is, if you will, a liquiditylikvidnosti to informationинформације.
84
238939
4023
Ako ćemo tako,
informacija je kao tečnost.
04:14
The discdisk that was discoveredоткривени off of CreteCrete
85
242962
3474
Disk, koji je otkriven u blizini Krita,
04:18
that's 4,000 yearsгодине oldстари, is heavyтежак,
86
246436
3764
pre 4000 godina, je težak.
04:22
it doesn't storeпродавница a lot of informationинформације,
87
250200
1962
Ne sadrži puno informacija,
04:24
and that informationинформације is unchangeablenepromenljiv.
88
252162
3116
i te informacije su nepromenljive.
04:27
By contrastконтраст, all of the filesdatoteka
89
255278
4011
Nasuprot tome, svi fajlovi
04:31
that EdwardEdvard SnowdenSnowden tookузела
90
259289
1861
koje je Edvard Snouden uzeo
04:33
from the NationalNacionalni SecuritySigurnost
AgencyAgencija in the UnitedUjedinjeni StatesDržava
91
261150
2621
od Državne bezbednosne agencije u SAD-u
04:35
fitsодговара on a memoryмеморија stickштап
92
263771
2419
staju na memorijski uređaj
04:38
the sizeвеличине of a fingernailnokat,
93
266190
3010
veličine nokta,
04:41
and it can be sharedдељени at the speedбрзина of lightсветло.
94
269200
4745
i mogu se razmenjivati brzinom svetlosti.
04:45
More dataподаци. More.
95
273945
5255
Još podataka. Više.
Jedan razlog zašto danas
imamo toliko podataka
04:51
Now, one reasonразлог why we have
so much dataподаци in the worldсвет todayданас
96
279200
1974
04:53
is we are collectingприкупљање things
97
281174
1432
je što sakupljamo stvari
04:54
that we'veми смо always collectedприкупљени informationинформације on,
98
282606
3280
o kojima smo uvek skupljali informacije,
04:57
but anotherдруги reasonразлог why is we're takingузимајући things
99
285886
2656
ali drugi razlog je
zato što uzimamo stvari
05:00
that have always been informationalinformativne
100
288542
2812
koje su uvek bile informativne
05:03
but have never been renderedvizuelizuje into a dataподаци formatформату
101
291354
2486
ali nikad nisu prebačene u oblik podataka
05:05
and we are puttingстављање it into dataподаци.
102
293840
2419
i stavljamo ih u podatke.
05:08
Think, for exampleпример, the questionпитање of locationлокација.
103
296259
3308
Zamislite, npr. pitanje lokacije.
05:11
Take, for exampleпример, MartinMartin LutherLuter.
104
299567
2249
Uzmimo Martina Lutera za primer.
05:13
If we wanted to know in the 1500s
105
301816
1597
Da smo 1500. god. želeli da znamo
05:15
where MartinMartin LutherLuter was,
106
303413
2667
gde je Martin Luter,
05:18
we would have to followпратити him at all timesпута,
107
306080
2092
morali bismo da ga pratimo
u svakom trenutku,
05:20
maybe with a featherypernato quillpero and an inkwellmastilo,
108
308172
2137
možda sa perom i mastilom,
05:22
and recordзапис it,
109
310309
1676
i da to beležimo,
05:23
but now think about what it looksизглед like todayданас.
110
311985
2183
ali razmislite kako to izgleda danas.
05:26
You know that somewhereнегде,
111
314168
2122
Znate da negde,
05:28
probablyвероватно in a telecommunicationstelekomunikacije carrier'saviokompanije databaseбаза података,
112
316290
2446
verovatno u bazi podataka
telefonskog operatera,
05:30
there is a spreadsheetТабела or at leastнајмање a databaseбаза података entryулаз
113
318736
3036
postoji tabela ili bar podatak u bazi
05:33
that recordsзаписи your informationинформације
114
321772
2088
koji beleži informaciju
05:35
of where you've been at all timesпута.
115
323860
2063
o tome gde ste bili u svakom momentu.
05:37
If you have a cellмобилни phoneтелефон,
116
325923
1360
Ako imate mobilni telefon,
05:39
and that cellмобилни phoneтелефон has GPSGPS,
but even if it doesn't have GPSGPS,
117
327283
2847
koji ima GPS, čak i ako nema GPS,
05:42
it can recordзапис your informationинформације.
118
330130
2385
on čuva informacije.
05:44
In this respectпоштовање, locationлокација has been datafieddatafied.
119
332515
4084
U ovom smislu,
lokacija je postala "podatkovana".
05:48
Now think, for exampleпример, of the issueпитање of postureдржање,
120
336599
4601
Razmislimo, npr. o pitanju držanja,
05:53
the way that you are all sittingседење right now,
121
341200
1285
načinu na koji upravo sedite,
05:54
the way that you sitседите,
122
342485
2030
načinu na koji vi sedite,
05:56
the way that you sitседите, the way that you sitседите.
123
344515
2771
načinu na koji vi sedite, i vi.
05:59
It's all differentразличит, and it's a functionфункција of your legnoga lengthдужина
124
347286
2077
Svi se razlikuju, i zavise od dužine nogu
06:01
and your back and the contourskonture of your back,
125
349363
2093
i leđa i od konture leđa,
06:03
and if I were to put sensorsсензори,
maybe 100 sensorsсензори
126
351456
2531
i, ako bih postavio senzore,
možda 100 senzora
06:05
into all of your chairsстолице right now,
127
353987
1766
u sve vaše stolice,
06:07
I could createстворити an indexиндекс that's fairlyпоштено uniqueјединствен to you,
128
355753
3600
našao bih indeks koji je
jedinstven za svakoga,
06:11
sortврста of like a fingerprintotisak prsta, but it's not your fingerпрст.
129
359353
4409
kao otisak prsta, ali nije od prsta.
06:15
So what could we do with this?
130
363762
2969
Međutim, šta bismo mogli sa tim?
06:18
ResearchersIstraživači in TokyoTokio are usingКористећи it
131
366731
2397
Istraživači u Tokiju ga koriste
06:21
as a potentialпотенцијал anti-theftprotiv krađe deviceуређај in carsаутомобили.
132
369128
4388
kao potencijalni alarmni uređaj u kolima.
06:25
The ideaидеја is that the carjackerpljaиkaљ sitsседи behindиза the wheelточак,
133
373516
2924
Ideja je da ako za volan sedne lopov,
06:28
triesпокушава to streamстреам off, but the carауто recognizesprepoznaje
134
376440
2104
pokuša da pobegne,
ali automobil prepozna
06:30
that a non-approvedkoji nije odobren driverвозач is behindиза the wheelточак,
135
378544
2362
da za volanom nije odobreni vozač,
06:32
and maybe the engineмотор just stopsзауставља, unlessосим ако не you
136
380906
2164
možda zaustavi motor, osim ako vozač
06:35
typeтип in a passwordlozinka into the dashboardkontrolne table
137
383070
3177
ne unese šifru u kontrolnu tablu
06:38
to say, "Hey, I have authorizationAutorizacija to driveпогон." Great.
138
386247
4658
da kaže: "Hej, imam dozvolu da vozim".
Odlično!
06:42
What if everyсваки singleједно carауто in EuropeEurope
139
390905
2553
Šta ako bi svaki automobil u Evropi
06:45
had this technologyтехнологија in it?
140
393458
1457
imao ovu tehnologiju?
06:46
What could we do then?
141
394915
3165
Šta bismo mogli tada?
06:50
Maybe, if we aggregatedarhivskih the dataподаци,
142
398080
2240
Možda, kada bismo nagomilali podatke,
06:52
maybe we could identifyидентификовати telltalepokreti odaju signsзнаци
143
400320
3814
mogli bismo da uočimo znakove upozorenja
06:56
that bestнајбоље predictпредвидети that a carауто accidentнесрећа
144
404134
2709
koji najbolje predviđaju
da će se dogoditi automobilska nesreća
u narednih pet sekundi.
06:58
is going to take placeместо in the nextследећи fiveпет secondsсекунде.
145
406843
5893
Tada bismo u obliku podataka beležili
07:04
And then what we will have datafieddatafied
146
412736
2557
zamor vozača,
07:07
is driverвозач fatigueumor,
147
415293
1783
07:09
and the serviceуслуга would be when the carауто sensesчула
148
417076
2334
i svrha bi bila da kada kola osete
07:11
that the personособа slumpskrizu into that positionпозиција,
149
419410
3437
da je vozač upao u određeni položaj,
07:14
automaticallyаутоматски knowsзна, hey, setкомплет an internalинтерни alarmалармни
150
422847
3994
automatski kaže:
"Hej, pusti interni alarm."
kojim bi zavibrirao volan,
zatrubio iznutra i rekao
07:18
that would vibratevibrira the steeringуправљање wheelточак, honktuu insideу
151
426841
2025
07:20
to say, "Hey, wakeпробудити up,
152
428866
1721
"Hej, budi se!
07:22
payплатите more attentionпажњу to the roadпут."
153
430587
1904
obrati više pažnje na put."
07:24
These are the sortsсортс of things we can do
154
432491
1853
To su neke stvari koje možemo da uradimo
07:26
when we datafydatafy more aspectsаспекти of our livesживи.
155
434344
2821
kada prebacimo u podatke
više aspekata naših života.
07:29
So what is the valueвредност of bigвелики dataподаци?
156
437165
3675
Koja je vrednost velikih podataka?
07:32
Well, think about it.
157
440840
2190
Pa, razmislite o tome.
07:35
You have more informationинформације.
158
443030
2412
Imate više informacija.
Možete da uradite
ono što niste mogli ranije.
07:37
You can do things that you couldn'tније могао do before.
159
445442
3341
07:40
One of the mostнајвише impressiveимпресиван areasобласти
160
448783
1676
Jedna od najimpresivnijih oblasti
07:42
where this conceptконцепт is takingузимајући placeместо
161
450459
1729
u kojoj ovaj koncept igra ulogu
07:44
is in the areaподручје of machineмашина learningучење.
162
452188
3307
jeste mašinsko učenje.
07:47
MachineMašina learningучење is a branchогранак of artificialвештачки intelligenceинтелигенција,
163
455495
3077
Mašinsko učenje je
grana veštačke inteligencije,
07:50
whichкоја itselfсам is a branchогранак of computerрачунар scienceНаука.
164
458572
3378
koja je grana računarskih nauka.
07:53
The generalгенерално ideaидеја is that insteadуместо тога of
165
461950
1543
Glavna ideja je da umesto
07:55
instructingkao instruktor a computerрачунар what do do,
166
463493
2117
da kažemo računaru šta da radi,
07:57
we are going to simplyједноставно throwбацање dataподаци at the problemпроблем
167
465610
2620
jednostavno ubacimo podatke u problem
08:00
and tell the computerрачунар to figureфигура it out for itselfсам.
168
468230
3206
i kažemo računaru da ga reši sam.
Pomoći će vam da ga razumete
08:03
And it will help you understandРазумем it
169
471436
1777
08:05
by seeingвиди its originsпорекло.
170
473213
3552
gledajući u njegove korene.
08:08
In the 1950s, a computerрачунар scientistнаучник
171
476765
2388
U 1950-im, informatičar u IBM-u,
08:11
at IBMIBM namedназван ArthurArtur SamuelSamuel likedволи to playигра checkersmice,
172
479153
3592
Artur Semjuel, voleo je da igra "Damu",
te je napisao kompjuterski program
08:14
so he wroteнаписао a computerрачунар programпрограм
173
482745
1402
08:16
so he could playигра againstпротив the computerрачунар.
174
484147
2813
kako bi igrao protiv računara.
08:18
He playedиграо. He wonпобедио.
175
486960
2711
Igrao je. Pobedio je.
Igrao je. Pobedio je.
08:21
He playedиграо. He wonпобедио.
176
489671
2103
08:23
He playedиграо. He wonпобедио,
177
491774
3015
Igrao, pobedio.
08:26
because the computerрачунар only knewзнала
178
494789
1778
Jer je računar znao dozvoljene poteze.
08:28
what a legalправни moveпотез was.
179
496567
2227
Artur Semjuel je znao nešto drugo.
08:30
ArthurArtur SamuelSamuel knewзнала something elseдруго.
180
498794
2087
Artur Semjuel je poznavao strategiju.
08:32
ArthurArtur SamuelSamuel knewзнала strategyстратегија.
181
500881
4629
08:37
So he wroteнаписао a smallмали sub-programpod-programa alongsiderame uz rame sa it
182
505510
2396
Napisao je mali potprogram, pored ovog,
08:39
operatingоперативно in the backgroundбацкгроунд, and all it did
183
507906
1974
koji je radio u pozadini,
i samo računao verovatnoću
08:41
was scoreрезултат the probabilityвероватноћа
184
509880
1817
da data situacija na tabli pre vodi
08:43
that a givenдато boardодбор, табла configurationKonfiguracija would likelyвероватно leadолово
185
511697
2563
08:46
to a winningПобеђивати boardодбор, табла versusнаспрам a losingгубе boardодбор, табла
186
514260
2910
ka pobedničkoj tabli nego ka gubitničkoj,
08:49
after everyсваки moveпотез.
187
517170
2508
nakon svakog poteza.
08:51
He playsиграња the computerрачунар. He winsпобеда.
188
519678
3150
Igra protiv računara. Pobeđuje.
Igra protiv računara.
08:54
He playsиграња the computerрачунар. He winsпобеда.
189
522828
2508
Pobeđuje.
Igra protiv računara. Pobeđuje.
08:57
He playsиграња the computerрачунар. He winsпобеда.
190
525336
3731
Zatim je Artur Semjuel pustio računar
09:01
And then ArthurArtur SamuelSamuel leavesоставља the computerрачунар
191
529067
2277
da igra protiv sebe.
09:03
to playигра itselfсам.
192
531344
2227
09:05
It playsиграња itselfсам. It collectsсакупља more dataподаци.
193
533571
3509
Igrao je. Sakupljao je više podataka.
09:09
It collectsсакупља more dataподаци. It increasesповећава се
the accuracyтачност of its predictionпредвиђање.
194
537080
4309
Sakupljajući više podataka,
povećavao je tačnost svog predviđanja.
09:13
And then ArthurArtur SamuelSamuel goesиде back to the computerрачунар
195
541389
2104
Zatim se Artur Semjuel vratio do računara.
09:15
and he playsиграња it, and he losesizgubi,
196
543493
2318
Igra, i gubi.
09:17
and he playsиграња it, and he losesizgubi,
197
545811
2069
Igra, i gubi.
09:19
and he playsиграња it, and he losesizgubi,
198
547880
2047
Igra, i gubi.
09:21
and ArthurArtur SamuelSamuel has createdстворено a machineмашина
199
549927
2599
I tako je Artur Semjuel stvorio mašinu
09:24
that surpassesnadmašuje his abilityспособност in a taskзадатак that he taughtнаучио it.
200
552526
6288
koja prevazilazi njegove mogućnosti
u igri kojoj ju je naučio.
09:30
And this ideaидеја of machineмашина learningучење
201
558814
2498
Ova ideja mašinskog učenja
09:33
is going everywhereсвуда.
202
561312
3927
se širi na sve strane.
09:37
How do you think we have self-drivingna putevima carsаутомобили?
203
565239
3149
Šta mislite,
odakle nam samoupravljajuća vozila?
09:40
Are we any better off as a societyдруштво
204
568388
2137
Da li napredujemo kao društvo
09:42
enshriningokončao all the rulesправила of the roadпут into softwareсофтвер?
205
570525
3285
ubacivanjem svih pravila vožnje u softver?
09:45
No. MemoryMemorija is cheaperјефтиније. No.
206
573810
2598
Ne. Memorija je jeftinija. Ne.
09:48
AlgorithmsAlgoritmi are fasterбрже. No. ProcessorsProcesori are better. No.
207
576408
3994
Algoritmi su brži. Ne.
Procesori su brži. Ne.
Sve to je bitno, ali ne zbog toga.
09:52
All of those things matterматерија, but that's not why.
208
580402
2772
09:55
It's because we changedпромењено the natureприрода of the problemпроблем.
209
583174
3141
Nego zato što smo promenili
koren problema.
09:58
We changedпромењено the natureприрода of the problemпроблем from one
210
586315
1530
Promenili smo prirodu problema
09:59
in whichкоја we triedПокушали to overtlyotvoreno and explicitlyексплицитно
211
587845
2245
od one u kojoj smo direktno
objasnili računaru kako da vozi,
10:02
explainобјасни to the computerрачунар how to driveпогон
212
590090
2581
do one u kojoj kažemo:
10:04
to one in whichкоја we say,
213
592671
1316
10:05
"Here'sEvo a lot of dataподаци around the vehicleвозило.
214
593987
1876
"Evo ti mnogo podataka u vezi sa vozilom.
10:07
You figureфигура it out.
215
595863
1533
Shvati sam.
10:09
You figureфигура it out that that is a trafficсаобраћај lightсветло,
216
597396
1867
Shvati da je ovo svetlo na semaforu.
10:11
that that trafficсаобраћај lightсветло is redцрвена and not greenзелен,
217
599263
2081
Da je crveno, a ne zeleno.
10:13
that that meansзначи that you need to stop
218
601344
2014
Da to znači da moraš da staneš,
10:15
and not go forwardнапред."
219
603358
3083
a ne da nastaviš."
Mašinsko učenje je u osnovi
10:18
MachineMašina learningучење is at the basisоснове
220
606441
1518
10:19
of manyмноги of the things that we do onlineонлине:
221
607959
1991
mnogih stvari na mreži.
10:21
searchПретрага enginesмотори,
222
609950
1857
Pretraživači,
Amazonov personalizovani algoritam,
10:23
Amazon'sAmazon je personalizationPersonalizacija algorithmalgoritam,
223
611807
3801
računarsko prevođenje,
10:27
computerрачунар translationпревод,
224
615608
2212
10:29
voiceглас recognitionпризнање systemsсистема.
225
617820
4290
sistemi za prepoznavanje glasa.
Istraživači su skoro posmatrali
10:34
ResearchersIstraživači recentlyнедавно have lookedпогледао at
226
622110
2835
10:36
the questionпитање of biopsiesбиопсије,
227
624945
3195
problem biopsije.
Biopsije raka.
10:40
cancerouskancerogeni biopsiesбиопсије,
228
628140
2767
10:42
and they'veони су askedпитао the computerрачунар to identifyидентификовати
229
630907
2315
Pitali su računar da ustanovi
posmatrajući podatke
i stopu preživljavanja,
10:45
by looking at the dataподаци and survivalопстанак ratesстопе
230
633222
2471
10:47
to determineодредити whetherда ли је cellsћелије are actuallyзаправо
231
635693
4667
da odluči da li su ćelije zapravo
10:52
cancerouskancerogeni or not,
232
640360
2544
kancerogene ili ne.
10:54
and sure enoughдовољно, when you throwбацање the dataподаци at it,
233
642904
1778
Zasigurno, kada ubacite podatke,
10:56
throughкроз a machine-learningmašina-učenje algorithmalgoritam,
234
644682
2047
pomoću algoritma mašinskog učenja,
10:58
the machineмашина was ableу могуцности to identifyидентификовати
235
646729
1877
mašina je postala
sposobna da prepozna
11:00
the 12 telltalepokreti odaju signsзнаци that bestнајбоље predictпредвидети
236
648606
2262
12 znakova koji najbolje predviđaju
11:02
that this biopsyBiopsija of the breastдојке cancerрак cellsћелије
237
650868
3299
da je biopsija raka ćelija dojke
11:06
are indeedзаиста cancerouskancerogeni.
238
654167
3218
zaista zahvaćena rakom.
11:09
The problemпроблем: The medicalмедицински literatureлитературе
239
657385
2498
Problem?
Medicinska literatura je poznavala
samo devet od njih.
11:11
only knewзнала nineдевет of them.
240
659883
2789
Tri od tih simptoma su bili oni
11:14
ThreeTri of the traitsособине were onesоне
241
662672
1800
11:16
that people didn't need to look for,
242
664472
2975
koje ljudi nisu trebali da traže,
11:19
but that the machineмашина spottedspazio.
243
667447
5531
ali ih je mašina uočila.
11:24
Now, there are darkтамно sidesстране to bigвелики dataподаци as well.
244
672978
5925
Ali, postoji loša strana velikih podataka.
Unaprediće naše živote,
11:30
It will improveпобољшати our livesживи, but there are problemsпроблеми
245
678903
2074
ali postoje problemi
kojih moramo biti svesni.
11:32
that we need to be consciousсвесна of,
246
680977
2640
11:35
and the first one is the ideaидеја
247
683617
2623
Prvi od njih je ideja
da možemo biti kažnjeni za predviđanja,
11:38
that we mayможе be punishedkažnjeni for predictionsprognoze,
248
686240
2686
11:40
that the policeполиција mayможе use bigвелики dataподаци for theirњихова purposesсврхе,
249
688926
3870
da policija može koristiti velike podatke
u svoje svrhe,
11:44
a little bitмало like "MinorityManjina ReportIzveštaj."
250
692796
2351
nešto poput fima "Suvišni izveštaj".
Ovaj izraz zovemo
sposobnost predviđanja
11:47
Now, it's a termтермина calledпозвани predictivePREDIKTIVNA policingrad policije,
251
695147
2441
11:49
or algorithmicAlgoritamski criminologykriminologiju,
252
697588
2363
ili algoritamska kriminologija,
i ideja je da ako uzmemo mnogo podataka
11:51
and the ideaидеја is that if we take a lot of dataподаци,
253
699951
2036
11:53
for exampleпример where pastпрошлост crimesza zločine have been,
254
701987
2159
npr. mesta prošlih zločina,
znamo gde da pošaljemo patrole.
11:56
we know where to sendпошаљи the patrolspatrole.
255
704146
2543
11:58
That makesчини senseсмисао, but the problemпроблем, of courseкурс,
256
706689
2115
To ima smisla, ali problem je, naravno,
u tome što se neće završiti samo
na podacima o lokaciji.
12:00
is that it's not simplyједноставно going to stop on locationлокација dataподаци,
257
708804
4544
12:05
it's going to go down to the levelниво of the individualпојединац.
258
713348
2959
Ići će do ličnog nivoa.
Zašto ne koristimo podatke
12:08
Why don't we use dataподаци about the person'sособа
259
716307
2250
o nečijim ocenama iz srednje škole?
12:10
highвисоко schoolшкола transcripttranskript?
260
718557
2228
Možda da iskoristimo činjenice
12:12
Maybe we should use the factчињеница that
261
720785
1561
12:14
they're unemployedнезапослен or not, theirњихова creditкредит scoreрезултат,
262
722346
2028
o zaposlenosti, o kreditnom stanju,
12:16
theirњихова web-surfingWeb-surf behaviorпонашање,
263
724374
1552
o ponašanju na internetu,
da li su budni noću.
12:17
whetherда ли је they're up lateкасни at night.
264
725926
1878
Ako njihov Fitbit može da prepozna
njihove biohemijske parametre,
12:19
TheirNjihova FitbitFitbit, when it's ableу могуцности
to identifyидентификовати biochemistriesbiochemistries,
265
727804
3161
pokazaće kada imaju agresivne misli.
12:22
will showсхов that they have aggressiveагресиван thoughtsмисли.
266
730965
4236
Možemo imati algoritme
12:27
We mayможе have algorithmsалгоритми that are likelyвероватно to predictпредвидети
267
735201
2221
koji bi mogli predviđati
šta ćemo uraditi,
12:29
what we are about to do,
268
737422
1633
12:31
and we mayможе be heldОдржан accountableодговорни
269
739055
1244
i mogu nas smatrati odgovornim
12:32
before we'veми смо actuallyзаправо actedpostupio.
270
740299
2590
pre nego što delamo.
12:34
PrivacyPrivatnost was the centralцентрално challengeизазов
271
742889
1732
Privatnost je bila centralni izazov
12:36
in a smallмали dataподаци eraера.
272
744621
2880
u eri malih podataka.
U danima velikih podataka,
12:39
In the bigвелики dataподаци ageстарост,
273
747501
2149
12:41
the challengeизазов will be safeguardingoиuvanje freeбесплатно will,
274
749650
4523
izazov će biti zaštita slobodne volje,
moralnih izbora, ljudske volje,
12:46
moralморално choiceизбор, humanљудско volitionvoljom,
275
754173
3779
ljudske odlučnosti.
12:49
humanљудско agencyагенција.
276
757952
3068
12:54
There is anotherдруги problemпроблем:
277
762540
2225
Postoji još jedan problem.
12:56
BigVeliki dataподаци is going to stealукради our jobsпосао.
278
764765
3556
Veliki podaci će nam ukrasti poslove.
Veliki podaci i algoritmi će izazvati
13:00
BigVeliki dataподаци and algorithmsалгоритми are going to challengeизазов
279
768321
3512
kancelarijske, visoko obrazovane radnike
13:03
whiteбео collarogrlica, professionalпрофесионално knowledgeзнање work
280
771833
3061
13:06
in the 21stст centuryвек
281
774894
1653
dvadeset prvog veka
slično kao što su automatizacija
13:08
in the sameисти way that factoryфабрика automationAutomatizacija
282
776547
2434
13:10
and the assemblyмонтажа lineлине
283
778981
2189
i pokretna traka
izazvale radničku klasu u 20. veku.
13:13
challengedизазов blueПлави collarogrlica laborрад in the 20thтх centuryвек.
284
781170
3026
13:16
Think about a labлаб technicianтехничар
285
784196
2092
Setimo se laboratorijskog tehničara,
13:18
who is looking throughкроз a microscopemikroskop.
286
786288
1409
koji pod mikroskopom posmatra
13:19
at a cancerрак biopsyBiopsija
287
787697
1624
biopsiju raka
da bi zaključio da li je zahvaćena rakom.
13:21
and determiningодређивање whetherда ли је it's cancerouskancerogeni or not.
288
789321
2637
13:23
The personособа wentотишао to universityуниверзитет.
289
791958
1972
Ova osoba je završila fakultet.
13:25
The personособа buysкупује propertyимовина.
290
793930
1430
Ona kupuje imovinu.
13:27
He or she votesгласова.
291
795360
1741
On ili ona glasa.
On ili ona je član društva.
13:29
He or she is a stakeholderdeoničar in societyдруштво.
292
797101
3666
Posao ove osobe,
13:32
And that person'sособа jobпосао,
293
800767
1394
i celog niza stručnjaka
13:34
as well as an entireцео fleetflota
294
802161
1609
13:35
of professionalsпрофесионалци like that personособа,
295
803770
1969
kao što je ova osoba,
13:37
is going to find that theirњихова jobsпосао are radicallyрадикално changedпромењено
296
805739
3150
shvatiće da se njihov posao znatno menja
ili da će potpuno nestati.
13:40
or actuallyзаправо completelyу потпуности eliminatedелиминисан.
297
808889
2357
13:43
Now, we like to think
298
811246
1284
Volimo da mislimo
da će vremenom tehnologija praviti poslove
13:44
that technologyтехнологија createsствара jobsпосао over a periodраздобље of time
299
812530
3187
iza kratkog, privremenog doba dislokacije,
13:47
after a shortкратак, temporaryпривремени periodраздобље of dislocationdislokacija,
300
815717
3465
13:51
and that is trueистина for the frameРам of referenceреференца
301
819182
1941
što je i tačno za taj referentni okvir
u kom svi živimo, industrijsku revoluciju,
13:53
with whichкоја we all liveживи, the IndustrialIndustrijske RevolutionRevolucija,
302
821123
2142
13:55
because that's preciselyпрецизно what happenedдесило.
303
823265
2328
jer tako se tačno i dogodilo.
13:57
But we forgetзаборави something in that analysisанализа:
304
825593
2333
Međutim, u toj analizi zaboravljamo
13:59
There are some categoriesкатегорије of jobsпосао
305
827926
1830
da postoje kategorije poslova
14:01
that simplyједноставно get eliminatedелиминисан and never come back.
306
829756
3420
koje će jednostavno nestati
i neće se vratiti.
14:05
The IndustrialIndustrijske RevolutionRevolucija wasn'tније very good
307
833176
2004
Industrijska revolucija nije bila dobra
14:07
if you were a horseкоњ.
308
835180
4002
ako ste bili konj.
Dakle, moramo biti pažljivi,
14:11
So we're going to need to be carefulпажљив
309
839182
2055
14:13
and take bigвелики dataподаци and adjustприлагодите it for our needsпотребе,
310
841237
3514
i moramo velike podatke
prilagoditi našim potrebama,
14:16
our very humanљудско needsпотребе.
311
844751
3185
našim ljudskim potrebama.
Moramo biti gospodari tehnologije,
14:19
We have to be the masterмајстор of this technologyтехнологија,
312
847936
1954
14:21
not its servantслуга.
313
849890
1656
a ne njene sluge.
14:23
We are just at the outsetpočetka of the bigвелики dataподаци eraера,
314
851546
2958
Na samom smo početku
doba velikih podataka,
i iskreno, za sada ne rukujemo dobro
14:26
and honestlyискрено, we are not very good
315
854504
3150
podacima koje sada možemo da prikupimo.
14:29
at handlingруковање all the dataподаци that we can now collectсакупити.
316
857654
4207
To nije problem samo
Državne bezbednosne agencije.
14:33
It's not just a problemпроблем for
the NationalNacionalni SecuritySigurnost AgencyAgencija.
317
861861
3330
Firme sakupljaju dosta podataka,
i takođe ih ne koriste dobro,
14:37
BusinessesPreduzeća collectсакупити lots of
dataподаци, and they misusezloupotreba it too,
318
865191
3038
moramo ovladati time,
a za to je potrebno vreme.
14:40
and we need to get better at
this, and this will take time.
319
868229
3667
14:43
It's a little bitмало like the challengeизазов that was facedсуочена
320
871896
1822
Podseća na situaciju
kada se primitivni čovek suočio sa vatrom.
14:45
by primitiveпримитивна man and fireватра.
321
873718
2407
14:48
This is a toolоруђе, but this is a toolоруђе that,
322
876125
1885
To je alat, ali alat koji će nas opeći
ako ne budemo pažljivi.
14:50
unlessосим ако не we're carefulпажљив, will burnгорети us.
323
878010
3559
14:56
BigVeliki dataподаци is going to transformпреобразити how we liveживи,
324
884008
3120
Veliki podaci će promeniti
naš način života,
14:59
how we work and how we think.
325
887128
2801
način rada i razmišljanja.
15:01
It is going to help us manageуправљати our careersкаријере
326
889929
1889
Pomoći će nam
da organizujemo svoje karijere
15:03
and leadолово livesживи of satisfactionзадовољство and hopeнадати се
327
891818
3634
i da živimo zadovoljno i sa nadom,
u sreći i zdravlju.
15:07
and happinessсрећа and healthздравље,
328
895452
2992
15:10
but in the pastпрошлост, we'veми смо oftenчесто
lookedпогледао at informationинформације technologyтехнологија
329
898444
3306
Ranije smo često
od informacionih tehnologija
gledali samo u T,
15:13
and our eyesочи have only seenвиђено the T,
330
901750
2208
15:15
the technologyтехнологија, the hardwareхардваре,
331
903958
1686
u tehnologiju, u hardver,
zato što je to ono što je opipljivo.
15:17
because that's what was physicalфизички.
332
905644
2262
15:19
We now need to recastdruga glumica our gazepogled at the I,
333
907906
2924
Sada moramo da bacimo oko na I,
15:22
the informationинформације,
334
910830
1380
na informacije,
na ono manje uočljivo,
15:24
whichкоја is lessмање apparentOčigledno,
335
912210
1373
ali na određeni način mnogo bitnije.
15:25
but in some waysначини a lot more importantважно.
336
913583
4109
Čovečanstvo konačno uči iz informacija
15:29
HumanityHumanost can finallyконачно learnучи from the informationинформације
337
917692
3465
15:33
that it can collectсакупити,
338
921157
2418
koje može da prikupi,
15:35
as partдео of our timelessbezvremenski questpotraga
339
923575
2115
kao deo našeg vanvremenskog zadatka
15:37
to understandРазумем the worldсвет and our placeместо in it,
340
925690
3159
da shvatimo svet i naše mesto u njemu
i zato veliki podaci jesu velika stvar.
15:40
and that's why bigвелики dataподаци is a bigвелики dealдоговор.
341
928849
5631
(Aplauz)
15:46
(ApplauseAplauz)
342
934480
3568
Translated by Milana Stojadinov
Reviewed by Mile Živković

▲Back to top

ABOUT THE SPEAKER
Kenneth Cukier - Data Editor of The Economist
Kenneth Cukier is the Data Editor of The Economist. From 2007 to 2012 he was the Tokyo correspondent, and before that, the paper’s technology correspondent in London, where his work focused on innovation, intellectual property and Internet governance. Kenneth is also the co-author of Big Data: A Revolution That Will Transform How We Live, Work, and Think with Viktor Mayer-Schönberger in 2013, which was a New York Times Bestseller and translated into 16 languages.

Why you should listen

As Data Editor of The Economist and co-author of Big Data: A Revolution That Will Transform How We Live, Work, and Think, Kenneth Cukier has spent years immersed in big data, machine learning -- and the impact of both. What's the future of big data-driven technology and design? To find out, watch this talk.

More profile about the speaker
Kenneth Cukier | Speaker | TED.com