ABOUT THE SPEAKER
Kenneth Cukier - Data Editor of The Economist
Kenneth Cukier is the Data Editor of The Economist. From 2007 to 2012 he was the Tokyo correspondent, and before that, the paper’s technology correspondent in London, where his work focused on innovation, intellectual property and Internet governance. Kenneth is also the co-author of Big Data: A Revolution That Will Transform How We Live, Work, and Think with Viktor Mayer-Schönberger in 2013, which was a New York Times Bestseller and translated into 16 languages.

Why you should listen

As Data Editor of The Economist and co-author of Big Data: A Revolution That Will Transform How We Live, Work, and Think, Kenneth Cukier has spent years immersed in big data, machine learning -- and the impact of both. What's the future of big data-driven technology and design? To find out, watch this talk.

More profile about the speaker
Kenneth Cukier | Speaker | TED.com
TEDSalon Berlin 2014

Kenneth Cukier: Big data is better data

Kenneth Cukier: Big data to lepsze dane

Filmed:
1,663,038 views

Samosterujące samochody to zaledwie początek. Jaka będzie przyszłość techniki i projektowania napędzanego przez big data? Kenneth Cukier w tej porywającej naukowej prelekcji zarysowuje przyszłość uczenia maszynowego i wiedzy ludzkiej.
- Data Editor of The Economist
Kenneth Cukier is the Data Editor of The Economist. From 2007 to 2012 he was the Tokyo correspondent, and before that, the paper’s technology correspondent in London, where his work focused on innovation, intellectual property and Internet governance. Kenneth is also the co-author of Big Data: A Revolution That Will Transform How We Live, Work, and Think with Viktor Mayer-Schönberger in 2013, which was a New York Times Bestseller and translated into 16 languages. Full bio

Double-click the English transcript below to play the video.

00:12
America'sAmerica's favoriteulubiony piepie is?
0
787
3845
Ulubione ciasto Amerykanów to...?
00:16
AudiencePubliczność: AppleApple.
KennethKenneth CukierCukier: AppleApple. Of coursekurs it is.
1
4632
3506
Publiczność: Szarlotka.
Kenneth Cukier: Szarlotka, oczywiście.
00:20
How do we know it?
2
8138
1231
Skąd to wiemy?
00:21
Because of datadane.
3
9369
2753
Dzięki danym.
00:24
You look at supermarketsupermarket salesobroty.
4
12122
2066
Patrzymy na sprzedaż w supermarketach,
00:26
You look at supermarketsupermarket
salesobroty of 30-centimeter-centymetr piesPasztety
5
14188
2866
na sprzedaż 30-centymetrowych
mrożonych ciast.
00:29
that are frozenmrożony, and applejabłko winswygrywa, no contestzawody.
6
17054
4075
Szarlotka wygrywa bezapelacyjnie.
00:33
The majoritywiększość of the salesobroty are applejabłko.
7
21129
5180
Większość sprzedanych ciast
stanowi szarlotka.
00:38
But then supermarketsArtykuły spożywcze startedRozpoczęty sellingsprzedawanie
8
26309
2964
Ale kiedy supermarkety zaczęły sprzedawać
mniejsze, 11-centymetrowe ciasta,
00:41
smallermniejszy, 11-centimeter-centymetr piesPasztety,
9
29273
2583
00:43
and suddenlynagle, applejabłko fellspadł to fourthczwarty or fifthpiąty placemiejsce.
10
31856
4174
szarlotka nagle spadła
na czwarte czy piąte miejsce.
00:48
Why? What happenedstało się?
11
36030
2875
Dlaczego? Co się stało?
00:50
Okay, think about it.
12
38905
2818
Zastanówmy się.
00:53
When you buykupować a 30-centimeter-centymetr piepie,
13
41723
3848
Kiedy kupuje się 30-centymetrowe ciasto,
00:57
the wholecały familyrodzina has to agreeZgodzić się,
14
45571
2261
cała rodzina musi się zgodzić na smak,
00:59
and applejabłko is everyone'swszyscy seconddruga favoriteulubiony.
15
47832
3791
a szarlotka jest ich
drugim ulubionym ciastem.
01:03
(LaughterŚmiech)
16
51623
1935
(Śmiech)
01:05
But when you buykupować an individualindywidualny 11-centimeter-centymetr piepie,
17
53558
3615
Ale gdy kupuje się pojedyncze
11-centymetrowe ciasto,
01:09
you can buykupować the one that you want.
18
57173
3745
można wybrać to, na które się ma ochotę.
01:12
You can get your first choicewybór.
19
60918
4015
Można wybrać ciasto,
które lubimy najbardziej.
01:16
You have more datadane.
20
64933
1641
Mamy więcej danych.
01:18
You can see something
21
66574
1554
Można dostrzec coś, czego nie było widać,
01:20
that you couldn'tnie mógł see
22
68128
1132
mając do dyspozycji mniej danych.
01:21
when you only had smallermniejszy amountskwoty of it.
23
69260
3953
01:25
Now, the pointpunkt here is that more datadane
24
73213
2475
Ale większa ilość danych
01:27
doesn't just let us see more,
25
75688
2283
nie tylko pozwala dostrzec więcej
na temat obserwowanych elementów.
01:29
more of the samepodobnie thing we were looking at.
26
77971
1854
01:31
More datadane allowspozwala us to see newNowy.
27
79825
3613
Większa ilość danych pozwala
dostrzec coś nowego.
01:35
It allowspozwala us to see better.
28
83438
3094
Pozwala widzieć lepiej.
01:38
It allowspozwala us to see differentróżne.
29
86532
3656
Pozwala patrzeć w inny sposób.
01:42
In this casewalizka, it allowspozwala us to see
30
90188
3173
W tym przypadku umożliwia odkrycie,
01:45
what America'sAmerica's favoriteulubiony piepie is:
31
93361
2913
jakie jest ulubione ciasto Amerykanów.
01:48
not applejabłko.
32
96274
2542
Nie szarlotka.
01:50
Now, you probablyprawdopodobnie all have heardsłyszał the termsemestr bigduży datadane.
33
98816
3614
Na pewno każdy z was
słyszał termin "big data".
01:54
In factfakt, you're probablyprawdopodobnie sickchory of hearingprzesłuchanie the termsemestr
34
102430
2057
Pewnie macie już dosyć
słuchania o tych "wielkich danych".
01:56
bigduży datadane.
35
104487
1630
01:58
It is trueprawdziwe that there is a lot of hypehype around the termsemestr,
36
106117
3330
To prawda, że jest sporo
zamieszania wokół tego pojęcia,
02:01
and that is very unfortunateniefortunny,
37
109447
2332
a szkoda,
02:03
because bigduży datadane is an extremelyniezwykle importantważny toolnarzędzie
38
111779
3046
ponieważ big data
to niesamowicie ważne narzędzie,
02:06
by whichktóry societyspołeczeństwo is going to advancepostęp.
39
114825
3734
dzięki któremu społeczeństwo
może się rozwinąć.
02:10
In the pastprzeszłość, we used to look at smallmały datadane
40
118559
3561
W przeszłości analizowało się
małe zbiory danych,
02:14
and think about what it would mean
41
122120
1704
próbowało się wyciągnąć ogólne wnioski.
02:15
to try to understandzrozumieć the worldświat,
42
123824
1496
02:17
and now we have a lot more of it,
43
125320
1991
Teraz mamy więcej danych,
02:19
more than we ever could before.
44
127311
2722
więcej, niż mogliśmy mieć wcześniej.
02:22
What we find is that when we have
45
130033
1877
Okazuje się, że kiedy posiadamy
02:23
a largeduży bodyciało of datadane, we can fundamentallyzasadniczo do things
46
131910
2724
sporą ilość danych, możemy osiągnąć to,
czego wcześniej nie mogliśmy,
mając dostęp tylko do małej ilości danych.
02:26
that we couldn'tnie mógł do when we
only had smallermniejszy amountskwoty.
47
134634
3276
02:29
BigDuże datadane is importantważny, and bigduży datadane is newNowy,
48
137910
2641
Big data to ważna i nowa kwestia.
02:32
and when you think about it,
49
140551
1777
Jakby się nad tym zastanowić,
02:34
the only way this planetplaneta is going to dealsprawa
50
142328
2216
jedyny sposób,
by nasza planeta poradziła sobie
02:36
with its globalświatowy challengeswyzwania
51
144544
1789
z globalnymi wyzwaniami,
02:38
to feedkarmić people, supplyDostawa them with medicalmedyczny careopieka,
52
146333
3537
takimi jak nakarmienie ludności
i zapewnienie opieki medycznej,
02:41
supplyDostawa them with energyenergia, electricityElektryczność,
53
149870
2810
dostępność energii i elektryczności
oraz dopilnowanie,
żeby ludzie nie zamienili się w skwarki
z powodu globalnego ocieplenia,
02:44
and to make sure they're not burntspalony to a crispCrisp
54
152680
1789
02:46
because of globalświatowy warmingogrzewanie
55
154469
1238
02:47
is because of the effectiveefektywny use of datadane.
56
155707
4195
to efektywne wykorzystanie danych.
02:51
So what is newNowy about bigduży
datadane? What is the bigduży dealsprawa?
57
159902
3870
A więc co jest takiego nowego
w big data? O co chodzi?
02:55
Well, to answerodpowiedź that questionpytanie, let's think about
58
163772
2517
Najpierw zastanówmy się,
02:58
what informationInformacja lookedspojrzał like,
59
166289
1896
jaką fizyczną formę
miały kiedyś informacje.
03:00
physicallyfizycznie lookedspojrzał like in the pastprzeszłość.
60
168185
3034
03:03
In 1908, on the islandwyspa of CreteCrete,
61
171219
3611
W 1908 roku na Krecie
archeologowie znaleźli gliniany dysk.
03:06
archaeologistsArcheolodzy discoveredodkryty a clayglina discpłyty.
62
174830
4735
03:11
They datedprzestarzały it from 2000 B.C., so it's 4,000 yearslat oldstary.
63
179565
4059
Datowali go na rok 2000 p.n.e.,
czyli liczy sobie 4000 lat.
03:15
Now, there's inscriptionsnapisy on this discpłyty,
64
183624
2004
Na dysku znajduje się inskrypcja,
ale nie wiemy, co oznacza.
03:17
but we actuallytak właściwie don't know what it meansznaczy.
65
185628
1327
Jest to niewyjaśniona zagadka,
ale chodzi o to,
03:18
It's a completekompletny mysteryzagadka, but the pointpunkt is that
66
186955
2098
03:21
this is what informationInformacja used to look like
67
189053
1928
że tak właśnie wyglądały
informacje 4000 lat temu.
03:22
4,000 yearslat agotemu.
68
190981
2089
03:25
This is how societyspołeczeństwo storedzapisane
69
193070
2548
W ten sposób społeczeństwo przechowywało
03:27
and transmittedprzekazywane informationInformacja.
70
195618
3524
i przekazywało sobie informacje.
03:31
Now, societyspołeczeństwo hasn'tnie ma advancedzaawansowane all that much.
71
199142
4160
Społeczeństwo
wcale się tak bardzo nie rozwinęło.
03:35
We still storesklep informationInformacja on discsTarcze,
72
203302
3474
Wciąż przechowujemy informacje na dyskach,
03:38
but now we can storesklep a lot more informationInformacja,
73
206776
3184
choć teraz możemy przechować ich
więcej niż kiedykolwiek wcześniej.
03:41
more than ever before.
74
209960
1260
Wyszukiwanie jest łatwiejsze.
Kopiowanie jest łatwiejsze.
03:43
SearchingWyszukiwanie it is easierłatwiejsze. CopyingKopiowanie it easierłatwiejsze.
75
211220
3093
03:46
SharingUdostępnianie it is easierłatwiejsze. ProcessingPrzetwarzania it is easierłatwiejsze.
76
214313
3500
Przekazywanie jest łatwiejsze.
Przetwarzanie jest łatwiejsze.
03:49
And what we can do is we can reuseponowne użycie this informationInformacja
77
217813
2766
Możemy również
ponownie wykorzystać te informacje
03:52
for usesużywa that we never even imaginedwyobrażałem sobie
78
220579
1834
na sposoby, o jakich nie śniliśmy,
03:54
when we first collectedZebrane the datadane.
79
222413
3195
kiedy je zebraliśmy.
03:57
In this respectPoszanowanie, the datadane has goneodszedł
80
225608
2252
W ten sposób dane przeszły
03:59
from a stockZbiory to a flowpływ,
81
227860
3532
od bycia zasobem
do bycia środkiem płynnym,
04:03
from something that is stationarystacjonarne and staticstatyczne
82
231392
3938
od czegoś stacjonarnego i statycznego
04:07
to something that is fluidpłyn and dynamicdynamiczny.
83
235330
3609
do czegoś płynnego i dynamicznego.
04:10
There is, if you will, a liquiditypłynności to informationInformacja.
84
238939
4023
W informacji jest swoista płynność.
04:14
The discpłyty that was discoveredodkryty off of CreteCrete
85
242962
3474
Dysk znaleziony na Krecie,
04:18
that's 4,000 yearslat oldstary, is heavyciężki,
86
246436
3764
i który liczy sobie 4000 lat, jest ciężki,
04:22
it doesn't storesklep a lot of informationInformacja,
87
250200
1962
nie zawiera wielu informacji
04:24
and that informationInformacja is unchangeableNiezmienne.
88
252162
3116
i nie można ich zmienić.
04:27
By contrastkontrast, all of the filespliki
89
255278
4011
Dla porównania wszystkie pliki,
04:31
that EdwardEdward SnowdenSnowden tookwziął
90
259289
1861
które Edward Snowden zabrał
z Agencji Bezpieczeństwa Narodowego
w Stanach Zjednoczonych,
04:33
from the NationalKrajowe SecurityBezpieczeństwa
AgencyAgencja in the UnitedStany Zjednoczone StatesPaństwa
91
261150
2621
04:35
fitspasuje on a memorypamięć stickkij
92
263771
2419
zmieściły się na karcie pamięci
o wielkości paznokcia
04:38
the sizerozmiar of a fingernailpaznokieć,
93
266190
3010
04:41
and it can be sharedudostępniony at the speedprędkość of lightlekki.
94
269200
4745
i mogą być przesłane z prędkością światła.
04:45
More datadane. More.
95
273945
5255
Więcej danych. Więcej.
Mamy tak wiele danych między innymi
dlatego, że zbieramy coraz więcej rzeczy,
04:51
Now, one reasonpowód why we have
so much datadane in the worldświat todaydzisiaj
96
279200
1974
04:53
is we are collectingzbieranie things
97
281174
1432
04:54
that we'vemamy always collectedZebrane informationInformacja on,
98
282606
3280
o których zawsze zbieraliśmy informacje.
04:57
but anotherinne reasonpowód why is we're takingnabierający things
99
285886
2656
Kolejnym powodem
jest też wykorzystywanie rzeczy,
05:00
that have always been informationalinformacyjnych
100
288542
2812
które zawsze dostarczały informacji,
05:03
but have never been renderedrenderowane into a datadane formatformat
101
291354
2486
ale nigdy nie zostały
przetworzone w formie danych,
05:05
and we are puttingwprowadzenie it into datadane.
102
293840
2419
a teraz przekształcamy je w dane.
05:08
Think, for exampleprzykład, the questionpytanie of locationLokalizacja.
103
296259
3308
Zastanówcie się
na przykład nad lokalizacją.
05:11
Take, for exampleprzykład, MartinMartin LutherLuter.
104
299567
2249
Weźmy Marcina Lutra.
05:13
If we wanted to know in the 1500s
105
301816
1597
Gdybyśmy w XVI wieku chcieli wiedzieć,
gdzie jest Marcin Luter,
05:15
where MartinMartin LutherLuter was,
106
303413
2667
musielibyśmy za nim cały czas podążać,
05:18
we would have to followśledzić him at all timesczasy,
107
306080
2092
05:20
maybe with a featheryPierzaste quillGęsie pióro and an inkwellinkwell,
108
308172
2137
pewnie z piórem i kałamarzem,
05:22
and recordrekord it,
109
310309
1676
żeby zapisywać dane.
05:23
but now think about what it lookswygląda like todaydzisiaj.
110
311985
2183
Teraz zastanówcie się,
jak to wygląda dzisiaj.
05:26
You know that somewheregdzieś,
111
314168
2122
Wiecie, że gdzieś,
05:28
probablyprawdopodobnie in a telecommunicationsTelekomunikacja carrier'sprzewoźnika databaseBaza danych,
112
316290
2446
zapewne w bazie danych
operatora telefonicznego,
05:30
there is a spreadsheetarkusz or at leastnajmniej a databaseBaza danych entrywejście
113
318736
3036
znajduje się arkusz kalkulacyjny
albo wpis w bazie danych,
05:33
that recordsdokumentacja your informationInformacja
114
321772
2088
cały czas zbierający informacje o tym,
gdzie się znajdujecie.
05:35
of where you've been at all timesczasy.
115
323860
2063
Jeżeli macie telefon komórkowy
z systemem GPS,
05:37
If you have a cellkomórka phonetelefon,
116
325923
1360
05:39
and that cellkomórka phonetelefon has GPSGPS,
but even if it doesn't have GPSGPS,
117
327283
2847
a nawet jeżeli nie ma tam GPS-u,
może on zbierać informacje o was.
05:42
it can recordrekord your informationInformacja.
118
330130
2385
W ten sposób lokalizacja
została przekształcona w dane.
05:44
In this respectPoszanowanie, locationLokalizacja has been datafiedprzepływ danychdatafied.
119
332515
4084
05:48
Now think, for exampleprzykład, of the issuekwestia of posturepostawa,
120
336599
4601
Teraz pomyślcie o kwestii postury,
o sposobie, w jaki teraz siedzicie,
05:53
the way that you are all sittingposiedzenie right now,
121
341200
1285
05:54
the way that you sitsiedzieć,
122
342485
2030
w jaki ty siedzisz,
05:56
the way that you sitsiedzieć, the way that you sitsiedzieć.
123
344515
2771
w jaki ty siedzisz, ty również.
05:59
It's all differentróżne, and it's a functionfunkcjonować of your legnogi lengthdługość
124
347286
2077
Każdy jest inny i zależy to
od długości nóg
06:01
and your back and the contourskontury of your back,
125
349363
2093
czy kształtu pleców.
06:03
and if I were to put sensorsczujniki,
maybe 100 sensorsczujniki
126
351456
2531
Gdybym umieścił powiedzmy 100 sensorów
06:05
into all of your chairskrzesła right now,
127
353987
1766
w każdym z waszych krzeseł,
06:07
I could createStwórz an indexindeks that's fairlydość uniquewyjątkowy to you,
128
355753
3600
mógłbym stworzyć indeks
podporządkowany do każdej z osób.
06:11
sortsortować of like a fingerprintlinii papilarnych, but it's not your fingerpalec.
129
359353
4409
Coś jak linie papilarne,
z tym że nie na palcu.
06:15
So what could we do with this?
130
363762
2969
Co moglibyśmy z tym zrobić?
06:18
ResearchersNaukowcy in TokyoTokyo are usingza pomocą it
131
366731
2397
Badacze w Tokio wykorzystują to
06:21
as a potentialpotencjał anti-theftAnti-Theft deviceurządzenie in carssamochody.
132
369128
4388
przy tworzeniu urządzeń
zapobiegającym kradzieży samochodów.
06:25
The ideapomysł is that the carjackerw: carjacker sitssiedzi behindza the wheelkoło,
133
373516
2924
Założenie jest takie,
że złodziej siada za kierownicą,
próbuje odpalić samochód,
ale system rozpoznaje,
06:28
triespróbuje to streamstrumień off, but the carsamochód recognizesrozpoznaje
134
376440
2104
06:30
that a non-approvedniezatwierdzone driverkierowca is behindza the wheelkoło,
135
378544
2362
że za kierownicą siedzi
nieautoryzowany kierowca,
06:32
and maybe the enginesilnik just stopsprzystanki, unlesschyba że you
136
380906
2164
więc silnik musi zgasnąć,
06:35
typerodzaj in a passwordhasło into the dashboardPulpit nawigacyjny
137
383070
3177
chyba że wpisze się hasło,
06:38
to say, "Hey, I have authorizationautoryzacji to drivenapęd." Great.
138
386247
4658
by zapewnić samochód,
że możemy prowadzić. Świetnie.
06:42
What if everykażdy singlepojedynczy carsamochód in EuropeEuropy
139
390905
2553
Co by się stało,
gdyby każdy samochód w Europie
posiadał tę technikę?
06:45
had this technologytechnologia in it?
140
393458
1457
06:46
What could we do then?
141
394915
3165
Co moglibyśmy wtedy zrobić?
06:50
Maybe, if we aggregatedzagregowane the datadane,
142
398080
2240
Gdybyśmy zebrali te dane,
06:52
maybe we could identifyzidentyfikować telltaleTelltale signsznaki
143
400320
3814
moglibyśmy zidentyfikować wskaźniki,
06:56
that bestNajlepiej predictprzepowiadać, wywróżyć that a carsamochód accidentwypadek
144
404134
2709
które przewidują, że w ciągu
kolejnych pięciu sekund
06:58
is going to take placemiejsce in the nextNastępny fivepięć secondstowary drugiej jakości.
145
406843
5893
nastąpi wypadek samochodowy.
07:04
And then what we will have datafiedprzepływ danychdatafied
146
412736
2557
Moglibyśmy zebrać dane
o zmęczeniu za kierownicą,
07:07
is driverkierowca fatiguezmęczenie,
147
415293
1783
07:09
and the serviceusługa would be when the carsamochód sensesrozsądek
148
417076
2334
wtedy samochód wyczułby,
07:11
that the personosoba slumpsrozpryśnięć into that positionpozycja,
149
419410
3437
że kierowca osuwa się z siedzenia
07:14
automaticallyautomatycznie knowswie, hey, setzestaw an internalwewnętrzny alarmalarm
150
422847
3994
i automatycznie wiedziałby,
że ma uruchomić alarm.
07:18
that would vibratewibracje the steeringsterowniczy wheelkoło, honkHonk insidewewnątrz
151
426841
2025
Kierownica by zawibrowała,
włączyłby się klakson.
07:20
to say, "Hey, wakebudzić up,
152
428866
1721
Wszystko po to, żeby obudzić kierowcę
i nakazać mu większą ostrożność.
07:22
payzapłacić more attentionUwaga to the roadDroga."
153
430587
1904
07:24
These are the sortssortuje of things we can do
154
432491
1853
To właśnie możemy osiągnąć,
07:26
when we datafyprzepływ danychdatafy more aspectsaspekty of our liveszyje.
155
434344
2821
jeżeli więcej aspektów naszego życia
przekształcimy w dane.
07:29
So what is the valuewartość of bigduży datadane?
156
437165
3675
Jaka jest wartość big data?
07:32
Well, think about it.
157
440840
2190
Zastanówcie się.
07:35
You have more informationInformacja.
158
443030
2412
Macie więcej informacji.
07:37
You can do things that you couldn'tnie mógł do before.
159
445442
3341
Możecie osiągnąć więcej niż przedtem.
07:40
One of the mostwiększość impressiveimponujący areasobszary
160
448783
1676
Jedna z bardziej imponujących dziedzin,
w których wykorzystuje się ten pomysł,
07:42
where this conceptpojęcie is takingnabierający placemiejsce
161
450459
1729
07:44
is in the areapowierzchnia of machinemaszyna learninguczenie się.
162
452188
3307
jest uczenie maszynowe.
07:47
MachineMaszyny learninguczenie się is a branchgałąź of artificialsztuczny intelligenceinteligencja,
163
455495
3077
Uczenie maszynowe
to dziedzina sztucznej inteligencji,
07:50
whichktóry itselfsamo is a branchgałąź of computerkomputer sciencenauka.
164
458572
3378
która z kolei jest dziedziną informatyki.
07:53
The generalgenerał ideapomysł is that insteadzamiast of
165
461950
1543
Założenie jest takie,
07:55
instructingpouczając a computerkomputer what do do,
166
463493
2117
że zamiast instruować
komputer, co ma robić,
07:57
we are going to simplypo prostu throwrzucać datadane at the problemproblem
167
465610
2620
rozwiązujemy problem,
dając komputerowi dane,
08:00
and tell the computerkomputer to figurepostać it out for itselfsamo.
168
468230
3206
z którymi musi sobie sam poradzić.
08:03
And it will help you understandzrozumieć it
169
471436
1777
Łatwo można to zrozumieć,
przyglądając początkom tego zjawiska.
08:05
by seeingwidzenie its originspoczątki.
170
473213
3552
08:08
In the 1950s, a computerkomputer scientistnaukowiec
171
476765
2388
W latach 50. informatyk
08:11
at IBMIBM namedo imieniu ArthurArthur SamuelSamuel likedlubiany to playgrać checkersWarcaby,
172
479153
3592
pracujący w IBM, Arthur Samuel,
który lubił grać w warcaby,
08:14
so he wrotenapisał a computerkomputer programprogram
173
482745
1402
napisał program komputerowy,
żeby mógł grać z komputerem.
08:16
so he could playgrać againstprzeciwko the computerkomputer.
174
484147
2813
08:18
He playedgrał. He wonwygrał.
175
486960
2711
Grał. Wygrywał.
08:21
He playedgrał. He wonwygrał.
176
489671
2103
Grał. Wygrywał.
08:23
He playedgrał. He wonwygrał,
177
491774
3015
Grał. Wygrywał,
08:26
because the computerkomputer only knewwiedziałem
178
494789
1778
ponieważ komputer znał
wyłącznie dozwolone ruchy.
08:28
what a legalprawny moveruszaj się was.
179
496567
2227
08:30
ArthurArthur SamuelSamuel knewwiedziałem something elsejeszcze.
180
498794
2087
Arthur Samuel znał coś jeszcze:
08:32
ArthurArthur SamuelSamuel knewwiedziałem strategystrategia.
181
500881
4629
znał strategię.
08:37
So he wrotenapisał a smallmały sub-programpodprogram alongsideobok it
182
505510
2396
Dlatego napisał podprogram
działający w tle, który miał na celu
08:39
operatingoperacyjny in the backgroundtło, and all it did
183
507906
1974
08:41
was scorewynik the probabilityprawdopodobieństwo
184
509880
1817
po każdym ruchu obliczyć
prawdopodobieństwo tego,
08:43
that a givendany boardtablica configurationKonfiguracja would likelyprawdopodobne leadprowadzić
185
511697
2563
czy dany układ figur będzie prowadzić
do wygranej czy przegranej.
08:46
to a winningzwycięski boardtablica versusprzeciw a losingprzegrywający boardtablica
186
514260
2910
08:49
after everykażdy moveruszaj się.
187
517170
2508
08:51
He playsgra the computerkomputer. He winswygrywa.
188
519678
3150
Grał z komputerem. Wygrywał.
08:54
He playsgra the computerkomputer. He winswygrywa.
189
522828
2508
Grał z komputerem. Wygrywał.
08:57
He playsgra the computerkomputer. He winswygrywa.
190
525336
3731
Grał z komputerem. Wygrywał.
09:01
And then ArthurArthur SamuelSamuel leavesodchodzi the computerkomputer
191
529067
2277
Wtedy Arthur Samuel zostawił komputer,
09:03
to playgrać itselfsamo.
192
531344
2227
żeby grał sam ze sobą.
09:05
It playsgra itselfsamo. It collectszbiera more datadane.
193
533571
3509
Grał sam ze sobą, zbierał więcej danych.
09:09
It collectszbiera more datadane. It increaseswzrasta
the accuracyprecyzja of its predictionPrognoza.
194
537080
4309
Zbierał jeszcze więcej danych,
zwiększał dokładność przewidywań.
09:13
And then ArthurArthur SamuelSamuel goesidzie back to the computerkomputer
195
541389
2104
Potem Arthur Samuel wrócił do komputera,
09:15
and he playsgra it, and he losestraci,
196
543493
2318
żeby z nim zagrać - i przegrał.
09:17
and he playsgra it, and he losestraci,
197
545811
2069
Grał i przegrywał,
09:19
and he playsgra it, and he losestraci,
198
547880
2047
grał i przegrywał.
09:21
and ArthurArthur SamuelSamuel has createdstworzony a machinemaszyna
199
549927
2599
W ten sposób Arthur Samuel
stworzył maszynę,
09:24
that surpassesPrzewyższa his abilityzdolność in a taskzadanie that he taughtnauczony it.
200
552526
6288
która przewyższała jego umiejętności
związane z zadaniem,
którego sam ją nauczył.
09:30
And this ideapomysł of machinemaszyna learninguczenie się
201
558814
2498
Ten sposób uczenia się maszyn
jest wdrażany wszędzie.
09:33
is going everywherewszędzie.
202
561312
3927
09:37
How do you think we have self-drivingSelf-jazdy carssamochody?
203
565239
3149
Jak myślicie, skąd się wzięły
samosterujące samochody?
09:40
Are we any better off as a societyspołeczeństwo
204
568388
2137
Czy jako społeczeństwo zyskujemy jakoś,
09:42
enshriningOchrona all the ruleszasady of the roadDroga into softwareoprogramowanie?
205
570525
3285
wgrywając zasady ruchu drogowego
do oprogramowania?
09:45
No. MemoryPamięci is cheapertaniej. No.
206
573810
2598
Nie. Pamięć jest tańsza. Nie.
09:48
AlgorithmsAlgorytmy are fasterszybciej. No. ProcessorsProcesorów are better. No.
207
576408
3994
Algorytmy są szybsze. Nie.
Procesory są lepsze. Nie.
09:52
All of those things mattermateria, but that's not why.
208
580402
2772
To wszystko ma znaczenie,
ale nie stanowi głównego powodu.
09:55
It's because we changedzmienione the natureNatura of the problemproblem.
209
583174
3141
Chodzi o to, że zmieniliśmy
istotę problemu.
09:58
We changedzmienione the natureNatura of the problemproblem from one
210
586315
1530
Początkowo chcieliśmy bezpośrednio
09:59
in whichktóry we triedwypróbowany to overtlyotwarcie and explicitlywyraźnie
211
587845
2245
10:02
explainwyjaśniać to the computerkomputer how to drivenapęd
212
590090
2581
wyjaśnić komputerowi, jak ma jeździć,
z kolei teraz stwierdzamy:
10:04
to one in whichktóry we say,
213
592671
1316
10:05
"Here'sTutaj jest a lot of datadane around the vehiclepojazd.
214
593987
1876
"Masz tu masę danych z otoczenia pojazdu.
10:07
You figurepostać it out.
215
595863
1533
10:09
You figurepostać it out that that is a trafficruch drogowy lightlekki,
216
597396
1867
Sam rozpoznaj światło sygnalizacyjne,
10:11
that that trafficruch drogowy lightlekki is redczerwony and not greenZielony,
217
599263
2081
że światło jest czerwone, a nie zielone,
10:13
that that meansznaczy that you need to stop
218
601344
2014
że trzeba się wtedy zatrzymać,
10:15
and not go forwardNaprzód."
219
603358
3083
a nie jechać dalej".
10:18
MachineMaszyny learninguczenie się is at the basispodstawa
220
606441
1518
Uczenie maszynowe
leży u podstaw wielu rzeczy w sieci,
10:19
of manywiele of the things that we do onlineonline:
221
607959
1991
takich jak wyszukiwarki internetowe,
10:21
searchszukanie enginessilniki,
222
609950
1857
10:23
Amazon'sAmazon personalizationPersonalizacja algorithmalgorytm,
223
611807
3801
algorytm personalizujący Amazona,
10:27
computerkomputer translationtłumaczenie,
224
615608
2212
tłumaczenie komputerowe,
10:29
voicegłos recognitionuznanie systemssystemy.
225
617820
4290
systemy rozpoznawania głosu.
10:34
ResearchersNaukowcy recentlyostatnio have lookedspojrzał at
226
622110
2835
Badacze przyglądają się ostatnio
kwestii biopsji,
10:36
the questionpytanie of biopsiesbiopsje,
227
624945
3195
10:40
cancerousnowotworowych biopsiesbiopsje,
228
628140
2767
biopsji nowotworów.
10:42
and they'veoni askedspytał the computerkomputer to identifyzidentyfikować
229
630907
2315
Kazali komputerowi zidentyfikować,
10:45
by looking at the datadane and survivalprzetrwanie ratesstawki
230
633222
2471
za pomocą danych
i współczynników przeżycia,
10:47
to determineustalać whetherczy cellskomórki are actuallytak właściwie
231
635693
4667
czy badane komórki
są faktycznie komórkami nowotworowymi.
10:52
cancerousnowotworowych or not,
232
640360
2544
10:54
and sure enoughdość, when you throwrzucać the datadane at it,
233
642904
1778
Kiedy przepuszczono dane
przez algorytm uczenia maszynowego,
10:56
throughprzez a machine-learningUczenie maszynowe algorithmalgorytm,
234
644682
2047
10:58
the machinemaszyna was ablezdolny to identifyzidentyfikować
235
646729
1877
maszyna była w stanie zidentyfikować
11:00
the 12 telltaleTelltale signsznaki that bestNajlepiej predictprzepowiadać, wywróżyć
236
648606
2262
12 wyznaczników, które wskazywały na to,
11:02
that this biopsyBiopsja of the breastpierś cancernowotwór cellskomórki
237
650868
3299
że dane komórki pobrane z piersi
są nowotworowe.
11:06
are indeedw rzeczy samej cancerousnowotworowych.
238
654167
3218
11:09
The problemproblem: The medicalmedyczny literatureliteratura
239
657385
2498
Jest jednak problem,
mianowicie medycyna znała tylko dziewięć.
11:11
only knewwiedziałem ninedziewięć of them.
240
659883
2789
11:14
ThreeTrzy of the traitscechy were oneste
241
662672
1800
Na trzy pozostałe nie zwracano uwagi,
11:16
that people didn't need to look for,
242
664472
2975
11:19
but that the machinemaszyna spottedzauważony.
243
667447
5531
ale maszyna je znalazła.
11:24
Now, there are darkciemny sidesboki to bigduży datadane as well.
244
672978
5925
Oczywiście istnieje też
ciemna strona big data.
11:30
It will improveulepszać our liveszyje, but there are problemsproblemy
245
678903
2074
Dane pomagają w życiu, jednak są problemy,
11:32
that we need to be consciousprzytomny of,
246
680977
2640
których musimy być świadomi.
11:35
and the first one is the ideapomysł
247
683617
2623
Pierwszy z nich wiąże się z tym,
że możemy być karani z powodu przewidywań.
11:38
that we maymoże be punishedukarany for predictionsprognozy,
248
686240
2686
11:40
that the policePolicja maymoże use bigduży datadane for theirich purposescele,
249
688926
3870
Policja może używać big data
do swoich celów,
11:44
a little bitkawałek like "MinorityMniejszościowych ReportRaport."
250
692796
2351
tak jak w "Raporcie mniejszości".
11:47
Now, it's a termsemestr callednazywa predictivepredykcyjne policingdziałania policji,
251
695147
2441
Tutaj chodzi o "predictive policing",
11:49
or algorithmicalgorytmicznych criminologyKryminologii,
252
697588
2363
czyli kryminologię algorytmiczną.
11:51
and the ideapomysł is that if we take a lot of datadane,
253
699951
2036
Jeżeli zbierzemy dużo danych
11:53
for exampleprzykład where pastprzeszłość crimeszbrodnie have been,
254
701987
2159
o tym, gdzie popełniane były zbrodnie,
11:56
we know where to sendwysłać the patrolspatrole.
255
704146
2543
będziemy wiedzieli, gdzie wysyłać patrole.
11:58
That makesczyni sensesens, but the problemproblem, of coursekurs,
256
706689
2115
Ma to sens, natomiast problem
polega na tym, że nie będzie to zawężone
12:00
is that it's not simplypo prostu going to stop on locationLokalizacja datadane,
257
708804
4544
do danych na temat lokalizacji,
12:05
it's going to go down to the levelpoziom of the individualindywidualny.
258
713348
2959
ale także wskazywać jednostki.
Dlaczego nie użyć danych
dotyczących czyichś wyników w nauce?
12:08
Why don't we use datadane about the person'sosoby
259
716307
2250
12:10
highwysoki schoolszkoła transcriptzapis?
260
718557
2228
Może powinniśmy uwzględnić fakt,
12:12
Maybe we should use the factfakt that
261
720785
1561
12:14
they're unemployedbezrobotny or not, theirich creditkredyt scorewynik,
262
722346
2028
że ktoś jest bezrobotny
czy posiada zdolność kredytową,
12:16
theirich web-surfingsurfowanie po Internecie behaviorzachowanie,
263
724374
1552
jak zachowuje się w internecie,
czy późno kładzie się spać.
12:17
whetherczy they're up latepóźno at night.
264
725926
1878
12:19
TheirIch FitbitFitbit, when it's ablezdolny
to identifyzidentyfikować biochemistriesbiochemistries,
265
727804
3161
Opaska fitness, gdy zacznie
monitorować procesy biochemiczne,
12:22
will showpokazać that they have aggressiveagresywny thoughtsmyśli.
266
730965
4236
będzie mogła wykazać,
że ktoś ma agresywne skłonności.
12:27
We maymoże have algorithmsalgorytmy that are likelyprawdopodobne to predictprzepowiadać, wywróżyć
267
735201
2221
Powstaną algorytmy zdolne przewidzieć,
12:29
what we are about to do,
268
737422
1633
co mamy zamiar zrobić
12:31
and we maymoże be heldtrzymany accountableodpowiedzialny
269
739055
1244
i uznać osobę za winną,
zanim cokolwiek uczyni.
12:32
before we'vemamy actuallytak właściwie acteddziałał.
270
740299
2590
Prywatność była głównym wyzwaniem
12:34
PrivacyPrywatność was the centralcentralny challengewyzwanie
271
742889
1732
12:36
in a smallmały datadane eraera.
272
744621
2880
przed erą big data.
12:39
In the bigduży datadane agewiek,
273
747501
2149
W erze big data
12:41
the challengewyzwanie will be safeguardingOchrona freewolny will,
274
749650
4523
wyzwaniem będzie ochrona wolnej woli,
12:46
moralmorał choicewybór, humanczłowiek volitionVolition,
275
754173
3779
moralnego wyboru, podejmowania decyzji,
12:49
humanczłowiek agencyagencja.
276
757952
3068
sprawczości.
12:54
There is anotherinne problemproblem:
277
762540
2225
Istnieje kolejny problem.
12:56
BigDuże datadane is going to stealkraść our jobsOferty pracy.
278
764765
3556
Big data zabiorą nam pracę.
13:00
BigDuże datadane and algorithmsalgorytmy are going to challengewyzwanie
279
768321
3512
Big data i algorytmy zagrożą
13:03
whitebiały collarkołnierz, professionalprofesjonalny knowledgewiedza, umiejętności work
280
771833
3061
białym kołnierzykom,
pracownikom umysłowym w XXI wieku,
13:06
in the 21stul centurystulecie
281
774894
1653
w ten sam sposób,
w jaki zautomatyzowanie produkcji
13:08
in the samepodobnie way that factoryfabryka automationAutomatyzacja
282
776547
2434
13:10
and the assemblymontaż linelinia
283
778981
2189
i linie produkcyjne
zagroziły niebieskim kołnierzykom,
13:13
challengedzakwestionowany blueniebieski collarkołnierz laborpraca in the 20thth centurystulecie.
284
781170
3026
czyli robotnikom, w XX wieku.
13:16
Think about a lablaboratorium techniciantechnik
285
784196
2092
Pomyślcie o laborancie,
13:18
who is looking throughprzez a microscopemikroskopu
286
786288
1409
który bada przez mikroskop
materiał z biopsji,
13:19
at a cancernowotwór biopsyBiopsja
287
787697
1624
13:21
and determiningokreślanie whetherczy it's cancerousnowotworowych or not.
288
789321
2637
żeby ocenić, czy są to
komórki nowotworowe.
13:23
The personosoba wentposzedł to universityUniwersytet.
289
791958
1972
Ta osoba kształciła się na uniwersytecie,
13:25
The personosoba buyskupuje propertynieruchomość.
290
793930
1430
kupuje nieruchomości,
13:27
He or she votesgłosów.
291
795360
1741
głosuje,
13:29
He or she is a stakeholderzainteresowanych stron in societyspołeczeństwo.
292
797101
3666
wnosi wkład do społeczeństwa.
13:32
And that person'sosoby jobpraca,
293
800767
1394
I praca tej osoby,
13:34
as well as an entireCały fleetfloty
294
802161
1609
podobnie jak praca całego sztabu
podobnych specjalistów,
13:35
of professionalsprofesjonaliści like that personosoba,
295
803770
1969
13:37
is going to find that theirich jobsOferty pracy are radicallyradykalnie changedzmienione
296
805739
3150
może ulec drastycznej zmianie,
13:40
or actuallytak właściwie completelycałkowicie eliminatedwyłączony.
297
808889
2357
bądź też stać się całkowicie zbędna.
13:43
Now, we like to think
298
811246
1284
Wyobrażamy to sobie tak,
13:44
that technologytechnologia createstworzy jobsOferty pracy over a periodokres of time
299
812530
3187
że technika z czasem
stworzy miejsca pracy,
13:47
after a shortkrótki, temporarychwilowy periodokres of dislocationzwichnięcie,
300
815717
3465
po chwilowych zawirowaniach.
To prawda, jeśli myślimy w kategoriach
13:51
and that is trueprawdziwe for the framerama of referenceodniesienie
301
819182
1941
13:53
with whichktóry we all liverelacja na żywo, the IndustrialPrzemysłowe RevolutionRewolucja,
302
821123
2142
zmian w czasach rewolucji przemysłowej,
13:55
because that's preciselydokładnie what happenedstało się.
303
823265
2328
gdzie nastąpiło dokładnie coś takiego.
13:57
But we forgetzapomnieć something in that analysisanaliza:
304
825593
2333
Ale o czymś zapominamy,
13:59
There are some categorieskategorie of jobsOferty pracy
305
827926
1830
mianowicie są pewne zawody,
14:01
that simplypo prostu get eliminatedwyłączony and never come back.
306
829756
3420
które znikną i już nigdy nie powrócą.
14:05
The IndustrialPrzemysłowe RevolutionRewolucja wasn'tnie było very good
307
833176
2004
Rewolucja przemysłowa
uderzyła w pozycję koni na rynku pracy.
14:07
if you were a horsekoń.
308
835180
4002
14:11
So we're going to need to be carefulostrożny
309
839182
2055
Dlatego musimy być ostrożni
14:13
and take bigduży datadane and adjustdostosować it for our needswymagania,
310
841237
3514
i dostosować big data do naszych potrzeb,
14:16
our very humanczłowiek needswymagania.
311
844751
3185
naszych ludzkich potrzeb.
14:19
We have to be the mastermistrz of this technologytechnologia,
312
847936
1954
Musimy być panami tej techniki,
14:21
not its servantsługa.
313
849890
1656
nie jej sługami.
14:23
We are just at the outsetpoczątku of the bigduży datadane eraera,
314
851546
2958
Jesteśmy na samym początku ery big data
14:26
and honestlyszczerze, we are not very good
315
854504
3150
i szczerze powiedziawszy,
nie radzimy sobie zbyt dobrze
14:29
at handlingobsługa all the datadane that we can now collectzebrać.
316
857654
4207
z danymi, które jesteśmy w stanie zebrać.
14:33
It's not just a problemproblem for
the NationalKrajowe SecurityBezpieczeństwa AgencyAgencja.
317
861861
3330
Nie jest to tylko wyzwanie
dla Agencji Bezpieczeństwa Narodowego.
Przedsiębiorstwa również zbierają dane
i niewłaściwie ich używają.
14:37
BusinessesPrzedsiębiorstw collectzebrać lots of
datadane, and they misuseniewłaściwe użycie it too,
318
865191
3038
14:40
and we need to get better at
this, and this will take time.
319
868229
3667
Musimy się poprawić,
a to będzie wymagało czasu.
14:43
It's a little bitkawałek like the challengewyzwanie that was facedw obliczu
320
871896
1822
Jest to podobne do wyzwania,
jakie w prehistorii stanowił ogień.
14:45
by primitiveprymitywny man and fireogień.
321
873718
2407
14:48
This is a toolnarzędzie, but this is a toolnarzędzie that,
322
876125
1885
To narzędzie jest w stanie nas spalić,
14:50
unlesschyba że we're carefulostrożny, will burnpalić się us.
323
878010
3559
jeżeli nie będziemy ostrożni.
14:56
BigDuże datadane is going to transformprzekształcać how we liverelacja na żywo,
324
884008
3120
Big data zmienią nasze życie,
pracę, nasze myślenie.
14:59
how we work and how we think.
325
887128
2801
15:01
It is going to help us managezarządzanie our careerskariery
326
889929
1889
Pomogą nam kierować swoją karierą
15:03
and leadprowadzić liveszyje of satisfactionzadowolenie and hopenadzieja
327
891818
3634
i prowadzić satysfakcjonujące życie,
15:07
and happinessszczęście and healthzdrowie,
328
895452
2992
pełne nadziei, szczęścia i zdrowia.
15:10
but in the pastprzeszłość, we'vemamy oftenczęsto
lookedspojrzał at informationInformacja technologytechnologia
329
898444
3306
Natomiast w przeszłości
patrzyliśmy na technikę informacyjną,
15:13
and our eyesoczy have only seenwidziany the T,
330
901750
2208
widząc tylko literę T,
15:15
the technologytechnologia, the hardwaresprzęt komputerowy,
331
903958
1686
technikę, sprzęt,
15:17
because that's what was physicalfizyczny.
332
905644
2262
ponieważ to było coś fizycznego.
15:19
We now need to recastprzekształcenie our gazewzrok at the I,
333
907906
2924
Teraz musimy zacząć patrzeć na literę I,
15:22
the informationInformacja,
334
910830
1380
informację, która jest mniej namacalna,
15:24
whichktóry is lessmniej apparentpozorna,
335
912210
1373
15:25
but in some wayssposoby a lot more importantważny.
336
913583
4109
ale w pewnym sensie istotniejsza.
15:29
HumanityLudzkości can finallywreszcie learnuczyć się from the informationInformacja
337
917692
3465
Ludzkość w końcu może
czerpać wiedzę z informacji,
15:33
that it can collectzebrać,
338
921157
2418
które jest w stanie zebrać,
15:35
as partczęść of our timelessponadczasowy questQuest
339
923575
2115
w ramach naszej ponadczasowej misji,
15:37
to understandzrozumieć the worldświat and our placemiejsce in it,
340
925690
3159
by zrozumieć świat i nasze w nim miejsce,
15:40
and that's why bigduży datadane is a bigduży dealsprawa.
341
928849
5631
dlatego big data to poważna sprawa.
15:46
(ApplauseAplauz)
342
934480
3568
(Brawa)
Translated by Maciej Mackiewicz
Reviewed by Magda Komorowska

▲Back to top

ABOUT THE SPEAKER
Kenneth Cukier - Data Editor of The Economist
Kenneth Cukier is the Data Editor of The Economist. From 2007 to 2012 he was the Tokyo correspondent, and before that, the paper’s technology correspondent in London, where his work focused on innovation, intellectual property and Internet governance. Kenneth is also the co-author of Big Data: A Revolution That Will Transform How We Live, Work, and Think with Viktor Mayer-Schönberger in 2013, which was a New York Times Bestseller and translated into 16 languages.

Why you should listen

As Data Editor of The Economist and co-author of Big Data: A Revolution That Will Transform How We Live, Work, and Think, Kenneth Cukier has spent years immersed in big data, machine learning -- and the impact of both. What's the future of big data-driven technology and design? To find out, watch this talk.

More profile about the speaker
Kenneth Cukier | Speaker | TED.com