ABOUT THE SPEAKER
Grady Booch - Scientist, philosopher
IBM's Grady Booch is shaping the future of cognitive computing by building intelligent systems that can reason and learn.

Why you should listen

When he was 13, Grady Booch saw 2001: A Space Odyssey in the theaters for the first time. Ever since, he's been trying to build Hal (albeit one without the homicidal tendencies). A scientist, storyteller and philosopher, Booch is Chief Scientist for Software Engineering as well as Chief Scientist for Watson/M at IBM Research, where he leads IBM's research and development for embodied cognition. Having originated the term and the practice of object-oriented design, he is best known for his work in advancing the fields of software engineering and software architecture.

A co-author of the Unified Modeling Language (UML), a founding member of the Agile Allianc, and a founding member of the Hillside Group, Booch has published six books and several hundred technical articles, including an ongoing column for IEEE Software. He's also a trustee for the Computer History Museum, an IBM Fellow, an ACM Fellow and IEEE Fellow. He has been awarded the Lovelace Medal and has given the Turing Lecture for the BCS, and was recently named an IEEE Computer Pioneer.

Booch is currently deeply involved in the development of cognitive systems and is also developing a major trans-media documentary for public broadcast on the intersection of computing and the human experience.

More profile about the speaker
Grady Booch | Speaker | TED.com
TED@IBM

Grady Booch: Don't fear superintelligent AI

Grady Booch: Nie bójcie się superinteligentnej sztucznej inteligencji

Filmed:
2,866,438 views

Nowe technologie budzą nowe obawy, mówi naukowiec i filozof Grady Booch, ale nie musimy bać się wszechmocnej, bezdusznej sztucznej inteligencji. Booch rozwiewa nasze największe (wywołane przez science fiction) lęki związane z superinteligentnymi komputerami, wyjaśniając, jak nauczymy, a nie zaprogramujemy je, by podzielały nasze wartości. Zamiast zamartwiać się nad mało prawdopodobnymi zagrożeniami egzystencjalnymi, zachęca nas, by zastanowić się, jak sztuczna inteligencja polepszy ludzkie życie.
- Scientist, philosopher
IBM's Grady Booch is shaping the future of cognitive computing by building intelligent systems that can reason and learn. Full bio

Double-click the English transcript below to play the video.

00:12
When I was a kiddziecko,
I was the quintessentialkwintesencja nerdnerd.
0
760
3840
Jako dziecko byłem typowym nerdem.
00:17
I think some of you were, too.
1
5320
2176
Niektórzy z was pewnie też.
00:19
(LaughterŚmiech)
2
7520
1216
(Śmiech)
00:20
And you, sirPan, who laughedzaśmiał się the loudestnajgłośniejszy,
you probablyprawdopodobnie still are.
3
8760
3216
Pan, który zaśmiał się najgłośniej,
pewnie nadal nim jest.
00:24
(LaughterŚmiech)
4
12000
2256
(Śmiech)
00:26
I grewrósł up in a smallmały townmiasto
in the dustyzakurzone plainsrówniny of northpółnoc TexasTexas,
5
14280
3496
Dorastałem w małym miasteczku
w zakurzonym północnym Teksasie.
00:29
the sonsyn of a sheriffSzeryf
who was the sonsyn of a pastorproboszcz.
6
17800
3336
Syn szeryfa, który był synem pastora.
00:33
GettingCoraz into troublekłopot was not an optionopcja.
7
21160
1920
Nie mogłem sprawiać kłopotów.
00:36
And so I startedRozpoczęty readingczytanie
calculusrachunek booksksiążki for funzabawa.
8
24040
3256
Dla zabawy zacząłem czytać
podręczniki do matematyki.
00:39
(LaughterŚmiech)
9
27320
1536
(Śmiech)
00:40
You did, too.
10
28880
1696
Pan też.
00:42
That led me to buildingbudynek a laserlaser
and a computerkomputer and modelModel rocketsrakiety,
11
30600
3736
Dzięki temu zbudowałem
laser, komputer, modele rakiet
00:46
and that led me to makingzrobienie
rocketrakieta fuelpaliwo in my bedroomsypialnia.
12
34360
3000
i stworzyłem paliwo rakietowe
domowej roboty.
00:49
Now, in scientificnaukowy termswarunki,
13
37960
3656
Mówiąc naukowo,
00:53
we call this a very badzły ideapomysł.
14
41640
3256
to był bardzo zły pomysł.
00:56
(LaughterŚmiech)
15
44920
1216
(Śmiech)
00:58
Around that samepodobnie time,
16
46160
2176
Mniej więcej w tym samym czasie
01:00
StanleyStanley Kubrick'sKubricka "2001: A SpaceMiejsca OdysseyOdyseja"
cameoprawa ołowiana witrażu to the theatersteatry,
17
48360
3216
weszła do kin "2001: Odyseja Kosmiczna"
Stanleya Kubricka,
01:03
and my life was foreverna zawsze changedzmienione.
18
51600
2200
która zmieniła moje życie.
01:06
I lovedkochany everything about that moviefilm,
19
54280
2056
Wszystko mi się w tym filmie podobało,
01:08
especiallyszczególnie the HALHAL 9000.
20
56360
2536
a szczególnie HAL 9000.
01:10
Now, HALHAL was a sentientodczuwający computerkomputer
21
58920
2056
HAL to inteligentny komputer.
01:13
designedzaprojektowany to guideprzewodnik the DiscoveryOdkrycie spacecraftstatek kosmiczny
22
61000
2456
Zaprojektowany, żeby kierować
statkiem Discovery
01:15
from the EarthZiemia to JupiterJupiter.
23
63480
2536
w misji z Ziemi na Jowisza.
01:18
HALHAL was alsorównież a flawedskaza characterpostać,
24
66040
2056
Ale HAL nie był bez skazy,
01:20
for in the endkoniec he chosewybrał
to valuewartość the missionmisja over humanczłowiek life.
25
68120
4280
bo postawił powodzenie misji
ponad ludzkie życie.
01:24
Now, HALHAL was a fictionalfikcyjna characterpostać,
26
72840
2096
HAL był postacią fikcyjną,
01:26
but nonethelessniemniej jednak he speaksmówi to our fearslęki,
27
74960
2656
ale odzwierciedla nasze obawy,
01:29
our fearslęki of beingistota subjugatedpodporządkowane
28
77640
2096
strach przed zniewoleniem
01:31
by some unfeelingbezduszny, artificialsztuczny intelligenceinteligencja
29
79760
3016
przez bezduszną sztuczną inteligencję,
01:34
who is indifferentobojętny to our humanityludzkość.
30
82800
1960
obojętną na nasze człowieczeństwo.
01:37
I believe that suchtaki fearslęki are unfoundedbezpodstawne.
31
85880
2576
Uważam, że taki strach jest bezzasadny.
01:40
IndeedW rzeczywistości, we standstoisko at a remarkableznakomity time
32
88480
2696
Żyjemy w niezwykłym okresie
01:43
in humanczłowiek historyhistoria,
33
91200
1536
w historii ludzkości,
01:44
where, drivennapędzany by refusalodmowy to acceptzaakceptować
the limitsograniczenia of our bodiesciała and our mindsumysły,
34
92760
4976
w którym, chcąc przezwyciężyć
ograniczenia ciała i umysłu,
01:49
we are buildingbudynek machinesmaszyny
35
97760
1696
budujemy maszyny
01:51
of exquisitewykwintne, beautifulpiękny
complexityzłożoność and gracełaski
36
99480
3616
zachwycająco skomplikowane,
01:55
that will extendposzerzać the humanczłowiek experiencedoświadczenie
37
103120
2056
pozwalające rozszerzyć ludzkie doznania
01:57
in wayssposoby beyondpoza our imaginingwyobrażając sobie.
38
105200
1680
w niewyobrażalny sposób.
01:59
After a careerkariera that led me
from the AirPowietrza ForceŻycie AcademyAkademia
39
107720
2576
Pracowałem w Akademii Lotniczej.
02:02
to SpaceMiejsca CommandPolecenia to now,
40
110320
1936
Teraz jestem w Dowództwie Kosmicznym.
02:04
I becamestał się a systemssystemy engineerinżynier,
41
112280
1696
Pracuję jako inżynier systemów.
02:06
and recentlyostatnio I was drawnpociągnięty
into an engineeringInżynieria problemproblem
42
114000
2736
Obecnie zajmuję się problemem
02:08
associatedpowiązany with NASA'sNASA missionmisja to MarsMars.
43
116760
2576
związanym z misją NASA na Marsa.
02:11
Now, in spaceprzestrzeń flightsloty to the MoonKsiężyc,
44
119360
2496
Podczas lotów na Księżyc
02:13
we can relypolegać uponna
missionmisja controlkontrola in HoustonHouston
45
121880
3136
można polegać na kontroli w Houston,
02:17
to watch over all aspectsaspekty of a flightlot.
46
125040
1976
skąd nadzoruje się wszystkie aspekty lotu.
02:19
HoweverJednak, MarsMars is 200 timesczasy furtherdalej away,
47
127040
3536
Mars jest 200 razy dalej,
02:22
and as a resultwynik it takes
on averageśredni 13 minutesminuty
48
130600
3216
dlatego potrzeba 13 minut,
02:25
for a signalsygnał to travelpodróżować
from the EarthZiemia to MarsMars.
49
133840
3136
żeby sygnał z Ziemi dotarł do Marsa.
02:29
If there's troublekłopot,
there's not enoughdość time.
50
137000
3400
W razie problemów brakuje czasu.
02:32
And so a reasonablerozsądny engineeringInżynieria solutionrozwiązanie
51
140840
2496
Rozsądnym rozwiązaniem byłoby
02:35
callspołączenia for us to put missionmisja controlkontrola
52
143360
2576
umieszczenie centrum dowodzenia
02:37
insidewewnątrz the wallsściany of the OrionOrion spacecraftstatek kosmiczny.
53
145960
3016
wewnątrz statku Orion.
02:41
AnotherInnym fascinatingfascynujący ideapomysł
in the missionmisja profileprofil użytkownika
54
149000
2896
Inny fascynujący pomysł
02:43
placesmiejsca humanoidHumanoid robotsroboty
on the surfacepowierzchnia of MarsMars
55
151920
2896
to umieszczenie humanoidalnych
robotów na powierzchni Marsa,
02:46
before the humansludzie themselvessami arriveprzyjechać,
56
154840
1856
zanim dotrą tam ludzie,
02:48
first to buildbudować facilitiesudogodnienia
57
156720
1656
żeby przygotowały zaplecze,
02:50
and laterpóźniej to serveobsługiwać as collaborativewspółpracujący
membersczłonków of the sciencenauka teamzespół.
58
158400
3360
a później współtworzyły zespół naukowców.
02:55
Now, as I lookedspojrzał at this
from an engineeringInżynieria perspectiveperspektywiczny,
59
163400
2736
Podchodząc do tego
z perspektywy inżyniera,
02:58
it becamestał się very clearjasny to me
that what I neededpotrzebne to architectarchitekt
60
166160
3176
oczywiste było, że muszę zaprojektować
03:01
was a smartmądry, collaborativewspółpracujący,
61
169360
2176
sprytną, współpracującą,
03:03
sociallyspołecznie intelligentinteligentny
artificialsztuczny intelligenceinteligencja.
62
171560
2376
przystosowaną społecznie
sztuczną inteligencję.
03:05
In other wordssłowa, I neededpotrzebne to buildbudować
something very much like a HALHAL
63
173960
4296
Innymi słowy, potrzeba czegoś jak HAL,
03:10
but withoutbez the homicidalmordercze tendenciestendencje.
64
178280
2416
ale bez morderczych skłonności.
03:12
(LaughterŚmiech)
65
180720
1360
(Śmiech)
03:14
Let's pausepauza for a momentza chwilę.
66
182920
1816
Zatrzymajmy się na moment.
03:16
Is it really possiblemożliwy to buildbudować
an artificialsztuczny intelligenceinteligencja like that?
67
184760
3896
Czy rzeczywiście można zbudować
taką sztuczną inteligencję?
03:20
ActuallyFaktycznie, it is.
68
188680
1456
W zasadzie tak.
03:22
In manywiele wayssposoby,
69
190160
1256
Pod wieloma względami
03:23
this is a hardciężko engineeringInżynieria problemproblem
70
191440
1976
to trudny problem konstruktorski
03:25
with elementselementy of AIAI,
71
193440
1456
z elementami AI,
03:26
not some wetmokra hairwłosy ballpiłka of an AIAI problemproblem
that needswymagania to be engineeredzaprojektowane.
72
194920
4696
a nie problem AI dla konstruktorów.
03:31
To paraphraseparafraza AlanAlan TuringTuringa,
73
199640
2656
Parafrazując Alana Turinga,
03:34
I'm not interestedzainteresowany
in buildingbudynek a sentientodczuwający machinemaszyna.
74
202320
2376
nie interesuje mnie budowa
inteligentnej maszyny,
03:36
I'm not buildingbudynek a HALHAL.
75
204720
1576
nie buduję HALa.
03:38
All I'm after is a simpleprosty brainmózg,
76
206320
2416
Potrzebuję prostego mózgu,
03:40
something that offersoferuje
the illusioniluzja of intelligenceinteligencja.
77
208760
3120
takiego, który daje iluzję inteligencji.
03:45
The artsztuka and the sciencenauka of computingprzetwarzanie danych
have come a long way
78
213000
3136
Informatyka przebyła długą drogę,
03:48
sinceod HALHAL was onscreenna ekranie,
79
216160
1496
od kiedy HAL był na ekranach.
03:49
and I'd imaginewyobrażać sobie if his inventorwynalazca
DrDr. ChandraChandra were here todaydzisiaj,
80
217680
3216
Gdyby dr Chandra,
konstruktor HALa, był z nami,
03:52
he'don by have a wholecały lot of questionspytania for us.
81
220920
2336
pewnie miałby wiele pytań.
03:55
Is it really possiblemożliwy for us
82
223280
2096
Czy rzeczywiście jest możliwe
03:57
to take a systemsystem of millionsmiliony
uponna millionsmiliony of devicespomysłowość,
83
225400
4016
użycie milionów urządzeń,
żeby odczytały strumienie danych,
04:01
to readczytać in theirich datadane streamsstrumienie,
84
229440
1456
04:02
to predictprzepowiadać, wywróżyć theirich failuresawarie
and actdziałać in advancepostęp?
85
230920
2256
przewidziały usterki i im zapobiegły?
04:05
Yes.
86
233200
1216
Tak.
04:06
Can we buildbudować systemssystemy that converseConverse
with humansludzie in naturalnaturalny languagejęzyk?
87
234440
3176
Czy można stworzyć systemy
komunikujące się z ludźmi ich językiem?
04:09
Yes.
88
237640
1216
Tak.
Czy można stworzyć systemy
rozpoznające obiekty i emocje,
04:10
Can we buildbudować systemssystemy
that recognizerozpoznać objectsobiekty, identifyzidentyfikować emotionsemocje,
89
238880
2976
04:13
emoteEmot themselvessami,
playgrać gamesGry and even readczytać lipsusta?
90
241880
3376
okazujące emocje, grające w gry,
a nawet czytające z ruchu warg?
04:17
Yes.
91
245280
1216
Tak.
04:18
Can we buildbudować a systemsystem that setszestawy goalscele,
92
246520
2136
A system określający cele,
04:20
that carriesniesie out plansplany againstprzeciwko those goalscele
and learnsuczy się alongwzdłuż the way?
93
248680
3616
wdrażający plany, żeby je osiągnąć,
i jednocześnie uczący się?
04:24
Yes.
94
252320
1216
Tak.
04:25
Can we buildbudować systemssystemy
that have a theoryteoria of mindumysł?
95
253560
3336
A systemy świadome umysłu?
04:28
This we are learninguczenie się to do.
96
256920
1496
Pracujemy nad tym.
04:30
Can we buildbudować systemssystemy that have
an ethicaletyczny and moralmorał foundationfundacja?
97
258440
3480
Czy potrafimy zbudować systemy
respektujące etyczne i moralne wartości?
04:34
This we mustmusi learnuczyć się how to do.
98
262480
2040
Musimy się tego nauczyć.
04:37
So let's acceptzaakceptować for a momentza chwilę
99
265360
1376
Przyjmijmy na razie,
04:38
that it's possiblemożliwy to buildbudować
suchtaki an artificialsztuczny intelligenceinteligencja
100
266760
2896
że można zbudować
taką sztuczną inteligencję
04:41
for this kinduprzejmy of missionmisja and othersinni.
101
269680
2136
dla tej i innych misji.
04:43
The nextNastępny questionpytanie
you mustmusi askzapytać yourselfsiebie is,
102
271840
2536
Kolejna kwestia to,
04:46
should we fearstrach it?
103
274400
1456
czy powinniśmy się jej bać.
04:47
Now, everykażdy newNowy technologytechnologia
104
275880
1976
Każda nowa technologia
04:49
bringsprzynosi with it
some measurezmierzyć of trepidationdrżenie.
105
277880
2896
budzi pewne obawy.
04:52
When we first saw carssamochody,
106
280800
1696
Pierwsze samochody
04:54
people lamentedubolewał that we would see
the destructionzniszczenie of the familyrodzina.
107
282520
4016
miały być zagrożeniem dla rodziny.
04:58
When we first saw telephonestelefony come in,
108
286560
2696
Pierwsze telefony
05:01
people were worriedzmartwiony it would destroyzniszczyć
all civilcywilny conversationrozmowa.
109
289280
2896
miały stanowić kres uprzejmej rozmowy.
05:04
At a pointpunkt in time we saw
the writtenpisemny wordsłowo becomestają się pervasiverozpowszechniony,
110
292200
3936
Przez popularność słowa pisanego
05:08
people thought we would losestracić
our abilityzdolność to memorizezapamiętać.
111
296160
2496
mieliśmy utracić zdolność zapamiętywania.
05:10
These things are all trueprawdziwe to a degreestopień,
112
298680
2056
To wszystko w pewnym stopniu prawda,
05:12
but it's alsorównież the casewalizka
that these technologiestechnologie
113
300760
2416
ale prawdą jest też, że te technologie
05:15
broughtprzyniósł to us things
that extendedrozszerzony the humanczłowiek experiencedoświadczenie
114
303200
3376
rozszerzyły ludzkie doznania
05:18
in some profoundgłęboki wayssposoby.
115
306600
1880
w znaczny sposób.
05:21
So let's take this a little furtherdalej.
116
309840
2280
Pójdźmy dalej.
05:25
I do not fearstrach the creationkreacja
of an AIAI like this,
117
313120
4736
Nie obawiam się
takiej sztucznej inteligencji,
05:29
because it will eventuallyostatecznie
embodyucieleśniać some of our valueswartości.
118
317880
3816
bo w końcu uosobi ona
niektóre nasze wartości.
05:33
ConsiderNależy wziąć pod uwagę this: buildingbudynek a cognitivepoznawczy systemsystem
is fundamentallyzasadniczo differentróżne
119
321720
3496
Budowa systemu poznawczego
to inna para kaloszy
05:37
than buildingbudynek a traditionaltradycyjny
software-intensiveintensywnie korzysta z oprogramowania systemsystem of the pastprzeszłość.
120
325240
3296
niż tworzenie zwykłych systemów
silnie opartych na oprogramowaniu.
05:40
We don't programprogram them. We teachnauczać them.
121
328560
2456
Nie programujemy ich, tylko uczymy.
05:43
In orderzamówienie to teachnauczać a systemsystem
how to recognizerozpoznać flowerskwiaty,
122
331040
2656
Żeby nauczyć system rozpoznawać kwiaty,
05:45
I showpokazać it thousandstysiące of flowerskwiaty
of the kindsrodzaje I like.
123
333720
3016
pokazuję mu tysiące kwiatów, które lubię.
05:48
In orderzamówienie to teachnauczać a systemsystem
how to playgrać a gamegra --
124
336760
2256
Żeby nauczyć go grać w grę...
05:51
Well, I would. You would, too.
125
339040
1960
Nauczyłbym go. Wy zresztą też.
05:54
I like flowerskwiaty. Come on.
126
342600
2040
Lubię kwiaty.
05:57
To teachnauczać a systemsystem
how to playgrać a gamegra like Go,
127
345440
2856
Żeby nauczyć system
grać w grę taką jak Go,
06:00
I'd have it playgrać thousandstysiące of gamesGry of Go,
128
348320
2056
musi rozegrać tysiące partii,
06:02
but in the processproces I alsorównież teachnauczać it
129
350400
1656
a ja przy okazji uczę go,
06:04
how to discerndostrzec
a good gamegra from a badzły gamegra.
130
352080
2416
jak odróżniać dobrą grę od złej.
06:06
If I want to createStwórz an artificiallysztucznie
intelligentinteligentny legalprawny assistantAsystent,
131
354520
3696
Chcąc stworzyć sztucznego
asystenta prawnego,
06:10
I will teachnauczać it some corpusciało of lawprawo
132
358240
1776
uczę go prawa,
06:12
but at the samepodobnie time I am fusingFusing with it
133
360040
2856
ale zarazem zaszczepiam w nim
06:14
the sensesens of mercymiłosierdzie and justicesprawiedliwość
that is partczęść of that lawprawo.
134
362920
2880
poczucie łaski i sprawiedliwości,
które są częścią prawa.
06:18
In scientificnaukowy termswarunki,
this is what we call groundziemia truthprawda,
135
366560
2976
Naukowo nazywamy to wiedzą bazową,
06:21
and here'soto jest the importantważny pointpunkt:
136
369560
2016
i tu ważna kwestia.
06:23
in producingprodukujący these machinesmaszyny,
137
371600
1456
Produkując te maszyny,
06:25
we are thereforew związku z tym teachingnauczanie them
a sensesens of our valueswartości.
138
373080
3416
uczymy ich poczucia naszych wartości.
06:28
To that endkoniec, I trustzaufanie
an artificialsztuczny intelligenceinteligencja
139
376520
3136
Ufam sztucznej inteligencji
tak samo, jeśli nie bardziej,
06:31
the samepodobnie, if not more,
as a humanczłowiek who is well-traineddobrze wyszkolonych.
140
379680
3640
jak dobrze przeszkolonemu człowiekowi.
06:36
But, you maymoże askzapytać,
141
384080
1216
Ale możecie zapytać,
06:37
what about rogueRogue agentsagentów,
142
385320
2616
co w przypadku wrogich agentów,
06:39
some well-fundeddobrze finansowane
nongovernmentpod względem organizationorganizacja?
143
387960
3336
bogatej organizacji pozarządowej?
06:43
I do not fearstrach an artificialsztuczny intelligenceinteligencja
in the handdłoń of a lonesamotny wolfWilk.
144
391320
3816
Nie boję się sztucznej inteligencji
w rękach samotnego wilka.
06:47
ClearlyWyraźnie, we cannotnie może protectochraniać ourselvesmy sami
againstprzeciwko all randomlosowy actsdzieje of violenceprzemoc,
145
395160
4536
Oczywiście nie można ochronić się
przed wszystkimi aktami przemocy,
06:51
but the realityrzeczywistość is suchtaki a systemsystem
146
399720
2136
ale taki system
06:53
requireswymaga substantialznaczny trainingtrening
and subtlesubtelny trainingtrening
147
401880
3096
wymaga solidnego i misternego treningu
06:57
fardaleko beyondpoza the resourceszasoby of an individualindywidualny.
148
405000
2296
wykraczającego poza możliwości jednostki.
06:59
And furthermorePonadto,
149
407320
1216
Poza tym
07:00
it's fardaleko more than just injectingwstrzykiwanie
an internetInternet viruswirus to the worldświat,
150
408560
3256
to trudniejsze niż wpuszczenie
wirusa do Internetu,
07:03
where you pushPchać a buttonprzycisk,
all of a suddennagły it's in a millionmilion placesmiejsca
151
411840
3096
gdzie wystarczy wcisnąć guzik
i nagle w różnych częściach świata
07:06
and laptopslaptopy startpoczątek blowingdmuchanie up
all over the placemiejsce.
152
414960
2456
wybuchają laptopy.
07:09
Now, these kindsrodzaje of substancessubstancji
are much largerwiększy,
153
417440
2816
Te substancje są większe
07:12
and we'lldobrze certainlyna pewno see them comingprzyjście.
154
420280
1715
i na pewno nie umkną uwadze.
07:14
Do I fearstrach that suchtaki
an artificialsztuczny intelligenceinteligencja
155
422520
3056
Czy obawiam się,
że taka sztuczna inteligencja
07:17
mightmoc threatenzagrażają all of humanityludzkość?
156
425600
1960
może zagrozić całej ludzkości?
07:20
If you look at movieskino
suchtaki as "The MatrixMacierz," "MetropolisMetropolia,"
157
428280
4376
Filmy jak "Matrix", "Metropolis",
07:24
"The TerminatorTerminator,"
showsprzedstawia suchtaki as "WestworldŚwiat dzikiego zachodu,"
158
432680
3176
"Terminator", seriale jak "Westworld",
07:27
they all speakmówić of this kinduprzejmy of fearstrach.
159
435880
2136
wszystkie traktują o tym strachu.
07:30
IndeedW rzeczywistości, in the bookksiążka "SuperintelligenceSuperintelligence"
by the philosopherfilozof NickNick BostromBostrom,
160
438040
4296
W książce "Superinteligencja"
filozof Nick Bostrom
07:34
he picksopcji up on this thememotyw
161
442360
1536
podejmuje ten temat
07:35
and observesprzestrzega that a superintelligencesuperintelligence
mightmoc not only be dangerousniebezpieczny,
162
443920
4016
i zauważa, że superinteligencja
nie tylko może być niebezpieczna,
07:39
it could representprzedstawiać an existentialegzystencjalny threatzagrożenie
to all of humanityludzkość.
163
447960
3856
ale może stanowić egzystencjalne
zagrożenie dla całej ludzkości.
07:43
DrDr. Bostrom'sBostrom basicpodstawowy argumentargument
164
451840
2216
Dr Bostrom twierdzi, że takie systemy
07:46
is that suchtaki systemssystemy will eventuallyostatecznie
165
454080
2736
będą miały tak bardzo
niezaspokojony głód informacji,
07:48
have suchtaki an insatiablenienasycony
thirstpragnienie for informationInformacja
166
456840
3256
07:52
that they will perhapsmoże learnuczyć się how to learnuczyć się
167
460120
2896
że nauczą się, jak się uczyć,
07:55
and eventuallyostatecznie discoverodkryć
that they maymoże have goalscele
168
463040
2616
a w efekcie odkryją, że ich cele
07:57
that are contraryprzeciwnie to humanczłowiek needswymagania.
169
465680
2296
mogą być sprzeczne z potrzebami ludzi.
08:00
DrDr. BostromBostrom has a numbernumer of followerszwolenników.
170
468000
1856
Dr Bostrom ma szereg zwolenników.
08:01
He is supportedutrzymany by people
suchtaki as ElonElon MuskPiżmo and StephenStephen HawkingHawking.
171
469880
4320
Popierają go ludzie
jak Elon Musk i Stephen Hawking.
08:06
With all duez powodu respectPoszanowanie
172
474880
2400
Z całym szacunkiem
08:10
to these brilliantznakomity mindsumysły,
173
478160
2016
dla tych wybitnych umysłów,
08:12
I believe that they
are fundamentallyzasadniczo wrongźle.
174
480200
2256
uważam, że się mylą.
08:14
Now, there are a lot of piecessztuk
of DrDr. Bostrom'sBostrom argumentargument to unpackrozpakować,
175
482480
3176
Argumentacja dra Bostroma
składa się z wielu elementów,
08:17
and I don't have time to unpackrozpakować them all,
176
485680
2136
nie mam czasu przybliżyć ich wszystkich,
08:19
but very brieflykrótko, considerrozważać this:
177
487840
2696
ale, w skrócie, rozważcie
następującą rzecz.
08:22
superWspaniały knowingporozumiewawczy is very differentróżne
than superWspaniały doing.
178
490560
3736
Superwiedza bardzo
różni się od superdziałania.
08:26
HALHAL was a threatzagrożenie to the DiscoveryOdkrycie crewzałoga
179
494320
1896
HAL zagrażał załodze Discovery,
08:28
only insofaro ile as HALHAL commandeddowodził
all aspectsaspekty of the DiscoveryOdkrycie.
180
496240
4416
bo kontrolował cały statek.
08:32
So it would have to be
with a superintelligencesuperintelligence.
181
500680
2496
Musiałby posiadać superinteligencję.
08:35
It would have to have dominionDominium
over all of our worldświat.
182
503200
2496
Musiałby panować nad całym światem.
08:37
This is the stuffrzeczy of SkynetSkynet
from the moviefilm "The TerminatorTerminator"
183
505720
2816
Coś jak Skynet z filmu "Terminator",
08:40
in whichktóry we had a superintelligencesuperintelligence
184
508560
1856
w którym mieliśmy superinteligencję
08:42
that commandeddowodził humanczłowiek will,
185
510440
1376
kontrolującą ludzką wolę
08:43
that directedskierowany everykażdy deviceurządzenie
that was in everykażdy cornerkąt of the worldświat.
186
511840
3856
i zarządzającą urządzeniami
w różnych zakątkach świata.
08:47
PracticallyPraktycznie speakingmówienie,
187
515720
1456
Praktycznie rzecz biorąc,
08:49
it ain'tnie jest gonna happenzdarzyć.
188
517200
2096
nie ma na to szans.
08:51
We are not buildingbudynek AIsAIs
that controlkontrola the weatherpogoda,
189
519320
3056
Nie budujemy AI kontrolującej pogodę,
08:54
that directbezpośredni the tidespływy,
190
522400
1336
sterującej prądami,
08:55
that commanddowództwo us
capriciouskapryśna, chaoticchaotyczny humansludzie.
191
523760
3376
albo nami - kapryśnymi,
chaotycznymi ludźmi.
08:59
And furthermorePonadto, if suchtaki
an artificialsztuczny intelligenceinteligencja existedistniały,
192
527160
3896
Nawet jakby taka sztuczna
inteligencja istniała,
09:03
it would have to competerywalizować
with humanczłowiek economiesgospodarki,
193
531080
2936
musiałaby konkurować
z ludzkimi gospodarkami,
09:06
and therebya tym samym competerywalizować for resourceszasoby with us.
194
534040
2520
a więc rywalizować z nami o zasoby.
09:09
And in the endkoniec --
195
537200
1216
Koniec końców,
09:10
don't tell SiriSiri this --
196
538440
1240
nie mówcie tego Siri,
09:12
we can always unplugodłączyć them.
197
540440
1376
zawsze można je wyłączyć.
09:13
(LaughterŚmiech)
198
541840
2120
(Śmiech)
09:17
We are on an incredibleniesamowite journeypodróż
199
545360
2456
Uczestniczymy w niesamowitej wędrówce,
09:19
of coevolutionkoewolucji with our machinesmaszyny.
200
547840
2496
koewoluując wspólnie z maszynami.
09:22
The humansludzie we are todaydzisiaj
201
550360
2496
Współcześni ludzie
09:24
are not the humansludzie we will be then.
202
552880
2536
to nie ludzie, którymi będziemy kiedyś.
09:27
To worrymartwić się now about the risewzrost
of a superintelligencesuperintelligence
203
555440
3136
Martwienie się rozwojem superinteligencji
09:30
is in manywiele wayssposoby a dangerousniebezpieczny distractionroztargnienie
204
558600
3056
niebezpiecznie odwraca uwagę,
09:33
because the risewzrost of computingprzetwarzanie danych itselfsamo
205
561680
2336
bo sam rozwój komputerów
09:36
bringsprzynosi to us a numbernumer
of humanczłowiek and societalspołeczne issuesproblemy
206
564040
3016
powoduje szereg ludzkich
i społecznych problemów,
09:39
to whichktóry we mustmusi now attenduczestniczyć w.
207
567080
1640
które trzeba rozwiązać.
09:41
How shallpowinien I bestNajlepiej organizezorganizować societyspołeczeństwo
208
569360
2816
Jak zorganizować społeczeństwo,
09:44
when the need for humanczłowiek laborpraca diminisheszmniejsza się?
209
572200
2336
kiedy zanika popyt na siłę roboczą?
09:46
How can I bringprzynieść understandingzrozumienie
and educationEdukacja throughoutpoprzez the globeglob
210
574560
3816
Jak nieść kaganek oświaty przez świat
09:50
and still respectPoszanowanie our differencesróżnice?
211
578400
1776
i szanować różnice?
09:52
How mightmoc I extendposzerzać and enhancewzmacniać humanczłowiek life
throughprzez cognitivepoznawczy healthcareopieka zdrowotna?
212
580200
4256
Jak wydłużyć i poprawić życie
za sprawą kognitywnej opieki medycznej?
09:56
How mightmoc I use computingprzetwarzanie danych
213
584480
2856
Jak użyć informatyki,
09:59
to help take us to the starsgwiazdy?
214
587360
1760
żeby dosięgnąć gwiazd?
10:01
And that's the excitingekscytujący thing.
215
589760
2040
To właśnie jest fascynujące.
10:04
The opportunitiesmożliwości to use computingprzetwarzanie danych
216
592400
2336
Możliwości, jakie daje komputer,
10:06
to advancepostęp the humanczłowiek experiencedoświadczenie
217
594760
1536
żeby polepszyć ludzkie doznania,
10:08
are withinw ciągu our reachdosięgnąć,
218
596320
1416
są w naszym zasięgu,
10:09
here and now,
219
597760
1856
tu i teraz,
10:11
and we are just beginningpoczątek.
220
599640
1680
a to dopiero początek.
10:14
Thank you very much.
221
602280
1216
Dziękuję bardzo.
10:15
(ApplauseAplauz)
222
603520
4286
(Brawa)
Translated by Mieszko Renusch
Reviewed by Barbara Guzik

▲Back to top

ABOUT THE SPEAKER
Grady Booch - Scientist, philosopher
IBM's Grady Booch is shaping the future of cognitive computing by building intelligent systems that can reason and learn.

Why you should listen

When he was 13, Grady Booch saw 2001: A Space Odyssey in the theaters for the first time. Ever since, he's been trying to build Hal (albeit one without the homicidal tendencies). A scientist, storyteller and philosopher, Booch is Chief Scientist for Software Engineering as well as Chief Scientist for Watson/M at IBM Research, where he leads IBM's research and development for embodied cognition. Having originated the term and the practice of object-oriented design, he is best known for his work in advancing the fields of software engineering and software architecture.

A co-author of the Unified Modeling Language (UML), a founding member of the Agile Allianc, and a founding member of the Hillside Group, Booch has published six books and several hundred technical articles, including an ongoing column for IEEE Software. He's also a trustee for the Computer History Museum, an IBM Fellow, an ACM Fellow and IEEE Fellow. He has been awarded the Lovelace Medal and has given the Turing Lecture for the BCS, and was recently named an IEEE Computer Pioneer.

Booch is currently deeply involved in the development of cognitive systems and is also developing a major trans-media documentary for public broadcast on the intersection of computing and the human experience.

More profile about the speaker
Grady Booch | Speaker | TED.com