ABOUT THE SPEAKER
Grady Booch - Scientist, philosopher
IBM's Grady Booch is shaping the future of cognitive computing by building intelligent systems that can reason and learn.

Why you should listen

When he was 13, Grady Booch saw 2001: A Space Odyssey in the theaters for the first time. Ever since, he's been trying to build Hal (albeit one without the homicidal tendencies). A scientist, storyteller and philosopher, Booch is Chief Scientist for Software Engineering as well as Chief Scientist for Watson/M at IBM Research, where he leads IBM's research and development for embodied cognition. Having originated the term and the practice of object-oriented design, he is best known for his work in advancing the fields of software engineering and software architecture.

A co-author of the Unified Modeling Language (UML), a founding member of the Agile Allianc, and a founding member of the Hillside Group, Booch has published six books and several hundred technical articles, including an ongoing column for IEEE Software. He's also a trustee for the Computer History Museum, an IBM Fellow, an ACM Fellow and IEEE Fellow. He has been awarded the Lovelace Medal and has given the Turing Lecture for the BCS, and was recently named an IEEE Computer Pioneer.

Booch is currently deeply involved in the development of cognitive systems and is also developing a major trans-media documentary for public broadcast on the intersection of computing and the human experience.

More profile about the speaker
Grady Booch | Speaker | TED.com
TED@IBM

Grady Booch: Don't fear superintelligent AI

Grady Booch: Nu vă temeți de superinteligența artificială

Filmed:
2,866,438 views

Noile tehnologii generează noi anxietăți, spune omul de știintă și filozoful Grady Booch, dar nu trebuie să ne temem de o inteligență artificială atotputernică și fără sentimente. Booch ne domolește cele mai mari temeri - induse de literatura ştiinţifico-fantastică - despre computerele superinteligente explicând cum le vom învăța, nu programa, să împărtășească valorile noastre. În loc să ne facem griji în legătură cu o amenințare inexistentă, el ne îndeamnă să ne gândim cum va influența inteligența artificială viața umană.
- Scientist, philosopher
IBM's Grady Booch is shaping the future of cognitive computing by building intelligent systems that can reason and learn. Full bio

Double-click the English transcript below to play the video.

00:12
When I was a kidcopil,
I was the quintessentialchintesenţa nerdtocilar.
0
760
3840
Când eram copil,
eram tocilar prin chintesență.
00:17
I think some of you were, too.
1
5320
2176
Cred că și unii dintre voi
ați fost la fel.
00:19
(LaughterRâs)
2
7520
1216
(Râsete)
00:20
And you, sirdomn, who laughedrâs the loudestcel mai tare,
you probablyprobabil still are.
3
8760
3216
Și dumneavoastră domnule,
care ați râs cel mai tare,
probabil că încă mai sunteți.
00:24
(LaughterRâs)
4
12000
2256
(Râsete)
00:26
I grewcrescut up in a smallmic townoraș
in the dustypraf plainscampii of northNord TexasTexas,
5
14280
3496
Am crescut într-un mic oraș
în câmpiile prăfuite din nordul Texasului,
00:29
the sonfiu of a sheriffSheriff
who was the sonfiu of a pastorPastorul.
6
17800
3336
fiu de șerif care a fost fiul unui pastor.
00:33
GettingNoţiuni de bază into troublebucluc was not an optionopțiune.
7
21160
1920
A intra în belele nu era o opțiune.
00:36
And so I starteda început readingcitind
calculuscalcul bookscărți for fundistracţie.
8
24040
3256
Așa că am început să citesc cărți
cu calcule ca sursă de distracție.
00:39
(LaughterRâs)
9
27320
1536
(Râsete)
00:40
You did, too.
10
28880
1696
Și tu la fel.
00:42
That led me to buildingclădire a lasercu laser
and a computercomputer and modelmodel rocketsrachete,
11
30600
3736
Și asta m-a făcut să construiesc un laser
și un computer și să modelez rachete,
00:46
and that led me to makingluare
rocketrachetă fuelcombustibil in my bedroomdormitor.
12
34360
3000
iar apoi să fac combustibil
pentru rachete în dormitorul meu.
00:49
Now, in scientificștiințific termstermeni,
13
37960
3656
Acum, în termeni științifici,
numim asta o idee foarte proastă.
00:53
we call this a very badrău ideaidee.
14
41640
3256
00:56
(LaughterRâs)
15
44920
1216
(Râsete)
Cam pe atunci, „2001: Odiseea spațială”
a lui Stanley Kubrick
00:58
Around that samela fel time,
16
46160
2176
01:00
StanleyStanley Kubrick'sLui Kubrick "2001: A SpaceSpaţiu OdysseyOdiseea"
camea venit to the theatersteatre,
17
48360
3216
apăruse în cinematografe,
01:03
and my life was foreverpentru totdeauna changedschimbat.
18
51600
2200
iar viața mi s-a schimbat
pentru totdeauna.
01:06
I lovediubit everything about that moviefilm,
19
54280
2056
Am iubit absolut totul legat de acel film,
în special pe HAL 9000.
01:08
especiallyin mod deosebit the HALHAL 9000.
20
56360
2536
01:10
Now, HALHAL was a sentientsensibil computercomputer
21
58920
2056
HAL era un computer dotat cu conștiință,
01:13
designedproiectat to guideghid the DiscoveryDescoperirea spacecraftnave spațiale
22
61000
2456
conceput pentru a ghida
nava spațială Discovery
01:15
from the EarthPământ to JupiterJupiter.
23
63480
2536
de la Pământ până la Jupiter.
01:18
HALHAL was alsode asemenea a flawedgreşită charactercaracter,
24
66040
2056
HAL avea de asemenea
un caracter imperfect,
01:20
for in the endSfârşit he chosea ales
to valuevaloare the missionmisiune over humanuman life.
25
68120
4280
întrucât a ales să prețuiască mai mult
misiunea, în defavoarea vieții umane.
01:24
Now, HALHAL was a fictionalfictiv charactercaracter,
26
72840
2096
HAL a fost un personaj fictiv,
01:26
but nonethelesscu toate acestea he speaksvorbește to our fearstemerile,
27
74960
2656
dar cu toate acestea,
el vorbește despre temerile noastre,
temerile noastre de a fi subjugați
01:29
our fearstemerile of beingfiind subjugatedsubjugate
28
77640
2096
01:31
by some unfeelinginsensibil, artificialartificial intelligenceinteligență
29
79760
3016
de o inteligență artificială
fără sentimente,
01:34
who is indifferentindiferent to our humanityumanitate.
30
82800
1960
care este indiferentă în fața omenirii.
01:37
I believe that suchastfel de fearstemerile are unfoundednefondate.
31
85880
2576
Cred că astfel de temeri sunt nefondate.
01:40
IndeedÎntr-adevăr, we standstand at a remarkableremarcabil time
32
88480
2696
Într-adevăr, ne aflăm într-un moment
remarcabil în istoria omenirii,
01:43
in humanuman historyistorie,
33
91200
1536
01:44
where, drivencondus by refusalrefuzul to acceptAccept
the limitslimite of our bodiesorganisme and our mindsminți,
34
92760
4976
când, motivați de refuzul de a accepta
limitele corpurilor și minților noastre,
01:49
we are buildingclădire machinesmaşini
35
97760
1696
construim mașinării de un rafinament
și o grație frumoasă și complexă
01:51
of exquisiterafinat, beautifulfrumoasa
complexitycomplexitate and graceharul
36
99480
3616
01:55
that will extendextinde the humanuman experienceexperienţă
37
103120
2056
care va extinde cunoașterea umană
01:57
in waysmoduri beyonddincolo our imaginingimaginarea.
38
105200
1680
dincolo de imaginația noastră.
După o carieră care mi-a purtat pașii
de la Academia Forțelor Aeriene
01:59
After a careerCarieră that led me
from the AirAer ForceVigoare AcademyAcademia
39
107720
2576
02:02
to SpaceSpaţiu CommandComanda to now,
40
110320
1936
la Space Command în prezent,
02:04
I becamea devenit a systemssisteme engineeringiner,
41
112280
1696
am devenit inginer de sisteme
02:06
and recentlyrecent I was drawndesenat
into an engineeringInginerie problemproblemă
42
114000
2736
și recent am fost implicat
într-o problemă de inginerie
02:08
associatedasociate with NASA'sNASA missionmisiune to MarsMarte.
43
116760
2576
în legătură cu misiunea NASA către Marte.
02:11
Now, in spacespaţiu flightszboruri to the MoonLuna,
44
119360
2496
În zborurile spațiale către Lună
02:13
we can relyse bazează uponpe
missionmisiune controlControl in HoustonHouston
45
121880
3136
ne putem baza că cei de la controlul
misiunii din Houston
02:17
to watch over all aspectsaspecte of a flightzbor.
46
125040
1976
urmăresc toate aspectele unui zbor.
02:19
HoweverCu toate acestea, MarsMarte is 200 timesori furthermai departe away,
47
127040
3536
Însă Marte e de 200 de ori mai departe
02:22
and as a resultrezultat it takes
on averagein medie 13 minutesminute
48
130600
3216
și în consecință, e nevoie
în medie de 13 minute
02:25
for a signalsemnal to travelvoiaj
from the EarthPământ to MarsMarte.
49
133840
3136
ca un sunet să parcurgă distanța
dintre Pământ și Marte.
02:29
If there's troublebucluc,
there's not enoughdestul time.
50
137000
3400
Dacă apare o problemă,
nu există suficient timp.
02:32
And so a reasonablerezonabil engineeringInginerie solutionsoluţie
51
140840
2496
Astfel, o soluție rezonabilă de inginerie
02:35
callsapeluri for us to put missionmisiune controlControl
52
143360
2576
ne determină să punem controlul misiunii
între pereții navetei spațiale Orion.
02:37
insideinterior the wallspereți of the OrionOrion spacecraftnave spațiale.
53
145960
3016
02:41
AnotherUn alt fascinatingfascinant ideaidee
in the missionmisiune profileprofilul
54
149000
2896
O altă idee fascinantă
din profilul misiunii
02:43
placeslocuri humanoidhumanoid robotsroboți
on the surfacesuprafaţă of MarsMarte
55
151920
2896
e plasarea de roboți humanoizi
pe suprafața planetei Marte
02:46
before the humansoameni themselvesînșiși arriveajunge,
56
154840
1856
înaintea sosirii oamenilor,
02:48
first to buildconstrui facilitiesfacilităţi
57
156720
1656
mai întâi pentru a construi
echipamente și instalații
02:50
and latermai tarziu to serveservi as collaborativecolaborare
membersmembrii of the scienceştiinţă teamechipă.
58
158400
3360
și apoi pentru a servi ca membri
colaboratori ai echipei științifice.
02:55
Now, as I lookedprivit at this
from an engineeringInginerie perspectiveperspectivă,
59
163400
2736
Pe măsură ce priveam asta
dintr-o perspectivă inginerească,
02:58
it becamea devenit very clearclar to me
that what I neededNecesar to architectarhitect
60
166160
3176
devenea foarte clar pentru mine
că ceea ce aveam nevoie să creez
03:01
was a smartinteligent, collaborativecolaborare,
61
169360
2176
era o inteligență artificială
03:03
sociallysocialmente intelligentinteligent
artificialartificial intelligenceinteligență.
62
171560
2376
abilă, cooperantă și dotată
cu inteligență socială.
03:05
In other wordscuvinte, I neededNecesar to buildconstrui
something very much like a HALHAL
63
173960
4296
Cu alte cuvinte, aveam nevoie
să construiesc ceva asemănător lui HAL,
03:10
but withoutfără the homicidalucigaş tendenciestendințe.
64
178280
2416
dar fără tendințele sale ucigătoare.
03:12
(LaughterRâs)
65
180720
1360
(Râsete)
03:14
Let's pausepauză for a momentmoment.
66
182920
1816
Să facem o mică pauză.
03:16
Is it really possibleposibil to buildconstrui
an artificialartificial intelligenceinteligență like that?
67
184760
3896
Este oare posibil să construim
o asemenea inteligență artificială?
03:20
ActuallyDe fapt, it is.
68
188680
1456
De fapt, chiar este.
03:22
In manymulți waysmoduri,
69
190160
1256
În multe feluri, aceasta este
o problemă grea de inginerie
03:23
this is a hardgreu engineeringInginerie problemproblemă
70
191440
1976
03:25
with elementselement of AIAI,
71
193440
1456
cu elemente de inteligență artificială,
03:26
not some wetumed hairpăr ballminge of an AIAI problemproblemă
that needsare nevoie to be engineeredinginerie.
72
194920
4696
și nu o problemă inextricabilă
de IA care necesită inginerie.
03:31
To paraphraseparafrază AlanAlan TuringTuring,
73
199640
2656
Ca să-l parafrazez pe Alan Turing:
„Nu sunt interesat să construiesc
o mașinărie dotată cu conștiință”.
03:34
I'm not interestedinteresat
in buildingclădire a sentientsensibil machinemaşină.
74
202320
2376
03:36
I'm not buildingclădire a HALHAL.
75
204720
1576
Nu construiesc un HAL.
03:38
All I'm after is a simplesimplu braincreier,
76
206320
2416
Tot ce vreau este un creier simplu,
ceva ce oferă iluzia inteligenței.
03:40
something that offerspromoții
the illusionamăgire of intelligenceinteligență.
77
208760
3120
03:45
The artartă and the scienceştiinţă of computingtehnica de calcul
have come a long way
78
213000
3136
Arta și știința informatică
au parcurs un drum lung
de când HAL a fost adus pe ecran
03:48
sincede cand HALHAL was onscreenpe ecran,
79
216160
1496
03:49
and I'd imagineimagina if his inventorinventator
DrDr. ChandraChandra were here todayastăzi,
80
217680
3216
și-mi imaginez că dacă inventatorul său,
Dr. Chandra, ar fi fost aici azi,
03:52
he'dHed have a wholeîntreg lot of questionsîntrebări for us.
81
220920
2336
ar fi avut o listă întreagă
de întrebări pentru noi.
03:55
Is it really possibleposibil for us
82
223280
2096
E într-adevăr posibil pentru noi
03:57
to take a systemsistem of millionsmilioane
uponpe millionsmilioane of devicesdispozitive,
83
225400
4016
să folosim un sistem de milioane
și milioane de dispozitive,
04:01
to readcitit in theiral lor datadate streamsfluxuri,
84
229440
1456
ca să citim în fluxurile lor de date,
04:02
to predictprezice theiral lor failureseșecuri
and actact in advanceavans?
85
230920
2256
pentru a le prezice erorile
și a acționa înainte?
04:05
Yes.
86
233200
1216
Da.
04:06
Can we buildconstrui systemssisteme that converseConverse
with humansoameni in naturalnatural languagelimba?
87
234440
3176
Putem construi sisteme care să converseze
cu oamenii în limba lor naturală?
04:09
Yes.
88
237640
1216
Da.
04:10
Can we buildconstrui systemssisteme
that recognizerecunoaşte objectsobiecte, identifyidentifica emotionsemoții,
89
238880
2976
Putem construi sisteme care să recunoască
obiecte, să identifice emoții,
04:13
emoteEmote themselvesînșiși,
playa juca gamesjocuri and even readcitit lipsbuze?
90
241880
3376
să arate emoții, să joace jocuri
și chiar să citească de pe buze?
04:17
Yes.
91
245280
1216
Da.
04:18
Can we buildconstrui a systemsistem that setsseturi goalsgoluri,
92
246520
2136
Putem construi sisteme
care să stabilească obiective,
04:20
that carriespoartă out plansplanuri againstîmpotriva those goalsgoluri
and learnsînvaţă alongde-a lungul the way?
93
248680
3616
să realizeze planuri pentru îndeplinirea
acestor obiective și să învețe pe parcurs?
04:24
Yes.
94
252320
1216
04:25
Can we buildconstrui systemssisteme
that have a theoryteorie of mindminte?
95
253560
3336
Da.
Putem construi sisteme
care să aibă o gândire empatică?
04:28
This we are learningînvăţare to do.
96
256920
1496
Asta învățăm să facem.
04:30
Can we buildconstrui systemssisteme that have
an ethicaletic and moralmorală foundationfundație?
97
258440
3480
Putem construi sisteme care să aibă
o baza etică și morală?
04:34
This we musttrebuie sa learnînvăța how to do.
98
262480
2040
Asta trebuie să învățăm cum se face.
04:37
So let's acceptAccept for a momentmoment
99
265360
1376
Așa că haideți să acceptăm pentru moment
04:38
that it's possibleposibil to buildconstrui
suchastfel de an artificialartificial intelligenceinteligență
100
266760
2896
că este posibil să construim
o astfel de inteligență artificială
04:41
for this kinddrăguț of missionmisiune and othersalții.
101
269680
2136
pentru acest tip de misiuni
și pentru altele.
04:43
The nextUrmător → questionîntrebare
you musttrebuie sa askcere yourselftu is,
102
271840
2536
Următoarea întrebare
pe care trebuie să v-o puneți e:
04:46
should we fearfrică it?
103
274400
1456
ar trebui să ne fie frică de ea?
04:47
Now, everyfiecare newnou technologytehnologie
104
275880
1976
Ei bine, fiecare tehnologie nouă
04:49
bringsaduce with it
some measuremăsura of trepidationtrepidație.
105
277880
2896
ne dă palpitații
într-o anumită măsură.
04:52
When we first saw carsautoturisme,
106
280800
1696
Când au apărut
pentru prima oară automobilele,
04:54
people lamentedplâns that we would see
the destructiondistrugere of the familyfamilie.
107
282520
4016
oamenii s-au lamentat că vom asista
la destrămarea familiei.
04:58
When we first saw telephonestelefoane come in,
108
286560
2696
Când au apărut
pentru prima oară telefoanele,
05:01
people were worriedîngrijorat it would destroydistruge
all civilcivil conversationconversaţie.
109
289280
2896
oamenii erau îngrijorați
că vor distruge complet conversația.
05:04
At a pointpunct in time we saw
the writtenscris wordcuvânt becomedeveni pervasiveuniversal,
110
292200
3936
La un moment dat am văzut
cum cuvântul scris a devenit omniprezent,
iar oamenii au crezut că vom pierde
abilitatea de a memora.
05:08
people thought we would losepierde
our abilityabilitate to memorizememora.
111
296160
2496
05:10
These things are all trueAdevărat to a degreegrad,
112
298680
2056
Toate acestea sunt adevărate
până la un anumit punct,
05:12
but it's alsode asemenea the casecaz
that these technologiestehnologii
113
300760
2416
dar de asemenea este adevărat
și că aceste tehnologii
05:15
broughtadus to us things
that extendedextins the humanuman experienceexperienţă
114
303200
3376
ne-au adus lucruri care ne-au lărgit
cunoașterea umană
05:18
in some profoundprofund waysmoduri.
115
306600
1880
în câteva moduri profunde.
05:21
So let's take this a little furthermai departe.
116
309840
2280
Așa că hai să mergem un pic mai departe.
05:25
I do not fearfrică the creationcreare
of an AIAI like this,
117
313120
4736
Eu nu mă tem de crearea
unei astfel de inteligențe artificiale
05:29
because it will eventuallyîn cele din urmă
embodyîntruchipa some of our valuesvalorile.
118
317880
3816
pentru că în final ea va îngloba
câteva dintre valorile noastre.
05:33
ConsiderIa în considerare this: buildingclădire a cognitivecognitiv systemsistem
is fundamentallyfundamental differentdiferit
119
321720
3496
Luați în considerare acest lucru:
construirea unui sistem cognitiv
este fundamental diferită
05:37
than buildingclădire a traditionaltradiţional
software-intensivesoftware-ul-intensiv systemsistem of the pasttrecut.
120
325240
3296
de construirea unui sistem
software-intensiv tradițional, din trecut.
05:40
We don't programprogram them. We teacha preda them.
121
328560
2456
Nu le programăm. Le învățăm.
05:43
In orderOrdin to teacha preda a systemsistem
how to recognizerecunoaşte flowersflori,
122
331040
2656
Pentru a învăța un sistem
cum să recunoască florile,
05:45
I showspectacol it thousandsmii of flowersflori
of the kindstipuri I like.
123
333720
3016
îi arăt mii de flori
din diverse tipuri care-mi plac.
05:48
In orderOrdin to teacha preda a systemsistem
how to playa juca a gamejoc --
124
336760
2256
Pentru a învăța un sistem
cum să joace un joc...
05:51
Well, I would. You would, too.
125
339040
1960
Ei bine, eu aș face-o. Și tu la fel.
05:54
I like flowersflori. Come on.
126
342600
2040
Îmi plac florile. Pe bune!
05:57
To teacha preda a systemsistem
how to playa juca a gamejoc like Go,
127
345440
2856
Ca să înveți un sistem
cum se joacă un joc de GO,
06:00
I'd have it playa juca thousandsmii of gamesjocuri of Go,
128
348320
2056
ar trebui să joc mii de partide de GO,
06:02
but in the processproces I alsode asemenea teacha preda it
129
350400
1656
dar în acest proces aș învăța de asemenea
06:04
how to discerndiscerne
a good gamejoc from a badrău gamejoc.
130
352080
2416
cum să discern
între un joc bun și unul prost.
06:06
If I want to createcrea an artificiallyartificial
intelligentinteligent legallegal assistantasistent,
131
354520
3696
Dacă vreau să creez IA
care să ofere asistență juridică,
06:10
I will teacha preda it some corpuscorp of lawlege
132
358240
1776
o s-o învăț corpusul legislativ,
dar în același timp voi integra
06:12
but at the samela fel time I am fusingCombinând with it
133
360040
2856
06:14
the sensesens of mercymila and justicejustiţie
that is partparte of that lawlege.
134
362920
2880
și simțul clemenței și al dreptății
ca parte a legii respective.
06:18
In scientificștiințific termstermeni,
this is what we call groundsol truthadevăr,
135
366560
2976
În termeni științifici, asta este
ceea ce numim adevărul de bază,
06:21
and here'saici e the importantimportant pointpunct:
136
369560
2016
și asta e ce contează cu adevărat:
când producem aceste mașinării,
06:23
in producingproducând these machinesmaşini,
137
371600
1456
06:25
we are thereforeprin urmare teachingînvățătură them
a sensesens of our valuesvalorile.
138
373080
3416
le învățăm o parte din valorile noastre.
06:28
To that endSfârşit, I trustîncredere
an artificialartificial intelligenceinteligență
139
376520
3136
În acest scop, mă încred
în inteligență artificială
06:31
the samela fel, if not more,
as a humanuman who is well-trainedbine pregatiti.
140
379680
3640
la fel, dacă nu și mai mult
decât într-un om care este bine instruit.
06:36
But, you mayMai askcere,
141
384080
1216
Dar ați putea întreba: ce ne facem
cu agenții necinstiți,
06:37
what about rogueRogue agentsagenţi,
142
385320
2616
06:39
some well-fundedbine finanţate
nongovernmentneguvernamental organizationorganizare?
143
387960
3336
cu anumite ONG-uri bine finanțate?
06:43
I do not fearfrică an artificialartificial intelligenceinteligență
in the handmână of a lonesinguratic wolflup.
144
391320
3816
Nu mă tem de o inteligență artificială
aflată în mâinile unui lup singuratic.
06:47
ClearlyÎn mod clar, we cannotnu poti protectproteja ourselvesnoi insine
againstîmpotriva all randomîntâmplător actsacte of violenceviolenţă,
145
395160
4536
Cu certitudine, nu ne putem proteja
împotriva tuturor actelor
aleatorii de violență,
06:51
but the realityrealitate is suchastfel de a systemsistem
146
399720
2136
dar realitatea e că un asemenea sistem
06:53
requiresnecesită substantialsubstanțial trainingpregătire
and subtlesubtil trainingpregătire
147
401880
3096
necesită o instruire
substanțială și subtilă,
06:57
fardeparte beyonddincolo the resourcesresurse of an individualindividual.
148
405000
2296
cu mult peste resursele
unui singur individ.
06:59
And furthermoreîn plus,
149
407320
1216
În plus, înseamnă mult mai mult
07:00
it's fardeparte more than just injectinginjectarea
an internetInternet virusvirus to the worldlume,
150
408560
3256
decât să introduci
un virus informatic în societate,
07:03
where you pushApăsaţi a buttonbuton,
all of a suddenbrusc it's in a millionmilion placeslocuri
151
411840
3096
unde apeși pe un buton deodată
și se răspândește în milioane de locuri
07:06
and laptopslaptop-uri startstart blowingsuflare up
all over the placeloc.
152
414960
2456
și laptopurile explodează pretutindeni.
07:09
Now, these kindstipuri of substancessubstanţe
are much largermai mare,
153
417440
2816
Ei bine, acest fel de conținut
este mult mai amplu
07:12
and we'llbine certainlycu siguranță see them comingvenire.
154
420280
1715
și cu siguranță ne așteptam la el.
07:14
Do I fearfrică that suchastfel de
an artificialartificial intelligenceinteligență
155
422520
3056
Să mă tem că o astfel
de inteligență artificială
07:17
mightar putea threatenameninţă all of humanityumanitate?
156
425600
1960
ar putea amenința întreaga umanitate?
07:20
If you look at moviesfilme
suchastfel de as "The MatrixMatrix," "MetropolisMetropolis,"
157
428280
4376
Dacă vă uitați la filme
precum „Matrix”, „Metropolis”
„Terminatorul”, seriale ca „Westworld”
07:24
"The TerminatorTerminator,"
showsspectacole suchastfel de as "WestworldVestului,"
158
432680
3176
07:27
they all speakvorbi of this kinddrăguț of fearfrică.
159
435880
2136
toate vorbesc despre acest tip de teamă.
07:30
IndeedÎntr-adevăr, in the bookcarte "SuperintelligenceSuperinteligenţa"
by the philosopherfilozof NickNick BostromBostrom,
160
438040
4296
Într-adevăr, în cartea „Superinteligență”,
filozoful Nick Bostrom
07:34
he picksmurături up on this themetemă
161
442360
1536
abordează această temă
07:35
and observesobservă that a superintelligencesuperinteligenţa
mightar putea not only be dangerouspericulos,
162
443920
4016
și observă că superinteligența
poate fi nu doar periculoasă,
07:39
it could representreprezinta an existentialexistențială threatamenințare
to all of humanityumanitate.
163
447960
3856
ci poate reprezenta o amenințare
existențială la adresa întregii omeniri.
07:43
DrDr. Bostrom'sBostrom pe basicde bază argumentargument
164
451840
2216
Argumentul de bază al Dr. Bostrom
07:46
is that suchastfel de systemssisteme will eventuallyîn cele din urmă
165
454080
2736
este că astfel de sisteme vor sfârși
07:48
have suchastfel de an insatiableinsatiabila
thirstsete for informationinformație
166
456840
3256
prin a avea o nestăvilită
sete de informație
07:52
that they will perhapspoate learnînvăța how to learnînvăța
167
460120
2896
așa încât, probabil,
vor învăța cum să învețe
07:55
and eventuallyîn cele din urmă discoverdescoperi
that they mayMai have goalsgoluri
168
463040
2616
și în final să descopere
că pot avea interese
07:57
that are contrarycontrar to humanuman needsare nevoie.
169
465680
2296
care sunt contrarii nevoilor umanității.
08:00
DrDr. BostromBostrom has a numbernumăr of followersadepţi.
170
468000
1856
Dr. Bostrom are un număr
de persoane care-l urmăresc.
08:01
He is supportedsprijinit by people
suchastfel de as ElonElon MuskMosc and StephenŞtefan HawkingHawking.
171
469880
4320
El este sprijinit de persoane
ca Elon Musk și Stephen Hawking.
08:06
With all duedatorat respectrespect
172
474880
2400
Cu tot respectul
pentru aceste minți luminate,
08:10
to these brilliantSclipitor mindsminți,
173
478160
2016
08:12
I believe that they
are fundamentallyfundamental wronggresit.
174
480200
2256
cred că greșesc fundamental.
08:14
Now, there are a lot of piecesbucăți
of DrDr. Bostrom'sBostrom pe argumentargument to unpackdespacheta,
175
482480
3176
Există numeroase aspecte de disecat
la argumentul Dr. Bostrom
08:17
and I don't have time to unpackdespacheta them all,
176
485680
2136
și nu am timp să le expun pe toate,
08:19
but very brieflyscurt, considerconsidera this:
177
487840
2696
dar foarte pe scurt,
luați în considerare asta:
08:22
supersuper knowingcunoaștere is very differentdiferit
than supersuper doing.
178
490560
3736
super cunoașterea este
foarte diferită de super acțiunea.
08:26
HALHAL was a threatamenințare to the DiscoveryDescoperirea crewechipaj
179
494320
1896
HAL a fost o amenințare
pentru echipajul Discovery
08:28
only insofarîn măsura în care as HALHAL commandeda comandat
all aspectsaspecte of the DiscoveryDescoperirea.
180
496240
4416
doar în măsura în care HAL avea comanda
tuturor aspectelor legate de Discovery.
08:32
So it would have to be
with a superintelligencesuperinteligenţa.
181
500680
2496
Așa ar trebui să fie
și în cazul unei superinteligențe.???
08:35
It would have to have dominionstăpânirea
over all of our worldlume.
182
503200
2496
ar trebui să stăpânească
toată lumea noastră.
08:37
This is the stuffchestie of SkynetSkynet
from the moviefilm "The TerminatorTerminator"
183
505720
2816
Aceste idei provin de la Skynet
din filmul „Terminatorul”
08:40
in whichcare we had a superintelligencesuperinteligenţa
184
508560
1856
în care avem o superinteligență
care comanda voința umană,
08:42
that commandeda comandat humanuman will,
185
510440
1376
08:43
that directeddirijat everyfiecare devicedispozitiv
that was in everyfiecare cornercolţ of the worldlume.
186
511840
3856
care controla fiecare dispozitiv
aflat în orice colț al lumii.
08:47
PracticallyPractic speakingvorbitor,
187
515720
1456
Practic vorbind, asta nu se va întâmpla.
08:49
it ain'tnu este gonna happenîntâmpla.
188
517200
2096
08:51
We are not buildingclădire AIsAIs
that controlControl the weathervreme,
189
519320
3056
Nu vom construi inteligențe artificiale
care să controleze vremea,
08:54
that directdirect the tidesmareelor,
190
522400
1336
să direcționeze valurile,
08:55
that commandcomanda us
capriciouscapricios, chaotichaotic humansoameni.
191
523760
3376
care să ne comande pe noi,
oameni capricioși și haotici.
08:59
And furthermoreîn plus, if suchastfel de
an artificialartificial intelligenceinteligență existeda existat,
192
527160
3896
Și mai mult decât atât, dacă astfel
de inteligență artificială ar exista,
09:03
it would have to competeconcura
with humanuman economieseconomii,
193
531080
2936
ar trebui să concureze
cu economiile oamenilor,
09:06
and therebyastfel competeconcura for resourcesresurse with us.
194
534040
2520
și astfel să concureze
pentru resurse cu noi.
09:09
And in the endSfârşit --
195
537200
1216
Și la sfârșit...
Nu-i spuneți asta lui Siri...
09:10
don't tell SiriSiri this --
196
538440
1240
09:12
we can always unplugDeconectaţi them.
197
540440
1376
Noi putem oricând să-i scoatem din priză.
09:13
(LaughterRâs)
198
541840
2120
(Râsete)
09:17
We are on an incredibleincredibil journeycălătorie
199
545360
2456
Suntem într-o incredibilă călătorie
de evoluție comună cu mașinăriile noastre.
09:19
of coevolutioncoevoluţie with our machinesmaşini.
200
547840
2496
09:22
The humansoameni we are todayastăzi
201
550360
2496
Oamenii de azi
nu sunt oamenii de mâine.
09:24
are not the humansoameni we will be then.
202
552880
2536
09:27
To worryface griji now about the risecreştere
of a superintelligencesuperinteligenţa
203
555440
3136
Să îți faci griji acum
de ascensiunea superinteligenței
09:30
is in manymulți waysmoduri a dangerouspericulos distractiondistracție
204
558600
3056
este într-o mulțime de feluri,
o periculoasă distragere a atenției,
09:33
because the risecreştere of computingtehnica de calcul itselfîn sine
205
561680
2336
deoarece însăși ascensiunea computerelor
09:36
bringsaduce to us a numbernumăr
of humanuman and societalsocietale issuesprobleme
206
564040
3016
ne aduce o serie de probleme
umane și sociale
09:39
to whichcare we musttrebuie sa now attendparticipa la.
207
567080
1640
la care trebuie să participăm acum.
09:41
How shalltrebuie I bestCel mai bun organizeorganiza societysocietate
208
569360
2816
Cum să organizez societatea cel mai bine
09:44
when the need for humanuman labormuncă diminishesdiminuează?
209
572200
2336
când nevoia de munci executate
de oameni se diminuează?
09:46
How can I bringaduce understandingînţelegere
and educationeducaţie throughoutde-a lungul the globeglob
210
574560
3816
Cum să aduc înțelegere și educație
de-a lungul globului
09:50
and still respectrespect our differencesdiferențele?
211
578400
1776
și totuși să respect
diferențele dintre noi?
09:52
How mightar putea I extendextinde and enhancespori humanuman life
throughprin cognitivecognitiv healthcaresănătate?
212
580200
4256
Cum aș putea să prelungesc
și să îmbunătățesc
viața prin asistență medicală cognitivă?
09:56
How mightar putea I use computingtehnica de calcul
213
584480
2856
Cum aș putea utiliza informatica
pentru a ne ajuta să ajungem la stele?
09:59
to help take us to the starsstele?
214
587360
1760
10:01
And that's the excitingemoționant thing.
215
589760
2040
Și acesta este lucrul interesant.
10:04
The opportunitiesoportunități to use computingtehnica de calcul
216
592400
2336
Oportunitățile de a utiliza
informatica
10:06
to advanceavans the humanuman experienceexperienţă
217
594760
1536
pentru a îmbunătăți cunoașterea umană
stă în puterea noastră,
10:08
are withinîn our reacha ajunge,
218
596320
1416
10:09
here and now,
219
597760
1856
aici și acum și suntem doar la început.
10:11
and we are just beginningînceput.
220
599640
1680
10:14
Thank you very much.
221
602280
1216
Vă mulțumesc foarte mult.
10:15
(ApplauseAplauze)
222
603520
4286
(Aplauze)
Translated by Denise R Quivu
Reviewed by Bianca Ioanidia Mirea

▲Back to top

ABOUT THE SPEAKER
Grady Booch - Scientist, philosopher
IBM's Grady Booch is shaping the future of cognitive computing by building intelligent systems that can reason and learn.

Why you should listen

When he was 13, Grady Booch saw 2001: A Space Odyssey in the theaters for the first time. Ever since, he's been trying to build Hal (albeit one without the homicidal tendencies). A scientist, storyteller and philosopher, Booch is Chief Scientist for Software Engineering as well as Chief Scientist for Watson/M at IBM Research, where he leads IBM's research and development for embodied cognition. Having originated the term and the practice of object-oriented design, he is best known for his work in advancing the fields of software engineering and software architecture.

A co-author of the Unified Modeling Language (UML), a founding member of the Agile Allianc, and a founding member of the Hillside Group, Booch has published six books and several hundred technical articles, including an ongoing column for IEEE Software. He's also a trustee for the Computer History Museum, an IBM Fellow, an ACM Fellow and IEEE Fellow. He has been awarded the Lovelace Medal and has given the Turing Lecture for the BCS, and was recently named an IEEE Computer Pioneer.

Booch is currently deeply involved in the development of cognitive systems and is also developing a major trans-media documentary for public broadcast on the intersection of computing and the human experience.

More profile about the speaker
Grady Booch | Speaker | TED.com