ABOUT THE SPEAKER
Grady Booch - Scientist, philosopher
IBM's Grady Booch is shaping the future of cognitive computing by building intelligent systems that can reason and learn.

Why you should listen

When he was 13, Grady Booch saw 2001: A Space Odyssey in the theaters for the first time. Ever since, he's been trying to build Hal (albeit one without the homicidal tendencies). A scientist, storyteller and philosopher, Booch is Chief Scientist for Software Engineering as well as Chief Scientist for Watson/M at IBM Research, where he leads IBM's research and development for embodied cognition. Having originated the term and the practice of object-oriented design, he is best known for his work in advancing the fields of software engineering and software architecture.

A co-author of the Unified Modeling Language (UML), a founding member of the Agile Allianc, and a founding member of the Hillside Group, Booch has published six books and several hundred technical articles, including an ongoing column for IEEE Software. He's also a trustee for the Computer History Museum, an IBM Fellow, an ACM Fellow and IEEE Fellow. He has been awarded the Lovelace Medal and has given the Turing Lecture for the BCS, and was recently named an IEEE Computer Pioneer.

Booch is currently deeply involved in the development of cognitive systems and is also developing a major trans-media documentary for public broadcast on the intersection of computing and the human experience.

More profile about the speaker
Grady Booch | Speaker | TED.com
TED@IBM

Grady Booch: Don't fear superintelligent AI

Grady Booch: Ne craignez pas une IA super-intelligente

Filmed:
2,866,438 views

Les nouvelles technologies engendrent de nouvelles craintes, dit le scientifique et philosophe Grady Booch, mais nous n'avons pas à craindre une IA toute puissante et sans émotions. Il calme nos pires peurs (induites par la science-fiction) quant aux ordinateurs super-intelligents en expliquant comment nous leur apprendrons, et ne les programmerons pas, à partager nos valeurs. Plutôt que de s'inquiéter d'une menace existentielle peu probable, il nous incite à considérer comment l'intelligence artificielle améliorera la vie humaine.
- Scientist, philosopher
IBM's Grady Booch is shaping the future of cognitive computing by building intelligent systems that can reason and learn. Full bio

Double-click the English transcript below to play the video.

00:12
When I was a kidenfant,
I was the quintessentialpar excellence nerdnerd.
0
760
3840
Quand j'étais enfant,
j'étais l'exemple parfait de l'intello.
00:17
I think some of you were, too.
1
5320
2176
Certains d'entre vous
devaient l'être aussi.
00:19
(LaughterRires)
2
7520
1216
(Rires)
00:20
And you, sirMonsieur, who laughedri the loudestle plus fort,
you probablyProbablement still are.
3
8760
3216
Et vous, monsieur, qui avez ri
le plus fort, devez encore l'être.
00:24
(LaughterRires)
4
12000
2256
(Rires)
00:26
I grewgrandi up in a smallpetit townville
in the dustypoussiéreux plainsplaines of northNord TexasTexas,
5
14280
3496
J'ai grandi dans une petite ville
des plaines poussiéreuses du Texas,
00:29
the sonfils of a sheriffshérif
who was the sonfils of a pastorPasteur.
6
17800
3336
fils d'un shérif
qui était fils de pasteur.
00:33
GettingObtenir into troubledifficulté was not an optionoption.
7
21160
1920
Hors de question de m'attirer des ennuis.
00:36
And so I startedcommencé readingen train de lire
calculuscalcul bookslivres for funamusement.
8
24040
3256
J'ai donc commencé à lire
des livres de calcul pour le plaisir.
00:39
(LaughterRires)
9
27320
1536
(Rires)
00:40
You did, too.
10
28880
1696
Vous aussi.
00:42
That led me to buildingbâtiment a laserlaser
and a computerordinateur and modelmaquette rocketsfusées,
11
30600
3736
Cela m'a mené à créer un laser,
un ordinateur et des micro fusées
00:46
and that led me to makingfabrication
rocketfusée fuelcarburant in my bedroomchambre.
12
34360
3000
et à faire du carburant
pour les fusées dans ma chambre.
00:49
Now, in scientificscientifique termstermes,
13
37960
3656
En termes scientifiques,
00:53
we call this a very badmal ideaidée.
14
41640
3256
cela s'appelle une très mauvaise idée.
00:56
(LaughterRires)
15
44920
1216
(Rires)
00:58
Around that sameMême time,
16
46160
2176
A peu près au même moment,
01:00
StanleyStanley Kubrick'sKubrick "2001: A SpaceEspace OdysseyOdyssée"
camevenu to the theatersthéâtres,
17
48360
3216
« 2001 : l'odyssée de l'espace »
de Stanley Kubrick est sorti
01:03
and my life was foreverpour toujours changedmodifié.
18
51600
2200
et cela a changé ma vie.
01:06
I lovedaimé everything about that moviefilm,
19
54280
2056
J'aimais tout dans ce film,
01:08
especiallynotamment the HALHAL 9000.
20
56360
2536
en particulier HAL 9000.
01:10
Now, HALHAL was a sentientsensible computerordinateur
21
58920
2056
HAL était un ordinateur sensible
01:13
designedconçu to guideguider the DiscoveryDécouverte spacecraftvaisseau spatial
22
61000
2456
conçu pour guider Discovery,
le vaisseau spatial,
01:15
from the EarthTerre to JupiterJupiter.
23
63480
2536
de la Terre à Jupiter.
01:18
HALHAL was alsoaussi a flawedviciée characterpersonnage,
24
66040
2056
HAL était aussi un personnage imparfait
01:20
for in the endfin he chosechoisi
to valuevaleur the missionmission over humanHumain life.
25
68120
4280
puisqu'à la fin, il choisissait
la valeur de la mission
plutôt que la vie humaine.
01:24
Now, HALHAL was a fictionalfiction characterpersonnage,
26
72840
2096
HAL était un personnage de fiction
01:26
but nonethelesstoutefois he speaksparle to our fearscraintes,
27
74960
2656
mais il s'adresse malgré tout à nos peurs,
01:29
our fearscraintes of beingétant subjugatedsubjugué
28
77640
2096
nos peurs d'être assujettis
01:31
by some unfeelinginsensible, artificialartificiel intelligenceintelligence
29
79760
3016
par une intelligence artificielle
sans émotions
01:34
who is indifferentindifférent to our humanityhumanité.
30
82800
1960
qui est indifférente à notre humanité.
01:37
I believe that suchtel fearscraintes are unfoundednon fondées.
31
85880
2576
Je crois que de telles peurs
sont infondées.
01:40
IndeedEn effet, we standsupporter at a remarkableremarquable time
32
88480
2696
En fait, nous vivons un moment remarquable
01:43
in humanHumain historyhistoire,
33
91200
1536
dans l'histoire de l'humanité
01:44
where, drivenentraîné by refusalrefus to acceptAcceptez
the limitslimites of our bodiescorps and our mindsesprits,
34
92760
4976
où, guidés par notre refus d'accepter
les limites de nos corps et esprit,
01:49
we are buildingbâtiment machinesmachines
35
97760
1696
nous construisons des machines
01:51
of exquisiteexquise, beautifulbeau
complexitycomplexité and graceGrace
36
99480
3616
d'une complexité et d'une grâce
exquises et magnifiques
01:55
that will extendétendre the humanHumain experienceexpérience
37
103120
2056
qui étendront l'expérience humaine
01:57
in waysfaçons beyondau-delà our imaginingimaginant.
38
105200
1680
bien au-delà de notre imagination.
01:59
After a careercarrière that led me
from the AirAir ForceForce AcademyAcadémie
39
107720
2576
Après une carrière qui m'a mené
de l'Air Force Academy
02:02
to SpaceEspace CommandCommande to now,
40
110320
1936
au Space Command aujourd'hui,
02:04
I becamedevenu a systemssystèmes engineeringénieur,
41
112280
1696
je suis devenu ingénieur de systèmes
02:06
and recentlyrécemment I was drawntiré
into an engineeringingénierie problemproblème
42
114000
2736
et j'ai récemment participé
à un problème d'ingénierie
02:08
associatedassocié with NASA'sNASA missionmission to MarsMars.
43
116760
2576
associé à la mission sur Mars de la NASA.
02:11
Now, in spaceespace flightsvols to the MoonLune,
44
119360
2496
Pour les vols dans l'espace
jusqu'à la Lune,
02:13
we can relycompter uponsur
missionmission controlcontrôle in HoustonHouston
45
121880
3136
nous comptons sur le centre
de contrôle de mission de Houston
02:17
to watch over all aspectsaspects of a flightvol.
46
125040
1976
pour surveiller tous les aspects du vol.
02:19
HoweverCependant, MarsMars is 200 timesfois furtherplus loin away,
47
127040
3536
Cependant, Mars est à une distance
200 fois plus importante
02:22
and as a resultrésultat it takes
on averagemoyenne 13 minutesminutes
48
130600
3216
et le résultat est
qu'il faut en moyenne 13 minutes
02:25
for a signalsignal to travelVoyage
from the EarthTerre to MarsMars.
49
133840
3136
pour qu'un signal voyage
de la Terre jusqu'à Mars.
02:29
If there's troubledifficulté,
there's not enoughassez time.
50
137000
3400
S'il y a un problème,
c'est beaucoup trop long.
02:32
And so a reasonableraisonnable engineeringingénierie solutionSolution
51
140840
2496
Une solution d'ingénierie raisonnable
02:35
callsappels for us to put missionmission controlcontrôle
52
143360
2576
nous a poussés à placer
le centre de contrôle de mission
02:37
insideà l'intérieur the wallsdes murs of the OrionOrion spacecraftvaisseau spatial.
53
145960
3016
entre les murs de l'engin spatial Orion.
02:41
AnotherUn autre fascinatingfascinant ideaidée
in the missionmission profileVoir le profil
54
149000
2896
Une autre idée fascinante
dans le profil de la mission
02:43
placesdes endroits humanoidHumanoïde robotsdes robots
on the surfacesurface of MarsMars
55
151920
2896
place les robots humanoïdes
sur la surface de Mars
02:46
before the humanshumains themselvesse arrivearrivée,
56
154840
1856
avant l'arrivée des humains,
02:48
first to buildconstruire facilitiesinstallations
57
156720
1656
pour construire des infrastructures
02:50
and laterplus tard to serveservir as collaborativecollaboratif
membersmembres of the sciencescience teaméquipe.
58
158400
3360
puis servir de membres collaboratifs
à l'équipe scientifique.
02:55
Now, as I lookedregardé at this
from an engineeringingénierie perspectivela perspective,
59
163400
2736
En observant cela
d'un point de vue d'ingénieur,
02:58
it becamedevenu very clearclair to me
that what I needednécessaire to architectarchitecte
60
166160
3176
il m'est clairement apparu
que je devais concevoir
03:01
was a smartintelligent, collaborativecollaboratif,
61
169360
2176
une intelligence artificielle
intelligente, collaborative
03:03
sociallysocialement intelligentintelligent
artificialartificiel intelligenceintelligence.
62
171560
2376
et socialement intelligente.
03:05
In other wordsmots, I needednécessaire to buildconstruire
something very much like a HALHAL
63
173960
4296
En d'autres mots, je devais créer
quelque chose ressemblant à HAL
03:10
but withoutsans pour autant the homicidalhomicide tendenciestendances.
64
178280
2416
mais sans tendances meurtrières.
03:12
(LaughterRires)
65
180720
1360
(Rires)
03:14
Let's pausepause for a momentmoment.
66
182920
1816
Marquons un instant de pause.
03:16
Is it really possiblepossible to buildconstruire
an artificialartificiel intelligenceintelligence like that?
67
184760
3896
Est-il réellement possible de créer
une telle intelligence artificielle ?
03:20
ActuallyEn fait, it is.
68
188680
1456
C'est possible.
03:22
In manybeaucoup waysfaçons,
69
190160
1256
De bien des façons,
03:23
this is a harddifficile engineeringingénierie problemproblème
70
191440
1976
c'est un problème d'ingénierie complexe
03:25
with elementséléments of AIAI,
71
193440
1456
avec un peu d'IA,
03:26
not some wetWet haircheveux ballballon of an AIAI problemproblème
that needsBesoins to be engineeredmachiné.
72
194920
4696
non pas un problème inextricable d'AI
qui nécessite de l'ingénierie.
03:31
To paraphraseparaphrase AlanAlan TuringTuring,
73
199640
2656
Pour paraphraser Alan Turing,
03:34
I'm not interestedintéressé
in buildingbâtiment a sentientsensible machinemachine.
74
202320
2376
créer une machine sensible
ne m'intéresse pas.
03:36
I'm not buildingbâtiment a HALHAL.
75
204720
1576
Je ne crée pas HAL.
03:38
All I'm after is a simplesimple braincerveau,
76
206320
2416
Tout ce que je veux
c'est un cerveau simple,
03:40
something that offersdes offres
the illusionillusion of intelligenceintelligence.
77
208760
3120
quelque chose qui offre
l'illusion de l'intelligence.
03:45
The artart and the sciencescience of computingl'informatique
have come a long way
78
213000
3136
L'art et la science de l'informatique
ont beaucoup progressé
03:48
sincedepuis HALHAL was onscreenà l’écran,
79
216160
1496
depuis que HAL était au cinéma.
03:49
and I'd imagineimaginer if his inventorinventeur
DrDr. ChandraChandra were here todayaujourd'hui,
80
217680
3216
J'imagine que si son inventeur,
Dr Chandra était présent aujourd'hui,
03:52
he'dil aurait have a wholeentier lot of questionsdes questions for us.
81
220920
2336
il aurait beaucoup
de questions à nous poser.
03:55
Is it really possiblepossible for us
82
223280
2096
Est-il vraiment possible pour nous
03:57
to take a systemsystème of millionsdes millions
uponsur millionsdes millions of devicesdispositifs,
83
225400
4016
de prendre un système de millions
et millions d'appareils,
04:01
to readlis in theirleur dataLes données streamsruisseaux,
84
229440
1456
lire leurs flux de données,
04:02
to predictprédire theirleur failuresles échecs
and actacte in advanceavance?
85
230920
2256
prévoir leurs défaillances et agir avant ?
04:05
Yes.
86
233200
1216
Oui.
04:06
Can we buildconstruire systemssystèmes that converseConverse
with humanshumains in naturalNaturel languagela langue?
87
234440
3176
Et créer des systèmes parlant
avec les humains dans leur langue ?
04:09
Yes.
88
237640
1216
Oui.
04:10
Can we buildconstruire systemssystèmes
that recognizereconnaître objectsobjets, identifyidentifier emotionsémotions,
89
238880
2976
Et créer des systèmes reconnaissant
les objets et les émotions,
04:13
emoteemote themselvesse,
playjouer gamesJeux and even readlis lipslèvres?
90
241880
3376
étant eux-mêmes émotifs,
jouant à des jeux, lisant sur les lèvres ?
04:17
Yes.
91
245280
1216
Oui.
04:18
Can we buildconstruire a systemsystème that setsensembles goalsbuts,
92
246520
2136
Et créer des systèmes
établissant des objectifs,
04:20
that carriesporte out plansdes plans againstcontre those goalsbuts
and learnsapprend alongle long de the way?
93
248680
3616
mettant des plans en œuvre
et apprenant au passage ?
04:24
Yes.
94
252320
1216
Oui.
04:25
Can we buildconstruire systemssystèmes
that have a theorythéorie of mindesprit?
95
253560
3336
Et créer des systèmes
qui ont une théorie de l'esprit ?
04:28
This we are learningapprentissage to do.
96
256920
1496
Nous apprenons à le faire.
04:30
Can we buildconstruire systemssystèmes that have
an ethicaléthique and moralmoral foundationfondation?
97
258440
3480
Et créer des systèmes ayant
des principes éthiques et moraux ?
04:34
This we mustdoit learnapprendre how to do.
98
262480
2040
Nous devons apprendre à le faire.
04:37
So let's acceptAcceptez for a momentmoment
99
265360
1376
Acceptons un instant
04:38
that it's possiblepossible to buildconstruire
suchtel an artificialartificiel intelligenceintelligence
100
266760
2896
qu'il soit possible de créer
une telle intelligence artificielle
04:41
for this kindgentil of missionmission and othersautres.
101
269680
2136
pour ce genre de missions et d'autres.
04:43
The nextprochain questionquestion
you mustdoit askdemander yourselftoi même is,
102
271840
2536
La question suivante
qu'il faut se poser est :
04:46
should we fearpeur it?
103
274400
1456
devrions-nous la craindre ?
04:47
Now, everychaque newNouveau technologyLa technologie
104
275880
1976
Toute nouvelle technologie
04:49
bringsapporte with it
some measuremesure of trepidationinquiétude.
105
277880
2896
entraîne de l'inquiétude.
04:52
When we first saw carsdes voitures,
106
280800
1696
Au début des voitures,
04:54
people lamentedse lamentait that we would see
the destructiondestruction of the familyfamille.
107
282520
4016
les gens se lamentaient que nous voyions
la destruction de la famille.
04:58
When we first saw telephonesles téléphones come in,
108
286560
2696
A l'arrivée des téléphones,
05:01
people were worriedinquiet it would destroydétruire
all civilcivil conversationconversation.
109
289280
2896
les gens craignaient
la fin de toute conversation civile.
05:04
At a pointpoint in time we saw
the writtenécrit wordmot becomedevenir pervasiveenvahissant,
110
292200
3936
À un moment donné, les mots écrits
sont devenus omniprésents,
05:08
people thought we would loseperdre
our abilitycapacité to memorizemémoriser.
111
296160
2496
les gens pensaient
que nous perdrions notre mémoire.
05:10
These things are all truevrai to a degreedegré,
112
298680
2056
Toutes ces choses sont en partie vraies,
05:12
but it's alsoaussi the caseCas
that these technologiesles technologies
113
300760
2416
mais ces technologies
05:15
broughtapporté to us things
that extendedélargi the humanHumain experienceexpérience
114
303200
3376
ont aussi apporté des choses
qui ont étendu l'expérience humaine
05:18
in some profoundprofond waysfaçons.
115
306600
1880
de façon profonde.
05:21
So let's take this a little furtherplus loin.
116
309840
2280
Allons un peu plus loin.
05:25
I do not fearpeur the creationcréation
of an AIAI like this,
117
313120
4736
Je n'ai pas peur de la création
d'une telle IA
05:29
because it will eventuallyfinalement
embodyincarner some of our valuesvaleurs.
118
317880
3816
car elle finira par incarner
certaines de nos valeurs.
05:33
ConsiderEnvisager de this: buildingbâtiment a cognitivecognitif systemsystème
is fundamentallyfondamentalement differentdifférent
119
321720
3496
Considérez ceci :
créer un système cognitif
est fondamentalement différent
05:37
than buildingbâtiment a traditionaltraditionnel
software-intensiveaxée sur le logiciel systemsystème of the pastpassé.
120
325240
3296
de créer un système traditionnel
plein de logiciels comme auparavant.
05:40
We don't programprogramme them. We teachapprendre them.
121
328560
2456
Nous ne les programmons pas,
nous leur apprenons.
05:43
In ordercommande to teachapprendre a systemsystème
how to recognizereconnaître flowersfleurs,
122
331040
2656
Afin d'apprendre à un système
à reconnaître des fleurs,
05:45
I showmontrer it thousandsmilliers of flowersfleurs
of the kindssortes I like.
123
333720
3016
je lui montre des milliers
de fleurs que j'aime.
05:48
In ordercommande to teachapprendre a systemsystème
how to playjouer a gameJeu --
124
336760
2256
Afin d'apprendre à un système
à jouer à un jeu --
05:51
Well, I would. You would, too.
125
339040
1960
Je le ferais, vous aussi.
05:54
I like flowersfleurs. Come on.
126
342600
2040
J'aime les fleurs, allez.
05:57
To teachapprendre a systemsystème
how to playjouer a gameJeu like Go,
127
345440
2856
Pour apprendre à un système
à jouer au jeu de Go,
06:00
I'd have it playjouer thousandsmilliers of gamesJeux of Go,
128
348320
2056
je devrais jouer des milliers
de parties de Go
06:02
but in the processprocessus I alsoaussi teachapprendre it
129
350400
1656
mais au passage, je lui apprends
06:04
how to discerndiscerner
a good gameJeu from a badmal gameJeu.
130
352080
2416
à discerner un bon mouvement d'un mauvais.
06:06
If I want to createcréer an artificiallyartificiellement
intelligentintelligent legallégal assistantAssistant,
131
354520
3696
Si je veux créer une intelligence
artificielle assistante juridique,
06:10
I will teachapprendre it some corpuscorpus of lawloi
132
358240
1776
je lui apprendrais des corpus de loi
06:12
but at the sameMême time I am fusingFusing with it
133
360040
2856
mais en même temps, je lie cela
06:14
the sensesens of mercyMerci and justiceJustice
that is partpartie of that lawloi.
134
362920
2880
à la compassion et la justice
qui font partie de la loi.
06:18
In scientificscientifique termstermes,
this is what we call groundsol truthvérité,
135
366560
2976
En termes scientifiques,
cela s'appelle des vérités fondamentales
06:21
and here'svoici the importantimportant pointpoint:
136
369560
2016
et voici ce qui est important :
06:23
in producingproduisant these machinesmachines,
137
371600
1456
en produisant ces machines,
06:25
we are thereforedonc teachingenseignement them
a sensesens of our valuesvaleurs.
138
373080
3416
nous leur enseignons
une partie de nos valeurs.
06:28
To that endfin, I trustconfiance
an artificialartificiel intelligenceintelligence
139
376520
3136
Pour cela, j'ai autant confiance,
si ce n'est pas plus,
06:31
the sameMême, if not more,
as a humanHumain who is well-trainedbien formés.
140
379680
3640
en une intelligence artificielle
qu'en un être humain bien entraîné.
06:36
But, you maymai askdemander,
141
384080
1216
Vous allez demander :
06:37
what about roguevoyous agentsagents,
142
385320
2616
qu'en est-il des hors-la-loi,
06:39
some well-fundedbien financé
nongovernmentnon gouvernementaux organizationorganisation?
143
387960
3336
des quelques organisations
non gouvernementales bien financées ?
Je n'ai pas peur
d'une intelligence artificielle
06:43
I do not fearpeur an artificialartificiel intelligenceintelligence
in the handmain of a loneseul wolfLoup.
144
391320
3816
dans les mains d'un seul individu.
06:47
ClearlyClairement, we cannotne peux pas protectprotéger ourselvesnous-mêmes
againstcontre all randomau hasard actsactes of violencela violence,
145
395160
4536
Nous ne pouvons pas nous protéger
des actes de violence aveugles,
06:51
but the realityréalité is suchtel a systemsystème
146
399720
2136
mais un tel système
06:53
requiresa besoin substantialsubstantiel trainingentraînement
and subtlesubtil trainingentraînement
147
401880
3096
requiert un entraînement
substantiel et raffiné
06:57
farloin beyondau-delà the resourcesRessources of an individualindividuel.
148
405000
2296
qui va bien au-delà
des ressources d'un individu.
06:59
And furthermoreen outre,
149
407320
1216
En outre,
07:00
it's farloin more than just injectingpar injection
an internetl'Internet virusvirus to the worldmonde,
150
408560
3256
il s'agit de bien plus que d'injecter
un virus internet au monde
où en appuyant sur une touche,
il se retrouve à des millions d'endroits
07:03
where you pushpousser a buttonbouton,
all of a suddensoudain it's in a millionmillion placesdes endroits
151
411840
3096
07:06
and laptopsordinateurs portables startdébut blowingsouffler up
all over the placeendroit.
152
414960
2456
et des ordinateurs explosent
un peu partout.
07:09
Now, these kindssortes of substancessubstances
are much largerplus grand,
153
417440
2816
Ce genre de substances
sont bien plus grandes
07:12
and we'llbien certainlycertainement see them comingvenir.
154
420280
1715
et nous les verrons sûrement venir.
07:14
Do I fearpeur that suchtel
an artificialartificiel intelligenceintelligence
155
422520
3056
Ai-je peur qu'une telle
intelligence artificielle
07:17
mightpourrait threatenmenacer all of humanityhumanité?
156
425600
1960
menace l'humanité ?
07:20
If you look at moviesfilms
suchtel as "The MatrixMatrice," "MetropolisMétropole,"
157
428280
4376
Si vous regardez des films
tels que « Matrix », « Metropolis »,
07:24
"The TerminatorTerminator,"
showsmontre suchtel as "WestworldWestworld,"
158
432680
3176
« Terminator » ou des séries
telles que « Westworld »,
07:27
they all speakparler of this kindgentil of fearpeur.
159
435880
2136
ils évoquent tous ce genre de peur.
07:30
IndeedEn effet, in the booklivre "SuperintelligenceSuperintelligence"
by the philosopherphilosophe NickNick BostromBostrom,
160
438040
4296
Dans le livre « Superintelligence »
du philosophe Nick Bostrom,
07:34
he pickspics up on this themethème
161
442360
1536
il évoque ce thème
07:35
and observesobserve that a superintelligencesuperintelligence
mightpourrait not only be dangerousdangereux,
162
443920
4016
et note qu'une super-intelligence
pourrait être non seulement dangereuse,
07:39
it could representreprésenter an existentialexistentiel threatmenace
to all of humanityhumanité.
163
447960
3856
mais représenter une menace existentielle
envers l'humanité tout entière.
07:43
DrDr. Bostrom'sDe Bostrom basicde base argumentargument
164
451840
2216
L'argument fondamental
du docteur Bostrom
07:46
is that suchtel systemssystèmes will eventuallyfinalement
165
454080
2736
est que de tels systèmes finiront
07:48
have suchtel an insatiableinsatiable
thirstla soif for informationinformation
166
456840
3256
par avoir une telle soif
insatiable d'informations
07:52
that they will perhapspeut être learnapprendre how to learnapprendre
167
460120
2896
qu'ils apprendront peut-être à apprendre
07:55
and eventuallyfinalement discoverdécouvrir
that they maymai have goalsbuts
168
463040
2616
et finiront par découvrir
qu'ils ont des objectifs
07:57
that are contrarycontraire to humanHumain needsBesoins.
169
465680
2296
qui sont contraires aux besoins humains.
08:00
DrDr. BostromBostrom has a numbernombre of followersdisciples.
170
468000
1856
Le docteur Bostrom a des partisans.
08:01
He is supportedprise en charge by people
suchtel as ElonElon MuskMusc and StephenStephen HawkingHawking.
171
469880
4320
Il est soutenu par des gens
tels qu'Elon Musk et Stephen Hawking.
08:06
With all due respectle respect
172
474880
2400
Avec tout le respect dû
08:10
to these brilliantbrillant mindsesprits,
173
478160
2016
à ces brillants esprits,
08:12
I believe that they
are fundamentallyfondamentalement wrongfaux.
174
480200
2256
je crois qu'ils ont fondamentalement tort.
08:14
Now, there are a lot of piecesdes morceaux
of DrDr. Bostrom'sDe Bostrom argumentargument to unpackdécompresser,
175
482480
3176
L'argument du Dr Bostrom
contient nombre d'éléments à décortiquer
08:17
and I don't have time to unpackdécompresser them all,
176
485680
2136
et je n'ai pas le temps pour tous,
08:19
but very brieflybrièvement, considerconsidérer this:
177
487840
2696
mais, brièvement, considérez ceci :
08:22
supersuper knowingconnaissance is very differentdifférent
than supersuper doing.
178
490560
3736
un super-savoir est très différent
d'une super-action.
08:26
HALHAL was a threatmenace to the DiscoveryDécouverte crewéquipage
179
494320
1896
HAL était une menace pour l'équipage
08:28
only insofardans la mesure as HALHAL commandedcommanda
all aspectsaspects of the DiscoveryDécouverte.
180
496240
4416
uniquement s'il commandait
tous les aspects de Discovery.
08:32
So it would have to be
with a superintelligencesuperintelligence.
181
500680
2496
C'en est de même
pour une super-intelligence.
08:35
It would have to have dominionDominion
over all of our worldmonde.
182
503200
2496
Il lui faudrait des réplications
dans le monde entier.
08:37
This is the stuffdes trucs of SkynetSkynet
from the moviefilm "The TerminatorTerminator"
183
505720
2816
C'est le truc avec Skynet
dans le fim « Terminator »
08:40
in whichlequel we had a superintelligencesuperintelligence
184
508560
1856
où nous avons une super-intelligence
08:42
that commandedcommanda humanHumain will,
185
510440
1376
commandant la volonté humaine,
08:43
that directeddirigé everychaque devicedispositif
that was in everychaque cornercoin of the worldmonde.
186
511840
3856
contrôlant tous les appareils
à tous les coins du monde.
08:47
PracticallyPratiquement speakingParlant,
187
515720
1456
D'un point de vue pratique,
08:49
it ain'tn'est pas gonna happense produire.
188
517200
2096
cela n'arrivera pas.
08:51
We are not buildingbâtiment AIsSIA
that controlcontrôle the weatherMétéo,
189
519320
3056
Nous ne créons pas d'AI
qui contrôle la météo,
08:54
that directdirect the tidesmarées,
190
522400
1336
qui dirige les vagues,
08:55
that commandcommander us
capriciouscapricieuse, chaoticchaotique humanshumains.
191
523760
3376
qui nous commande,
nous humains capricieux et chaotiques.
08:59
And furthermoreen outre, if suchtel
an artificialartificiel intelligenceintelligence existedexisté,
192
527160
3896
En outre, si une telle
intelligence artificielle existait,
09:03
it would have to competerivaliser
with humanHumain economieséconomies,
193
531080
2936
elle devrait rivaliser
avec les économies humaines
09:06
and therebyainsi competerivaliser for resourcesRessources with us.
194
534040
2520
et se battre contre nous
pour des ressources.
09:09
And in the endfin --
195
537200
1216
Au final --
09:10
don't tell SiriSiri this --
196
538440
1240
ne le dites pas à Siri --
09:12
we can always unplugDébranchez them.
197
540440
1376
on peut toujours les débrancher.
09:13
(LaughterRires)
198
541840
2120
(Rires)
09:17
We are on an incredibleincroyable journeypériple
199
545360
2456
Nous participons à un voyage incroyable
09:19
of coevolutioncoévolution with our machinesmachines.
200
547840
2496
de coévolution avec nos machines.
09:22
The humanshumains we are todayaujourd'hui
201
550360
2496
Les humains que nous sommes aujourd'hui
09:24
are not the humanshumains we will be then.
202
552880
2536
ne sont pas les humains de demain.
09:27
To worryinquiéter now about the riseaugmenter
of a superintelligencesuperintelligence
203
555440
3136
S'inquiéter maintenant
de l'essor d'une super-intelligence
09:30
is in manybeaucoup waysfaçons a dangerousdangereux distractiondistraction
204
558600
3056
est, de bien des façons,
une distraction dangereuse
09:33
because the riseaugmenter of computingl'informatique itselfse
205
561680
2336
car l'essor de l'informatique lui-même
09:36
bringsapporte to us a numbernombre
of humanHumain and societalsociétales issuesproblèmes
206
564040
3016
nous amène nombre de problèmes
humains et sociétaux
09:39
to whichlequel we mustdoit now attendassister à.
207
567080
1640
dont nous devons nous occuper.
09:41
How shalldevra I bestmeilleur organizeorganiser societysociété
208
569360
2816
Comment organiser au mieux la société
09:44
when the need for humanHumain laborla main d'oeuvre diminishesdiminue?
209
572200
2336
quand le besoin
de travail humain diminue ?
09:46
How can I bringapporter understandingcompréhension
and educationéducation throughouttout au long de the globeglobe
210
574560
3816
Comment apporter compréhension
et éducation à travers le monde
09:50
and still respectle respect our differencesdifférences?
211
578400
1776
tout en respectant les différences ?
09:52
How mightpourrait I extendétendre and enhanceaméliorer humanHumain life
throughpar cognitivecognitif healthcaresoins de santé?
212
580200
4256
Comment étendre
et améliorer la vie humaine
grâce à la médecine cognitive ?
09:56
How mightpourrait I use computingl'informatique
213
584480
2856
Comment utiliser l'informatique
09:59
to help take us to the starsétoiles?
214
587360
1760
pour nous envoyer dans les étoiles ?
10:01
And that's the excitingpassionnant thing.
215
589760
2040
C'est cela qui est excitant.
10:04
The opportunitiesopportunités to use computingl'informatique
216
592400
2336
Les opportunités d'utiliser l'informatique
pour faire progresser l'expérience humaine
10:06
to advanceavance the humanHumain experienceexpérience
217
594760
1536
10:08
are withindans our reachatteindre,
218
596320
1416
sont à notre portée,
10:09
here and now,
219
597760
1856
ici et maintenant,
10:11
and we are just beginningdébut.
220
599640
1680
et nous ne faisons que commencer.
10:14
Thank you very much.
221
602280
1216
Merci beaucoup.
10:15
(ApplauseApplaudissements)
222
603520
4286
(Applaudissements)
Translated by Morgane Quilfen
Reviewed by Fatima Zahra El Hafa

▲Back to top

ABOUT THE SPEAKER
Grady Booch - Scientist, philosopher
IBM's Grady Booch is shaping the future of cognitive computing by building intelligent systems that can reason and learn.

Why you should listen

When he was 13, Grady Booch saw 2001: A Space Odyssey in the theaters for the first time. Ever since, he's been trying to build Hal (albeit one without the homicidal tendencies). A scientist, storyteller and philosopher, Booch is Chief Scientist for Software Engineering as well as Chief Scientist for Watson/M at IBM Research, where he leads IBM's research and development for embodied cognition. Having originated the term and the practice of object-oriented design, he is best known for his work in advancing the fields of software engineering and software architecture.

A co-author of the Unified Modeling Language (UML), a founding member of the Agile Allianc, and a founding member of the Hillside Group, Booch has published six books and several hundred technical articles, including an ongoing column for IEEE Software. He's also a trustee for the Computer History Museum, an IBM Fellow, an ACM Fellow and IEEE Fellow. He has been awarded the Lovelace Medal and has given the Turing Lecture for the BCS, and was recently named an IEEE Computer Pioneer.

Booch is currently deeply involved in the development of cognitive systems and is also developing a major trans-media documentary for public broadcast on the intersection of computing and the human experience.

More profile about the speaker
Grady Booch | Speaker | TED.com