ABOUT THE SPEAKER
Radhika Nagpal - Robotics engineer
Taking cues from bottom-up biological networks like those of social insects, Radhika Nagpal helped design an unprecedented “swarm” of ant-like robots.

Why you should listen

With a swarm of 1,024 robots inspired by the design of ant colonies, Radhika Nagpal and her colleagues at Harvard’s SSR research group have redefined expectations for self-organizing robotic systems. Guided by algorithms, Nagpal’s shockingly simple robots guide themselves into a variety of shapes -- an ability that, brought to scale, might lead to applications like disaster rescue, space exploration and beyond.

In addition to her work with biologically inspired robots, Nagpal helped create ROOT, a simple robot to teach coding to would-be programmers through a simple user interface suitable for students of all ages.

More profile about the speaker
Radhika Nagpal | Speaker | TED.com
TED2017

Radhika Nagpal: What intelligent machines can learn from a school of fish

Radhika Nagpal: Ce que les machines intelligentes peuvent apprendre d'un banc de poissons

Filmed:
1,266,261 views

La science-fiction nous présente des visions du futur où l'intelligence artificielle est conçue pour reproduire notre façon de penser - mais si on la modélisait plutôt à partir d'autres types d'intelligence qu'on trouve dans la nature ? La roboticienne Radhika Nagpal étudie l'intelligence collective qui se manifeste chez les insectes et les bancs de poissons afin d'en comprendre les règles d'engagement. Dans une conférence visionnaire, elle présente son travail, qui consiste à créer un pouvoir collectif artificiel, et dépeint un avenir où des essaims de robots travailleraient ensemble pour construire des barrières contre les inondations, ensemencer les champs, observer les barrières de corail et former des constellations de satellites.
- Robotics engineer
Taking cues from bottom-up biological networks like those of social insects, Radhika Nagpal helped design an unprecedented “swarm” of ant-like robots. Full bio

Double-click the English transcript below to play the video.

00:12
In my earlyde bonne heure daysjournées as a graduatediplômé studentétudiant,
0
755
2015
Au tout début de mes études,
00:14
I wentest allé on a snorkelingplongée en apnée tripvoyage
off the coastcôte of the BahamasBahamas.
1
2794
3555
je suis partie en voyage aux Bahamas
pour faire de la plongée en apnée.
00:18
I'd actuallyréellement never swumnagés
in the oceanocéan before,
2
6789
2949
Je n'avais jamais vraiment nagé en mer,
00:21
so it was a bitbit terrifyingterrifiant.
3
9762
1844
donc ça me faisait très peur.
00:24
What I rememberrappelles toi the mostles plus is,
as I put my headtête in the watereau
4
12016
3000
Ce qui m'a frappée, c'est,
lorsque j'ai mis la tête sous l'eau,
00:27
and I was tryingen essayant really harddifficile
to breatherespirer throughpar the snorkeltuba,
5
15040
4250
alors que j'essayais
de respirer dans le tuba,
00:31
this hugeénorme groupgroupe
of stripedrayé yellowjaune and blacknoir fishpoisson
6
19314
5366
un énorme banc de poissons
rayés de jaune et noir
00:36
camevenu straighttout droit at me ...
7
24704
1483
est venu droit sur moi...
00:38
and I just frozegelé.
8
26817
1397
J'étais tétanisée.
00:40
And then, as if it had
suddenlysoudainement changedmodifié its mindesprit,
9
28975
3613
Alors, comme s'il avait
soudainement changé d'avis,
00:44
camevenu towardsvers me
and then swervedobliqué to the right
10
32612
2437
il s'est approché de moi
00:47
and wentest allé right around me.
11
35073
1515
et m'a contournée par la droite.
00:48
It was absolutelyabsolument mesmerizingenvoûtante.
12
36920
1526
C’était absolument fascinant.
00:50
Maybe manybeaucoup of you
have had this experienceexpérience.
13
38470
2182
Peut-être avez-vous
déjà eu cette expérience.
00:53
Of coursecours, there's the colorCouleur
and the beautybeauté of it,
14
41239
3422
Bien sûr,
je parle de la beauté des couleurs
00:56
but there was alsoaussi
just the sheerpur onenessunicité of it,
15
44685
2928
mais surtout de son unité pure et simple,
00:59
as if it wasn'tn'était pas hundredsdes centaines of fishpoisson
16
47637
2343
comme si ces centaines de poissons
01:02
but a singleunique entityentité
with a singleunique collectivecollectif mindesprit
17
50004
3135
ne formaient qu'une seule entité,
avec un unique esprit collectif
01:05
that was makingfabrication decisionsles décisions.
18
53163
1507
qui prenait les décisions.
01:07
When I look back, I think that experienceexpérience
really endedterminé up determiningdéterminer
19
55666
3682
En y repensant aujourd'hui,
cette expérience m'a vraiment orientée
01:11
what I've workedtravaillé on for mostles plus of my careercarrière.
20
59372
2222
dans ma carrière.
01:16
I'm a computerordinateur scientistscientifique,
21
64157
1280
Je suis informaticienne,
01:17
and the fieldchamp that I work in
is artificialartificiel intelligenceintelligence.
22
65461
2747
et je travaille
en intelligence artificielle.
01:20
And a keyclé themethème in AIAI
23
68639
1517
L'un des thèmes majeurs de l'IA
01:22
is beingétant ablecapable to understandcomprendre intelligenceintelligence
by creatingcréer our ownposséder computationalcalcul systemssystèmes
24
70180
4443
est d'essayer de comprendre l'intelligence
en créant des systèmes computationnels
01:26
that displayafficher intelligenceintelligence
the way we see it in naturela nature.
25
74647
3253
qui reproduisent l'intelligence
telle qu'observée dans la nature.
01:30
Now, mostles plus popularpopulaire viewsvues of AIAI, of coursecours,
come from sciencescience fictionfiction and the moviesfilms,
26
78467
4438
L'image que l'on a de l'IA vient souvent
de la science-fiction et des films,
01:34
and I'm personallypersonnellement a biggros StarStar WarsGuerres fanventilateur.
27
82929
2577
et je suis moi-même
une grande fan de Star Wars.
01:38
But that tendstendance to be a very human-centriccentrée sur l’homme
viewvue of intelligenceintelligence.
28
86501
3889
Mais c'est une vision très humaine
de l'intelligence.
01:43
When you think of a fishpoisson schoolécole,
29
91144
2207
Dans le cas d'un banc de poissons,
01:45
or when I think of a flocktroupeau of starlingsétourneaux,
30
93375
2953
ou une nuée d'étourneaux,
01:48
that feelsse sent like a really differentdifférent
kindgentil of intelligenceintelligence.
31
96352
3340
on pense à un type d'intelligence
très différent.
01:52
For startersdémarreurs, any one fishpoisson is just so tinyminuscule
32
100945
3913
Tout d'abord, un seul poisson
est tellement minuscule
01:56
comparedpar rapport to the sheerpur sizeTaille
of the collectivecollectif,
33
104882
2887
comparé à la seule taille du groupe,
01:59
so it seemssemble that any one individualindividuel
34
107793
3110
qu'on dirait qu'un individu à lui seul
02:02
would have a really limitedlimité
and myopicmyope viewvue of what's going on,
35
110927
2993
aurait une perception très limitée
de ce qui se passe,
02:05
and intelligenceintelligence
isn't really about the individualindividuel
36
113944
2334
et l'intelligence n'est pas liée
à un individu
02:08
but somehowen quelque sorte a propertypropriété
of the groupgroupe itselfse.
37
116302
2677
mais est plutôt une propriété
du groupe lui-même.
02:12
SecondlyDeuxièmement, and the thing
that I still find mostles plus remarkableremarquable,
38
120118
3231
Ensuite,
et c'est ce que je trouve remarquable,
02:15
is that we know that there are no leadersdirigeants
supervisingsuperviser this fishpoisson schoolécole.
39
123373
5032
nous savons qu'il n'y a pas de meneurs
qui supervisent le banc de poissons.
02:21
InsteadAu lieu de cela, this incredibleincroyable
collectivecollectif mindesprit behaviorcomportement
40
129163
3501
Par contre, cet incroyable comportement
de l'esprit collectif
02:24
is emergingémergent purelypurement from the interactionsinteractions
of one fishpoisson and anotherun autre.
41
132688
4532
résulte uniquement des interactions
entre chaque poisson.
02:29
SomehowEn quelque sorte, there are these interactionsinteractions
or rulesrègles of engagementengagement
42
137244
3968
Quelque part,
les interactions ou règles d'engagement
02:33
betweenentre neighboringvoisin fishpoisson
43
141236
1755
entre poissons voisins
02:35
that make it all work out.
44
143015
1467
semblent tout faire fonctionner.
02:37
So the questionquestion for AIAI then becomesdevient,
45
145736
2651
La question pour l'IA devient donc :
02:40
what are those rulesrègles of engagementengagement
that leadconduire to this kindgentil of intelligenceintelligence,
46
148411
4158
quelles sont ces règles d'engagement
qui mènent à cette sorte d'intelligence,
02:44
and of coursecours, can we createcréer our ownposséder?
47
152593
1907
et évidemment, peut-on la reproduire ?
02:46
And that's the primaryprimaire thing
that I work on with my teaméquipe in my lablaboratoire.
48
154999
3587
C'est le principal sujet sur lequel
je travaille avec mon équipe.
02:50
We work on it throughpar theorythéorie,
49
158943
1637
On se base sur la théorie,
02:52
looking at abstractabstrait ruleRègle systemssystèmes
50
160604
2348
des systèmes aux règles abstraites
02:54
and thinkingen pensant about
the mathematicsmathématiques behindderrière it.
51
162976
2349
et on réfléchit aux mathématiques
derrière.
02:57
We alsoaussi do it throughpar biologyla biologie,
workingtravail closelyétroitement with experimentalistsexpérimentateurs.
52
165897
4285
On le fait aussi à travers la biologie,
en travaillant avec des expérimentateurs.
03:02
But mostlyla plupart, we do it throughpar roboticsrobotique,
53
170579
1953
Mais souvent, à l'aide de la robotique.
03:04
where we try to createcréer
our ownposséder collectivecollectif systemssystèmes
54
172556
3904
On essaye de créer
nos propres systèmes collectifs
03:08
that can do the kindssortes of things
that we see in naturela nature,
55
176484
2707
qui font les mêmes sortes de choses
que dans la nature
03:11
or at leastmoins try to.
56
179215
1237
ou au moins on essaye.
03:13
One of our first roboticrobotique questsquêtes
alongle long de this lineligne
57
181907
2804
Une de nos premières recherches en ce sens
03:16
was to createcréer our very ownposséder colonycolonie
of a thousandmille robotsdes robots.
58
184735
4045
a été de créer notre propre colonie
d'un millier de robots.
03:21
So very simplesimple robotsdes robots,
59
189140
1334
Des robots très simples,
03:22
but they could be programmedprogrammé
to exhibitexposition collectivecollectif intelligenceintelligence,
60
190498
3603
programmés dans le but de
reproduire une intelligence collective,
03:26
and that's what we were ablecapable to do.
61
194125
1729
et c'est ce qu'on a pu faire.
03:28
So this is what a singleunique robotrobot looksregards like.
62
196194
2032
Voici donc ce à quoi ressemble
un robot.
03:30
It's quiteassez smallpetit,
about the sizeTaille of a quartertrimestre,
63
198250
2523
C'est assez petit,
comme une pièce de monnaie,
03:32
and you can programprogramme how it movesse déplace,
64
200797
2310
et on peut programmer ses déplacements,
03:35
but it can alsoaussi wirelesslysans fil
communicatecommuniquer with other robotsdes robots,
65
203131
3416
mais il peut aussi communiquer sans fil
avec les autres robots,
03:38
and it can measuremesure distancesles distances from them.
66
206571
2167
mesurer sa distance
par rapport aux autres.
03:40
And so now we can startdébut to programprogramme
exactlyexactement an interactioninteraction,
67
208762
3476
On peut donc commencer
à programmer une interaction,
03:44
a ruleRègle of engagementengagement betweenentre neighborsvoisins.
68
212262
2094
une règle d'engagement entre voisins.
03:46
And onceune fois que we have this systemsystème,
69
214713
1894
Et une fois ce système créé,
03:48
we can startdébut to programprogramme manybeaucoup
differentdifférent kindssortes of rulesrègles of engagementengagement
70
216631
3416
on peut commencer à programmer
de nombreuses règles d'engagement
03:52
that you would see in naturela nature.
71
220071
1506
comme dans la nature.
03:53
So for exampleExemple,
spontaneousspontané synchronizationsynchronisation,
72
221601
2976
Par exemple,
la synchronisation spontanée,
03:56
how audiencespublic are clappingClapping
and suddenlysoudainement startdébut all clappingClapping togetherensemble,
73
224601
5238
comment les applaudissements d'un public
se synchronisent soudainement,
04:01
the fireflieslucioles flashingclignotant togetherensemble.
74
229863
2068
les lucioles qui clignotent ensemble.
04:06
We can programprogramme rulesrègles
for patternmodèle formationformation,
75
234919
2691
On peut programmer des règles
de formation de modèles,
04:09
how cellscellules in a tissuetissu
76
237634
1786
comment les cellules d'un tissu
04:11
determinedéterminer what rolerôle
they're going to take on
77
239444
2102
déterminent leur rôle
04:13
and setensemble the patternsmodèles of our bodiescorps.
78
241570
1706
pour former les parties du corps.
04:17
We can programprogramme rulesrègles for migrationmigration,
79
245045
2089
On peut programmer
des règles de migration.
04:19
and in this way, we're really learningapprentissage
from nature'sla nature rulesrègles.
80
247158
2977
De cette manière, on apprend vraiment
des règles de la nature.
04:22
But we can alsoaussi take it a stepétape furtherplus loin.
81
250595
2647
On peut aussi aller encore plus loin.
04:25
We can actuallyréellement take these rulesrègles
that we'venous avons learnedappris from naturela nature
82
253266
2992
On peut en fait utiliser ces règles
apprises de la nature
04:28
and combinecombiner them and createcréer
entirelyentièrement newNouveau collectivecollectif behaviorscomportements
83
256282
3794
et les combiner pour fabriquer
de nouveaux comportements collectifs
04:32
of our very ownposséder.
84
260100
1198
de toutes pièces.
04:33
So for exampleExemple,
85
261960
1478
Par exemple,
04:35
imagineimaginer that you had
two differentdifférent kindssortes of rulesrègles.
86
263462
2352
imaginons qu'il existe
deux types de règles.
04:38
So your first ruleRègle is a motionmouvement ruleRègle
87
266374
2119
La première est une règle
de mouvement.
04:40
where a movingen mouvement robotrobot can movebouge toi
around other stationarystationnaire robotsdes robots.
88
268517
4341
Un robot peut se déplacer
autour d'autres robots stationnaires.
04:44
And your secondseconde ruleRègle is a patternmodèle ruleRègle
89
272882
1811
La deuxième est une règle de séquence :
04:46
where a robotrobot takes on a colorCouleur
basedbasé on its two nearestla plus proche neighborsvoisins.
90
274717
3157
un robot prend une couleur en fonction
de ses deux voisins.
04:50
So if I startdébut with a blobobjet BLOB of robotsdes robots
in a little patternmodèle seedla graine,
91
278679
3445
Donc si je prends un groupe de robots
avec une séquence de départ,
04:54
it turnsse tourne out that these two rulesrègles
are sufficientsuffisante for the groupgroupe
92
282148
2906
on constate que
ces deux règles sont suffisantes
04:57
to be ablecapable to self-assembles'auto-assembler
a simplesimple lineligne patternmodèle.
93
285078
2752
pour que le groupe puisse former
une ligne selon la séquence de couleur.
05:01
And if I have more
complicatedcompliqué patternmodèle rulesrègles,
94
289114
2544
Et si j'ai des règles de séquence
plus compliquées,
05:03
and I designconception errorErreur correctioncorrection rulesrègles,
95
291682
2317
que je crée des règles
de correction d'erreur,
05:06
we can actuallyréellement createcréer really,
really complicatedcompliqué selfsoi assembliesassemblys,
96
294023
3097
on peut créer des auto-assemblages
très complexes,
05:09
and here'svoici what that looksregards like.
97
297144
1644
et voici de quoi ça a l'air.
05:11
So here, you're going to see
a thousandmille robotsdes robots
98
299874
2985
Donc vous voyez ici un millier de robots
05:14
that are workingtravail togetherensemble
to self-assembles'auto-assembler the letterlettre K.
99
302883
3462
travaillant ensemble pour former
la lettre K.
05:18
The K is on its sidecôté.
100
306369
1306
Le K nous apparaît de côté.
05:20
And the importantimportant thing
is that no one is in chargecharge.
101
308223
2731
L'important, c'est que personne
n'est aux commandes.
05:22
So any singleunique robotrobot is only talkingparlant
to a smallpetit numbernombre of robotsdes robots nearbyproche it,
102
310978
4825
Chaque robot ne parle qu'à un faible
nombre de robots, ses voisins,
05:27
and it's usingen utilisant its motionmouvement ruleRègle
to movebouge toi around the half-builtmoitié construite structurestructure
103
315827
3937
et utilise sa règle de déplacement pour
bouger autour de la structure,
05:31
just looking for a placeendroit to fiten forme in
basedbasé on its patternmodèle rulesrègles.
104
319788
3007
en cherchant sa place en fonction
de ses règles de séquence.
05:35
And even thoughbien que no robotrobot
is doing anything perfectlyà la perfection,
105
323794
4398
Et même si le résultat n'est pas parfait,
05:40
the rulesrègles are suchtel that we can get
the collectivecollectif to do its goalobjectif
106
328216
3660
les règles établies permettent au groupe
d'atteindre son but
05:43
robustlyrobuste togetherensemble.
107
331900
1473
en collaboration étroite.
05:46
And the illusionillusion becomesdevient
almostpresque so perfectparfait, you know --
108
334033
2982
Et l'illusion commence à apparaître.
05:49
you just startdébut to not even noticeremarquer
that they're individualindividuel robotsdes robots at all,
109
337039
3416
On ne voit bientôt plus
les robots individuellement,
05:52
and it becomesdevient a singleunique entityentité,
110
340479
1683
mais comme une seule entité,
05:54
kindgentil of like the schoolécole of fishpoisson.
111
342186
1721
un peu comme le banc de poissons.
06:00
So these are robotsdes robots and rulesrègles
in two dimensionsdimensions,
112
348013
2739
Donc, on a des robots
et des règles en deux dimensions,
06:02
but we can alsoaussi think about robotsdes robots
and rulesrègles in threeTrois dimensionsdimensions.
113
350776
3311
mais on peut imaginer des robots
et des règles en trois dimensions.
06:06
So what if we could createcréer robotsdes robots
that could buildconstruire togetherensemble?
114
354111
3603
Et si on pouvait créer des robots
capables de construire ensemble ?
06:10
And here, we can take inspirationinspiration
from socialsocial insectsinsectes.
115
358576
3255
Et là, on peut s’inspirer
des insectes sociaux.
06:14
So if you think about
mound-buildingmonticule-bâtiment termitestermites
116
362189
2660
Si on prend l'exemple des termitières
06:16
or you think about armyarmée antsfourmis,
117
364873
2052
ou celui des fourmis légionnaires,
06:18
they createcréer incredibleincroyable,
complexcomplexe nestnid structuresles structures out of mudboue
118
366949
4253
elles construisent des structures
incroyablement complexes pour leur nid
06:23
and even out of theirleur ownposséder bodiescorps.
119
371226
2144
à partir de boue,
et même de leurs corps.
06:26
And like the systemsystème I showedmontré you before,
120
374602
2220
Et tout comme le système
que je vous ai montré,
06:28
these insectsinsectes actuallyréellement
alsoaussi have patternmodèle rulesrègles
121
376846
2970
ces insectes ont aussi
des règles de séquence
06:31
that help them determinedéterminer what to buildconstruire,
122
379840
2038
qui leur permettent
de savoir quoi construire,
06:33
but the patternmodèle can be madefabriqué
out of other insectsinsectes,
123
381902
2302
que ce soit à partir d'autres insectes,
06:36
or it could be madefabriqué out of mudboue.
124
384228
1787
ou bien à partir de boue.
06:39
And we can use that sameMême ideaidée
to createcréer rulesrègles for robotsdes robots.
125
387178
4361
On peut alors utiliser cette même idée
afin de créer des règles pour les robots.
06:44
So here, you're going to see
some simulatedsimulé robotsdes robots.
126
392221
3161
Ce que vous voyez ici ,
ce sont des robots simulés.
06:47
So the simulatedsimulé robotrobot has a motionmouvement ruleRègle,
127
395406
2483
Le robot simulé possède
une règle de déplacement,
06:49
whichlequel is how it traversestraverse
throughpar the structurestructure,
128
397913
2333
qui lui permet de bouger
autour de la structure,
06:52
looking for a placeendroit to fiten forme in,
129
400270
1997
tout en cherchant sa place.
06:54
and it has patternmodèle rulesrègles
where it looksregards at groupsgroupes of blocksblocs
130
402291
3000
Et il a des règles de séquence,
qui lui font chercher des blocs
06:57
to decidedécider whetherqu'il s'agisse to placeendroit a blockbloc.
131
405315
2205
et décider où placer
un bloc en particulier.
07:00
And with the right motionmouvement rulesrègles
and the right patternmodèle rulesrègles,
132
408644
3063
Et avec les bonnes règles de déplacement
et de séquence,
07:03
we can actuallyréellement get the robotsdes robots
to buildconstruire whateverpeu importe we want.
133
411731
3635
on arrive à ce que les robots
construisent ce que l'on veut.
07:08
And of coursecours, everybodyTout le monde wants
theirleur ownposséder towerla tour.
134
416197
2691
Et on veut tous construire
notre propre tour.
07:11
(LaughterRires)
135
419350
1982
(Rires)
07:14
So onceune fois que we have these rulesrègles,
136
422000
1684
Donc à partir de ces règles,
07:15
we can startdébut to createcréer the robotrobot bodiescorps
that go with these rulesrègles.
137
423708
3166
on va alors créer le type
de robot qui peut appliquer ces règles.
07:18
So here, you see a robotrobot
that can climbmontée over blocksblocs,
138
426898
3309
Ici, vous voyez un robot qui peut grimper
sur des blocs,
07:22
but it can alsoaussi liftascenseur and movebouge toi these blocksblocs
139
430231
2681
mais il peut aussi les soulever
et les déplacer,
07:24
and it can startdébut to editmodifier
the very structurestructure that it's on.
140
432936
2697
il peut modifier
la structure sur laquelle il se trouve.
07:28
But with these rulesrègles,
141
436617
1148
Mais avec ces règles,
07:29
this is really only one kindgentil of robotrobot bodycorps
that you could imagineimaginer.
142
437789
3479
on ne peut créer qu'un type de robot.
07:33
You could imagineimaginer
manybeaucoup differentdifférent kindssortes of robotrobot bodiescorps.
143
441292
2579
On peut imaginer
plein de types de robots différents.
07:35
So if you think about robotsdes robots
that maybe could movebouge toi sandbagssacs de sable
144
443895
4610
Par exemple, des robots
capables de déplacer des sacs de sable
07:40
and could help buildconstruire leveeslevées,
145
448529
2549
pour aider à construire des digues.
07:43
or we could think of robotsdes robots
that builtconstruit out of softdoux materialsmatériaux
146
451102
4301
ou bien de robots capables de construire
à partir de matériaux souples,
07:47
and workedtravaillé togetherensemble
to shorerive up a collapseds'est effondré buildingbâtiment --
147
455427
3644
et de travailler ensemble pour consolider
une immeuble écroulé.
07:51
so just the sameMême kindgentil of rulesrègles
in differentdifférent kindssortes of bodiescorps.
148
459095
2998
Il s'agit des mêmes types de règles
dans des robots différents.
07:56
Or if, like my groupgroupe, you are completelycomplètement
obsessedobsédé with armyarmée antsfourmis,
149
464210
4223
Ou si, comme pour mon équipe,
les fourmis sont pour vous une obsession,
08:00
then maybe one day we can make robotsdes robots
that can climbmontée over literallyLittéralement anything
150
468457
4374
alors peut-être pourrons-nous créer des
robots pouvant escalader n'importe quoi,
08:04
includingcomprenant other membersmembres of theirleur tribetribu,
151
472855
2174
incluant d'autres robots de leur tribu,
08:07
and self-assembles'auto-assembler things
out of theirleur ownposséder bodiescorps.
152
475053
2349
d'assembler des choses
en utilisant leurs corps.
08:10
OnceFois you understandcomprendre the rulesrègles,
153
478137
1681
Une fois les règles comprises,
08:11
just manybeaucoup differentdifférent kindssortes
of robotrobot visionsvisions becomedevenir possiblepossible.
154
479842
3379
toutes les visions de types de robot
deviennent possibles.
08:18
And comingvenir back to the snorkelingplongée en apnée tripvoyage,
155
486792
2234
Pour revenir sur la plongée aux Bahamas,
08:21
we actuallyréellement understandcomprendre a great dealtraiter
about the rulesrègles that fishpoisson schoolsécoles use.
156
489050
5345
on comprend plein de choses sur
les bancs de poissons et leurs règles.
08:26
So if we can inventinventer
the bodiescorps to go with that,
157
494769
2836
Si on invente les robots qui vont avec,
08:29
then maybe there is a futureavenir
158
497629
1428
alors peut-être qu'un jour,
08:31
where I and my groupgroupe will get to snorkeltuba
with a fishpoisson schoolécole of our ownposséder creationcréation.
159
499081
4522
mon équipe et moi plongerons avec
un banc de poissons de notre création.
08:40
EachChaque of these systemssystèmes that I showedmontré you
160
508850
2129
Chacun des systèmes
que je vous ai montrés
08:43
bringsapporte us closerplus proche to havingayant
the mathematicalmathématique and the conceptualconceptuel toolsoutils
161
511003
4277
nous rapproche des outils mathématiques
et conceptuels
08:47
to createcréer our ownposséder versionsversions
of collectivecollectif powerPuissance,
162
515304
3381
qui nous permettront de créer
notre version d'une puissance collective,
08:50
and this can enableactiver manybeaucoup differentdifférent kindssortes
of futureavenir applicationsapplications,
163
518709
3001
ce qui rendrait possible
de nombreuses futures applications,
08:53
whetherqu'il s'agisse you think about robotsdes robots
that buildconstruire floodinonder barriersbarrières
164
521734
3164
comme des robots constructeurs de
digues contre les inondations
08:56
or you think about roboticrobotique beeabeille coloniescolonies
that could pollinatepolliniser cropscultures
165
524922
4297
des colonies de
robots-abeilles pollinisatrices,
09:01
or underwatersous-marin schoolsécoles of robotsdes robots
that monitormoniteur coralcorail reefsrécifs,
166
529243
3524
des bancs de robots sous-marins
surveillant les coraux,
09:04
or if we reachatteindre for the starsétoiles
and we thinkingen pensant about programmingla programmation
167
532791
3103
ou encore, si on vise encore plus loin,
programmer
09:07
constellationsconstellations of satellitesles satellites.
168
535918
1619
des constellations de satellites.
09:10
In eachchaque of these systemssystèmes,
169
538148
1612
Dans chacun de ces systèmes,
09:11
beingétant ablecapable to understandcomprendre
how to designconception the rulesrègles of engagementengagement
170
539784
3547
la capacité à comprendre
comment concevoir les règles d'engagement
09:15
and beingétant ablecapable to createcréer
good collectivecollectif behaviorcomportement
171
543355
2514
et à générer
de bons comportements collectifs
09:17
becomesdevient a keyclé to realizingréaliser these visionsvisions.
172
545893
2374
devient la clé
pour rendre ces visions possibles.
09:22
So, so farloin I've talkeda parlé about
rulesrègles for insectsinsectes and for fishpoisson
173
550742
4107
Donc, j'ai parlé de règles
pour les insectes et les poissons,
09:26
and for robotsdes robots,
174
554873
2369
et pour les robots,
09:29
but what about the rulesrègles that applyappliquer
to our ownposséder humanHumain collectivecollectif?
175
557266
3103
mais qu'en est-il des règles qui
gouvernent notre collectivité humaine ?
09:32
And the last thought
that I'd like to leavelaisser you with
176
560866
2430
Et la dernière pensée
avant de vous laisser
09:35
is that sciencescience is of coursecours itselfse
177
563320
1681
est que la science en soi-même
09:37
an incredibleincroyable manifestationmanifestation
of collectivecollectif intelligenceintelligence,
178
565025
3484
est une extraordinaire manifestation
de l'intelligence collective,
09:40
but unlikecontrairement à the beautifulbeau
fishpoisson schoolsécoles that I studyétude,
179
568533
3318
mais contrairement aux magnifiques
bancs de poissons que j'étudie,
09:43
I feel we still have a much longerplus long
evolutionaryévolutionniste pathchemin to walkmarche.
180
571875
3943
je pense qu'il nous reste beaucoup
à parcourir sur le chemin de l'évolution.
09:48
So in additionune addition to workingtravail on improvingaméliorer
the sciencescience of robotrobot collectivessociétés de gestion,
181
576746
4604
Donc en plus de mon travail sur
la science des collectifs de robots,
09:53
I alsoaussi work on creatingcréer robotsdes robots
and thinkingen pensant about rulesrègles
182
581374
3277
je travaille aussi sur la création
de robots et de règles
09:56
that will improveaméliorer
our ownposséder scientificscientifique collectivecollectif.
183
584675
2460
qui amélioreront
notre propre collectivité scientifique.
10:00
There's this sayingen disant that I love:
184
588198
1668
Il y a une citation que j'adore :
10:01
who does sciencescience
determinesdétermine what sciencescience getsobtient doneterminé.
185
589890
3404
celui qui pratique la science
détermine ce que la science réalise.
10:06
ImagineImaginez a societysociété
186
594239
2941
Imaginez une société dans laquelle
10:09
where we had rulesrègles of engagementengagement
187
597204
1651
on aurait des règles d'engagement
10:10
where everychaque childenfant grewgrandi up believingcroire
that they could standsupporter here
188
598879
3303
qui permettraient aux enfants
de grandir en sachant
10:14
and be a technologisttechnologue en of the futureavenir,
189
602206
2422
qu'ils peuvent devenir
les techniciens du futur,
10:16
or where everychaque adultadulte
190
604652
1501
et aux adultes de croire
10:18
believeda cru that they had the abilitycapacité
not just to understandcomprendre but to changechangement
191
606177
4119
qu'ils ont la capacité
de non seulement comprendre
10:22
how sciencescience and technologyLa technologie
impactsimpacts theirleur everydaytous les jours livesvies.
192
610320
3555
mais aussi changer la manière dont
la science influence leurs vies.
10:26
What would that societysociété look like?
193
614820
1899
À quoi ressemblerait cette société ?
10:30
I believe that we can do that.
194
618386
1508
Je pense que c'est possible.
10:31
I believe that we can choosechoisir our rulesrègles,
195
619918
2291
Je pense
que l'on peut choisir nos règles,
10:34
and we engineeringénieur not just robotsdes robots
196
622233
1757
concevoir non seulement des robots
10:36
but we can engineeringénieur
our ownposséder humanHumain collectivecollectif,
197
624014
2596
mais aussi notre propre
collectivité humaine.
10:38
and if we do and when we do,
it will be beautifulbeau.
198
626634
3834
Et quand cela sera rendu possible,
ce sera merveilleux.
10:42
Thank you.
199
630492
1151
Merci.
10:43
(ApplauseApplaudissements)
200
631667
6547
(Applaudissements)
Translated by Yoann Bagneux
Reviewed by eric vautier

▲Back to top

ABOUT THE SPEAKER
Radhika Nagpal - Robotics engineer
Taking cues from bottom-up biological networks like those of social insects, Radhika Nagpal helped design an unprecedented “swarm” of ant-like robots.

Why you should listen

With a swarm of 1,024 robots inspired by the design of ant colonies, Radhika Nagpal and her colleagues at Harvard’s SSR research group have redefined expectations for self-organizing robotic systems. Guided by algorithms, Nagpal’s shockingly simple robots guide themselves into a variety of shapes -- an ability that, brought to scale, might lead to applications like disaster rescue, space exploration and beyond.

In addition to her work with biologically inspired robots, Nagpal helped create ROOT, a simple robot to teach coding to would-be programmers through a simple user interface suitable for students of all ages.

More profile about the speaker
Radhika Nagpal | Speaker | TED.com