ABOUT THE SPEAKER
César Hidalgo - Physicist
César Hidalgo studies how teams, cities and nations learn.

Why you should listen

César A. Hidalgo leads the Collective Learning group at The MIT Media Lab and is an associate professor of media arts and sciences at MIT. Hidalgo's work focuses on understanding how teams, organizations, cities and nations learn. At the Collective Learning group, Hidalgo develops software tools to facilitate learning in organizations. His academic publications have been cited more than 10,000 times, and his online systems, including the Observatory of Economic Complexity and DataUSA, have received more than 100 million views and numerous awards.

Hidalgo's latest book, Why Information Grows (2015), has been translated into 10+ languages. He is also the co-author of The Atlas of Economic Complexity (2014) and a co-founder of Datawheel LLC, a company that has professionalized the creation of large data visualization engines.

More profile about the speaker
César Hidalgo | Speaker | TED.com
TED2018

César Hidalgo: A bold idea to replace politicians

César Hidalgo: Une idée audacieuse pour remplacer les politiciens

Filmed:
2,044,328 views

César Hidalgo a une suggestion radicale pour rectifier notre système politique déficient : l'automatiser ! Dans cette intervention provocatrice, il présente une idée audacieuse pour court-circuiter les politiciens en habilitant les citoyens à créer des IA personnalisées qui seraient des représentants participant directement aux décisions démocratiques. Explorez une nouvelle façon de prendre des décisions collectives et d'élargir votre vision de la démocratie.
- Physicist
César Hidalgo studies how teams, cities and nations learn. Full bio

Double-click the English transcript below to play the video.

00:13
Is it just me,
0
1373
1744
Est-ce que c'est juste moi
00:15
or are there other people here
1
3141
2332
ou y a-t-il d'autres gens ici
00:17
that are a little bitbit
disappointeddésappointé with democracyla démocratie?
2
5497
2344
qui sont un peu déçus par la démocratie?
00:20
(ApplauseApplaudissements)
3
8986
2336
(Applaudissements)
00:24
So let's look at a fewpeu numbersNombres.
4
12141
2071
Considérons quelques chiffres.
00:26
If we look acrossà travers the worldmonde,
5
14934
2173
Si nous regardons à travers le monde,
00:29
the medianmédian turnouttaux de participation
in presidentialprésidentiel electionsélections
6
17131
3892
le taux moyen de participation
aux élections présidentielles
00:33
over the last 30 yearsannées
7
21047
1651
au cours des 30 dernières années
s'élève seulement à 67%.
00:34
has been just 67 percentpour cent.
8
22722
2622
00:38
Now, if we go to EuropeL’Europe
9
26329
1973
Si nous allons en Europe
00:40
and we look at people that participatedparticipé
in EUUNION EUROPÉENNE parliamentaryparlementaire electionsélections,
10
28326
4428
et considérons les gens ayant participé
aux élections parlementaires de l'UE,
00:44
the medianmédian turnouttaux de participation in those electionsélections
11
32778
2071
le taux moyen de participation
à ces élections
00:46
is just 42 percentpour cent.
12
34873
2104
est seulement de 42%.
00:50
Now let's go to NewNouveau YorkYork,
13
38125
1669
Allons à présent à New York
00:51
and let's see how manybeaucoup people votedvoté
in the last electionélection for mayormaire.
14
39818
4681
et regardons combien de personnes ont voté
dans les dernières élections municipales.
00:56
We will find that only
24 percentpour cent of people showedmontré up to votevote.
15
44523
3817
Nous découvrons que seulement
24% sont allés voter.
01:01
What that meansveux dire is that,
if "FriendsAmis" was still runningfonctionnement,
16
49063
3095
Cela veut dire que si la série « Friends »
était encore diffusée,
01:04
JoeyJoey and maybe PhoebePhoebe
would have shownmontré up to votevote.
17
52182
3348
Joey et peut-être Phoebe
seraient allés voter.
01:07
(LaughterRires)
18
55554
1290
(Rires)
01:09
And you cannotne peux pas blamefaire des reproches them
because people are tiredfatigué of politiciansLes politiciens.
19
57434
4426
Vous ne pouvez pas leur en vouloir
car les gens en ont marre des politiciens.
01:13
And people are tiredfatigué of other people
usingen utilisant the dataLes données that they have generatedgénéré
20
61884
3887
Les gens en ont marre des autres gens
utilisant les données qu'ils ont générées
01:17
to communicatecommuniquer with
theirleur friendscopains and familyfamille,
21
65795
2198
en communiquant
avec leurs amis et leur famille,
01:20
to targetcible politicalpolitique propagandapropagande at them.
22
68017
2094
pour en faire des cibles
de propagande politique.
01:22
But the thing about this
is that this is not newNouveau.
23
70519
2728
Le fait est que cela n'est pas nouveau.
01:25
NowadaysDe nos jours, people use likesaime
to targetcible propagandapropagande at you
24
73271
3225
On utilise les « j'aime »
pour vous cibler.
01:28
before they use your zipZip *: français codecode
or your genderle genre or your ageâge,
25
76520
3373
Avant, c'était votre code postal,
votre sexe ou votre âge,
01:31
because the ideaidée of targetingciblage people
with propagandapropagande for politicalpolitique purposesfins
26
79917
3570
car l'idée de faire des gens des cibles
de propagande à des fins politiques
01:35
is as oldvieux as politicspolitique.
27
83511
1592
est aussi vieille que la politique.
01:37
And the reasonraison why that ideaidée is there
28
85530
2278
Cette idée existe bien, car
01:39
is because democracyla démocratie
has a basicde base vulnerabilityvulnérabilité.
29
87832
3472
la démocratie a une
vulnérabilité fondamentale.
01:43
This is the ideaidée of a representativereprésentant.
30
91710
1932
Voici le schéma d'une élection.
01:46
In principleprincipe, democracyla démocratie is the abilitycapacité
of people to exertexercer une powerPuissance.
31
94049
3944
En principe, la démocratie est la capacité
du peuple à exercer le pouvoir.
01:50
But in practiceentraine toi, we have to delegatedélégué
that powerPuissance to a representativereprésentant
32
98017
3818
Mais en pratique, nous devons déléguer
ce pouvoir à un représentant
01:53
that can exertexercer une that powerPuissance for us.
33
101859
2255
qui peut exercer ce pouvoir pour nous.
01:56
That representativereprésentant is a bottleneckgoulot,
34
104561
1825
Ce représentant est
le goulot d'étranglement
01:58
or a weakfaible spotplace.
35
106410
1297
ou un point faible.
01:59
It is the placeendroit that you want to targetcible
if you want to attackattaque democracyla démocratie
36
107731
3949
C'est lui que vous voulez cibler
si vous voulez attaquer la démocratie,
02:03
because you can captureCapturer democracyla démocratie
by eithernon plus capturingcapturer that representativereprésentant
37
111704
3489
car vous pouvez vous emparer
de la démocratie via ce représentant
02:07
or capturingcapturer the way
that people choosechoisir it.
38
115217
2148
ou via la façon dont les gens
le choisissent.
02:10
So the biggros questionquestion is:
39
118065
1416
La question est :
02:11
Is this the endfin of historyhistoire?
40
119505
1704
Est-ce la fin de l'histoire ?
02:13
Is this the bestmeilleur that we can do
41
121989
3103
Est-ce le mieux que nous puissions faire
02:17
or, actuallyréellement, are there alternativessolutions de rechange?
42
125878
3067
ou y a-t-il des alternatives ?
02:22
Some people have been thinkingen pensant
about alternativessolutions de rechange,
43
130130
2354
Certains réfléchissent à des alternatives
02:24
and one of the ideasidées that is out there
is the ideaidée of directdirect democracyla démocratie.
44
132508
3679
et l'une des idées énoncées
est la démocratie directe.
02:28
This is the ideaidée of bypassingsans passer par
politiciansLes politiciens completelycomplètement
45
136790
2479
Elle consiste à shunter les politiciens
et faire voter les gens directement
02:31
and havingayant people votevote directlydirectement on issuesproblèmes,
46
139293
2403
sur des problèmes et des projets de loi.
02:33
havingayant people votevote directlydirectement on billsfactures.
47
141720
2265
02:36
But this ideaidée is naivenaïf
48
144415
1336
Mais cette idée est naïve,
02:37
because there's too manybeaucoup things
that we would need to choosechoisir.
49
145775
3171
car nous serions obligés
de choisir trop de choses.
02:40
If you look at the 114thth US CongressCongress,
50
148970
2782
Si vous considérez le 114e
congrès des États-Unis,
02:43
you will have seenvu that
the HouseMaison of RepresentativesReprésentants
51
151776
2487
vous verrez que
la Chambre des représentants
02:46
consideredpris en considération more than 6,000 billsfactures,
52
154287
2889
a examiné plus de 6 000 projets de loi,
02:49
the SenateSénat consideredpris en considération
more than 3,000 billsfactures
53
157200
2656
le Sénat a examiné
plus de 3 000 projets de loi
02:51
and they approvedapprouvé more than 300 lawslois.
54
159880
2808
et ils ont approuvé plus de 300 lois.
02:54
Those would be manybeaucoup decisionsles décisions
55
162712
1579
Cela obligerait chacun à prendre
de nombreuses décisions chaque semaine
02:56
that eachchaque personla personne would have to make a weekla semaine
56
164315
2187
02:58
on topicsles sujets that they know little about.
57
166526
2142
sur des sujets sur lesquels
il a peu de connaissances.
03:01
So there's a biggros cognitivecognitif
bandwidthbande passante problemproblème
58
169229
2281
Il y a un problème
de bande passante cognitive
03:03
if we're going to try to think about
directdirect democracyla démocratie as a viableviable alternativealternative.
59
171534
3992
si nous essayons de voir la démocratie
directe comme une alternative viable.
03:08
So some people think about the ideaidée
of liquidliquide democracyla démocratie, or fluidliquide democracyla démocratie,
60
176205
4435
Certains imaginent
une démocratie liquide ou fluide,
03:12
whichlequel is the ideaidée that you endorseendosser
your politicalpolitique powerPuissance to someoneQuelqu'un,
61
180664
3776
dans laquelle vous donnez
votre pouvoir politique à quelqu'un,
qui peut le donner à quelqu'un d'autre
03:16
who can endorseendosser it to someoneQuelqu'un elseautre,
62
184464
1700
03:18
and, eventuallyfinalement, you createcréer
a largegrand followersuiveur networkréseau
63
186188
2541
et, finalement, vous créez
un grand réseau de suiveurs
03:20
in whichlequel, at the endfin, there's a fewpeu people
that are makingfabrication decisionsles décisions
64
188753
3294
où seulement quelques personnes
prennent les décisions
03:24
on behalfnom of all of theirleur followersdisciples
and theirleur followersdisciples.
65
192071
3143
au nom de tous leurs suiveurs
et des suiveurs de leurs suiveurs.
03:28
But this ideaidée alsoaussi doesn't solverésoudre
the problemproblème of the cognitivecognitif bandwidthbande passante
66
196326
4129
Cette idée ne résout pas le problème
de la bande passante cognitive
03:32
and, to be honesthonnête, it's alsoaussi quiteassez similarsimilaire
to the ideaidée of havingayant a representativereprésentant.
67
200479
3877
et, pour être honnête, est similaire
au fait d'avoir un représentant.
03:36
So what I'm going to do todayaujourd'hui is
I'm going to be a little bitbit provocativeprovocante,
68
204795
3468
Aujourd'hui, je vais être
un peu provocateur
03:40
and I'm going to askdemander you, well:
69
208277
2300
et je vais vous demander :
03:42
What if, insteadau lieu of tryingen essayant
to bypassBypass politiciansLes politiciens,
70
210601
6562
« Et si, au lieu d'essayer
de shunter les politiciens,
03:49
we trieda essayé to automateautomatiser them?
71
217187
2200
nous essayions de les automatiser ? »
03:57
The ideaidée of automationAutomation is not newNouveau.
72
225871
2926
L'idée de l'automatisation
n'est pas nouvelle.
04:00
It was startedcommencé more than 300 yearsannées agodepuis,
73
228821
2080
Elle a commencé il y a 300 ans,
04:02
when FrenchFrançais weaverstisserands decideddécidé
to automateautomatiser the loommétier à tisser.
74
230925
3068
quand les tisserands français ont décidé
d'automatiser le métier à tisser.
04:06
The winnergagnant of that industrialindustriel warguerre
was Joseph-MarieJoseph-Marie JacquardJacquard.
75
234820
4360
Le vainqueur de cette guerre industrielle
fut Joseph-Marie Jacquard.
04:11
He was a FrenchFrançais weavertisserand and merchantmarchande
76
239204
1751
C'était un tisserand et marchand français
04:12
that marriedmarié the loommétier à tisser
with the steamvapeur enginemoteur
77
240979
2440
qui a marié le métier à tisser
et la machine à vapeur
04:15
to createcréer autonomousautonome loomsmétiers à tisser.
78
243443
2190
pour créer des métiers à tisser autonomes.
04:17
And in those autonomousautonome loomsmétiers à tisser,
he gainedgagné controlcontrôle.
79
245657
2753
Avec ces métiers à tisser,
il a gagné en contrôle.
04:20
He could now make fabricstissus that were
more complexcomplexe and more sophisticatedsophistiqué
80
248434
3885
Il pouvait fabriquer des tissus
plus complexes et sophistiqués
04:24
than the onesceux they
were ablecapable to do by handmain.
81
252343
2128
que ceux qui étaient faits à la main.
04:27
But alsoaussi, by winninggagnant that industrialindustriel warguerre,
82
255193
2632
En gagnant cette guerre industrielle,
04:29
he laidposé out what has becomedevenir
the blueprintplan d’action of automationAutomation.
83
257849
3524
il a installé ce qui est devenu
le schéma directeur de l'automatisation.
04:34
The way that we automateautomatiser things
for the last 300 yearsannées
84
262135
2870
Notre façon d'automatiser les choses
ces 300 dernières années
04:37
has always been the sameMême:
85
265029
1382
n'a jamais changé :
04:39
we first identifyidentifier a need,
86
267006
2509
nous identifions d'abord un besoin,
04:41
then we createcréer a tooloutil
to satisfysatisfaire that need,
87
269539
3184
puis nous créons un outil
pour satisfaire ce besoin,
04:44
like the loommétier à tisser, in this caseCas,
88
272747
2040
comme le métier à tisser,
04:46
and then we studyétude how people use that tooloutil
89
274811
2391
puis nous étudions
comment les gens utilisent l'outil
04:49
to automateautomatiser that userutilisateur.
90
277226
1485
pour automatiser cet utilisateur.
04:51
That's how we camevenu
from the mechanicalmécanique loommétier à tisser
91
279242
3061
C'est ainsi que nous sommes passés
du métier à tisser mécanique
04:54
to the autonomousautonome loommétier à tisser,
92
282327
1896
au métier à tisser autonome
04:56
and that tooka pris us a thousandmille yearsannées.
93
284247
2120
et cela nous a pris mille ans.
04:58
Now, it's takenpris us only a hundredcent yearsannées
94
286391
2071
Alors qu'il ne nous a fallu que cent ans
05:00
to use the sameMême scriptscript
to automateautomatiser the carvoiture.
95
288486
3211
pour utiliser ce même schéma
afin d'automatiser la voiture.
05:05
But the thing is that, this time around,
96
293286
2452
Cependant, cette fois,
05:07
automationAutomation is kindgentil of for realréal.
97
295762
2129
l'automatisation est réelle.
05:09
This is a videovidéo that a colleaguecollègue of minemien
from ToshibaToshiba sharedpartagé with me
98
297915
3321
Voici une vidéo qu'un de mes collègues
de Toshiba a partagée avec moi
05:13
that showsmontre the factoryusine
that manufacturesfabrique solidsolide stateEtat drivesdisques.
99
301260
3259
et qui montre l'usine
qui produit des disques SSD.
05:16
The entiretout factoryusine is a robotrobot.
100
304543
2018
L'usine entière est un robot.
05:18
There are no humanshumains in that factoryusine.
101
306585
1925
Il n'y a pas d'humain dans cette usine.
05:21
And the robotsdes robots are soonbientôt
to leavelaisser the factoriesdes usines
102
309033
2221
Les robots vont bientôt quitter les usines
05:23
and becomedevenir partpartie of our worldmonde,
103
311278
2022
et faire partie de notre monde,
05:25
becomedevenir partpartie of our workforcela main d'oeuvre.
104
313324
1835
faire partie de notre main d’œuvre.
05:27
So what I do in my day jobemploi
105
315183
1773
Ce que je fais au quotidien,
05:28
is actuallyréellement createcréer toolsoutils that integrateintégrer
dataLes données for entiretout countriesdes pays
106
316980
3992
c'est de créer des outils qui intègrent
des données de pays entiers
05:32
so that we can ultimatelyen fin de compte have
the foundationsfondations that we need
107
320996
3466
afin que nous disposions
des fondations nécessaires
05:36
for a futureavenir in whichlequel we need
to alsoaussi managegérer those machinesmachines.
108
324486
3687
pour un futur où nous aurons besoin
de gérer ces machines.
05:41
But todayaujourd'hui, I'm not here
to talk to you about these toolsoutils
109
329195
2906
Mais je ne suis pas là
pour vous parler de ces outils
qui intègrent les données des pays.
05:44
that integrateintégrer dataLes données for countriesdes pays.
110
332125
1824
05:46
But I'm here to talk to you
about anotherun autre ideaidée
111
334463
2622
Je suis ici pour vous parler
d'une autre idée
05:49
that mightpourrait help us think about how to use
artificialartificiel intelligenceintelligence in democracyla démocratie.
112
337109
4865
qui pourrait nous aider à réfléchir
à comment utiliser
l'intelligence artificielle
dans la démocratie.
05:53
Because the toolsoutils that I buildconstruire
are designedconçu for executiveexécutif decisionsles décisions.
113
341998
4733
Car les outils que je développe
sont conçus pour des décisions exécutives.
05:58
These are decisionsles décisions that can be castjeter
in some sortTrier of termterme of objectivityobjectivité --
114
346755
3842
Ce sont des décisions pouvant être prises
avec une certaine objectivité --
06:02
publicpublic investmentinvestissement decisionsles décisions.
115
350621
1745
des décisions d'investissement public.
06:04
But there are decisionsles décisions
that are legislativelégislatif,
116
352885
2631
Mais il y a des décisions législatives
06:07
and these decisionsles décisions that are legislativelégislatif
requireexiger communicationla communication amongparmi people
117
355540
3787
et ces décisions nécessitent
une communication entre des gens
06:11
that have differentdifférent pointspoints of viewvue,
118
359351
1700
qui ont des points de vue différents,
06:13
requireexiger participationparticipation, requireexiger debatedébat,
119
361075
2613
requièrent une participation, un débat,
06:15
requireexiger deliberationdélibération.
120
363712
1478
une délibération.
06:18
And for a long time,
we have thought that, well,
121
366241
2804
Pendant longtemps, nous avons pensé
06:21
what we need to improveaméliorer democracyla démocratie
is actuallyréellement more communicationla communication.
122
369069
3460
que pour améliorer la démocratie,
il fallait plus de communication.
06:24
So all of the technologiesles technologies that we have
advancedAvancée in the contextle contexte of democracyla démocratie,
123
372553
3709
Les technologies que nous avons élaborées
dans le contexte de la démocratie,
06:28
whetherqu'il s'agisse they are newspapersjournaux
or whetherqu'il s'agisse it is socialsocial mediamédias,
124
376286
2778
que ce soient les journaux
ou les réseaux sociaux,
06:31
have trieda essayé to providefournir us
with more communicationla communication.
125
379088
2382
ont essayé de nous offrir
plus de communication.
Nous nous sommes aventurés sur ce terrain
06:34
But we'venous avons been down that rabbitlapin holetrou,
126
382103
1822
06:35
and we know that's not
what's going to solverésoudre the problemproblème.
127
383949
2748
et nous savons que
cela ne résoudra pas le problème.
06:38
Because it's not a communicationla communication problemproblème,
128
386721
1996
Ce n'est pas un problème de communication,
06:40
it's a cognitivecognitif bandwidthbande passante problemproblème.
129
388741
1748
mais de bande passante cognitive.
06:42
So if the problemproblème is one
of cognitivecognitif bandwidthbande passante,
130
390513
2366
S'il s'agit d'un problème
de bande passante cognitive,
06:44
well, addingajouter more communicationla communication to people
131
392903
2587
accentuer la communication
06:47
is not going to be
what's going to solverésoudre it.
132
395514
2744
ne va pas le résoudre.
06:50
What we are going to need insteadau lieu
is to have other technologiesles technologies
133
398282
3113
Nous allons avoir besoin
de technologies supplémentaires
06:53
that help us dealtraiter with
some of the communicationla communication
134
401419
3046
qui nous aident à gérer
une partie de la communication
06:56
that we are overloadedsurchargé with.
135
404489
2242
qui nous sature.
06:58
Think of, like, a little avataravatar,
136
406755
1699
Pensez à un petit avatar,
07:00
a softwareLogiciel agentagent de,
137
408478
1339
un agent logiciel,
07:01
a digitalnumérique JiminyJiminy CricketCricket --
138
409841
1878
un Jiminy Cricket numérique --
07:03
(LaughterRires)
139
411743
1238
(Rires)
07:05
that basicallyen gros is ablecapable
to answerrépondre things on your behalfnom.
140
413005
4012
qui est capable de répondre
à des choses en votre nom.
07:09
And if we had that technologyLa technologie,
141
417759
1787
Si nous avions cette technologie,
07:11
we would be ablecapable to offloaddécharger
some of the communicationla communication
142
419570
2478
nous pourrions nous délester
d'un peu de communication
07:14
and help, maybe, make better decisionsles décisions
or decisionsles décisions at a largerplus grand scaleéchelle.
143
422072
4147
et aider à prendre de meilleures décisions
ou des décisions à plus grande échelle.
07:18
And the thing is that the ideaidée
of softwareLogiciel agentsagents is alsoaussi not newNouveau.
144
426860
3719
L'idée des agents logiciels
n'est pas nouvelle non plus.
07:22
We alreadydéjà use them all the time.
145
430603
2109
Nous les utilisons déjà constamment.
07:25
We use softwareLogiciel agentsagents
146
433216
1521
Nous utilisons ces agents
07:26
to choosechoisir the way that we're going
to driveconduire to a certaincertain locationemplacement,
147
434761
3675
pour choisir comment nous
rendre à un endroit donné,
07:31
the musicla musique that we're going to listen to
148
439070
2101
la musique que nous allons écouter
07:33
or to get suggestionssuggestions
for the nextprochain bookslivres that we should readlis.
149
441758
3021
ou pour obtenir des suggestions de livres.
07:37
So there is an obviousévident ideaidée
in the 21stst centurysiècle
150
445994
2574
Au XXIe siècle, il y a une idée évidente,
07:40
that was as obviousévident as the ideaidée
151
448592
2643
aussi évidente que celle
07:43
of puttingen mettant togetherensemble a steamvapeur enginemoteur
with a loommétier à tisser at the time of JacquardJacquard.
152
451259
5581
de réunir une machine à vapeur
et un métier à tisser
au temps de Jacquard.
07:49
And that ideaidée is combiningcombinant
directdirect democracyla démocratie with softwareLogiciel agentsagents.
153
457538
4456
Il s'agit d'associer la démocratie directe
aux agents logiciels.
07:54
ImagineImaginez, for a secondseconde, a worldmonde
154
462849
2121
Imaginez un instant un monde
07:56
in whichlequel, insteadau lieu of havingayant
a representativereprésentant that representsreprésente you
155
464994
3166
où, au lieu d'avoir un représentant
pour vous représenter,
08:00
and millionsdes millions of other people,
156
468184
1574
vous et des millions d'autres,
08:01
you can have a representativereprésentant
that representsreprésente only you,
157
469782
3036
vous aviez un représentant
qui ne représentait que vous,
08:05
with your nuancednuancée politicalpolitique viewsvues --
158
473504
2254
avec vos opinions politiques nuancées --
08:07
that weirdbizarre combinationcombinaison
of libertarianlibertaire and liberallibéral
159
475782
3344
cette étrange combinaison
de libertaire, de libéral,
08:11
and maybe a little bitbit
conservativeconservateur on some issuesproblèmes
160
479150
2392
peut-être un peu de conservateur
sur certains sujets
08:13
and maybe very progressiveprogressive on othersautres.
161
481566
2108
et très progressiste sur d'autres.
08:15
PoliticiansPoliticiens nowadaysaujourd'hui are packagespaquets,
and they're fullplein of compromisescompromis.
162
483698
3267
Aujourd'hui, les politiciens
sont des ensembles pleins de compromis.
08:18
But you mightpourrait have someoneQuelqu'un
that can representreprésenter only you,
163
486989
3634
Mais vous pourriez avoir quelqu'un
uniquement pour vous représenter,
08:22
if you are willingprêt to give up the ideaidée
164
490647
1852
si vous êtes prêts à abandonner l'idée
08:24
that that representativereprésentant is a humanHumain.
165
492523
2249
que ce représentant
doit être un être humain.
08:27
If that representativereprésentant
is a softwareLogiciel agentagent de,
166
495229
2082
Si ce représentant est un agent logiciel,
08:29
we could have a senatesénat that has
as manybeaucoup senatorssenateurs as we have citizenscitoyens.
167
497335
4170
nous pourrions avoir un sénat
avec autant de sénateurs que de citoyens.
08:33
And those senatorssenateurs are going to be ablecapable
to readlis everychaque billfacture
168
501529
2858
Ces sénateurs seront capables
de lire tous les projets de loi
08:36
and they're going to be ablecapable
to votevote on eachchaque one of them.
169
504411
2747
et de voter pour chacun de ces projets.
08:39
So there's an obviousévident ideaidée
that maybe we want to considerconsidérer.
170
507822
2956
C'est une idée claire
que nous voulons peut-être considérer.
08:42
But I understandcomprendre that in this day and ageâge,
171
510802
2422
Mais je comprends que de nos jours,
08:45
this ideaidée mightpourrait be quiteassez scaryeffrayant.
172
513248
1889
cette idée puisse être effrayante.
08:48
In factfait, thinkingen pensant of a robotrobot
comingvenir from the futureavenir
173
516391
3440
En effet, imaginer un robot venu du futur
08:51
to help us runcourir our governmentsGouvernements
174
519855
1673
pour nous aider à diriger nos pays
08:53
soundsdes sons terrifyingterrifiant.
175
521552
1631
paraît terrifiant.
08:56
But we'venous avons been there before.
176
524223
1651
Mais nous l'avons déjà fait.
08:57
(LaughterRires)
177
525898
1273
(Rires)
08:59
And actuallyréellement he was quiteassez a niceagréable guy.
178
527195
2495
Et c'était un gars plutôt sympa.
09:03
So what would the JacquardJacquard loommétier à tisser
versionversion of this ideaidée look like?
179
531677
6434
A quoi ressemblerait le métier à tisser
de Jacquard pour cette idée ?
09:10
It would be a very simplesimple systemsystème.
180
538135
1901
Ce serait un système très simple.
09:12
ImagineImaginez a systemsystème that you logbûche in
and you createcréer your avataravatar,
181
540060
3458
Imaginez un système où
vous vous connectez, créez un avatar
09:15
and then you're going
to startdébut trainingentraînement your avataravatar.
182
543542
2456
puis commencez à entraîner votre avatar.
09:18
So you can providefournir your avataravatar
with your readingen train de lire habitsdes habitudes,
183
546022
2682
Vous pouvez fournir à votre avatar
vos habitudes de lecture,
09:20
or connectrelier it to your socialsocial mediamédias,
184
548728
1861
le connecter à vos réseaux sociaux
09:22
or you can connectrelier it to other dataLes données,
185
550613
2408
ou à d'autres données,
09:25
for exampleExemple by takingprise
psychologicalpsychologique teststests.
186
553045
2272
par exemple en passant
des tests de psychologie.
09:27
And the niceagréable thing about this
is that there's no deceptionDeception.
187
555341
2968
Ce qui est agréable,
c'est qu'il n'y a pas de supercherie.
09:30
You are not providingfournir dataLes données to communicatecommuniquer
with your friendscopains and familyfamille
188
558333
3339
Vous ne donnez pas des données
pour communiquer
avec vos amis et votre famille
09:33
that then getsobtient used in a politicalpolitique systemsystème.
189
561696
3151
qui sont ensuite utilisées
dans un système politique.
09:36
You are providingfournir dataLes données to a systemsystème
that is designedconçu to be used
190
564871
3704
Vous procurez des données à un système
conçu pour être utilisé
09:40
to make politicalpolitique decisionsles décisions
on your behalfnom.
191
568599
2116
pour prendre des décisions en votre nom.
09:43
Then you take that dataLes données and you choosechoisir
a trainingentraînement algorithmalgorithme de,
192
571264
3980
Vous prenez ensuite ces données et
choisissez un algorithme d'apprentissage,
09:47
because it's an openouvrir marketplacemarché
193
575268
1563
car c'est un marché libre
09:48
in whichlequel differentdifférent people
can submitsoumettre differentdifférent algorithmsalgorithmes
194
576855
2786
où différentes personnes
peuvent soumettre différents algorithmes
09:51
to predictprédire how you're going to votevote,
basedbasé on the dataLes données you have providedà condition de.
195
579665
4394
pour prédire comment vous voterez
d'après les données fournies.
09:56
And the systemsystème is openouvrir,
so nobodypersonne controlscontrôles the algorithmsalgorithmes;
196
584083
3455
Le système est ouvert,
personne ne contrôle les algorithmes ;
09:59
there are algorithmsalgorithmes
that becomedevenir more popularpopulaire
197
587562
2112
certains deviennent populaires
10:01
and othersautres that becomedevenir lessMoins popularpopulaire.
198
589698
1723
et d'autres le sont moins.
10:03
EventuallyPar la suite, you can auditvérification the systemsystème.
199
591445
1807
Vous pouvez auditer le système,
10:05
You can see how your avataravatar is workingtravail.
200
593276
1881
voir comment votre avatar fonctionne.
Si vous l'aimez, laissez-le
en pilote automatique.
10:07
If you like it,
you can leavelaisser it on autopilotpilote automatique.
201
595181
2152
10:09
If you want to be
a little more controllingcontrôler,
202
597357
2062
Si vous voulez un peu plus de contrôle,
10:11
you can actuallyréellement choosechoisir that they askdemander you
203
599443
1968
vous pouvez décider qu'il vous demande
10:13
everychaque time they're going
to make a decisiondécision,
204
601435
2068
à chaque fois qu'il prend une décision,
10:15
or you can be anywherenulle part in betweenentre.
205
603527
1635
ou choisir un compromis.
10:17
One of the reasonsles raisons
why we use democracyla démocratie so little
206
605186
2405
Nous utilisons si peu la démocratie
10:19
maymai be because democracyla démocratie
has a very badmal userutilisateur interfaceinterface.
207
607615
3568
en partie car la démocratie dispose
d'une mauvaise interface utilisateur.
10:23
And if we improveaméliorer the userutilisateur
interfaceinterface of democracyla démocratie,
208
611207
2483
Si nous améliorons l'interface
utilisateur de la démocratie,
10:25
we mightpourrait be ablecapable to use it more.
209
613714
2127
nous pourrions l'utiliser davantage.
10:28
Of coursecours, there's a lot of questionsdes questions
that you mightpourrait have.
210
616452
3207
Bien sûr, vous pouvez
vous poser plein de questions.
10:32
Well, how do you traintrain these avatarsAvatars?
211
620473
2161
Comment entraîner ces avatars ?
10:34
How do you keep the dataLes données securegarantir?
212
622658
1894
Comment préserver
la sécurité des données ?
10:36
How do you keep the systemssystèmes
distributeddistribué and auditableVérifiables?
213
624576
3248
Comment maintenir les systèmes
distribués et auditables ?
10:39
How about my grandmothergrand-mère,
who'squi est 80 yearsannées oldvieux
214
627848
2062
Qu'en est-il de ma grand-mère de 80 ans
10:41
and doesn't know how to use the internetl'Internet?
215
629946
1960
qui ne sait pas utiliser internet ?
10:44
TrustFiducie me, I've heardentendu them all.
216
632262
2221
Croyez-moi, je les ai toutes entendues.
10:46
So when you think about an ideaidée like this,
you have to bewareMéfiez-vous of pessimistspessimistes
217
634507
4560
Quand vous pensez à une telle idée,
vous devez vous méfier des pessimistes,
10:51
because they are knownconnu to have
a problemproblème for everychaque solutionSolution.
218
639091
4319
car ils sont connus pour avoir
un problème à chaque solution.
10:55
(LaughterRires)
219
643434
1825
(Rires)
10:57
So I want to inviteinviter you to think
about the biggerplus gros ideasidées.
220
645283
3040
Je veux vous inviter à réfléchir
aux plus grandes idées.
11:00
The questionsdes questions I just showedmontré you
are little ideasidées
221
648347
3626
Les questions que j'ai évoquées
ne sont que de petites idées,
11:03
because they are questionsdes questions
about how this would not work.
222
651997
2902
car ce sont des questions
sur le non fonctionnement.
11:07
The biggros ideasidées are ideasidées of:
223
655502
1981
Les grandes idées sont :
11:09
What elseautre can you do with this
224
657507
1807
que pouvons-nous faire d'autre
11:11
if this would happense produire to work?
225
659338
1889
si cela fonctionne ?
11:13
And one of those ideasidées is,
well, who writesécrit the lawslois?
226
661774
3445
Une de ces idées implique :
qui écrit les lois ?
11:17
In the beginningdébut, we could have
the avatarsAvatars that we alreadydéjà have,
227
665854
4223
Au début, nous pourrions nous servir
des avatars que nous possédons déjà ;
11:22
votingvote on lawslois that are writtenécrit
by the senatorssenateurs or politiciansLes politiciens
228
670101
3497
ils voteraient sur des lois écrites
par les sénateurs ou politiciens
11:25
that we alreadydéjà have.
229
673622
1351
déjà en place.
11:27
But if this were to work,
230
675491
1714
Mais si cela fonctionnait,
11:29
you could writeécrire an algorithmalgorithme de
231
677902
2350
vous pourriez écrire un algorithme
11:32
that could try to writeécrire a lawloi
232
680276
2150
qui essayerait d'écrire une loi
11:34
that would get a certaincertain
percentagepourcentage of approvalapprobation,
233
682450
2421
qui recevrait un certain
pourcentage d'assentiment,
11:36
and you could reversesens inverse the processprocessus.
234
684895
1782
puis vous inverseriez le processus.
Vous pensez peut-être
que cette idée est ridicule,
11:38
Now, you mightpourrait think that this ideaidée
is ludicrousridicule and we should not do it,
235
686701
3512
nous ne devrions pas le faire,
11:42
but you cannotne peux pas denyNier that it's an ideaidée
that is only possiblepossible
236
690237
2786
mais vous ne pouvez pas nier
que c'est une idée possible
11:45
in a worldmonde in whichlequel directdirect democracyla démocratie
and softwareLogiciel agentsagents
237
693047
3020
que dans un monde où la démocratie directe
et les agents logiciels
11:48
are a viableviable formforme of participationparticipation.
238
696091
2656
sont une forme de participation viable.
11:52
So how do we startdébut the revolutionrévolution?
239
700596
2753
Comment initier la révolution ?
11:56
We don't startdébut this revolutionrévolution
with picketpiquet fencesclôtures or protestsprotestations
240
704238
3310
Nous n’initierons pas cette révolution
avec des grèves, des manifestations
11:59
or by demandingexigeant our currentactuel politiciansLes politiciens
to be changedmodifié into robotsdes robots.
241
707572
4190
ou en exigeant que nos politiciens actuels
soient transformés en robots.
12:03
That's not going to work.
242
711786
1549
Cela ne fonctionnera pas.
12:05
This is much more simplesimple,
243
713359
1612
C'est bien plus simple,
12:06
much slowerRalentissez
244
714995
1159
plus lent
12:08
and much more humblehumble.
245
716178
1414
et bien plus humble.
12:09
We startdébut this revolutionrévolution by creatingcréer
simplesimple systemssystèmes like this in gradGrad schoolsécoles,
246
717616
4349
Nous commençons par créer de tels
systèmes simples dans les universités,
12:13
in librariesbibliothèques, in nonprofitsorganismes sans but lucratif.
247
721989
2094
les bibliothèques, les organisations.
12:16
And we try to figurefigure out
all of those little questionsdes questions
248
724107
2654
Nous allons trouver une solution
à ces petites questions
12:18
and those little problemsproblèmes
249
726785
1221
et ces petits problèmes
12:20
that we're going to have to figurefigure out
to make this ideaidée something viableviable,
250
728030
3901
qu'il faudra résoudre pour rendre
cette idée viable,
12:23
to make this ideaidée something
that we can trustconfiance.
251
731955
2351
pour la rendre fiable.
12:26
And as we createcréer those systemssystèmes that have
a hundredcent people, a thousandmille people,
252
734330
3635
En créant ces systèmes
où une centaine, un millier,
12:29
a hundredcent thousandmille people votingvote
in waysfaçons that are not politicallypolitiquement bindingliaison,
253
737989
3770
une centaine de milliers de gens votent
de façon politiquement non contractuelle,
12:33
we're going to developdévelopper trustconfiance in this ideaidée,
254
741783
2018
nous développerons la confiance en l'idée,
12:35
the worldmonde is going to changechangement,
255
743825
1519
le monde changera
12:37
and those that are as little
as my daughterfille is right now
256
745368
2875
et ceux qui sont aussi jeunes
que ma fille actuellement, grandiront.
12:40
are going to growcroître up.
257
748267
1337
12:42
And by the time my daughterfille is my ageâge,
258
750580
2369
D'ici à ce que ma fille ait mon âge,
12:44
maybe this ideaidée, that I know
todayaujourd'hui is very crazyfou,
259
752973
4436
peut-être que cette idée
qui est folle aujourd'hui,
12:49
mightpourrait not be crazyfou to her
and to her friendscopains.
260
757433
4134
ne sera plus si folle pour elle
et pour ses amis.
12:53
And at that pointpoint,
261
761956
1837
À ce moment-là,
12:55
we will be at the endfin of our historyhistoire,
262
763817
2603
ce sera la fin de notre histoire,
12:58
but they will be
at the beginningdébut of theirsleur.
263
766444
2821
mais le début de la leur.
13:01
Thank you.
264
769646
1183
Merci.
13:02
(ApplauseApplaudissements)
265
770853
3042
(Applaudissements)
Translated by Morgane Quilfen
Reviewed by Mirjana Marinkovic

▲Back to top

ABOUT THE SPEAKER
César Hidalgo - Physicist
César Hidalgo studies how teams, cities and nations learn.

Why you should listen

César A. Hidalgo leads the Collective Learning group at The MIT Media Lab and is an associate professor of media arts and sciences at MIT. Hidalgo's work focuses on understanding how teams, organizations, cities and nations learn. At the Collective Learning group, Hidalgo develops software tools to facilitate learning in organizations. His academic publications have been cited more than 10,000 times, and his online systems, including the Observatory of Economic Complexity and DataUSA, have received more than 100 million views and numerous awards.

Hidalgo's latest book, Why Information Grows (2015), has been translated into 10+ languages. He is also the co-author of The Atlas of Economic Complexity (2014) and a co-founder of Datawheel LLC, a company that has professionalized the creation of large data visualization engines.

More profile about the speaker
César Hidalgo | Speaker | TED.com