ABOUT THE SPEAKER
César Hidalgo - Physicist
César Hidalgo studies how teams, cities and nations learn.

Why you should listen

César A. Hidalgo leads the Collective Learning group at The MIT Media Lab and is an associate professor of media arts and sciences at MIT. Hidalgo's work focuses on understanding how teams, organizations, cities and nations learn. At the Collective Learning group, Hidalgo develops software tools to facilitate learning in organizations. His academic publications have been cited more than 10,000 times, and his online systems, including the Observatory of Economic Complexity and DataUSA, have received more than 100 million views and numerous awards.

Hidalgo's latest book, Why Information Grows (2015), has been translated into 10+ languages. He is also the co-author of The Atlas of Economic Complexity (2014) and a co-founder of Datawheel LLC, a company that has professionalized the creation of large data visualization engines.

More profile about the speaker
César Hidalgo | Speaker | TED.com
TED2018

César Hidalgo: A bold idea to replace politicians

César Hidalgo: Una idea audaz para reemplazar a los políticos

Filmed:
2,044,328 views

César Hidalgo tiene una sugerencia revolucionaria para reparar nuestro sistema político quebrado: ¡automatizarlo! En esta provocadora charla, presenta una audaz idea para evitar a los políticos, empoderando a los ciudadanos para crear representantes de IA personalizados que participen directamente en las decisiones democráticas. Hidalgo analiza una nueva forma de tomar decisiones colectivas y expandir nuestro entendimiento de la democracia.
- Physicist
César Hidalgo studies how teams, cities and nations learn. Full bio

Double-click the English transcript below to play the video.

00:13
Is it just me,
0
1373
1744
¿Soy solo yo,
00:15
or are there other people here
1
3141
2332
o hay otras personas aquí
00:17
that are a little bitpoco
disappointeddecepcionado with democracydemocracia?
2
5497
2344
que están un poco decepcionadas
con la democracia?
00:20
(ApplauseAplausos)
3
8986
2336
(Aplausos)
00:24
So let's look at a fewpocos numbersnúmeros.
4
12141
2071
Analicemos algunas cifras.
00:26
If we look acrossa través de the worldmundo,
5
14934
2173
En todo el mundo,
00:29
the medianmediana turnoutapagar
in presidentialpresidencial electionselecciones
6
17131
3892
la participación media
en las elecciones presidenciales
00:33
over the last 30 yearsaños
7
21047
1651
en los últimos 30 años
00:34
has been just 67 percentpor ciento.
8
22722
2622
ha sido solo del 67 %.
00:38
Now, if we go to EuropeEuropa
9
26329
1973
Ahora bien, en Europa
00:40
and we look at people that participatedparticipado
in EUUE parliamentaryparlamentario electionselecciones,
10
28326
4428
la participación media de la gente
en las elecciones parlamentarias de la UE,
00:44
the medianmediana turnoutapagar in those electionselecciones
11
32778
2071
00:46
is just 42 percentpor ciento.
12
34873
2104
es solo del 42 %.
00:50
Now let's go to NewNuevo YorkYork,
13
38125
1669
Ahora vayamos a Nueva York,
00:51
and let's see how manymuchos people votedvotado
in the last electionelección for mayoralcalde.
14
39818
4681
y veamos cuánta gente votó
en la última elección para alcalde.
00:56
We will find that only
24 percentpor ciento of people showedmostró up to votevotar.
15
44523
3817
Veremos que solo un 24 %
se presentó a votar.
01:01
What that meansmedio is that,
if "FriendsAmigos" was still runningcorriendo,
16
49063
3095
Eso significa que,
si todavía dieran "Friends",
01:04
JoeyJoey and maybe PhoebePhoebe
would have shownmostrado up to votevotar.
17
52182
3348
Joey y tal vez Phoebe
se habrían presentado a votar.
01:07
(LaughterRisa)
18
55554
1290
(Risas)
01:09
And you cannotno poder blameculpa them
because people are tiredcansado of politicianspolíticos.
19
57434
4426
Y no se los puede culpar, porque la gente
está cansada de los políticos.
Y está cansada de que otras
personas utilicen esa información
01:13
And people are tiredcansado of other people
usingutilizando the datadatos that they have generatedgenerado
20
61884
3887
que generaron al comunicarse
con sus amigos y su familia
01:17
to communicatecomunicar with
theirsu friendsamigos and familyfamilia,
21
65795
2198
para mandarles propaganda política.
01:20
to targetobjetivo politicalpolítico propagandapropaganda at them.
22
68017
2094
01:22
But the thing about this
is that this is not newnuevo.
23
70519
2728
Pero esto no es algo nuevo.
01:25
NowadaysHoy en día, people use likesgustos
to targetobjetivo propagandapropaganda at you
24
73271
3225
Hoy en día, la gente usa los "me gusta"
para enviarte propaganda
01:28
before they use your zipcremallera codecódigo
or your gendergénero or your ageaños,
25
76520
3373
antes de usar tu código postal,
tu género o tu edad,
01:31
because the ideaidea of targetingtargeting people
with propagandapropaganda for politicalpolítico purposespropósitos
26
79917
3570
porque la idea de enviar propaganda
política es tan vieja como la política.
01:35
is as oldantiguo as politicspolítica.
27
83511
1592
01:37
And the reasonrazón why that ideaidea is there
28
85530
2278
Y esto es posible
01:39
is because democracydemocracia
has a basicBASIC vulnerabilityvulnerabilidad.
29
87832
3472
porque la democracia
tiene una vulnerabilidad básica.
01:43
This is the ideaidea of a representativerepresentante.
30
91710
1932
Esta es la idea de un representante.
En principio, la democracia es
la capacidad de las personas
01:46
In principleprincipio, democracydemocracia is the abilitycapacidad
of people to exertejercer powerpoder.
31
94049
3944
de ejercer el poder.
01:50
But in practicepráctica, we have to delegatedelegar
that powerpoder to a representativerepresentante
32
98017
3818
Pero en la práctica, tenemos
que delegar ese poder a un representante
01:53
that can exertejercer that powerpoder for us.
33
101859
2255
que pueda ejercer ese poder
en nuestro nombre.
Ese representante es un cuello
de botella, o un punto débil.
01:56
That representativerepresentante is a bottleneckembotellamiento,
34
104561
1825
01:58
or a weakdébiles spotlugar.
35
106410
1297
01:59
It is the placelugar that you want to targetobjetivo
if you want to attackataque democracydemocracia
36
107731
3949
Es el lugar al que se debe apuntar
si se quiere atacar a la democracia,
porque se puede capturar a la democracia
ya sea capturando al representante
02:03
because you can capturecapturar democracydemocracia
by eitherya sea capturingcapturando that representativerepresentante
37
111704
3489
02:07
or capturingcapturando the way
that people chooseescoger it.
38
115217
2148
o capturando la manera
en que la gente lo elige.
02:10
So the biggrande questionpregunta is:
39
118065
1416
La gran pregunta es:
02:11
Is this the endfin of historyhistoria?
40
119505
1704
¿es el fin de la historia?
02:13
Is this the bestmejor that we can do
41
121989
3103
¿Es lo mejor que podemos hacer
02:17
or, actuallyactualmente, are there alternativesalternativas?
42
125878
3067
o, en realidad, hay alternativas?
02:22
Some people have been thinkingpensando
about alternativesalternativas,
43
130130
2354
Algunas personas han pensado
en alternativas
02:24
and one of the ideasideas that is out there
is the ideaidea of directdirecto democracydemocracia.
44
132508
3679
y una de las ideas que da vueltas
es la idea de la democracia directa.
02:28
This is the ideaidea of bypassingpasar por alto
politicianspolíticos completelycompletamente
45
136790
2479
Es la idea de evitar
la intervención de los políticos
02:31
and havingteniendo people votevotar directlydirectamente on issuescuestiones,
46
139293
2403
y hacer que la gente vote
directamente sobre los asuntos,
02:33
havingteniendo people votevotar directlydirectamente on billsfacturas.
47
141720
2265
que vote las leyes directamente.
02:36
But this ideaidea is naiveingenuo
48
144415
1336
Pero esta idea es ingenua
02:37
because there's too manymuchos things
that we would need to chooseescoger.
49
145775
3171
porque hay demasiadas cosas
que deberíamos elegir.
02:40
If you look at the 114thth US CongressCongreso,
50
148970
2782
Si miran el 114° Congreso estadounidense
02:43
you will have seenvisto that
the HouseCasa of RepresentativesRepresentantes
51
151776
2487
habrán visto que la Cámara
de Representantes
02:46
consideredconsiderado more than 6,000 billsfacturas,
52
154287
2889
examinó más de 6000 proyectos de ley,
02:49
the SenateSenado consideredconsiderado
more than 3,000 billsfacturas
53
157200
2656
el Senado examinó más de 3000,
02:51
and they approvedaprobado more than 300 lawsleyes.
54
159880
2808
y aprobaron más de 300 leyes.
02:54
Those would be manymuchos decisionsdecisiones
55
162712
1579
Esas serían las muchas decisiones
que cada persona debería tomar por semana
02:56
that eachcada personpersona would have to make a weeksemana
56
164315
2187
02:58
on topicstemas that they know little about.
57
166526
2142
sobre temas que no son de su conocimiento.
Es decir, hay un gran
problema de distancia cognitiva
03:01
So there's a biggrande cognitivecognitivo
bandwidthancho de banda problemproblema
58
169229
2281
03:03
if we're going to try to think about
directdirecto democracydemocracia as a viableviable alternativealternativa.
59
171534
3992
si pensamos en la democracia
directa como alternativa viable.
03:08
So some people think about the ideaidea
of liquidlíquido democracydemocracia, or fluidfluido democracydemocracia,
60
176205
4435
Algunas personas piensan en la idea
de la democracia líquida o delegativa,
03:12
whichcual is the ideaidea that you endorseendosar
your politicalpolítico powerpoder to someonealguien,
61
180664
3776
en la que se entrega
el poder político a alguien
03:16
who can endorseendosar it to someonealguien elsemás,
62
184464
1700
que pueda dárselo a alguien más,
03:18
and, eventuallyfinalmente, you createcrear
a largegrande followerseguidor networkred
63
186188
2541
y, con el tiempo, se crea
una gran red de seguidores
03:20
in whichcual, at the endfin, there's a fewpocos people
that are makingfabricación decisionsdecisiones
64
188753
3294
en la que, al final, unas pocas
personas toman las decisiones
03:24
on behalffavor of all of theirsu followersseguidores
and theirsu followersseguidores.
65
192071
3143
en nombre de todos sus seguidores
y los seguidores de estos.
03:28
But this ideaidea alsoademás doesn't solveresolver
the problemproblema of the cognitivecognitivo bandwidthancho de banda
66
196326
4129
Pero esta idea tampoco
resuelve el problema cognitivo
03:32
and, to be honesthonesto, it's alsoademás quitebastante similarsimilar
to the ideaidea of havingteniendo a representativerepresentante.
67
200479
3877
y, para ser sincero, es bastante similar
a la idea de tener un representante.
03:36
So what I'm going to do todayhoy is
I'm going to be a little bitpoco provocativeprovocativo,
68
204795
3468
Lo que haré hoy es ser
un poco provocativo,
y voy a preguntarles:
03:40
and I'm going to askpedir you, well:
69
208277
2300
03:42
What if, insteaden lugar of tryingmolesto
to bypassderivación politicianspolíticos,
70
210601
6562
¿y si en vez de evitar a los políticos,
03:49
we triedintentó to automateautomatizar them?
71
217187
2200
tratamos de automatizarlos?
03:57
The ideaidea of automationautomatización is not newnuevo.
72
225871
2926
La idea de automatización no es nueva.
04:00
It was startedempezado more than 300 yearsaños agohace,
73
228821
2080
Comenzó hace más de 300 años,
04:02
when Frenchfrancés weaverstejedores decideddecidido
to automateautomatizar the loomtelar.
74
230925
3068
cuando tejedores franceses
decidieron automatizar el telar.
04:06
The winnerganador of that industrialindustrial warguerra
was Joseph-MarieJoseph-Marie JacquardJacquard.
75
234820
4360
El ganador de esa guerra industrial
fue Joseph-Marie Jacquard.
04:11
He was a Frenchfrancés weavertejedor and merchantcomerciante
76
239204
1751
Fue un tejedor y vendedor francés
04:12
that marriedcasado the loomtelar
with the steamvapor enginemotor
77
240979
2440
que combinó el telar con la máquina
de vapor para crear telares autónomos.
04:15
to createcrear autonomousautónomo loomstelares.
78
243443
2190
04:17
And in those autonomousautónomo loomstelares,
he gainedganado controlcontrolar.
79
245657
2753
Y con esos telares autónomos
logró tener el control.
04:20
He could now make fabricstelas that were
more complexcomplejo and more sophisticatedsofisticado
80
248434
3885
Ahora podía hacer telas que eran
más complejas y sofisticadas
04:24
than the onesunos they
were ablepoder to do by handmano.
81
252343
2128
que las que podían hacer a mano.
04:27
But alsoademás, by winningvictorioso that industrialindustrial warguerra,
82
255193
2632
Pero además, al ganar
esa guerra industrial,
04:29
he laidpuesto out what has becomevolverse
the blueprintcianotipo of automationautomatización.
83
257849
3524
sentó la base de lo que se convirtió
en el modelo de la automatización.
La manera en que automatizamos
las cosas en los últimos 300 años
04:34
The way that we automateautomatizar things
for the last 300 yearsaños
84
262135
2870
04:37
has always been the samemismo:
85
265029
1382
siempre ha sido la misma:
04:39
we first identifyidentificar a need,
86
267006
2509
primero, identificamos una necesidad,
04:41
then we createcrear a toolherramienta
to satisfysatisfacer that need,
87
269539
3184
después creamos una herramienta
para satisfacer esa necesidad,
04:44
like the loomtelar, in this casecaso,
88
272747
2040
como el telar, en este caso,
y luego estudiamos cómo la gente
utiliza esa herramienta
04:46
and then we studyestudiar how people use that toolherramienta
89
274811
2391
04:49
to automateautomatizar that userusuario.
90
277226
1485
para automatizar a ese usuario.
04:51
That's how we camevino
from the mechanicalmecánico loomtelar
91
279242
3061
Así pasamos del telar
mecánico al telar autónomo,
04:54
to the autonomousautónomo loomtelar,
92
282327
1896
04:56
and that tooktomó us a thousandmil yearsaños.
93
284247
2120
y eso nos llevó mil años.
04:58
Now, it's takentomado us only a hundredcien yearsaños
94
286391
2071
Ahora, solo nos llevó cien años
05:00
to use the samemismo scriptguión
to automateautomatizar the carcoche.
95
288486
3211
usar el mismo guion
para automatizar el coche.
05:05
But the thing is that, this time around,
96
293286
2452
La cuestión es que, en esta ocasión,
05:07
automationautomatización is kindtipo of for realreal.
97
295762
2129
la automatización es real.
05:09
This is a videovídeo that a colleaguecolega of minemía
from ToshibaToshiba sharedcompartido with me
98
297915
3321
Este es un video que un colega
de Toshiba compartió conmigo
05:13
that showsmuestra the factoryfábrica
that manufacturesartículos solidsólido stateestado drivesunidades.
99
301260
3259
de la fábrica que elabora
unidades de estado sólido.
05:16
The entiretodo factoryfábrica is a robotrobot.
100
304543
2018
La fábrica entera es un robot.
05:18
There are no humanshumanos in that factoryfábrica.
101
306585
1925
No hay humanos en esa fábrica.
05:21
And the robotsrobots are soonpronto
to leavesalir the factoriessuerte
102
309033
2221
Y pronto, los robots dejarán las fábricas
05:23
and becomevolverse partparte of our worldmundo,
103
311278
2022
y serán parte de nuestro mundo,
parte de nuestra fuerza laboral.
05:25
becomevolverse partparte of our workforcepersonal.
104
313324
1835
05:27
So what I do in my day jobtrabajo
105
315183
1773
Lo que hago diariamente en mi trabajo
05:28
is actuallyactualmente createcrear toolsherramientas that integrateintegrar
datadatos for entiretodo countriespaíses
106
316980
3992
es crear herramientas que integran
información para países enteros
05:32
so that we can ultimatelypor último have
the foundationscimientos that we need
107
320996
3466
para que finalmente podamos tener
los cimientos que necesitamos
05:36
for a futurefuturo in whichcual we need
to alsoademás managegestionar those machinesmáquinas.
108
324486
3687
para un futuro en el que necesitemos
manejar esas máquinas.
05:41
But todayhoy, I'm not here
to talk to you about these toolsherramientas
109
329195
2906
Pero hoy no estoy aquí
para hablarles de estas herramientas
05:44
that integrateintegrar datadatos for countriespaíses.
110
332125
1824
que integran información
para los países,
05:46
But I'm here to talk to you
about anotherotro ideaidea
111
334463
2622
sino para hablarles de otra idea
05:49
that mightpodría help us think about how to use
artificialartificial intelligenceinteligencia in democracydemocracia.
112
337109
4865
que puede ayudarnos a usar
inteligencia artificial en la democracia.
05:53
Because the toolsherramientas that I buildconstruir
are designeddiseñado for executiveejecutivo decisionsdecisiones.
113
341998
4733
Porque las herramientas que hago
están diseñadas para decisiones ejecutivas
05:58
These are decisionsdecisiones that can be castemitir
in some sortordenar of termtérmino of objectivityobjetividad --
114
346755
3842
y estas decisiones pueden encasillarse
en algún tipo de término de objetividad:
06:02
publicpúblico investmentinversión decisionsdecisiones.
115
350621
1745
decisiones de inversión pública.
06:04
But there are decisionsdecisiones
that are legislativelegislativo,
116
352885
2631
Pero hay decisiones legislativas,
06:07
and these decisionsdecisiones that are legislativelegislativo
requireexigir communicationcomunicación amongentre people
117
355540
3787
y estas decisiones legislativas
requieren comunicación entre las personas
que tienen distintos puntos de vista,
06:11
that have differentdiferente pointspuntos of viewver,
118
359351
1700
06:13
requireexigir participationparticipación, requireexigir debatedebate,
119
361075
2613
requieren participación,
debate, deliberación.
06:15
requireexigir deliberationdeliberación.
120
363712
1478
06:18
And for a long time,
we have thought that, well,
121
366241
2804
Y durante mucho tiempo pensamos
que lo necesario para mejorar
la democracia es más comunicación.
06:21
what we need to improvemejorar democracydemocracia
is actuallyactualmente more communicationcomunicación.
122
369069
3460
06:24
So all of the technologiestecnologías that we have
advancedavanzado in the contextcontexto of democracydemocracia,
123
372553
3709
Todas las tecnologías que desarrollamos
en el contexto de la democracia,
ya sea en los periódicos
o en las redes sociales,
06:28
whethersi they are newspapersperiódicos
or whethersi it is socialsocial mediamedios de comunicación,
124
376286
2778
trataron de brindarnos más comunicación.
06:31
have triedintentó to provideproporcionar us
with more communicationcomunicación.
125
379088
2382
Pero ya hemos caído en esa trampa,
y sabemos que no resuelve el problema.
06:34
But we'venosotros tenemos been down that rabbitConejo holeagujero,
126
382103
1822
06:35
and we know that's not
what's going to solveresolver the problemproblema.
127
383949
2748
Porque no es un problema de comunicación,
sino un problema de distancia cognitiva.
06:38
Because it's not a communicationcomunicación problemproblema,
128
386721
1996
06:40
it's a cognitivecognitivo bandwidthancho de banda problemproblema.
129
388741
1748
06:42
So if the problemproblema is one
of cognitivecognitivo bandwidthancho de banda,
130
390513
2366
Si el problema es cognitivo,
06:44
well, addingagregando more communicationcomunicación to people
131
392903
2587
agregar más comunicación
no será la solución.
06:47
is not going to be
what's going to solveresolver it.
132
395514
2744
06:50
What we are going to need insteaden lugar
is to have other technologiestecnologías
133
398282
3113
En cambio, lo que necesitaremos
es tener otras tecnologías
06:53
that help us dealacuerdo with
some of the communicationcomunicación
134
401419
3046
que nos ayuden a manejar
la comunicación que tenemos en exceso.
06:56
that we are overloadedsobrecargado with.
135
404489
2242
06:58
Think of, like, a little avataravatar,
136
406755
1699
Piensen en un pequeño avatar,
07:00
a softwaresoftware agentagente,
137
408478
1339
un agente de software,
07:01
a digitaldigital JiminyJiminy CricketGrillo --
138
409841
1878
un Pepito Grillo digital,
07:03
(LaughterRisa)
139
411743
1238
(Risas)
07:05
that basicallybásicamente is ablepoder
to answerresponder things on your behalffavor.
140
413005
4012
que básicamente puede
responder cosas por ti.
07:09
And if we had that technologytecnología,
141
417759
1787
Y si tuviéramos esa tecnología,
07:11
we would be ablepoder to offloaddescargar
some of the communicationcomunicación
142
419570
2478
podríamos descargar
parte de la comunicación
07:14
and help, maybe, make better decisionsdecisiones
or decisionsdecisiones at a largermás grande scaleescala.
143
422072
4147
y ayudar, tal vez, a tomar mejores
decisiones, o a mayor escala.
07:18
And the thing is that the ideaidea
of softwaresoftware agentsagentes is alsoademás not newnuevo.
144
426860
3719
La cuestión es que la idea
de agentes de software tampoco es nueva.
07:22
We alreadyya use them all the time.
145
430603
2109
Ya la usamos todo el tiempo.
07:25
We use softwaresoftware agentsagentes
146
433216
1521
Usamos agentes de software
07:26
to chooseescoger the way that we're going
to drivemanejar to a certaincierto locationubicación,
147
434761
3675
para saber cómo llegar a cierto lugar,
07:31
the musicmúsica that we're going to listen to
148
439070
2101
qué música vamos a escuchar
o para recibir sugerencias de los próximos
libros que deberíamos leer.
07:33
or to get suggestionssugerencias
for the nextsiguiente bookslibros that we should readleer.
149
441758
3021
07:37
So there is an obviousobvio ideaidea
in the 21stst centurysiglo
150
445994
2574
Hay una idea obvia en el siglo XXI
07:40
that was as obviousobvio as the ideaidea
151
448592
2643
que fue tan obvia como la idea
07:43
of puttingponiendo togetherjuntos a steamvapor enginemotor
with a loomtelar at the time of JacquardJacquard.
152
451259
5581
de combinar una máquina de vapor
con un telar en la época de Jacquard.
07:49
And that ideaidea is combiningcombinatorio
directdirecto democracydemocracia with softwaresoftware agentsagentes.
153
457538
4456
Y esa idea es combinar la democracia
directa con agentes de software.
07:54
ImagineImagina, for a secondsegundo, a worldmundo
154
462849
2121
Imaginen, por un segundo, un mundo
donde, en vez de tener un representante
07:56
in whichcual, insteaden lugar of havingteniendo
a representativerepresentante that representsrepresenta you
155
464994
3166
que los represente a ustedes
y a millones de otras personas,
08:00
and millionsmillones of other people,
156
468184
1574
08:01
you can have a representativerepresentante
that representsrepresenta only you,
157
469782
3036
pueden tener un representante
que solo los represente a Uds.
08:05
with your nuancedmatizado politicalpolítico viewspuntos de vista --
158
473504
2254
con sus opiniones políticas diferentes,
08:07
that weirdextraño combinationcombinación
of libertarianlibertario and liberalliberal
159
475782
3344
esa rara combinación
de libertario y liberal
08:11
and maybe a little bitpoco
conservativeconservador on some issuescuestiones
160
479150
2392
y tal vez un poco conservador
en algunos asuntos,
08:13
and maybe very progressiveprogresivo on othersotros.
161
481566
2108
y muy progresista en otros.
Hoy en día, los políticos son paquetes,
y están llenos de compromisos.
08:15
PoliticiansPolíticos nowadayshoy en día are packagespaquetes,
and they're fullcompleto of compromisescompromisos.
162
483698
3267
08:18
But you mightpodría have someonealguien
that can representrepresentar only you,
163
486989
3634
Pero pueden tener a alguien
que los represente solo a Uds.
08:22
if you are willingcomplaciente to give up the ideaidea
164
490647
1852
si están dispuestos a abandonar la idea
de que ese representante sea un humano.
08:24
that that representativerepresentante is a humanhumano.
165
492523
2249
Si ese representante
es un agente de software,
08:27
If that representativerepresentante
is a softwaresoftware agentagente,
166
495229
2082
08:29
we could have a senatesenado that has
as manymuchos senatorssenadores as we have citizenslos ciudadanos.
167
497335
4170
podríamos tener un senado que tenga
tantos senadores como ciudadanos.
08:33
And those senatorssenadores are going to be ablepoder
to readleer everycada billcuenta
168
501529
2858
Y esos senadores podrán
leer cada proyecto de ley,
08:36
and they're going to be ablepoder
to votevotar on eachcada one of them.
169
504411
2747
y podrán votar por cada uno de ellos.
08:39
So there's an obviousobvio ideaidea
that maybe we want to considerconsiderar.
170
507822
2956
Hay una idea obvia, entonces,
que tal vez debamos considerar.
08:42
But I understandentender that in this day and ageaños,
171
510802
2422
Pero entiendo que en esta época,
esta idea puede ser alarmante.
08:45
this ideaidea mightpodría be quitebastante scaryde miedo.
172
513248
1889
08:48
In facthecho, thinkingpensando of a robotrobot
comingviniendo from the futurefuturo
173
516391
3440
De hecho, pensar en un robot
que venga del futuro
08:51
to help us runcorrer our governmentsgobiernos
174
519855
1673
para ayudarnos a gobernar suena aterrador.
08:53
soundssonidos terrifyingespantoso.
175
521552
1631
08:56
But we'venosotros tenemos been there before.
176
524223
1651
Pero ya lo hemos hecho.
08:57
(LaughterRisa)
177
525898
1273
(Risas)
08:59
And actuallyactualmente he was quitebastante a nicebonito guy.
178
527195
2495
Y de hecho era un buen tipo.
09:03
So what would the JacquardJacquard loomtelar
versionversión of this ideaidea look like?
179
531677
6434
¿Cómo se vería la versión del telar
de Jacquard en esta idea?
09:10
It would be a very simplesencillo systemsistema.
180
538135
1901
Sería un sistema muy simple.
09:12
ImagineImagina a systemsistema that you logIniciar sesión in
and you createcrear your avataravatar,
181
540060
3458
Imaginen un sistema en el que
inician sesión y crean un avatar,
09:15
and then you're going
to startcomienzo trainingformación your avataravatar.
182
543542
2456
y luego comienzan a entrenar su avatar.
Podemos dotar nuestro avatar
con nuestros hábitos de lectura,
09:18
So you can provideproporcionar your avataravatar
with your readingleyendo habitshábitos,
183
546022
2682
09:20
or connectconectar it to your socialsocial mediamedios de comunicación,
184
548728
1861
o conectarlo a nuestras redes sociales,
09:22
or you can connectconectar it to other datadatos,
185
550613
2408
o conectarlo a otra información,
09:25
for exampleejemplo by takingtomando
psychologicalpsicológico testspruebas.
186
553045
2272
por ejemplo mediante pruebas psicológicas.
09:27
And the nicebonito thing about this
is that there's no deceptionengaño.
187
555341
2968
Y lo bueno de esto es que no hay engaño.
09:30
You are not providingsiempre que datadatos to communicatecomunicar
with your friendsamigos and familyfamilia
188
558333
3339
No proporcionan información para
comunicarse con sus amigos y familia
09:33
that then getsse pone used in a politicalpolítico systemsistema.
189
561696
3151
que luego se utiliza
en un sistema político.
09:36
You are providingsiempre que datadatos to a systemsistema
that is designeddiseñado to be used
190
564871
3704
Proporciona información a un sistema
que está diseñado para ser utilizado
09:40
to make politicalpolítico decisionsdecisiones
on your behalffavor.
191
568599
2116
para tomar decisiones políticas
en nuestro nombre.
09:43
Then you take that datadatos and you chooseescoger
a trainingformación algorithmalgoritmo,
192
571264
3980
Luego, toma esa información y elige
un algoritmo de entrenamiento,
09:47
because it's an openabierto marketplacemercado
193
575268
1563
porque es un mercado abierto
en el que diferentes personas
pueden presentar distintos algoritmos
09:48
in whichcual differentdiferente people
can submitenviar differentdiferente algorithmsAlgoritmos
194
576855
2786
09:51
to predictpredecir how you're going to votevotar,
basedbasado on the datadatos you have providedprevisto.
195
579665
4394
para predecir cómo votarán, basándose
en la información que proporcionaron.
09:56
And the systemsistema is openabierto,
so nobodynadie controlscontroles the algorithmsAlgoritmos;
196
584083
3455
Y el sistema es abierto.
Nadie controla los algoritmos.
09:59
there are algorithmsAlgoritmos
that becomevolverse more popularpopular
197
587562
2112
Hay algoritmos que se hacen
más populares y otros no tanto.
10:01
and othersotros that becomevolverse lessMenos popularpopular.
198
589698
1723
Con el tiempo, se puede
auditar el sistema.
10:03
EventuallyFinalmente, you can auditauditoría the systemsistema.
199
591445
1807
Pueden ver cómo funciona su avatar,
y dejarlo en piloto automático si quieren.
10:05
You can see how your avataravatar is workingtrabajando.
200
593276
1881
10:07
If you like it,
you can leavesalir it on autopilotpiloto automático.
201
595181
2152
Si quieren controlar un poco más,
10:09
If you want to be
a little more controllingcontrolador,
202
597357
2062
pueden elegir que les consulte
cuando toma una decisión,
10:11
you can actuallyactualmente chooseescoger that they askpedir you
203
599443
1968
10:13
everycada time they're going
to make a decisiondecisión,
204
601435
2068
o puede estar entre esas opciones.
10:15
or you can be anywhereen cualquier sitio in betweenEntre.
205
603527
1635
Una de las razones por las que
usamos tan poco la democracia
10:17
One of the reasonsrazones
why we use democracydemocracia so little
206
605186
2405
10:19
maymayo be because democracydemocracia
has a very badmalo userusuario interfaceinterfaz.
207
607615
3568
puede ser porque la democracia
tiene una interfaz de usuario muy mala.
10:23
And if we improvemejorar the userusuario
interfaceinterfaz of democracydemocracia,
208
611207
2483
Si mejoramos la interfaz
de usuario de la democracia,
10:25
we mightpodría be ablepoder to use it more.
209
613714
2127
podríamos utilizarla más.
10:28
Of coursecurso, there's a lot of questionspreguntas
that you mightpodría have.
210
616452
3207
Claro, hay muchas
preguntas que pueden surgir.
10:32
Well, how do you traintren these avatarsavatares?
211
620473
2161
Por ejemplo, ¿cómo
entrenar a esos avatares?
10:34
How do you keep the datadatos secureseguro?
212
622658
1894
¿Cómo mantener segura la información?
10:36
How do you keep the systemssistemas
distributedrepartido and auditableAuditables?
213
624576
3248
¿Cómo mantener los sistemas
distribuidos y auditables?
10:39
How about my grandmotherabuela,
who'squien es 80 yearsaños oldantiguo
214
627848
2062
¿Cómo hace mi abuela, que tiene
80 años y no sabe usar internet?
10:41
and doesn't know how to use the internetInternet?
215
629946
1960
10:44
TrustConfianza me, I've heardoído them all.
216
632262
2221
Créanme, las escuché a todas.
10:46
So when you think about an ideaidea like this,
you have to bewaretener cuidado of pessimistspesimistas
217
634507
4560
Cuando piensan en una idea como esta,
tengan cuidado con los pesimistas
10:51
because they are knownconocido to have
a problemproblema for everycada solutionsolución.
218
639091
4319
porque suelen tener
un problema para cada solución.
10:55
(LaughterRisa)
219
643434
1825
(Risas)
10:57
So I want to inviteinvitación you to think
about the biggermás grande ideasideas.
220
645283
3040
Quiero invitarlos a pensar
en las ideas más grandes.
11:00
The questionspreguntas I just showedmostró you
are little ideasideas
221
648347
3626
Las preguntas que acabo
de mostrarles son pequeñas ideas
11:03
because they are questionspreguntas
about how this would not work.
222
651997
2902
porque son preguntas
sobre cómo esto no funcionaría.
11:07
The biggrande ideasideas are ideasideas of:
223
655502
1981
Las grandes ideas son ideas sobre
qué más podemos hacer con esto
11:09
What elsemás can you do with this
224
657507
1807
11:11
if this would happenocurrir to work?
225
659338
1889
si funcionara.
11:13
And one of those ideasideas is,
well, who writesescribe the lawsleyes?
226
661774
3445
Y una de esas ideas es:
¿quién redacta las leyes?
11:17
In the beginningcomenzando, we could have
the avatarsavatares that we alreadyya have,
227
665854
4223
Al principio, podíamos hacer
que los avatares que ya tenemos
11:22
votingvotación on lawsleyes that are writtenescrito
by the senatorssenadores or politicianspolíticos
228
670101
3497
voten leyes que están redactadas
por los senadores o los políticos
11:25
that we alreadyya have.
229
673622
1351
que ya tenemos.
11:27
But if this were to work,
230
675491
1714
Pero si esto funcionara,
11:29
you could writeescribir an algorithmalgoritmo
231
677902
2350
podrían crear un algoritmo
que intente redactar una ley
11:32
that could try to writeescribir a lawley
232
680276
2150
11:34
that would get a certaincierto
percentageporcentaje of approvalaprobación,
233
682450
2421
que obtendría un cierto
porcentaje de aprobación,
11:36
and you could reversemarcha atrás the processproceso.
234
684895
1782
y pueden revertir el proceso.
11:38
Now, you mightpodría think that this ideaidea
is ludicrousridículo and we should not do it,
235
686701
3512
Ahora bien, pueden pensar que es
una idea absurda y no deberíamos hacerlo,
11:42
but you cannotno poder denynegar that it's an ideaidea
that is only possibleposible
236
690237
2786
pero no pueden negar
que esta idea solo es posible
en un mundo donde la democracia
directa y los agentes de software
11:45
in a worldmundo in whichcual directdirecto democracydemocracia
and softwaresoftware agentsagentes
237
693047
3020
11:48
are a viableviable formformar of participationparticipación.
238
696091
2656
son una forma viable de participación.
11:52
So how do we startcomienzo the revolutionrevolución?
239
700596
2753
Pues bien, ¿cómo empezamos la revolución?
11:56
We don't startcomienzo this revolutionrevolución
with picketpiquete fencesvallas or protestsprotestas
240
704238
3310
No se empieza esta revolución
con vallas de contención o protestas,
11:59
or by demandingexigente our currentcorriente politicianspolíticos
to be changedcambiado into robotsrobots.
241
707572
4190
ni exigiendo que nuestros actuales
políticos se cambien por robots.
12:03
That's not going to work.
242
711786
1549
No funcionará.
12:05
This is much more simplesencillo,
243
713359
1612
Esto es mucho más sencillo,
más lento y mucho más humilde.
12:06
much slowermás lento
244
714995
1159
12:08
and much more humblehumilde.
245
716178
1414
12:09
We startcomienzo this revolutionrevolución by creatingcreando
simplesencillo systemssistemas like this in gradgraduado schoolsescuelas,
246
717616
4349
Esta revolución empieza
creando sistemas simples
en escuelas de posgrado,
en bibliotecas y en ONG.
12:13
in librariesbibliotecas, in nonprofitssin fines de lucro.
247
721989
2094
12:16
And we try to figurefigura out
all of those little questionspreguntas
248
724107
2654
Y tratamos de descifrar
todas esas pequeñas preguntas
12:18
and those little problemsproblemas
249
726785
1221
y esos pequeños problemas
12:20
that we're going to have to figurefigura out
to make this ideaidea something viableviable,
250
728030
3901
que tendremos que resolver
para hacer esta idea viable,
para hacer de esta idea algo confiable.
12:23
to make this ideaidea something
that we can trustconfianza.
251
731955
2351
12:26
And as we createcrear those systemssistemas that have
a hundredcien people, a thousandmil people,
252
734330
3635
Y al crear esos sistemas que permiten
a cientos o miles de personas,
a cien mil personas votar de manera
políticamente no obligatoria,
12:29
a hundredcien thousandmil people votingvotación
in waysformas that are not politicallypolíticamente bindingUnión,
253
737989
3770
12:33
we're going to developdesarrollar trustconfianza in this ideaidea,
254
741783
2018
esta idea irá sumando
confianza, el mundo cambiará,
12:35
the worldmundo is going to changecambio,
255
743825
1519
12:37
and those that are as little
as my daughterhija is right now
256
745368
2875
y quienes ahora son tan pequeños
como mi hija, van a crecer.
12:40
are going to growcrecer up.
257
748267
1337
12:42
And by the time my daughterhija is my ageaños,
258
750580
2369
Y para cuando mi hija tenga mi edad,
12:44
maybe this ideaidea, that I know
todayhoy is very crazyloca,
259
752973
4436
tal vez esta idea que hoy
parece tan absurda
12:49
mightpodría not be crazyloca to her
and to her friendsamigos.
260
757433
4134
no sea absurda para ella y sus amigos.
12:53
And at that pointpunto,
261
761956
1837
Y en ese momento,
12:55
we will be at the endfin of our historyhistoria,
262
763817
2603
estaremos al final de nuestra historia,
pero ellos estarán al comienzo de la suya.
12:58
but they will be
at the beginningcomenzando of theirssuyo.
263
766444
2821
13:01
Thank you.
264
769646
1183
Gracias.
13:02
(ApplauseAplausos)
265
770853
3042
(Aplausos)
Translated by Larisa Esteche
Reviewed by Sonia Escudero Sánchez

▲Back to top

ABOUT THE SPEAKER
César Hidalgo - Physicist
César Hidalgo studies how teams, cities and nations learn.

Why you should listen

César A. Hidalgo leads the Collective Learning group at The MIT Media Lab and is an associate professor of media arts and sciences at MIT. Hidalgo's work focuses on understanding how teams, organizations, cities and nations learn. At the Collective Learning group, Hidalgo develops software tools to facilitate learning in organizations. His academic publications have been cited more than 10,000 times, and his online systems, including the Observatory of Economic Complexity and DataUSA, have received more than 100 million views and numerous awards.

Hidalgo's latest book, Why Information Grows (2015), has been translated into 10+ languages. He is also the co-author of The Atlas of Economic Complexity (2014) and a co-founder of Datawheel LLC, a company that has professionalized the creation of large data visualization engines.

More profile about the speaker
César Hidalgo | Speaker | TED.com