ABOUT THE SPEAKER
César Hidalgo - Physicist
César Hidalgo studies how teams, cities and nations learn.

Why you should listen

César A. Hidalgo leads the Collective Learning group at The MIT Media Lab and is an associate professor of media arts and sciences at MIT. Hidalgo's work focuses on understanding how teams, organizations, cities and nations learn. At the Collective Learning group, Hidalgo develops software tools to facilitate learning in organizations. His academic publications have been cited more than 10,000 times, and his online systems, including the Observatory of Economic Complexity and DataUSA, have received more than 100 million views and numerous awards.

Hidalgo's latest book, Why Information Grows (2015), has been translated into 10+ languages. He is also the co-author of The Atlas of Economic Complexity (2014) and a co-founder of Datawheel LLC, a company that has professionalized the creation of large data visualization engines.

More profile about the speaker
César Hidalgo | Speaker | TED.com
TED2018

César Hidalgo: A bold idea to replace politicians

César Hidalgo: Uma ideia ousada para substituir os políticos

Filmed:
2,044,328 views

César Hidalgo tem uma sugestão radical para consertar o nosso sistema político defeituoso: automatizá-lo! Nesta palestra provocadora, ele sublinha uma ideia ousada de ultrapassar os políticos, dando poder aos cidadãos para criarem representantes personalizados que participem diretamente nas decisões democráticas. Explorem uma nova forma de tomar decisões coletivas e expandam a vossa compreensão de democracia.
- Physicist
César Hidalgo studies how teams, cities and nations learn. Full bio

Double-click the English transcript below to play the video.

00:13
Is it just me,
0
1373
1744
Sou só eu
00:15
or are there other people here
1
3141
2332
ou há mais gente aqui
00:17
that are a little bitpouco
disappointeddesapontado with democracydemocracia?
2
5497
2344
um pouco desiludida com a democracia?
00:20
(ApplauseAplausos)
3
8986
2336
(Aplausos)
00:24
So let's look at a fewpoucos numbersnúmeros.
4
12141
2071
Vamos olhar para alguns números.
00:26
If we look acrossatravés the worldmundo,
5
14934
2173
Se olharmos para o mundo inteiro,
00:29
the medianmediana turnoutafluência às urnas
in presidentialpresidencial electionseleições
6
17131
3892
a afluência média às urnas
nas eleições presidenciais
00:33
over the last 30 yearsanos
7
21047
1651
nos últimos 30 anos,
00:34
has been just 67 percentpor cento.
8
22722
2622
foi de apenas 67%.
00:38
Now, if we go to EuropeEuropa
9
26329
1973
Se passarmos para a Europa
e olharmos para as pessoas
00:40
and we look at people that participatedparticipou
in EUUNIÃO EUROPEIA parliamentaryparlamentar electionseleições,
10
28326
4428
que participaram nas eleições
para o Parlamento Europeu,
00:44
the medianmediana turnoutafluência às urnas in those electionseleições
11
32778
2071
a afluência média para essas eleições
00:46
is just 42 percentpor cento.
12
34873
2104
foi de apenas 42%.
00:50
Now let's go to NewNovo YorkYork,
13
38125
1669
Passemos para Nova Iorque
00:51
and let's see how manymuitos people votedvotou
in the last electioneleição for mayorprefeito.
14
39818
4681
e vejamos quantas pessoas votaram
nas últimas eleições para o "mayor".
00:56
We will find that only
24 percentpor cento of people showedmostrou up to votevoto.
15
44523
3817
Encontramos que só compareceram
para votar 24% das pessoas.
01:01
What that meanssignifica is that,
if "FriendsAmigos" was still runningcorrida,
16
49063
3095
O que isto significa é que,
se ainda estivessem a dar "Friends"
01:04
JoeyJoey and maybe PhoebePhoebe
would have shownmostrando up to votevoto.
17
52182
3348
talvez Joey e Phoebe
aparecessem para votar.
01:07
(LaughterRiso)
18
55554
1290
(Risos)
01:09
And you cannotnão podes blameculpa them
because people are tiredcansado of politicianspolíticos.
19
57434
4426
Não podemos censurá-los, porque
as pessoas estão fartas dos políticos.
01:13
And people are tiredcansado of other people
usingusando the datadados that they have generatedgerado
20
61884
3887
As pessoas estão fartas de outras pessoas
que usam os dados que geramos
01:17
to communicatecomunicar with
theirdeles friendsamigos and familyfamília,
21
65795
2198
para comunicarmos
com os amigos e a família,
01:20
to targetalvo politicalpolítico propagandapropaganda at them.
22
68017
2094
para servirem de alvo
da sua propaganda política.
01:22
But the thing about this
is that this is not newNovo.
23
70519
2728
O problema é que tudo isto
não tem nada de novo.
01:25
NowadaysHoje em dia, people use likesgosta
to targetalvo propagandapropaganda at you
24
73271
3225
Atualmente, as pessoas usam os "likes"
que nos tornam alvos
01:28
before they use your zipfecho eclair codecódigo
or your gendergênero or your ageera,
25
76520
3373
em vez do nosso código postal,
do nosso sexo ou da nossa idade,
01:31
because the ideaidéia of targetingalvejando people
with propagandapropaganda for politicalpolítico purposesfins
26
79917
3570
porque a ideia de direcionar
a propaganda com fins políticos
01:35
is as oldvelho as politicspolítica.
27
83511
1592
é tão velha como a política.
01:37
And the reasonrazão why that ideaidéia is there
28
85530
2278
Essa ideia existe
01:39
is because democracydemocracia
has a basicbásico vulnerabilityvulnerabilidade.
29
87832
3472
porque a democracia
tem uma vulnerabilidade básica.
01:43
This is the ideaidéia of a representativerepresentante.
30
91710
1932
É a ideia da representação.
01:46
In principleprincípio, democracydemocracia is the abilityhabilidade
of people to exertexercer powerpoder.
31
94049
3944
Em princípio, a democracia
é a capacidade de o povo exercer o poder.
01:50
But in practiceprática, we have to delegatedelegado
that powerpoder to a representativerepresentante
32
98017
3818
Mas, na prática, temos de delegar
esse poder num representante
01:53
that can exertexercer that powerpoder for us.
33
101859
2255
que pode exercer esse poder
em nosso nome.
01:56
That representativerepresentante is a bottleneckgargalo,
34
104561
1825
Essa representação é um obstáculo
01:58
or a weakfraco spotlocal.
35
106410
1297
ou um ponto fraco.
01:59
It is the placeLugar, colocar that you want to targetalvo
if you want to attackataque democracydemocracia
36
107731
3949
É o ponto que queremos atingir
se quisermos atacar a democracia
porque podemos conquistar a democracia
quer conquistando o representante
02:03
because you can capturecapturar democracydemocracia
by eitherou capturingcapturando that representativerepresentante
37
111704
3489
02:07
or capturingcapturando the way
that people chooseescolher it.
38
115217
2148
quer conquistando
a forma como o elegemos.
02:10
So the biggrande questionquestão is:
39
118065
1416
O grande problema é:
02:11
Is this the endfim of historyhistória?
40
119505
1704
É este o final da história?
02:13
Is this the bestmelhor that we can do
41
121989
3103
É isto o melhor que podemos fazer
02:17
or, actuallyna realidade, are there alternativesalternativas?
42
125878
3067
ou há alternativas?
02:22
Some people have been thinkingpensando
about alternativesalternativas,
43
130130
2354
Há quem tenha estado a pensar
em alternativas
02:24
and one of the ideasidéias that is out there
is the ideaidéia of directdireto democracydemocracia.
44
132508
3679
e uma das ideias é que há
uma ideia de democracia direta.
02:28
This is the ideaidéia of bypassingignorando
politicianspolíticos completelycompletamente
45
136790
2479
É a ideia de ultrapassar
totalmente os políticos
02:31
and havingtendo people votevoto directlydiretamente on issuesproblemas,
46
139293
2403
e levar as pessoas a votar
diretamente nos problemas,
02:33
havingtendo people votevoto directlydiretamente on billscontas.
47
141720
2265
pôr as pessoas a votar
diretamente nas leis.
02:36
But this ideaidéia is naiveingênuo
48
144415
1336
Mas esta ideia é ingénua,
02:37
because there's too manymuitos things
that we would need to chooseescolher.
49
145775
3171
porque há demasiadas coisas
que precisamos de escolher.
02:40
If you look at the 114thº US CongressCongresso,
50
148970
2782
Se olharmos para o 114.º Congresso
dos EUA,
02:43
you will have seenvisto that
the HouseCasa of RepresentativesRepresentantes
51
151776
2487
veremos que a Câmara dos Representantes
02:46
consideredconsiderado more than 6,000 billscontas,
52
154287
2889
apreciou mais de 6000 propostas de leis.
02:49
the SenateSenado consideredconsiderado
more than 3,000 billscontas
53
157200
2656
o Senado apreciou
mais de 3000 propostas de leis
02:51
and they approvedaprovado more than 300 lawsleis.
54
159880
2808
e aprovaram mais de 300 leis.
02:54
Those would be manymuitos decisionsdecisões
55
162712
1579
São mais decisões
02:56
that eachcada personpessoa would have to make a weeksemana
56
164315
2187
do que cada pessoa teria
de fazer durante uma semana
02:58
on topicstópicos that they know little about.
57
166526
2142
sobre tópicos que pouco dominamos.
03:01
So there's a biggrande cognitivecognitivo
bandwidthlargura de banda problemproblema
58
169229
2281
Assim, há um grande problema cognitivo,
03:03
if we're going to try to think about
directdireto democracydemocracia as a viableviável alternativealternativa.
59
171534
3992
se quisermos pensar na democracia
direta como uma alternativa viável.
03:08
So some people think about the ideaidéia
of liquidlíquido democracydemocracia, or fluidfluido democracydemocracia,
60
176205
4435
Há quem pense na ideia da democracia
líquida, ou democracia fluida,
03:12
whichqual is the ideaidéia that you endorseendossa
your politicalpolítico powerpoder to someonealguém,
61
180664
3776
que é a ideia de que podemos
entregar o nosso poder político a alguém
03:16
who can endorseendossa it to someonealguém elseoutro,
62
184464
1700
que pode entregá-lo a outro qualquer
03:18
and, eventuallyeventualmente, you createcrio
a largeampla followerseguidor networkrede
63
186188
2541
e, por fim, criamos uma grande
rede de seguidores
03:20
in whichqual, at the endfim, there's a fewpoucos people
that are makingfazer decisionsdecisões
64
188753
3294
na qual há algumas pessoas
que tomam as decisões
03:24
on behalflado of all of theirdeles followersseguidores
and theirdeles followersseguidores.
65
192071
3143
em nome de todos os seus seguidores.
03:28
But this ideaidéia alsoAlém disso doesn't solveresolver
the problemproblema of the cognitivecognitivo bandwidthlargura de banda
66
196326
4129
Mas esta ideia também não resolve
o problema da banda cognitiva
03:32
and, to be honesthonesto, it's alsoAlém disso quitebastante similarsemelhante
to the ideaidéia of havingtendo a representativerepresentante.
67
200479
3877
e, para ser honesto, é muito semelhante
à ideia de ter um representante.
03:36
So what I'm going to do todayhoje is
I'm going to be a little bitpouco provocativeprovocante,
68
204795
3468
Hoje vou ser um bocado provocador
e vou perguntar-vos:
03:40
and I'm going to askpergunte you, well:
69
208277
2300
03:42
What if, insteadem vez de of tryingtentando
to bypassby-pass politicianspolíticos,
70
210601
6562
E se, em vez de tentar
ultrapassar os políticos,
03:49
we triedtentou to automateautomatizar them?
71
217187
2200
tentássemos automatizá-los?
03:57
The ideaidéia of automationautomação is not newNovo.
72
225871
2926
A ideia de automatização não é nova,
04:00
It was startedcomeçado more than 300 yearsanos agoatrás,
73
228821
2080
começou há mais de 300 aos,
04:02
when FrenchFrancês weaverstecelões decideddecidiu
to automateautomatizar the loomtear.
74
230925
3068
quando os tecelões franceses
decidiram automatizar o tear.
04:06
The winnervencedora of that industrialindustrial warguerra
was Joseph-MarieJoseph-Marie JacquardJacquard.
75
234820
4360
O vencedor desta guerra industrial
foi Joseph-Marie Jacquard.
04:11
He was a FrenchFrancês weaverWeaver and merchantcomerciante
76
239204
1751
Era um tecelão e mercador francês
04:12
that marriedcasado the loomtear
with the steamvapor enginemotor
77
240979
2440
que casou o tear com a máquina a vapor
04:15
to createcrio autonomousAutônomo loomsteares.
78
243443
2190
para criar os teares automatizados.
04:17
And in those autonomousAutônomo loomsteares,
he gainedganhou controlao controle.
79
245657
2753
Nestes teares autónomos
conquistou o controlo.
04:20
He could now make fabricstecidos that were
more complexcomplexo and more sophisticatedsofisticado
80
248434
3885
Passou a poder fazer tecidos
muito mais complexos e sofisticados
04:24
than the onesuns they
were ablecapaz to do by handmão.
81
252343
2128
do que os que eram feitos manualmente.
04:27
But alsoAlém disso, by winningganhando that industrialindustrial warguerra,
82
255193
2632
Mas também, ao ganhar
esta guerra industrial,
04:29
he laidliderar out what has becometornar-se
the blueprintBlueprint of automationautomação.
83
257849
3524
instituiu o que se tornou
o modelo da automatização.
04:34
The way that we automateautomatizar things
for the last 300 yearsanos
84
262135
2870
A forma como automatizamos as coisas
durante os últimos 300 anos,
04:37
has always been the samemesmo:
85
265029
1382
tem sido sempre a mesma:
04:39
we first identifyidentificar a need,
86
267006
2509
primeiro, identificamos uma necessidade,
04:41
then we createcrio a toolferramenta
to satisfysatisfazer that need,
87
269539
3184
depois criamos uma ferramenta
para satisfazer essa necessidade,
04:44
like the loomtear, in this casecaso,
88
272747
2040
como o tear, neste exemplo.
04:46
and then we studyestude how people use that toolferramenta
89
274811
2391
E depois, estudamos como
utilizar essa ferramenta
04:49
to automateautomatizar that userdo utilizador.
90
277226
1485
para automatizar esse utilizador.
04:51
That's how we cameveio
from the mechanicalmecânico loomtear
91
279242
3061
É como passámos do tear mecânico
04:54
to the autonomousAutônomo loomtear,
92
282327
1896
para o tear autónomo
04:56
and that tooktomou us a thousandmil yearsanos.
93
284247
2120
e isso levou-nos mil anos.
04:58
Now, it's takenocupado us only a hundredcem yearsanos
94
286391
2071
Mas só levámos cem anos
05:00
to use the samemesmo scriptroteiro
to automateautomatizar the carcarro.
95
288486
3211
a usar a mesma receita
para automatizar o carro.
05:05
But the thing is that, this time around,
96
293286
2452
Mas a coisa é que, desta vez,
a automação é real
05:07
automationautomação is kindtipo of for realreal.
97
295762
2129
Isto é um vídeo que um colega meu
da Toshiba partilhou comigo
05:09
This is a videovídeo that a colleaguecolega of minemeu
from ToshibaToshiba sharedcompartilhado with me
98
297915
3321
que mostra a fábrica
que fabrica discos SSD,
05:13
that showsmostra the factoryfábrica
that manufacturesfabrica solidsólido stateEstado drivesunidades.
99
301260
3259
Toda a fábrica está robotizada.
05:16
The entireinteira factoryfábrica is a robotrobô.
100
304543
2018
05:18
There are no humanshumanos in that factoryfábrica.
101
306585
1925
Não há seres humanos naquela fábrica.
E os robôs em breve
sairão das fábricas
05:21
And the robotsrobôs are soonem breve
to leavesair the factoriesfábricas
102
309033
2221
05:23
and becometornar-se partparte of our worldmundo,
103
311278
2022
e farão parte do nosso mundo,
05:25
becometornar-se partparte of our workforcetrabalhadores.
104
313324
1835
farão parte da nossa força de trabalho.
05:27
So what I do in my day jobtrabalho
105
315183
1773
O que eu faço no meu trabalho diário
05:28
is actuallyna realidade createcrio toolsFerramentas that integrateintegrar
datadados for entireinteira countriespaíses
106
316980
3992
é criar ferramentas que integram
dados para países inteiros
de modo que acabaremos por ter
as bases de que precisamos
05:32
so that we can ultimatelyem última análise have
the foundationsfundações that we need
107
320996
3466
para um futuro de que precisamos
para gerir essas máquinas.
05:36
for a futurefuturo in whichqual we need
to alsoAlém disso managegerir those machinesmáquinas.
108
324486
3687
05:41
But todayhoje, I'm not here
to talk to you about these toolsFerramentas
109
329195
2906
Mas hoje, não venho aqui
para vos falar dessas ferramentas
05:44
that integrateintegrar datadados for countriespaíses.
110
332125
1824
que integram dados para países.
Venho aqui para vos falar
duma outra ideia
05:46
But I'm here to talk to you
about anotheroutro ideaidéia
111
334463
2622
que pode ajudar-nos a pensar
05:49
that mightpoderia help us think about how to use
artificialartificial intelligenceinteligência in democracydemocracia.
112
337109
4865
como usar a inteligência artificial
na democracia.
05:53
Because the toolsFerramentas that I buildconstruir
are designedprojetado for executiveexecutivo decisionsdecisões.
113
341998
4733
Porque as ferramentas que eu criei
são concebidas para decisões executivas.
05:58
These are decisionsdecisões that can be castfundida
in some sortordenar of termprazo of objectivityobjetividade --
114
346755
3842
São decisões que podem ser tomadas
com alguma objetividade
— decisões de investimento público.
06:02
publicpúblico investmentinvestimento decisionsdecisões.
115
350621
1745
Mas há decisões que são legislativas
06:04
But there are decisionsdecisões
that are legislativelegislativa,
116
352885
2631
e essas decisões legislativas
exigem comunicação entre as pessoas
06:07
and these decisionsdecisões that are legislativelegislativa
requireexigem communicationcomunicação amongentre people
117
355540
3787
06:11
that have differentdiferente pointspontos of viewVisão,
118
359351
1700
que têm diferentes pontos de vista,
06:13
requireexigem participationparticipação, requireexigem debatedebate,
119
361075
2613
exigem participação, exigem debate,
exigem deliberação.
06:15
requireexigem deliberationdeliberação.
120
363712
1478
06:18
And for a long time,
we have thought that, well,
121
366241
2804
Já há muito tempo que pensamos
que, para melhorar a democracia,
precisamos de mais comunicação.
06:21
what we need to improvemelhorar democracydemocracia
is actuallyna realidade more communicationcomunicação.
122
369069
3460
06:24
So all of the technologiestecnologias that we have
advancedavançado in the contextcontexto of democracydemocracia,
123
372553
3709
Todas as tecnologias que melhorámos
no contexto da democracia,
quer sejam os jornais
ou as redes sociais,
06:28
whetherse they are newspapersjornais
or whetherse it is socialsocial mediameios de comunicação,
124
376286
2778
têm tentado munir-nos
de mais comunicação.
06:31
have triedtentou to provideprovidenciar us
with more communicationcomunicação.
125
379088
2382
Mas aventurámo-nos nesse caminho
06:34
But we'venós temos been down that rabbitcoelho holeburaco,
126
382103
1822
e sabemos que isso não vai
resolver o problema.
06:35
and we know that's not
what's going to solveresolver the problemproblema.
127
383949
2748
Porque não é um problema de comunicação,
06:38
Because it's not a communicationcomunicação problemproblema,
128
386721
1996
é um problema cognitivo.
06:40
it's a cognitivecognitivo bandwidthlargura de banda problemproblema.
129
388741
1748
Então, se é um problema cognitivo,
06:42
So if the problemproblema is one
of cognitivecognitivo bandwidthlargura de banda,
130
390513
2366
06:44
well, addingadicionando more communicationcomunicação to people
131
392903
2587
aumentar a comunicação para as pessoas
06:47
is not going to be
what's going to solveresolver it.
132
395514
2744
não vai ser o que o vai resolver.
06:50
What we are going to need insteadem vez de
is to have other technologiestecnologias
133
398282
3113
Em vez disso, vamos precisar
de ter outras tecnologias
06:53
that help us dealacordo with
some of the communicationcomunicação
134
401419
3046
que nos ajudem a lidar
com alguma das comunicações
06:56
that we are overloadedSobrecarregado with.
135
404489
2242
com que estamos a abarrotar.
06:58
Think of, like, a little avataravatar,
136
406755
1699
Pensem numa espécie de avatar,
um agente de "software",
07:00
a softwareProgramas agentAgente,
137
408478
1339
num Grilo Falante digital
07:01
a digitaldigital JiminyKatiane CricketGrilo --
138
409841
1878
07:03
(LaughterRiso)
139
411743
1238
(Risos)
07:05
that basicallybasicamente is ablecapaz
to answerresponda things on your behalflado.
140
413005
4012
que consiga responder a coisas
por nossa conta.
Se tivéssemos essa tecnologia
07:09
And if we had that technologytecnologia,
141
417759
1787
podíamos descarregar
parte das comunicações
07:11
we would be ablecapaz to offloaddesembarcar
some of the communicationcomunicação
142
419570
2478
e talvez tomar melhores decisões
ou decisões a uma escala maior.
07:14
and help, maybe, make better decisionsdecisões
or decisionsdecisões at a largermaior scaleescala.
143
422072
4147
07:18
And the thing is that the ideaidéia
of softwareProgramas agentsagentes is alsoAlém disso not newNovo.
144
426860
3719
a ideia de agentes de "software"
também não é nova.
Já estamos sempre a usá-la.
07:22
We already use them all the time.
145
430603
2109
Usamos agentes de "software"
07:25
We use softwareProgramas agentsagentes
146
433216
1521
07:26
to chooseescolher the way that we're going
to drivedirigir to a certaincerto locationlocalização,
147
434761
3675
para escolher a forma como conduzir
até determinado local,
a música que queremos ouvir
07:31
the musicmúsica that we're going to listen to
148
439070
2101
ou sugestões para os livros
que queremos ler.
07:33
or to get suggestionssugestões
for the nextPróximo bookslivros that we should readler.
149
441758
3021
07:37
So there is an obviousóbvio ideaidéia
in the 21stst centuryséculo
150
445994
2574
Há uma ideia óbvia
no século XXI
07:40
that was as obviousóbvio as the ideaidéia
151
448592
2643
que é tão óbvia como a ideia
de juntar uma máquina a vapor
a um tear, na época de Jacquard.
07:43
of puttingcolocando togetherjuntos a steamvapor enginemotor
with a loomtear at the time of JacquardJacquard.
152
451259
5581
07:49
And that ideaidéia is combiningcombinando
directdireto democracydemocracia with softwareProgramas agentsagentes.
153
457538
4456
Essa ideia é combinar a democracia direta
com agentes de "softwarw".
07:54
ImagineImagine, for a secondsegundo, a worldmundo
154
462849
2121
Imaginem, por instantes, um mundo
07:56
in whichqual, insteadem vez de of havingtendo
a representativerepresentante that representsrepresenta you
155
464994
3166
em que, em vez de ter um representante
que nos represente,
a nós e a milhões de outras pessoas,
08:00
and millionsmilhões of other people,
156
468184
1574
08:01
you can have a representativerepresentante
that representsrepresenta only you,
157
469782
3036
podemos ter um representante
que nos represente só a nós
08:05
with your nuancedmatizada politicalpolítico viewsvisualizações --
158
473504
2254
com as nossas opiniões políticas matizadas
08:07
that weirdesquisito combinationcombinação
of libertarianlibertário and liberalliberal
159
475782
3344
numa combinação esquisita
de libertárias e liberais
talvez um pouco conservadoras
em determinadas questões
08:11
and maybe a little bitpouco
conservativeconservador on some issuesproblemas
160
479150
2392
e talvez progressistas noutras.
08:13
and maybe very progressiveprogressivo on othersoutras.
161
481566
2108
08:15
PoliticiansPolíticos nowadayshoje em dia are packagespacotes,
and they're fullcheio of compromisescompromissos.
162
483698
3267
Os políticos hoje são pacotes
e estão cheios de compromissos.
Mas nós podemos ter alguém
que nos representa só a nós,
08:18
But you mightpoderia have someonealguém
that can representrepresentar only you,
163
486989
3634
se estivermos dispostos
a desistir da ideia
08:22
if you are willingdisposto to give up the ideaidéia
164
490647
1852
08:24
that that representativerepresentante is a humanhumano.
165
492523
2249
de que o representante é um ser humano.
08:27
If that representativerepresentante
is a softwareProgramas agentAgente,
166
495229
2082
Se esse representante for
um agente de "software",
08:29
we could have a senatesenado that has
as manymuitos senatorssenadores as we have citizenscidadãos.
167
497335
4170
podemos ter um Senado que tenha
tantos senadores quantos os cidadãos.
Esses senadores vão poder ler
cada proposta de lei
08:33
And those senatorssenadores are going to be ablecapaz
to readler everycada billconta
168
501529
2858
vão poder votar em cada uma delas.
08:36
and they're going to be ablecapaz
to votevoto on eachcada one of them.
169
504411
2747
08:39
So there's an obviousóbvio ideaidéia
that maybe we want to considerconsiderar.
170
507822
2956
Esta é uma ideia
que vale a pena considerar.
Eu compreendo que,
hoje, nesta altura,
08:42
But I understandCompreendo that in this day and ageera,
171
510802
2422
08:45
this ideaidéia mightpoderia be quitebastante scaryassustador.
172
513248
1889
esta ideia possa ser
um pouco assustadora.
08:48
In factfacto, thinkingpensando of a robotrobô
comingchegando from the futurefuturo
173
516391
3440
Com efeito, pensar num robô
que vem do futuro
para nos ajudar a governar o país
08:51
to help us runcorre our governmentsgovernos
174
519855
1673
08:53
soundssoa terrifyingaterrorizante.
175
521552
1631
soa de forma aterradora.
08:56
But we'venós temos been there before.
176
524223
1651
Mas já por lá passámos.
08:57
(LaughterRiso)
177
525898
1273
(Risos)
08:59
And actuallyna realidade he was quitebastante a nicebom guy.
178
527195
2495
E, na verdade, até era um tipo simpático.
09:03
So what would the JacquardJacquard loomtear
versionversão of this ideaidéia look like?
179
531677
6434
Como se pareceria a versão
do tear de Jacquard para esta ideia?
Seria um sistema muito simples.
09:10
It would be a very simplesimples systemsistema.
180
538135
1901
09:12
ImagineImagine a systemsistema that you logregistro in
and you createcrio your avataravatar,
181
540060
3458
Imaginem um sistema em que entramos
e criamos o nosso avatar.
Depois começamos a treinar o nosso avatar.
09:15
and then you're going
to startcomeçar trainingTreinamento your avataravatar.
182
543542
2456
Podemos fornecer ao avatar
os nossos hábitos de leitura,
09:18
So you can provideprovidenciar your avataravatar
with your readingleitura habitshábitos,
183
546022
2682
ou ligá-lo às nossas redes sociais
09:20
or connectconectar it to your socialsocial mediameios de comunicação,
184
548728
1861
09:22
or you can connectconectar it to other datadados,
185
550613
2408
ou podemos ligá-lo a outras informações,
por exemplo, fazendo testes psicológicos.
09:25
for exampleexemplo by takinglevando
psychologicalpsicológico teststestes.
186
553045
2272
09:27
And the nicebom thing about this
is that there's no deceptiondecepção.
187
555341
2968
O interessante nisto é que não há enganos.
Não fornecemos dados para comunicar
com amigos e família
09:30
You are not providingfornecendo datadados to communicatecomunicar
with your friendsamigos and familyfamília
188
558333
3339
que depois são usados
num sistema político.
09:33
that then getsobtém used in a politicalpolítico systemsistema.
189
561696
3151
Fornecemos informações a um sistema
que se destina a ser usado
09:36
You are providingfornecendo datadados to a systemsistema
that is designedprojetado to be used
190
564871
3704
09:40
to make politicalpolítico decisionsdecisões
on your behalflado.
191
568599
2116
para tomar decisões políticas
em nosso nome.
Depois, agarramos nesses dados
e escolhemos um algoritmo de treino
09:43
Then you take that datadados and you chooseescolher
a trainingTreinamento algorithmalgoritmo de,
192
571264
3980
porque é um mercado aberto
09:47
because it's an openaberto marketplacemercado
193
575268
1563
09:48
in whichqual differentdiferente people
can submitenviar differentdiferente algorithmsalgoritmos
194
576855
2786
em que diversas pessoas
podem escolher diferentes algoritmos
09:51
to predictprever how you're going to votevoto,
basedSediada on the datadados you have providedforneceu.
195
579665
4394
para prever como vamos votar,
com base nas informações que fornecemos.
09:56
And the systemsistema is openaberto,
so nobodyninguém controlscontroles the algorithmsalgoritmos;
196
584083
3455
O sistema é aberto, ninguém
controla os algoritmos;
há algoritmos que se tornam
mais populares e outros menos populares.
09:59
there are algorithmsalgoritmos
that becometornar-se more popularpopular
197
587562
2112
10:01
and othersoutras that becometornar-se lessMenos popularpopular.
198
589698
1723
Por fim, podemos fiscalizar o sistema,
10:03
EventuallyEventualmente, you can auditauditoria the systemsistema.
199
591445
1807
ver como é que o nosso avatar funciona.
10:05
You can see how your avataravatar is workingtrabalhando.
200
593276
1881
Se gostarmos, podemos pô-lo
em piloto automático.
10:07
If you like it,
you can leavesair it on autopilotpiloto automático.
201
595181
2152
Se queremos ser mais controladores
10:09
If you want to be
a little more controllingcontrolando,
202
597357
2062
podemos optar por ele nos consultar
antes de tomar uma decisão
10:11
you can actuallyna realidade chooseescolher that they askpergunte you
203
599443
1968
10:13
everycada time they're going
to make a decisiondecisão,
204
601435
2068
ou a meio caminho
entre estas duas opções.
10:15
or you can be anywherequalquer lugar in betweenentre.
205
603527
1635
Uma das razões por que usamos
tão pouco a democracia
10:17
One of the reasonsrazões
why we use democracydemocracia so little
206
605186
2405
talvez seja porque a democracia
tem uma interface muito fraca.
10:19
maypode be because democracydemocracia
has a very badmau userdo utilizador interfaceinterface.
207
607615
3568
10:23
And if we improvemelhorar the userdo utilizador
interfaceinterface of democracydemocracia,
208
611207
2483
Se melhorarmos a interface da democracia
talvez a passemos a usar mais.
10:25
we mightpoderia be ablecapaz to use it more.
209
613714
2127
Claro que há muitas questões
que gostariam de me colocar.
10:28
Of coursecurso, there's a lot of questionsquestões
that you mightpoderia have.
210
616452
3207
Como é que treinamos esses avatares?
10:32
Well, how do you traintrem these avatarsavatares?
211
620473
2161
10:34
How do you keep the datadados secureSecure?
212
622658
1894
Como mantemos as informações
em segurança?
10:36
How do you keep the systemssistemas
distributeddistribuído and auditableAuditável?
213
624576
3248
Como é mantemos os sistemas
distribuídos e verificáveis?
Como é que faz a minha avó
que tem 80 anos
10:39
How about my grandmotheravó,
who'squem é 80 yearsanos oldvelho
214
627848
2062
10:41
and doesn't know how to use the internetInternet?
215
629946
1960
e não sabe usar a Internet?
10:44
TrustConfiança me, I've heardouviu them all.
216
632262
2221
Acreditem, já as ouvi todas.
Quando pensamos numa ideia como esta
temos de ter cuidado com os pessimistas
10:46
So when you think about an ideaidéia like this,
you have to bewareCuidado com of pessimistspessimistas
217
634507
4560
porque eles são conhecidos
por terem um problema para cada solução.
10:51
because they are knownconhecido to have
a problemproblema for everycada solutionsolução.
218
639091
4319
(Risos)
10:55
(LaughterRiso)
219
643434
1825
10:57
So I want to inviteconvite you to think
about the biggerMaior ideasidéias.
220
645283
3040
Convido-vos a pensar
nas ideias em grande.
As perguntas que mostrei há pouco
são ideias pequeninas
11:00
The questionsquestões I just showedmostrou you
are little ideasidéias
221
648347
3626
porque são perguntas sobre
como é que isto não funcionaria.
11:03
because they are questionsquestões
about how this would not work.
222
651997
2902
As grandes ideias são:
11:07
The biggrande ideasidéias are ideasidéias of:
223
655502
1981
"Que mais podemos fazer com isso
11:09
What elseoutro can you do with this
224
657507
1807
11:11
if this would happenacontecer to work?
225
659338
1889
"se isso vier a entrar em funcionamento?"
11:13
And one of those ideasidéias is,
well, who writesescreve the lawsleis?
226
661774
3445
E uma dessas ideias é:
"Quem escreve as leis?"
11:17
In the beginningcomeçando, we could have
the avatarsavatares that we already have,
227
665854
4223
No início, podemos ter
os avatares que sempre temos
a votar nas leis que são escritas
pelos senadores ou pelos políticos
11:22
votingvotação on lawsleis that are writtenescrito
by the senatorssenadores or politicianspolíticos
228
670101
3497
que já temos.
11:25
that we already have.
229
673622
1351
Mas, se isto entrar em funcionamento,
11:27
But if this were to work,
230
675491
1714
11:29
you could writeEscreva an algorithmalgoritmo de
231
677902
2350
podemos escrever um algoritmo
que possa tentar escrever uma lei
11:32
that could try to writeEscreva a lawlei
232
680276
2150
11:34
that would get a certaincerto
percentagepercentagem of approvalaprovação,
233
682450
2421
que obterá uma determinada
percentagem de aprovações
11:36
and you could reversemarcha ré the processprocesso.
234
684895
1782
e podemos inverter o processo.
11:38
Now, you mightpoderia think that this ideaidéia
is ludicrousridículo and we should not do it,
235
686701
3512
Podem pensar nesta ideia
como uma ideia ridícula,
mas não devem fazê-lo,
11:42
but you cannotnão podes denynegar that it's an ideaidéia
that is only possiblepossível
236
690237
2786
e não podem negar
que é uma ideia que só é possível
num mundo em que a democracia
direta e os agentes de "software"
11:45
in a worldmundo in whichqual directdireto democracydemocracia
and softwareProgramas agentsagentes
237
693047
3020
11:48
are a viableviável formFormato of participationparticipação.
238
696091
2656
são uma forma viável de participação.
11:52
So how do we startcomeçar the revolutionrevolução?
239
700596
2753
Então, como é que começamos a revolução?
Não começamos esta revolução
com piquetes ou manifestações
11:56
We don't startcomeçar this revolutionrevolução
with picketpiquete fencescercas or protestsprotestos
240
704238
3310
nem exigindo que os atuais políticos
se transformem em robôs.
11:59
or by demandingexigente our currentatual politicianspolíticos
to be changedmudou into robotsrobôs.
241
707572
4190
Isso não vai resultar.
12:03
That's not going to work.
242
711786
1549
É muito mais simples,
muito mais lento,
12:05
This is much more simplesimples,
243
713359
1612
12:06
much slowerMais devagar
244
714995
1159
e muito mais humilde.
12:08
and much more humblehumilde.
245
716178
1414
12:09
We startcomeçar this revolutionrevolução by creatingcriando
simplesimples systemssistemas like this in gradGrad schoolsescolas,
246
717616
4349
Começamos esta revolução criando
sistemas simples como este,
nas universidades, nas bibliotecas,
nas organizações sem fins lucrativos.
12:13
in librariesbibliotecas, in nonprofitsorganizações sem fins lucrativos.
247
721989
2094
12:16
And we try to figurefigura out
all of those little questionsquestões
248
724107
2654
E tentamos imaginar
todas essas pequenas questões
12:18
and those little problemsproblemas
249
726785
1221
e todos esses pequenos problemas
12:20
that we're going to have to figurefigura out
to make this ideaidéia something viableviável,
250
728030
3901
que vão ter de ser imaginados
para tornar esta ideia viável,
para tornar esta ideia
numa coisa em que podemos confiar.
12:23
to make this ideaidéia something
that we can trustConfiar em.
251
731955
2351
12:26
And as we createcrio those systemssistemas that have
a hundredcem people, a thousandmil people,
252
734330
3635
Quando criarmos esses sistemas
cem pessoas, mil pessoas,
cem mil pessoas a votar de uma forma
que não é vinculativa politicamente,
12:29
a hundredcem thousandmil people votingvotação
in waysmaneiras that are not politicallypoliticamente bindingvinculação de,
253
737989
3770
vamos criar confiança nesta ideia,
12:33
we're going to developdesenvolve trustConfiar em in this ideaidéia,
254
741783
2018
e o mundo vai mudar
12:35
the worldmundo is going to changemudança,
255
743825
1519
e aqueles que são da idade
da minha filha, hoje,
12:37
and those that are as little
as my daughterfilha is right now
256
745368
2875
vão crescer.
12:40
are going to growcrescer up.
257
748267
1337
12:42
And by the time my daughterfilha is my ageera,
258
750580
2369
Na altura em que a minha filha
tiver a minha idade,
12:44
maybe this ideaidéia, that I know
todayhoje is very crazylouco,
259
752973
4436
talvez esta ideia, que concordo
que é hoje muito louca,
possa não ser tão louca para ela
e para os seus amigos.
12:49
mightpoderia not be crazylouco to her
and to her friendsamigos.
260
757433
4134
Nessa altura,
12:53
And at that pointponto,
261
761956
1837
chegaremos ao fim da nossa história,
12:55
we will be at the endfim of our historyhistória,
262
763817
2603
mas eles estarão no início da deles.
12:58
but they will be
at the beginningcomeçando of theirsdeles.
263
766444
2821
13:01
Thank you.
264
769646
1183
Obrigado.
(Aplausos)
13:02
(ApplauseAplausos)
265
770853
3042

▲Back to top

ABOUT THE SPEAKER
César Hidalgo - Physicist
César Hidalgo studies how teams, cities and nations learn.

Why you should listen

César A. Hidalgo leads the Collective Learning group at The MIT Media Lab and is an associate professor of media arts and sciences at MIT. Hidalgo's work focuses on understanding how teams, organizations, cities and nations learn. At the Collective Learning group, Hidalgo develops software tools to facilitate learning in organizations. His academic publications have been cited more than 10,000 times, and his online systems, including the Observatory of Economic Complexity and DataUSA, have received more than 100 million views and numerous awards.

Hidalgo's latest book, Why Information Grows (2015), has been translated into 10+ languages. He is also the co-author of The Atlas of Economic Complexity (2014) and a co-founder of Datawheel LLC, a company that has professionalized the creation of large data visualization engines.

More profile about the speaker
César Hidalgo | Speaker | TED.com