ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.

Why you should listen

We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.

Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.

Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.

More profile about the speaker
Zeynep Tufekci | Speaker | TED.com
TEDSummit

Zeynep Tufekci: Machine intelligence makes human morals more important

Zeynep Tufekci: A Inteligência Artificial torna a moral humana mais importante

Filmed:
1,648,711 views

A Inteligência Artificial chegou. E já a estamos a utilizar para tomar decisões subjetivas. Mas a forma complexa como a IA cresce e melhora, dificulta o seu entendimento e ainda mais o seu controlo. Nesta palestra cautelosa, a socióloga-tecnológica Zeynep Tufekci, explica como as máquinas inteligentes falham, de formas que não se enquadram nos padrões humanos — e de formas que não entendemos e para as quais não estamos preparados.
- Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread. Full bio

Double-click the English transcript below to play the video.

00:12
So, I startedcomeçado my first jobtrabalho
as a computercomputador programmerprogramador
0
739
4122
Comecei a trabalhar
como programadora informática
00:16
in my very first yearano of collegeFaculdade --
1
4885
1956
no meu primeiro ano de faculdade
00:18
basicallybasicamente, as a teenageradolescente.
2
6865
1507
— basicamente uma adolescente.
00:20
SoonEm breve after I startedcomeçado workingtrabalhando,
3
8889
1732
Pouco depois de começar a trabalhar,
00:22
writingescrevendo softwareProgramas in a companyempresa,
4
10645
1610
a programar software numa empresa.
00:24
a managerGerente who workedtrabalhou at the companyempresa
cameveio down to where I was,
5
12799
3635
um gestor que trabalhava na empresa
00:28
and he whisperedsussurrou to me,
6
16458
1268
veio ter comigo e segredou-me:
00:30
"Can he tell if I'm lyingdeitado?"
7
18229
2861
"Ele consegue saber se eu estou a mentir?"
00:33
There was nobodyninguém elseoutro in the roomquarto.
8
21806
2077
Não havia mais ninguém na sala.
00:37
"Can who tell if you're lyingdeitado?
And why are we whisperingsussurrando?"
9
25032
4389
"Quem poderá saber que você está a mentir?
Porque é que está a segredar?"
00:42
The managerGerente pointedapontado
at the computercomputador in the roomquarto.
10
30266
3107
O gestor apontou
para o computador na sala.
00:45
"Can he tell if I'm lyingdeitado?"
11
33397
3096
"Ele consegue saber se eu estou a mentir?"
00:49
Well, that managerGerente was havingtendo
an affaircaso with the receptionistrecepcionista.
12
37613
4362
Aquele gestor tinha
um caso romântico com a rececionista.
00:53
(LaughterRiso)
13
41999
1112
(Risos)
00:55
And I was still a teenageradolescente.
14
43135
1766
Eu ainda era uma adolescente.
00:57
So I whisper-shoutedsussurro-gritou back to him,
15
45447
2019
Por isso, sussurrei-gritei:
00:59
"Yes, the computercomputador can tell
if you're lyingdeitado."
16
47490
3624
"Sim, o computador sabe
que você está a mentir."
01:03
(LaughterRiso)
17
51138
1806
(Risos)
01:04
Well, I laughedriu, but actuallyna realidade,
the laugh'sdo riso on me.
18
52968
2923
Bem, eu ri-me, mas, na verdade,
hoje riem-se de mim.
01:07
NowadaysHoje em dia, there are computationalcomputacional systemssistemas
19
55915
3268
Hoje em dia, há sistemas informáticos
01:11
that can susssuss out
emotionalemocional statesestados and even lyingdeitado
20
59207
3548
que conseguem detetar
estados emocionais e mesmo a mentira
01:14
from processingem processamento humanhumano facesrostos.
21
62779
2044
processando apenas os rostos humanos.
01:17
AdvertisersAnunciantes and even governmentsgovernos
are very interestedinteressado.
22
65248
4153
Os publicitários e mesmo os governos
estão muito interessados nesta tecnologia.
01:22
I had becometornar-se a computercomputador programmerprogramador
23
70319
1862
Tornei-me programadora informática
01:24
because I was one of those kidsfilhos
crazylouco about mathmatemática and scienceCiência.
24
72205
3113
porque era uma criança
louca por matemática e ciências.
01:27
But somewherealgum lugar alongao longo the linelinha
I'd learnedaprendido about nuclearnuclear weaponsarmas,
25
75942
3108
Mas, ao longo do caminho
descobri as armas nucleares
01:31
and I'd gottenobtido really concernedpreocupado
with the ethicsética of scienceCiência.
26
79074
2952
e fiquei muito preocupada
com a ética da ciência.
01:34
I was troubledcom problemas.
27
82050
1204
Fiquei perturbada.
01:35
HoweverNo entanto, because of familyfamília circumstancescircunstâncias,
28
83278
2641
No entanto,
devido a circunstâncias familiares,
01:37
I alsoAlém disso needednecessário to startcomeçar workingtrabalhando
as soonem breve as possiblepossível.
29
85943
3298
também precisava de começar a trabalhar
o mais cedo possível.
01:41
So I thought to myselfEu mesmo, hey,
let me pickescolher a technicaltécnico fieldcampo
30
89265
3299
Então pensei:
"Bem, vou escolher uma área técnica
01:44
where I can get a jobtrabalho easilyfacilmente
31
92588
1796
"onde facilmente consiga um emprego
01:46
and where I don't have to dealacordo
with any troublesomeproblemático questionsquestões of ethicsética.
32
94408
4018
"e onde não tenha que lidar
com essas questões incómodas da ética".
01:51
So I pickedescolhido computerscomputadores.
33
99022
1529
Escolhi a informática.
01:52
(LaughterRiso)
34
100575
1104
(Risos)
01:53
Well, haHa, haHa, haHa!
All the laughsrisos are on me.
35
101703
3410
Bem, ha, ha, ha!
Riam-se todos de mim.
01:57
NowadaysHoje em dia, computercomputador scientistscientistas
are buildingconstrução platformsplataformas
36
105137
2754
Hoje, os cientistas de informática
estão a construir plataformas
01:59
that controlao controle what a billionbilhão
people see everycada day.
37
107915
4209
que controlam o que mil milhões
de pessoas veem todos os dias.
02:05
They're developingem desenvolvimento carscarros
that could decidedecidir who to runcorre over.
38
113052
3822
Estão a desenvolver carros
que podem decidir quem atropelar.
02:09
They're even buildingconstrução machinesmáquinas, weaponsarmas,
39
117707
3213
Estão inclusive a construir
máquinas, armas,
02:12
that mightpoderia killmatar humanhumano beingsseres in warguerra.
40
120944
2285
que poderão matar
seres humanos, em guerras.
02:15
It's ethicsética all the way down.
41
123253
2771
Há ética por todo o lado.
02:19
MachineMáquina intelligenceinteligência is here.
42
127183
2058
A inteligência artificial já chegou.
02:21
We're now usingusando computationcomputação
to make all sortordenar of decisionsdecisões,
43
129823
3474
Estamos a usar a informática
para tomar todo o tipo de decisões,
02:25
but alsoAlém disso newNovo kindstipos of decisionsdecisões.
44
133321
1886
mas também novos tipos de decisões.
02:27
We're askingPerguntando questionsquestões to computationcomputação
that have no singlesolteiro right answersresponde,
45
135231
5172
Estamos a fazer perguntas
que não têm uma resposta certa,
02:32
that are subjectivesubjetivo
46
140427
1202
que são subjetivas,
02:33
and open-endedaberto and value-ladenvalor-carregado.
47
141653
2325
estão em aberto e assentam em valores.
02:36
We're askingPerguntando questionsquestões like,
48
144002
1758
Fazemos perguntas como:
02:37
"Who should the companyempresa hirecontratar?"
49
145784
1650
"Quem é que a empresa deve contratar?"
02:40
"WhichQue updateatualizar from whichqual friendamigos
should you be shownmostrando?"
50
148096
2759
"Que notícias de que amigo
devemos mostrar?"
02:42
"WhichQue convictcondenado is more
likelyprovável to reoffendreincidência?"
51
150879
2266
"Qual o prisioneiro
que reincidirá mais facilmente?""
02:45
"WhichQue newsnotícia itemitem or moviefilme
should be recommendedrecomendado to people?"
52
153514
3054
"Que notícia ou filme
deve ser recomendado?"
02:48
Look, yes, we'venós temos been usingusando
computerscomputadores for a while,
53
156592
3372
Sim, já utilizamos
os computadores há algum tempo,
02:51
but this is differentdiferente.
54
159988
1517
mas isto é diferente.
02:53
This is a historicalhistórico twisttorção,
55
161529
2067
Esta é uma mudança histórica,
02:55
because we cannotnão podes anchorâncora computationcomputação
for suchtal subjectivesubjetivo decisionsdecisões
56
163620
5337
porque não podemos
apoiar-nos na informática
para decisões tão subjetivas,
03:00
the way we can anchorâncora computationcomputação
for flyingvôo airplanesaviões, buildingconstrução bridgespontes,
57
168981
5420
do mesmo modo que podemos
apoiar-nos na informática
para pôr aviões no ar,
para construir pontes,
03:06
going to the moonlua.
58
174425
1259
para voar até à lua.
03:08
Are airplanesaviões safermais segura?
Did the bridgeponte swayinfluenciar and fallcair?
59
176449
3259
Os aviões são mais seguros?
Será que a ponte vai balançar e cair?
03:11
There, we have agreed-uponacordadas,
fairlybastante clearClaro benchmarksvalores de referência,
60
179732
4498
Nestes casos, chegámos a acordo
sobre referências bastante claras,
03:16
and we have lawsleis of naturenatureza to guideguia us.
61
184254
2239
tendo as leis da natureza para nos guiar.
03:18
We have no suchtal anchorsâncoras and benchmarksvalores de referência
62
186517
3394
Não temos esses apoios e referências
03:21
for decisionsdecisões in messybagunçado humanhumano affairsromances.
63
189935
3963
para as decisões sobre
os complexos assuntos humanos.
03:25
To make things more complicatedcomplicado,
our softwareProgramas is gettingobtendo more powerfulpoderoso,
64
193922
4237
Para complicar ainda mais,
o software está cada vez mais poderoso,
03:30
but it's alsoAlém disso gettingobtendo lessMenos
transparenttransparente and more complexcomplexo.
65
198183
3773
mas também está a ficar
menos transparente e mais complexo.
03:34
RecentlyRecentemente, in the pastpassado decadedécada,
66
202542
2040
Recentemente, na última década,
03:36
complexcomplexo algorithmsalgoritmos
have madefeito great stridespassos largos.
67
204606
2729
os algoritmos complexos
alcançaram grandes feitos.
03:39
They can recognizereconhecer humanhumano facesrostos.
68
207359
1990
Conseguem reconhecer rostos humanos.
03:41
They can decipherdecifrar handwritingletra.
69
209985
2055
Podem decifrar a caligrafia.
03:44
They can detectdetectar creditcrédito cardcartão fraudfraude
70
212436
2066
Detetam fraudes de cartões de crédito
e bloqueiam "spam".
03:46
and blockquadra spamSpam
71
214526
1189
03:47
and they can translatetraduzir betweenentre languageslínguas.
72
215739
2037
Conseguem traduzir idiomas.
03:49
They can detectdetectar tumorstumores in medicalmédico imagingimagem latente.
73
217800
2574
Conseguem detetar
tumores em imagens médicas.
03:52
They can beatbatida humanshumanos in chessxadrez and Go.
74
220398
2205
Vencem os humanos no xadrez e no "Go".
03:55
Much of this progressprogresso comesvem
from a methodmétodo calledchamado "machinemáquina learningAprendendo."
75
223264
4504
Grande parte deste progresso obteve-se
com o método chamado
"aprendizagem de máquina."
04:00
MachineMáquina learningAprendendo is differentdiferente
than traditionaltradicional programmingprogramação,
76
228175
3187
A "aprendizagem de máquina"
é diferente da programação tradicional,
04:03
where you give the computercomputador
detailedDetalhado, exactexato, painstakingpenoso instructionsinstruções.
77
231386
3585
na qual se dá ao computador instruções
detalhadas, meticulosas e exatas.
04:07
It's more like you take the systemsistema
and you feedalimentação it lots of datadados,
78
235378
4182
Com este novo método, disponibilizam-se
grandes quantidades de dados ao sistema,
04:11
includingIncluindo unstructurednão-estruturados datadados,
79
239584
1656
— incluindo dados não estruturados,
04:13
like the kindtipo we generategerar
in our digitaldigital livesvidas.
80
241264
2278
como os que geramos
na nossa vida digital.
04:15
And the systemsistema learnsaprende
by churningproduzindo throughatravés this datadados.
81
243566
2730
O sistema aprende
analisando esses dados.
04:18
And alsoAlém disso, cruciallycrucialmente,
82
246669
1526
Para além disso,
04:20
these systemssistemas don't operateoperar
undersob a single-answerSingle-resposta logiclógica.
83
248219
4380
estes sistemas não funcionam
sob uma lógica de resposta única.
04:24
They don't produceproduzir a simplesimples answerresponda;
it's more probabilisticprobabilística:
84
252623
2959
Não produzem uma resposta única;
é mais probabilista:
04:27
"This one is probablyprovavelmente more like
what you're looking for."
85
255606
3483
"Isto, provavelmente,
está mais próximo do que procura."
04:32
Now, the upsideparte de cima is:
this methodmétodo is really powerfulpoderoso.
86
260023
3070
A vantagem é que
este método é muito poderoso.
04:35
The headcabeça of Google'sDo Google AIAI systemssistemas calledchamado it,
87
263117
2076
O chefe de sistemas da IA
do Google, chamou-lhe:
04:37
"the unreasonablerazoável effectivenesseficácia of datadados."
88
265217
2197
"A eficácia irracional dos dados".
04:39
The downsidedesvantagem is,
89
267791
1353
A desvantagem é que
04:41
we don't really understandCompreendo
what the systemsistema learnedaprendido.
90
269738
3071
não entendemos concretamente
o que o sistema aprendeu.
04:44
In factfacto, that's its powerpoder.
91
272833
1587
Na verdade, é essa a sua força.
04:46
This is lessMenos like givingdando
instructionsinstruções to a computercomputador;
92
274946
3798
É menos como dar instruções ao computador
04:51
it's more like trainingTreinamento
a puppy-machine-creaturefilhote de cachorro-máquina-criatura
93
279200
4064
e mais como treinar
um filhote de máquina-criatura
04:55
we don't really understandCompreendo or controlao controle.
94
283288
2371
que não entendemos nem controlamos.
04:58
So this is our problemproblema.
95
286362
1551
Portanto, este é o problema.
05:00
It's a problemproblema when this artificialartificial
intelligenceinteligência systemsistema getsobtém things wrongerrado.
96
288427
4262
É problemático quando a IA
compreende mal as coisas.
05:04
It's alsoAlém disso a problemproblema
when it getsobtém things right,
97
292713
3540
É também um problema
quando as compreende bem,
05:08
because we don't even know whichqual is whichqual
when it's a subjectivesubjetivo problemproblema.
98
296277
3628
porque nem sabemos o que é o quê
quando se trata de um problema subjetivo.
05:11
We don't know what this thing is thinkingpensando.
99
299929
2339
Nós não sabemos
o que a máquina está a pensar.
05:15
So, considerconsiderar a hiringcontratação algorithmalgoritmo de --
100
303493
3683
Assim, considerem
um algoritmo de contratação
05:20
a systemsistema used to hirecontratar people,
usingusando machine-learningaprendizado de máquina systemssistemas.
101
308123
4311
— um sistema usado para contratar pessoas,
utilizando a aprendizagem de máquina.
05:25
SuchTais a systemsistema would have been trainedtreinado
on previousanterior employees'dos funcionários datadados
102
313052
3579
Tal sistema teria sido treinado
com dados dos empregados anteriores
05:28
and instructedinstruído to find and hirecontratar
103
316655
2591
e instruído para encontrar
e contratar pessoas
05:31
people like the existingexistir
highAlto performersartistas in the companyempresa.
104
319270
3038
semelhantes aos melhores profissionais
da empresa.
05:34
SoundsSons good.
105
322814
1153
Parece bem.
05:35
I onceuma vez attendedcom a presença a conferenceconferência
106
323991
1999
Uma vez, fui a uma conferência
05:38
that broughttrouxe togetherjuntos
humanhumano resourcesRecursos managersgerentes and executivesexecutivos,
107
326014
3125
que juntou gestores
de recursos humanos e executivos.
Pessoas de alto nível, que usam
esses sistemas para contratar
05:41
high-levelalto nível people,
108
329163
1206
05:42
usingusando suchtal systemssistemas in hiringcontratação.
109
330393
1559
05:43
They were supersuper excitedanimado.
110
331976
1646
Estavam super entusiasmados,
05:45
They thought that this would make hiringcontratação
more objectiveobjetivo, lessMenos biasedtendencioso,
111
333646
4653
Achavam que isto tornaria a contratação
mais objetiva, menos tendenciosa,
05:50
and give womenmulheres
and minoritiesminorias a better shottiro
112
338323
3000
e daria mais hipóteses
às mulheres e minorias,
05:53
againstcontra biasedtendencioso humanhumano managersgerentes.
113
341347
2188
ao contrário dos gestores
de RH tendenciosos.
05:55
And look -- humanhumano hiringcontratação is biasedtendencioso.
114
343559
2843
Notem, a contratação humana
é tendenciosa.
05:59
I know.
115
347099
1185
Eu bem sei.
06:00
I mean, in one of my earlycedo jobsempregos
as a programmerprogramador,
116
348308
3005
Num dos meus primeiros empregos
como programadora,
06:03
my immediateimediato managerGerente would sometimesas vezes
come down to where I was
117
351337
3868
a minha chefe imediata,
às vezes vinha ter comigo,
06:07
really earlycedo in the morningmanhã
or really lateatrasado in the afternoontarde,
118
355229
3753
muito cedo de manhã
ou muito ao final da tarde,
06:11
and she'dela teria say, "ZeynepZeynep,
let's go to lunchalmoço!"
119
359006
3062
e dizia:
"Zeynep, vamos almoçar!"
06:14
I'd be puzzledintrigado by the weirdesquisito timingcronometragem.
120
362724
2167
Eu ficava intrigada
com aquele horário estranho.
06:16
It's 4pmPM. LunchAlmoço?
121
364915
2129
São 16 horas. Almoço?
06:19
I was brokequebrou, so freelivre lunchalmoço. I always wentfoi.
122
367068
3094
Como estava sem dinheiro
— almoço grátis — aceitava sempre.
06:22
I latermais tarde realizedpercebi what was happeningacontecendo.
123
370618
2067
Mais tarde percebi porquê:
06:24
My immediateimediato managersgerentes
had not confessedconfessou to theirdeles higher-upsseus superiores
124
372709
4546
Os meus chefes diretos
não tinham informado os superiores
06:29
that the programmerprogramador they hiredcontratado
for a seriousgrave jobtrabalho was a teenadolescente girlmenina
125
377279
3113
que o programador contratado
para um trabalho sério
era uma garota adolescente
06:32
who woreusava jeansjeans and sneakerstênis to work.
126
380416
3930
que usava "jeans" e ténis para trabalhar.
Eu fazia um bom trabalho,
mas tinha um aspeto não convencional
06:37
I was doing a good jobtrabalho,
I just lookedolhou wrongerrado
127
385174
2202
06:39
and was the wrongerrado ageera and gendergênero.
128
387400
1699
e tinha a idade e sexo errados.
06:41
So hiringcontratação in a gender-Gênero- and race-blindcorrida-cego way
129
389123
3346
Logo, contratar sem olhar
ao sexo e à etnia
06:44
certainlyCertamente soundssoa good to me.
130
392493
1865
claro que me soa bem.
06:47
But with these systemssistemas,
it is more complicatedcomplicado, and here'saqui está why:
131
395031
3341
Mas com estes sistemas,
é mais complicado. E porquê?
06:50
CurrentlyAtualmente, computationalcomputacional systemssistemas
can inferinferir all sortstipos of things about you
132
398968
5791
Atualmente, os sistemas informáticos
conseguem inferir
todo o tipo de coisas sobre a pessoa
06:56
from your digitaldigital crumbsmigalhas,
133
404783
1872
a partir das suas migalhas digitais,
06:58
even if you have not
discloseddivulgadas those things.
134
406679
2333
mesmo que a pessoa não tenha
divulgado essas coisas.
07:01
They can inferinferir your sexualsexual orientationorientação,
135
409506
2927
Conseguem inferir
a sua orientação sexual,
07:04
your personalitypersonalidade traitstraços,
136
412994
1306
os seus traços de personalidade,
07:06
your politicalpolítico leaningsinclinações.
137
414859
1373
as inclinações políticas.
07:08
They have predictivepreditiva powerpoder
with highAlto levelsníveis of accuracyprecisão.
138
416830
3685
Conseguem prever
com elevados níveis de precisão.
07:13
RememberLembre-se -- for things
you haven'tnão tem even discloseddivulgadas.
139
421362
2578
Notem... coisas que nem sequer
divulgámos conscientemente.
07:15
This is inferenceinferência.
140
423964
1591
Isto é dedução.
07:17
I have a friendamigos who developeddesenvolvido
suchtal computationalcomputacional systemssistemas
141
425579
3261
Tenho uma amiga que desenvolveu
esses sistemas informáticos,
07:20
to predictprever the likelihoodprobabilidade
of clinicalclínico or postpartumapós o parto depressiondepressão
142
428864
3641
para prever a probabilidade
de depressão clínica ou pós-parto
07:24
from socialsocial mediameios de comunicação datadados.
143
432529
1416
a partir de dados de redes sociais.
07:26
The resultsresultados are impressiveimpressionante.
144
434676
1427
Os resultados são impressionantes.
07:28
Her systemsistema can predictprever
the likelihoodprobabilidade of depressiondepressão
145
436492
3357
O sistema consegue prever
a probabilidade de depressão
07:31
monthsmeses before the onsetinício of any symptomssintomas --
146
439873
3903
meses antes do início
de quaisquer sintomas
07:35
monthsmeses before.
147
443800
1373
— meses antes.
07:37
No symptomssintomas, there's predictionpredição.
148
445197
2246
Não há sintomas. Há previsão.
07:39
She hopesesperanças it will be used
for earlycedo interventionintervenção. Great!
149
447467
4812
Ela espera que isso seja usado
para intervenção precoce. Ótimo!
07:44
But now put this in the contextcontexto of hiringcontratação.
150
452911
2040
Mas agora coloquem isto
no contexto da contratação.
07:48
So at this humanhumano resourcesRecursos
managersgerentes conferenceconferência,
151
456027
3046
Na conferência de gestores
de recursos humanos,
07:51
I approachedse aproximou a high-levelalto nível managerGerente
in a very largeampla companyempresa,
152
459097
4709
aproximei-me de uma gestora de alto nível
de uma grande empresa e disse-lhe:
07:55
and I said to her, "Look,
what if, unbeknownstsem o conhecimento to you,
153
463830
4578
"O que acha se, sem o seu conhecimento,
08:00
your systemsistema is weedingremoção de ervas daninhas out people
with highAlto futurefuturo likelihoodprobabilidade of depressiondepressão?
154
468432
6549
"o seu sistema estiver a excluir pessoas
com alto risco de futura depressão?
08:07
They're not depresseddepressivo now,
just maybe in the futurefuturo, more likelyprovável.
155
475761
3376
"Não estão deprimidas agora,
mas talvez no futuro, seja mais provável.
08:11
What if it's weedingremoção de ervas daninhas out womenmulheres
more likelyprovável to be pregnantgrávida
156
479923
3406
"E se está a excluir as mulheres
com maior probabilidade de engravidar
08:15
in the nextPróximo yearano or two
but aren'tnão são pregnantgrávida now?
157
483353
2586
"dentro de um ou dois anos
mas que não estão grávidas agora?
08:18
What if it's hiringcontratação aggressiveagressivo people
because that's your workplaceambiente de trabalho culturecultura?"
158
486844
5636
"E se está a contratar pessoas agressivas
porque essa é a cultura da empresa?
"Não nos apercebemos disso
olhando par a repartição por sexos.
08:25
You can't tell this by looking
at gendergênero breakdownsdesagregações.
159
493173
2691
08:27
Those maypode be balancedequilibrado.
160
495888
1502
Aí até pode estar equilibrado.
08:29
And sinceDesde a this is machinemáquina learningAprendendo,
not traditionaltradicional codingcodificação,
161
497414
3557
Como isto é aprendizagem de máquina,
e não codificação tradicional,
08:32
there is no variablevariável there
labeledrotulado "highersuperior riskrisco of depressiondepressão,"
162
500995
4907
não há lá nenhuma variável
intitulada "maior risco de depressão",
"maior risco de gravidez",
08:37
"highersuperior riskrisco of pregnancygravidez,"
163
505926
1833
08:39
"aggressiveagressivo guy scaleescala."
164
507783
1734
"escala de agressividade".
08:41
Not only do you not know
what your systemsistema is selectingselecionando on,
165
509995
3679
Não só não se sabe
o que é que o sistema está a selecionar,
08:45
you don't even know
where to begininício to look.
166
513698
2323
como não se sabe
por onde começar a procurar.
08:48
It's a blackPreto boxcaixa.
167
516045
1246
É uma caixa preta.
08:49
It has predictivepreditiva powerpoder,
but you don't understandCompreendo it.
168
517315
2807
Tem poder preditivo,
mas não conseguimos entendê-la.
08:52
"What safeguardssalvaguardas," I askedperguntei, "do you have
169
520486
2369
"Que garantia você tem", perguntei,
08:54
to make sure that your blackPreto boxcaixa
isn't doing something shadySobreira?"
170
522879
3673
"de que a sua caixa negra
não está a fazer algo sombrio?"
09:00
She lookedolhou at me as if I had
just steppedpisou on 10 puppycachorro tailscaudas.
171
528863
3878
Ela olhou para mim
como se eu a tivesse ofendido.
09:04
(LaughterRiso)
172
532765
1248
(Risos)
09:06
She staredolhou fixamente at me and she said,
173
534037
2041
Olhou para mim e disse:
09:08
"I don't want to hearouvir
anotheroutro wordpalavra about this."
174
536556
4333
"Não quero ouvir
nem mais uma palavra sobre isso."
Virou-me as costas e foi-se embora.
09:13
And she turnedvirou around and walkedcaminhou away.
175
541458
2034
09:16
MindMente you -- she wasn'tnão foi ruderude.
176
544064
1486
Ela não foi indelicada.
Foi claramente:
09:17
It was clearlyclaramente: what I don't know
isn't my problemproblema, go away, deathmorte stareolhar fixamente.
177
545574
6308
"O que eu não sei, não é problema meu.
Desapareça." Olhar de morte.
09:23
(LaughterRiso)
178
551906
1246
(Risos)
09:25
Look, suchtal a systemsistema
maypode even be lessMenos biasedtendencioso
179
553862
3839
Notem que estes sistemas
podem ser menos tendenciosos
09:29
than humanhumano managersgerentes in some waysmaneiras.
180
557725
2103
do que os gestores humanos,
nalguns aspetos.
09:31
And it could make monetarymonetária sensesentido.
181
559852
2146
E isso pode fazer sentido economicamente.
09:34
But it could alsoAlém disso leadconduzir
182
562573
1650
Mas também pode levar
09:36
to a steadyestável but stealthyfurtivo
shuttingfechar out of the jobtrabalho marketmercado
183
564247
4748
ao fecho constante mas furtivo
do mercado de trabalho
09:41
of people with highersuperior riskrisco of depressiondepressão.
184
569019
2293
para as pessoas
com maior risco de depressão.
09:43
Is this the kindtipo of societysociedade
we want to buildconstruir,
185
571753
2596
Será este o tipo de sociedade
que queremos construir,
09:46
withoutsem even knowingsabendo we'venós temos donefeito this,
186
574373
2285
sem sequer saber que o fizemos,
09:48
because we turnedvirou decision-makingtomando uma decisão
to machinesmáquinas we don't totallytotalmente understandCompreendo?
187
576682
3964
porque demos às máquinas
a tomada de decisões
que não compreendemos totalmente?
09:53
AnotherOutro problemproblema is this:
188
581265
1458
Outro problema é o seguinte:
09:55
these systemssistemas are oftenfrequentemente trainedtreinado
on datadados generatedgerado by our actionsações,
189
583314
4452
estes sistemas são treinados frequentemente
com dados gerados pelas nossas ações,
09:59
humanhumano imprintsimpressões.
190
587790
1816
impressões humanas.
10:02
Well, they could just be
reflectingrefletindo our biasestendências,
191
590188
3808
Assim, poderão estar
a refletir os nossos preconceitos.
10:06
and these systemssistemas
could be pickingescolhendo up on our biasestendências
192
594020
3593
poderão estar
a aprender os nossos preconceitos,
10:09
and amplifyingamplificando them
193
597637
1313
a amplificá-los e a mostrá-los de novo,
10:10
and showingmostrando them back to us,
194
598974
1418
10:12
while we're tellingdizendo ourselvesnós mesmos,
195
600416
1462
enquanto nós pensamos:
10:13
"We're just doing objectiveobjetivo,
neutralneutro computationcomputação."
196
601902
3117
"Estamos a ser objetivos,
a informática é neutra".
10:18
ResearchersPesquisadores foundencontrado that on GoogleGoogle,
197
606314
2677
Investigadores verificaram que, no Google,
10:22
womenmulheres are lessMenos likelyprovável than menhomens
to be shownmostrando jobtrabalho adsPublicidades for high-payingaltos salários jobsempregos.
198
610134
5313
os anúncios para empregos
com salários elevados
aparecem mais para homens
do que para mulheres.
10:28
And searchingprocurando for African-AmericanAfro-americano namesnomes
199
616463
2530
E se procurarmos nomes de afro-americano
10:31
is more likelyprovável to bringtrazer up adsPublicidades
suggestingsugerindo criminalCriminoso historyhistória,
200
619017
4706
encontramos mais resultados de anúncios
sugerindo antecedentes criminais,
10:35
even when there is noneNenhum.
201
623747
1567
mesmo quando não há nenhum.
10:38
SuchTais hiddenescondido biasestendências
and black-boxcaixa-preta algorithmsalgoritmos
202
626693
3549
Estes preconceitos escondidos
e algoritmos de caixa-negra
10:42
that researcherspesquisadores uncoverdescobrir sometimesas vezes
but sometimesas vezes we don't know,
203
630266
3973
que os investigadores por vezes descobrem,
mas que por vezes nós não descobrimos,
10:46
can have life-alteringvida-alterando consequencesconsequências.
204
634263
2661
podem ter consequências
capazes de mudar uma vida.
10:49
In WisconsinWisconsin, a defendantréu
was sentencedcondenado to sixseis yearsanos in prisonprisão
205
637958
4159
No Wisconsin, um réu
foi condenado a seis anos de prisão
10:54
for evadingfugindo the policepolícia.
206
642141
1355
por fugir da polícia.
10:56
You maypode not know this,
207
644824
1186
Podem não saber,
10:58
but algorithmsalgoritmos are increasinglycada vez mais used
in paroleliberdade condicional and sentencingsentença decisionsdecisões.
208
646034
3998
mas os algoritmos são utilizados
para a liberdade condicional
e as condenações.
11:02
He wanted to know:
How is this scorePonto calculatedcalculado?
209
650056
2955
Este réu queria saber
como era calculada a pontuação.
11:05
It's a commercialcomercial blackPreto boxcaixa.
210
653795
1665
É uma caixa preta comercial.
11:07
The companyempresa refusedrecusou-se to have its algorithmalgoritmo de
be challengeddesafiado in openaberto courtquadra.
211
655484
4205
A empresa recusou-se a ver o seu algoritmo
questionado em tribunal aberto.
11:12
But ProPublicaProPublica, an investigativeinvestigação
nonprofitsem fins lucrativos, auditedauditados that very algorithmalgoritmo de
212
660396
5532
Mas a ProPublica, uma agência
de investigação sem fins lucrativos,
auditou esse algoritmo
com os dados públicos que encontrou,
11:17
with what publicpúblico datadados they could find,
213
665952
2016
11:19
and foundencontrado that its outcomesresultados were biasedtendencioso
214
667992
2316
e descobriu que os resultados
eram tendenciosos
11:22
and its predictivepreditiva powerpoder
was dismalDismal, barelymal better than chancechance,
215
670332
3629
e o poder de previsão
era pouco melhor que o acaso.
11:25
and it was wronglyinjustamente labelingrotulagem
blackPreto defendantsréus as futurefuturo criminalscriminosos
216
673985
4416
E que estava a sinalizar erradamente
réus negros como futuros criminosos
11:30
at twiceduas vezes the ratetaxa of whitebranco defendantsréus.
217
678425
3895
duas vezes mais do que réus brancos.
11:35
So, considerconsiderar this casecaso:
218
683891
1564
Considerem o seguinte caso:
11:38
This womanmulher was lateatrasado
pickingescolhendo up her godsistergodsister
219
686103
3852
Esta mulher estava atrasada
para ir buscar a afilhada
11:41
from a schoolescola in BrowardBroward CountyCondado de, FloridaFlorida,
220
689979
2075
a uma escola no condado
de Broward, Flórida
11:44
runningcorrida down the streetrua
with a friendamigos of hersdela.
221
692757
2356
e corria pela rua abaixo com uma amiga.
11:47
They spottedmanchado an unlockeddesbloqueado kid'scriança bikebicicleta
and a scooter"trotinette" on a porchvaranda
222
695137
4099
Avistaram uma bicicleta e uma scooter,
não amarradas, numa varanda
11:51
and foolishlytolamente jumpedsaltou on it.
223
699260
1632
e, parvoíce... levaram-nas.
11:52
As they were speedingexcesso de velocidade off,
a womanmulher cameveio out and said,
224
700916
2599
Quando estavam a acelerar,
apareceu uma mulher que disse:
11:55
"Hey! That's my kid'scriança bikebicicleta!"
225
703539
2205
"Ei! Essa bicicleta é do meu filho!"
11:57
They droppeddesistiu it, they walkedcaminhou away,
but they were arrestedpreso.
226
705768
3294
Largaram-nas e seguiram caminho,
mas acabaram por ser presas.
12:01
She was wrongerrado, she was foolishtolo,
but she was alsoAlém disso just 18.
227
709086
3637
Foi errado, foi uma parvoíce,
mas ela só tinha 18 anos.
12:04
She had a couplecasal of juvenilejuvenil misdemeanorspequenos delitos.
228
712747
2544
Tinha alguns delitos juvenis.
12:07
MeanwhileEnquanto isso, that man had been arrestedpreso
for shopliftingfurto em lojas in Home DepotDepósito --
229
715808
5185
Entretanto, aquele homem
já tinha sido preso
por furto no Home Depot
12:13
85 dollars'dólares worthque vale a pena of stuffcoisa,
a similarsemelhante pettymesquinho crimecrime.
230
721017
2924
— um roubo de 85 dólares,
um crime menor.
12:16
But he had two prioranterior
armedarmado robberyroubo convictionsconvicções.
231
724766
4559
Mas, para além disso, já tinha
duas sentenças por assalto à mão armada.
12:21
But the algorithmalgoritmo de scoredmarcou her
as highAlto riskrisco, and not him.
232
729955
3482
Mas o algoritmo marcou-a
como de alto risco, e não a ele.
12:26
Two yearsanos latermais tarde, ProPublicaProPublica foundencontrado
that she had not reoffendedreoffended.
233
734746
3874
Dois anos depois, a ProPublica verificou
que ela não tinha reincidido,
mas tinha dificuldade em conseguir
um emprego, devido ao cadastro.
12:30
It was just hardDifícil to get a jobtrabalho
for her with her recordregistro.
234
738644
2550
12:33
He, on the other handmão, did reoffendreincidência
235
741218
2076
Ele, por outro lado, reincidiu
12:35
and is now servingservindo an eight-yearoito anos
prisonprisão termprazo for a latermais tarde crimecrime.
236
743318
3836
e agora está a cumprir pena de oito anos
por um crime cometido mais tarde.
12:40
ClearlyClaramente, we need to auditauditoria our blackPreto boxescaixas
237
748088
3369
Necessitamos, claramente,
de auditar as nossas caixas-negras
12:43
and not have them have
this kindtipo of uncheckedNão verificado powerpoder.
238
751481
2615
e não deixá-las ter
este poder sem controlo.
12:46
(ApplauseAplausos)
239
754120
2879
(Aplausos)
12:50
AuditsAuditorias are great and importantimportante,
but they don't solveresolver all our problemsproblemas.
240
758087
4242
As auditorias são ótimas e importantes,
mas não solucionam todos os problemas.
12:54
Take Facebook'sDo Facebook powerfulpoderoso
newsnotícia feedalimentação algorithmalgoritmo de --
241
762353
2748
Considerem o poderoso algoritmo
de notícias do Facebook,
12:57
you know, the one that ranksfileiras everything
and decidesdecide what to showexposição you
242
765125
4843
aquele que classifica
e decide tudo o que vos mostram
de todos os amigos e das páginas
que vocês seguem.
13:01
from all the friendsamigos and pagesPáginas you followSegue.
243
769992
2284
13:04
Should you be shownmostrando anotheroutro babybebê picturecenário?
244
772898
2275
Deverão mostrar-vos
outra foto de um bebé?
13:07
(LaughterRiso)
245
775197
1196
(Risos)
13:08
A sullencarrancudo noteNota from an acquaintanceconhecimento?
246
776417
2596
Uma nota mal-humorado de um conhecido?
13:11
An importantimportante but difficultdifícil newsnotícia itemitem?
247
779449
1856
Uma notícia importante,
mas incomodativa?
13:13
There's no right answerresponda.
248
781329
1482
Não há uma resposta certa.
13:14
FacebookFacebook optimizesotimiza o
for engagementnoivado on the sitelocal:
249
782835
2659
O Facebook otimiza
para manter-vos ligado ao site:
13:17
likesgosta, sharescompartilha, commentscomentários.
250
785518
1415
"likes", partilhas, comentários.
Em agosto de 2014,
13:20
In AugustAgosto of 2014,
251
788168
2696
13:22
protestsprotestos brokequebrou out in FergusonFerguson, MissouriMissouri,
252
790888
2662
estalaram manifestações
em Ferguson, no Missouri,
13:25
after the killingmatando of an African-AmericanAfro-americano
teenageradolescente by a whitebranco policepolícia officeroficial,
253
793574
4417
após a morte de um jovem afro-americano
infligida por um polícia branco,
13:30
undersob murkyturvas circumstancescircunstâncias.
254
798015
1570
em circunstâncias pouco claras.
13:31
The newsnotícia of the protestsprotestos was all over
255
799974
2007
As notícias dos protestos
apareceram de todos o lados
13:34
my algorithmicallyatravés de algoritmos
unfilteredsem filtro TwitterTwitter feedalimentação,
256
802005
2685
na minha conta de Twitter
sem filtro de algoritmos,
13:36
but nowherelugar algum on my FacebookFacebook.
257
804714
1950
mas em parte alguma no meu Facebook.
13:39
Was it my FacebookFacebook friendsamigos?
258
807182
1734
Foram os meus amigos no Facebook?
13:40
I disabledDesativado Facebook'sDo Facebook algorithmalgoritmo de,
259
808940
2032
Desativei o algoritmo do Facebook
— o que é difícil, pois o Facebook
insiste em voltar a incluir-nos
13:43
whichqual is hardDifícil because FacebookFacebook
keepsmantém wantingquerendo to make you
260
811472
2848
13:46
come undersob the algorithm'sdo algoritmo controlao controle,
261
814344
2036
sob o controlo do algoritmo —
13:48
and saw that my friendsamigos
were talkingfalando about it.
262
816404
2238
e vi que os meus amigos falavam disso.
13:50
It's just that the algorithmalgoritmo de
wasn'tnão foi showingmostrando it to me.
263
818666
2509
O algoritmo é que
não me mostrava essa informação.
13:53
I researchedpesquisado this and foundencontrado
this was a widespreadgeneralizada problemproblema.
264
821199
3042
Fiz pesquisas e verifiquei
que era um problema generalizado.
13:56
The storyhistória of FergusonFerguson
wasn'tnão foi algorithm-friendlyalgoritmo-amigável.
265
824265
3813
A história de Ferguson
não agradava ao algoritmo.
14:00
It's not "likablesimpático."
266
828102
1171
Não era "simpática".
14:01
Who'sQuem do going to clickclique on "like?"
267
829297
1552
Quem ia clicar em "Gosto"?"
14:03
It's not even easyfácil to commentcomente on.
268
831500
2206
Nem é fácil de comentar.
14:05
WithoutSem likesgosta and commentscomentários,
269
833730
1371
Sem "gosto" e sem comentários,
14:07
the algorithmalgoritmo de was likelyprovável showingmostrando it
to even fewermenos people,
270
835125
3292
o algoritmo, provavelmente,
mostrá-la-ia a menos pessoas,
14:10
so we didn't get to see this.
271
838441
1542
e assim nós não a conseguimos ver.
14:12
InsteadEm vez disso, that weeksemana,
272
840946
1228
Em vez disso, nessa semana,
14:14
Facebook'sDo Facebook algorithmalgoritmo de highlightedem destaque this,
273
842198
2298
o algoritmo do Facebook destacava isto,
14:16
whichqual is the ALSALS IceGelo BucketBalde ChallengeDesafio.
274
844520
2226
o Desafio do Balde de Água Gelada.
14:18
WorthyDigno causecausa; dumpdespejar icegelo wateragua,
donatedoar to charitycaridade, fine.
275
846770
3742
Uma causa digna: despejar água gelada;
doar para a caridade. Tudo bem.
14:22
But it was supersuper algorithm-friendlyalgoritmo-amigável.
276
850536
1904
Mas, para o algoritmo, era super amigável.
14:25
The machinemáquina madefeito this decisiondecisão for us.
277
853219
2613
A máquina tomou essa decisão por nós.
14:27
A very importantimportante
but difficultdifícil conversationconversação
278
855856
3497
Uma conversa muito importante
mas também difícil
14:31
mightpoderia have been smotheredsufocado,
279
859377
1555
poderia ter sido abafada,
14:32
had FacebookFacebook been the only channelcanal.
280
860956
2696
se o Facebook fosse o único canal.
14:36
Now, finallyfinalmente, these systemssistemas
can alsoAlém disso be wrongerrado
281
864117
3797
Finalmente, estes sistemas
também podem cometer erros
14:39
in waysmaneiras that don't resembleassemelham-se a humanhumano systemssistemas.
282
867938
2736
diferentes dos erros dos sistemas humanos.
14:42
Do you guys rememberlembrar WatsonWatson,
IBM'sA IBM machine-intelligencemáquina-inteligência systemsistema
283
870698
2922
Lembram-se do Watson,
a máquina de IA da IBM
14:45
that wipedlimpo the floorchão
with humanhumano contestantsconcorrentes on JeopardyPerigo?
284
873644
3128
que eliminou os concorrentes
humanos no Jeopardy?
14:49
It was a great playerjogador.
285
877131
1428
Foi um grande jogador.
14:50
But then, for FinalFinal JeopardyPerigo,
WatsonWatson was askedperguntei this questionquestão:
286
878583
3569
Mas depois, na final do Jeopardy,
quando perguntaram ao Watson:
"O maior aeroporto com o nome
de um herói da II Guerra Mundial,
14:54
"Its largestmaiores airportaeroporto is namednomeado
for a WorldMundo WarGuerra IIII heroherói,
287
882659
2932
14:57
its second-largestsegunda maior
for a WorldMundo WarGuerra IIII battlebatalha."
288
885615
2252
"o segundo maior com o nome
de uma batalha da II Guerra Mundial."
14:59
(HumsCantarola FinalFinal JeopardyPerigo musicmúsica)
289
887891
1378
15:01
ChicagoChicago.
290
889582
1182
Chicago.
15:02
The two humanshumanos got it right.
291
890788
1370
Os dois seres humanos acertaram.
15:04
WatsonWatson, on the other handmão,
answeredrespondidas "TorontoToronto" --
292
892697
4348
Watson, por outro lado,
respondeu "Toronto"
15:09
for a US citycidade categorycategoria!
293
897069
1818
— para uma pergunta sobre cidades dos EUA!
15:11
The impressiveimpressionante systemsistema alsoAlém disso madefeito an errorerro
294
899596
2901
O impressionante sistema
também cometeu um erro
15:14
that a humanhumano would never make,
a second-graderaluno do segundo ano wouldn'tnão seria make.
295
902521
3651
que um ser humano nunca iria fazer,
que uma criança do 1.º ciclo não faria.
15:18
Our machinemáquina intelligenceinteligência can failfalhou
296
906823
3109
A inteligência artificial pode falhar
15:21
in waysmaneiras that don't fitem forma
errorerro patternspadrões of humanshumanos,
297
909956
3100
de formas que não se encaixam
nos padrões de erro dos seres humanos.
15:25
in waysmaneiras we won'tnão vai expectEspero
and be preparedpreparado for.
298
913080
2950
de formas inesperadas e imprevistas.
15:28
It'dSeria be lousynojento not to get a jobtrabalho
one is qualifiedqualificada for,
299
916054
3638
Seria péssimo não conseguir um emprego
para o qual estamos qualificados,
15:31
but it would tripletriplo suckchupar
if it was because of stackpilha overflowestouro de
300
919716
3727
mas seria três vezes pior
se fosse por causa de um erro
15:35
in some subroutinesub-rotina.
301
923467
1432
de processamento de alguma sub-rotina.
15:36
(LaughterRiso)
302
924923
1579
(Risos)
15:38
In MayMaio of 2010,
303
926526
2786
Em maio de 2010,
15:41
a flashinstantâneo crashbatida on WallParede StreetRua
fueledalimentado by a feedbackcomentários looploop
304
929336
4044
um acidente relâmpago em Wall Street
provocado por uma auto alimentação
15:45
in WallParede Street'sDo rua "sellvender" algorithmalgoritmo de
305
933404
3028
no algoritmo de "vender", em Wall Street,
15:48
wipedlimpo a trilliontrilhão dollarsdólares
of valuevalor in 36 minutesminutos.
306
936456
4184
fez perder um bilião de dólares
em 36 minutos.
15:53
I don't even want to think
what "errorerro" meanssignifica
307
941722
2187
Eu nem quero pensar
o que significa "erro"
15:55
in the contextcontexto of lethalletal
autonomousAutônomo weaponsarmas.
308
943933
3589
no contexto de armas mortais autónomas.
16:01
So yes, humanshumanos have always madefeito biasestendências.
309
949894
3790
Sim. Os seres humanos
sempre alimentaram preconceitos.
16:05
DecisionDecisão makersfabricantes and gatekeepersGuardiões do portal,
310
953708
2176
Quem toma decisões e controla
16:07
in courtstribunais, in newsnotícia, in warguerra ...
311
955908
3493
nos tribunais, nas notícias, na guerra ...
comete erros.
16:11
they make mistakeserros;
but that's exactlyexatamente my pointponto.
312
959425
3038
É esse exatamente o meu ponto.
16:14
We cannotnão podes escapeescapar
these difficultdifícil questionsquestões.
313
962487
3521
Nós não podemos fugir
destas perguntas difíceis.
16:18
We cannotnão podes outsourceterceirizar
our responsibilitiesresponsabilidades to machinesmáquinas.
314
966596
3516
Não podemos atribuir
as nossas responsabilidades às máquinas.
16:22
(ApplauseAplausos)
315
970676
4208
(Aplausos)
16:29
ArtificialArtificial intelligenceinteligência does not give us
a "Get out of ethicsética freelivre" cardcartão.
316
977089
4447
A inteligência artificial não nos dá
um cartão "Liberte-se da ética".
16:34
DataDados scientistcientista FredFred BenensonBenenson
callschamadas this math-washingmatemática-lavagem.
317
982742
3381
O cientista de dados Fred Benenson
chama-lhe "lavagem de matemática".
16:38
We need the oppositeoposto.
318
986147
1389
Precisamos é do oposto.
16:39
We need to cultivatecultivar algorithmalgoritmo de suspicionsuspeita,
scrutinyescrutínio and investigationinvestigação.
319
987560
5388
Temos de cultivar algoritmos de suspeita,
de análise e de investigação.
Precisamos de garantir que assumimos
a responsabilidade dos algoritmos,
16:45
We need to make sure we have
algorithmicalgorítmica accountabilityprestação de contas,
320
993380
3198
16:48
auditingauditoria and meaningfulsignificativo transparencytransparência.
321
996602
2445
da auditoria e da transparência relevante.
16:51
We need to acceptaceitar
that bringingtrazendo mathmatemática and computationcomputação
322
999380
3234
Precisamos de aceitar
que trazer a matemática e a informática
16:54
to messybagunçado, value-ladenvalor-carregado humanhumano affairsromances
323
1002638
2970
para os assuntos humanos,
complicados e carregados de valores,
16:57
does not bringtrazer objectivityobjetividade;
324
1005632
2384
não nos dá objetividade.
17:00
ratherem vez, the complexitycomplexidade of humanhumano affairsromances
invadesinvade the algorithmsalgoritmos.
325
1008040
3633
Em vez disso, a complexidade
dos assuntos humanos invade os algoritmos.
17:04
Yes, we can and we should use computationcomputação
326
1012148
3487
Sim, podemos e devemos usar a informática
17:07
to help us make better decisionsdecisões.
327
1015659
2014
para nos ajudar a tomar melhores decisões.
17:09
But we have to ownpróprio up
to our moralmoral responsibilityresponsabilidade to judgmentjulgamento,
328
1017697
5332
Mas temos que assumir
a responsabilidade moral do julgamento.
17:15
and use algorithmsalgoritmos withindentro that frameworkestrutura,
329
1023053
2818
e usar os algoritmos nesse âmbito,
17:17
not as a meanssignifica to abdicateabdicar
and outsourceterceirizar our responsibilitiesresponsabilidades
330
1025895
4935
não como um meio para abdicar
e subcontratar a nossa responsabilidade
17:22
to one anotheroutro as humanhumano to humanhumano.
331
1030854
2454
de ser humano para ser humano.
17:25
MachineMáquina intelligenceinteligência is here.
332
1033807
2609
A inteligência artificial já chegou.
17:28
That meanssignifica we mustdevo holdaguarde on ever tightermais apertado
333
1036440
3421
O que significa que mais que nunca
temos de nos agarrar afincadamente
17:31
to humanhumano valuesvalores and humanhumano ethicsética.
334
1039885
2147
aos valores e à ética humana.
17:34
Thank you.
335
1042056
1154
Obrigada.
17:35
(ApplauseAplausos)
336
1043234
5020
(Aplausos)
Translated by manuel cardoso
Reviewed by Margarida Ferreira

▲Back to top

ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.

Why you should listen

We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.

Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.

Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.

More profile about the speaker
Zeynep Tufekci | Speaker | TED.com