ABOUT THE SPEAKER
Kriti Sharma - AI technologist
Kriti Sharma creates AI technology to help address some of the toughest social challenges of our time -- from domestic violence to sexual health and inequality.

Why you should listen

Kriti Sharma is the Founder of AI for Good, an organization focused on building scalable technology solutions for social good. In 2018, she also launched rAInbow, a digital companion for women facing domestic violence in South Africa. This service reached nearly 200,000 conversations within the first 100 days, breaking down the stigma of gender-based violence. In 2019, she collaborated with the Population Foundation of India to launch Dr. Sneha, an AI-powered digital character to engage with young people about sexual health, an issue that is still considered a taboo in India. 

Sharma was recently named in the Forbes "30 Under 30" list for advancements in AI. She was appointed a United Nations Young Leader in 2018 and is an advisor to both the United Nations Technology Innovation Labs and to the UK Government’s Centre for Data Ethics and Innovation. 

More profile about the speaker
Kriti Sharma | Speaker | TED.com
TEDxWarwick

Kriti Sharma: How to keep human bias out of AI

Kriti Sharma: Como evitar os preconceitos humanos na IA

Filmed:
2,050,106 views

Os algoritmos da Inteligência Artificial (IA) tomam decisões importantes sobre nós a todo o momento — como quanto devemos pagar pelo seguro de um carro ou se vamos ou não àquela entrevista de emprego. Mas o que acontece quando estas máquinas são construídas com os preconceitos humanos codificados dentro dos sistemas? A tecnóloga Kriti Sharma explora como a falta de diversidade na tecnologia está a infiltrar-se na IA, e apresenta três maneiras pelas quais podemos começar a fazer algoritmos mais éticos.
- AI technologist
Kriti Sharma creates AI technology to help address some of the toughest social challenges of our time -- from domestic violence to sexual health and inequality. Full bio

Double-click the English transcript below to play the video.

00:12
How manymuitos decisionsdecisões
have been madefeito about you todayhoje,
0
875
3768
Quantas decisões
foram tomadas sobre vocês, hoje,
00:16
or this weeksemana or this yearano,
1
4667
2601
ou esta semana ou este ano,
00:19
by artificialartificial intelligenceinteligência?
2
7292
1958
pela inteligência artificial?
00:22
I buildconstruir AIAI for a livingvivo
3
10958
1685
O meu trabalho é construir IA
00:24
so, fullcheio disclosuredivulgação, I'm kindtipo of a nerdnerd.
4
12667
3017
por isso, reconheço, sou meia "nerd".
00:27
And because I'm kindtipo of a nerdnerd,
5
15708
2393
E como sou um bocado "nerd",
00:30
whereveronde quer que some newNovo newsnotícia storyhistória comesvem out
6
18125
2351
quando saem notícias, seja onde for,
00:32
about artificialartificial intelligenceinteligência
stealingroubar all our jobsempregos,
7
20500
3434
sobre a inteligência artificial
a roubar-nos todos os empregos,
00:35
or robotsrobôs gettingobtendo citizenshipcidadania
of an actualreal countrypaís,
8
23958
4185
ou robôs a terem cidadania de um país,
00:40
I'm the personpessoa my friendsamigos
and followersseguidores messagemensagem
9
28167
3142
eu sou a pessoa a quem
os meus amigos enviam mensagens
00:43
freakingfreaking out about the futurefuturo.
10
31333
1542
preocupados com o futuro.
00:45
We see this everywhereem toda parte.
11
33833
2101
Vemos isto em todo o lado.
00:47
This mediameios de comunicação panicpânico that
our robotrobô overlordssenhores feudais are takinglevando over.
12
35958
4893
Este pânico mediático de que
os soberanos robôs estão a dominar.
00:52
We could blameculpa HollywoodHollywood for that.
13
40875
1917
podíamos culpar Hollywood por isso.
00:56
But in realityrealidade, that's not the problemproblema
we should be focusingconcentrando on.
14
44125
4125
Mas na verdade, não é esse o problema
sobre o qual nos devemos focar.
01:01
There is a more pressingpressionando dangerperigo,
a biggerMaior riskrisco with AIAI,
15
49250
3643
Há um perigo mais eminente,
um maior risco com a IA,
01:04
that we need to fixconsertar first.
16
52917
1583
que precisamos de resolver primeiro.
01:07
So we are back to this questionquestão:
17
55417
2309
Voltamos a esta questão:
01:09
How manymuitos decisionsdecisões
have been madefeito about you todayhoje by AIAI?
18
57750
4708
Quantas decisões foram
tomadas hoje sobre vocês, pela IA?
01:15
And how manymuitos of these
19
63792
1976
Quantas delas
01:17
were basedSediada on your gendergênero,
your racecorrida or your backgroundfundo?
20
65792
4500
se basearam no vosso género,
raça ou origens?
01:24
AlgorithmsAlgoritmos are beingser used all the time
21
72500
2768
Os algoritmos estão sempre a ser usados
01:27
to make decisionsdecisões about who we are
and what we want.
22
75292
3833
para decidirem
quem somos e o que queremos.
01:32
Some of the womenmulheres in this roomquarto
will know what I'm talkingfalando about
23
80208
3643
Algumas das mulheres nesta sala
saberão do que estou a falar
01:35
if you've been madefeito to sitsentar throughatravés
those pregnancygravidez testteste advertsanúncios on YouTubeYouTube
24
83875
3768
se vos obrigaram a ver aqueles anúncios
de testes de gravidez, no YouTube,
01:39
like 1,000 timesvezes.
25
87667
2059
umas 1000 vezes.
01:41
Or you've scrolledrolada pastpassado advertsanúncios
of fertilityfertilidade clinicsclínicas
26
89750
2851
Ou se já passaram por anúncios
de clínicas de fertilidade
01:44
on your FacebookFacebook feedalimentação.
27
92625
2042
na vossa página do Facebook.
01:47
Or in my casecaso, IndianIndian marriagecasamento bureausagências de.
28
95625
2393
Ou, no meu caso, agências
indianas de casamento.
01:50
(LaughterRiso)
29
98042
1267
(Risos)
01:51
But AIAI isn't just beingser used
to make decisionsdecisões
30
99333
2976
Mas a IA não está a ser usada
só para tomar decisões
01:54
about what productsprodutos we want to buyComprar
31
102333
2601
sobre quais os produtos
que queremos comprar
01:56
or whichqual showexposição we want to bingecompulsão watch nextPróximo.
32
104958
2500
ou que programa queremos ver de seguida.
02:01
I wondermaravilha how you'dvocê gostaria feel about someonealguém
who thought things like this:
33
109042
5184
Pergunto-me o que sentiriam sobre alguém
que pensasse coisas como estas:
02:06
"A blackPreto or LatinoLatino personpessoa
34
114250
1934
"Uma pessoa negra ou latina
02:08
is lessMenos likelyprovável than a whitebranco personpessoa
to paypagamento off theirdeles loanempréstimo on time."
35
116208
4125
"tem menos probabilidade de pagar
atempadamente um empréstimo."
02:13
"A personpessoa calledchamado JohnJohn
makesfaz com que a better programmerprogramador
36
121542
2809
"Uma pessoa chamada João
"é melhor programador
do que uma pessoa chamada Maria."
02:16
than a personpessoa calledchamado MaryMary."
37
124375
1667
02:19
"A blackPreto man is more likelyprovável to be
a repeatrepetir offenderinfractor than a whitebranco man."
38
127250
5083
"É mais provável que um negro
repita um crime, do que um branco."
02:26
You're probablyprovavelmente thinkingpensando,
39
134958
1268
Devem estar a pensar,
02:28
"WowUau, that soundssoa like a prettybonita sexistsexista,
racistracista personpessoa," right?
40
136250
3750
"Uau, isso parece uma pessoa
muito sexista, racista," certo?
02:33
These are some realreal decisionsdecisões
that AIAI has madefeito very recentlyrecentemente,
41
141000
4851
Estas são algumas decisões reais
que a IA tem tomado, muito recentemente,
02:37
basedSediada on the biasestendências
it has learnedaprendido from us,
42
145875
2934
baseadas em preconceitos
que aprendeu connosco,
02:40
from the humanshumanos.
43
148833
1250
com os seres humanos.
02:43
AIAI is beingser used to help decidedecidir
whetherse or not you get that jobtrabalho interviewentrevista;
44
151750
4809
A IA tem sido usada para ajudar a decidir
se vamos ou não à entrevista de emprego;
02:48
how much you paypagamento for your carcarro insuranceseguro;
45
156583
2393
quanto pagamos pelo seguro automóvel;
02:51
how good your creditcrédito scorePonto is;
46
159000
1893
quão boa é a nossa avaliação de crédito;
02:52
and even what ratingclassificação you get
in your annualanual performancedesempenho reviewReveja.
47
160917
3125
e até a classificação que recebemos
na análise do nosso desempenho anual.
02:57
But these decisionsdecisões
are all beingser filteredfiltrados throughatravés
48
165083
3143
Mas estas decisões
estão todas a ser filtradas
03:00
its assumptionspremissas about our identityidentidade,
our racecorrida, our gendergênero, our ageera.
49
168250
5875
com base nas suposições sobre a nossa
identidade, raça, género, idade.
03:08
How is that happeningacontecendo?
50
176250
2268
Como é que isso está a acontecer?
03:10
Now, imagineImagine an AIAI is helpingajudando
a hiringcontratação managerGerente
51
178542
3517
Imaginem que a IA está a ajudar
um gestor de recursos humanos
03:14
find the nextPróximo techtecnologia leaderlíder in the companyempresa.
52
182083
2851
a encontrar, na empresa,
o próximo líder em tecnologia.
03:16
So farlonge, the managerGerente
has been hiringcontratação mostlyna maioria das vezes menhomens.
53
184958
3101
Até agora, o gestor
tem contratado sobretudo homens.
03:20
So the AIAI learnsaprende menhomens are more likelyprovável
to be programmersprogramadores than womenmulheres.
54
188083
4750
Assim, a IA aprende que é mais provável
os homens serem programadores,
em vez das mulheres.
03:25
And it's a very shortcurto leapsalto from there to:
55
193542
2892
E, a partir daí, é um salto
muito pequeno para:
03:28
menhomens make better programmersprogramadores than womenmulheres.
56
196458
2042
"os homens são melhores
programadores do que as mulheres".
03:31
We have reinforcedreforçado
our ownpróprio biasviés into the AIAI.
57
199417
3726
Reforçamos o nosso preconceito na IA.
03:35
And now, it's screeningtriagem out
femalefêmea candidatescandidatos.
58
203167
3625
E agora está a excluir
candidatas femininas.
03:40
HangPendurar on, if a humanhumano
hiringcontratação managerGerente did that,
59
208917
3017
Se um recrutador humano fizesse isso,
03:43
we'dqua be outragedindignado, we wouldn'tnão seria allowpermitir it.
60
211958
2351
ficávamos indignados
e não o permitíamos.
03:46
This kindtipo of gendergênero
discriminationdiscriminação is not OK.
61
214333
3476
Este tipo de discriminação
de género não é correto.
03:49
And yetainda somehowde alguma forma,
AIAI has becometornar-se aboveacima the lawlei,
62
217833
4518
Apesar disso, de certa forma
a IA está acima da lei,
03:54
because a machinemáquina madefeito the decisiondecisão.
63
222375
2083
porque foi uma máquina
que tomou a decisão.
03:57
That's not it.
64
225833
1518
Não é só isso.
03:59
We are alsoAlém disso reinforcingreforçando our biasviés
in how we interactinteragir with AIAI.
65
227375
4875
Também estamos a reforçar
o nosso preconceito
sobre o modo como interagimos com a IA.
04:04
How oftenfrequentemente do you use a voicevoz assistantAssistente
like SiriSiri, AlexaAlexa or even CortanaCortana?
66
232917
5976
Quão frequentemente
usam um assistente de voz
como a Siri, a Alexa ou até a Cortana?
Todas têm duas coisas em comum:
04:10
They all have two things in commoncomum:
67
238917
2559
04:13
one, they can never get my namenome right,
68
241500
3101
uma, nunca conseguem
acertar no meu nome,
04:16
and secondsegundo, they are all femalefêmea.
69
244625
2667
e segunda, são todas femininas.
04:20
They are designedprojetado to be
our obedientobediente servantsservos,
70
248417
2767
São concebidas para serem
as nossas servas obedientes,
04:23
turninggiro your lightsluzes on and off,
orderingordenação your shoppingcompras.
71
251208
3250
ligando e desligando as nossas luzes,
decidindo o que comprar.
04:27
You get malemasculino AIsAIs too,
but they tendtende to be more high-poweredde alta potência,
72
255125
3309
Também há IA masculinos,
mas tendem a ser mais potentes,
04:30
like IBMIBM WatsonWatson,
makingfazer businesso negócio decisionsdecisões,
73
258458
3059
como o Watson IBM,
para tomar decisões de negócios.
04:33
SalesforceSalesforce EinsteinEinstein
or ROSSRoss, the robotrobô lawyeradvogado.
74
261541
3792
o Força de Vendas Einstein
ou ROSS, o advogado do robô.
04:38
So poorpobre robotsrobôs, even they sufferSofra
from sexismsexismo in the workplaceambiente de trabalho.
75
266208
4060
Coitados dos robôs,
até eles sofrem de sexismo no trabalho.
04:42
(LaughterRiso)
76
270292
1125
(Risos)
Pensem em como estas duas coisas
estão ligadas
04:44
Think about how these two things combinecombinar
77
272542
2851
04:47
and affectafetar a kidcriança growingcrescendo up
in today'shoje worldmundo around AIAI.
78
275417
5309
e afetam uma criança a crescer
num mundo rodeado de IA.
04:52
So they're doing some researchpesquisa
for a schoolescola projectprojeto
79
280750
2934
Assim, se ela está a fazer uma
pesquisa para um projeto escolar
04:55
and they GoogleGoogle imagesimagens of CEOCEO.
80
283708
3018
vai ao Google procurar
imagens de diretor executivo.
O algoritmo mostra resultados
sobretudo de homens.
04:58
The algorithmalgoritmo de showsmostra them
resultsresultados of mostlyna maioria das vezes menhomens.
81
286750
2893
Depois, pesquisa "assistente pessoal".
05:01
And now, they GoogleGoogle personalpessoal assistantAssistente.
82
289667
2559
05:04
As you can guessacho,
it showsmostra them mostlyna maioria das vezes femalesfêmeas.
83
292250
3434
Como podem adivinhar,
mostra sobretudo mulheres.
05:07
And then they want to put on some musicmúsica,
and maybe orderordem some foodComida,
84
295708
3601
Depois, quer pôr uma música,
e talvez encomendar comida,
05:11
and now, they are barkingladrar ordersordens
at an obedientobediente femalefêmea voicevoz assistantAssistente.
85
299333
6584
e agora está a vociferar ordens
a uma voz feminina assistente e obediente.
05:19
Some of our brightestmais brilhante mindsmentes
are creatingcriando this technologytecnologia todayhoje.
86
307542
5309
Algumas das mentes mais brilhantes
estão hoje a criar esta tecnologia.
05:24
TechnologyTecnologia that they could have createdcriada
in any way they wanted.
87
312875
4184
Tecnologia que podiam ter criado
como quisessem.
05:29
And yetainda, they have chosenescolhido to createcrio it
in the styleestilo of 1950s "MadLouco Man" secretarysecretário.
88
317083
5685
E ainda assim, escolheram criá-la
ao estilo dos anos 50,
da secretária de "Mad Man".
05:34
YayYay!
89
322792
1500
Pois é!
05:36
But OK, don't worrypreocupação,
90
324958
1310
Mas tudo bem, não se preocupem,
05:38
this is not going to endfim
with me tellingdizendo you
91
326292
2059
isto não vai terminar comigo a dizer-vos
05:40
that we are all headingencabeçando towardsem direção
sexistsexista, racistracista machinesmáquinas runningcorrida the worldmundo.
92
328375
3477
que vamos na direção de máquinas
racistas e sexistas a controlarem o mundo.
05:44
The good newsnotícia about AIAI
is that it is entirelyinteiramente withindentro our controlao controle.
93
332792
5791
As boas notícias sobre a IA é que
está inteiramente sob o nosso controlo.
05:51
We get to teachEnsinar the right valuesvalores,
the right ethicsética to AIAI.
94
339333
4000
Somos nós que temos de ensinar
os valores e a ética certa à IA.
05:56
So there are threetrês things we can do.
95
344167
2184
Assim há três coisas que podemos fazer.
05:58
One, we can be awareconsciente of our ownpróprio biasestendências
96
346375
3351
Uma, podemos ter consciência
dos nossos próprios preconceitos
06:01
and the biasviés in machinesmáquinas around us.
97
349750
2726
e dos preconceitos
das máquinas à nossa volta.
06:04
Two, we can make sure that diversediverso teamsequipes
are buildingconstrução this technologytecnologia.
98
352500
4518
Dois, podemos garantir
que são equipas diversas
a construir esta tecnologia.
06:09
And threetrês, we have to give it
diversediverso experiencesexperiências to learnaprender from.
99
357042
4916
E três, temos de lhe dar experiências
diversas com as quais aprender.
06:14
I can talk about the first two
from personalpessoal experienceexperiência.
100
362875
3309
Posso falar sobre as primeiras
duas por experiência pessoal.
06:18
When you work in technologytecnologia
101
366208
1435
Quando trabalhamos em tecnologia,
06:19
and you don't look like
a MarkMark ZuckerbergZuckerberg or ElonElon MuskAlmíscar,
102
367667
3392
e não nos parecemos
com o Mark Zuckerberg ou o Elon Musk
06:23
your life is a little bitpouco difficultdifícil,
your abilityhabilidade getsobtém questionedquestionada.
103
371083
3750
a nossa vida é um bocadinho difícil,
a nossa capacidade é questionada.
06:27
Here'sAqui é just one exampleexemplo.
104
375875
1393
Aqui está apenas um exemplo.
06:29
Like mosta maioria developersdesenvolvedores,
I oftenfrequentemente joinJunte-se onlineconectados techtecnologia forumsfóruns
105
377292
3726
Como a maioria dos programadores,
frequentemente junto-me a fóruns "online"
06:33
and sharecompartilhar my knowledgeconhecimento to help othersoutras.
106
381042
3226
e partilho o meu conhecimento
para ajudar outros.
06:36
And I've foundencontrado,
107
384292
1309
E percebi que,
06:37
when I logregistro on as myselfEu mesmo,
with my ownpróprio photofoto, my ownpróprio namenome,
108
385625
3976
quando entro como eu própria,
a minha foto e o meu nome,
06:41
I tendtende to get questionsquestões
or commentscomentários like this:
109
389625
4601
costumo receber perguntas
ou comentários como estes:
"O que te faz pensar que és qualificada
para falar sobre a IA?"
06:46
"What makesfaz com que you think
you're qualifiedqualificada to talk about AIAI?"
110
394250
3000
06:50
"What makesfaz com que you think
you know about machinemáquina learningAprendendo?"
111
398458
3476
"O que te faz pensar que sabes
sobre aprendizagem de máquinas?"
06:53
So, as you do, I madefeito a newNovo profilePerfil,
112
401958
3435
Então, como se faz, criei um perfil novo
06:57
and this time, insteadem vez de of my ownpróprio picturecenário,
I choseescolheu a catgato with a jetjato packpacote on it.
113
405417
4851
e, desta vez, escolhi a foto
de um gato com uma mochila a jato.
07:02
And I choseescolheu a namenome
that did not revealrevelar my gendergênero.
114
410292
2458
E escolhi um nome que não revelasse
o meu género.
07:05
You can probablyprovavelmente guessacho
where this is going, right?
115
413917
2726
Conseguem adivinhar onde
é que isto vai dar, certo?
07:08
So, this time, I didn't get any of those
patronizingpaternalista commentscomentários about my abilityhabilidade
116
416667
6392
Mas, desta vez, não tive aqueles
comentários paternalistas
sobre as minhas competências
07:15
and I was ablecapaz to actuallyna realidade
get some work donefeito.
117
423083
3334
e consegui fazer algum trabalho.
07:19
And it sucksé uma droga, guys.
118
427500
1851
Mas é uma seca.
07:21
I've been buildingconstrução robotsrobôs sinceDesde a I was 15,
119
429375
2476
Construo robôs desde os 15 anos,
07:23
I have a fewpoucos degreesgraus in computercomputador scienceCiência,
120
431875
2268
tenho algumas graduações
em ciências informáticas,
07:26
and yetainda, I had to hideocultar my gendergênero
121
434167
2434
e ainda assim,
tive de esconder o meu género
07:28
in orderordem for my work
to be takenocupado seriouslya sério.
122
436625
2250
para o meu trabalho ser levado a sério.
07:31
So, what's going on here?
123
439875
1893
Então, o que está a acontecer aqui?
07:33
Are menhomens just better
at technologytecnologia than womenmulheres?
124
441792
3208
Os homens são melhores
do que as mulheres em tecnologia?
07:37
AnotherOutro studyestude foundencontrado
125
445917
1559
Um outro estudo descobriu que,
quando mulheres programadoras
07:39
that when womenmulheres coderscodificadores on one platformplataforma
hidescondeu theirdeles gendergênero, like myselfEu mesmo,
126
447500
4934
numa plataforma, escondem
o seu género, como eu,
07:44
theirdeles codecódigo was acceptedaceitaram
fourquatro percentpor cento more than menhomens.
127
452458
3250
o seu código é aceite 4% mais vezes
do que o dos homens.
07:48
So this is not about the talenttalento.
128
456542
2916
Então, não se trata de talento.
07:51
This is about an elitismelitismo in AIAI
129
459958
2893
Trata-se de elitismo na IA
que diz que um programador precisa
de se parecer com uma certa pessoa.
07:54
that saysdiz a programmerprogramador
needsprecisa to look like a certaincerto personpessoa.
130
462875
2792
07:59
What we really need to do
to make AIAI better
131
467375
3101
O que realmente precisamos
fazer para melhorar a IA
08:02
is bringtrazer people
from all kindstipos of backgroundsfundos.
132
470500
3042
é trazer pessoas
de todos os tipos de origens.
08:06
We need people who can
writeEscreva and tell storieshistórias
133
474542
2559
Precisamos de pessoas
que possam escrever e contar histórias,
08:09
to help us createcrio personalitiespersonalidades of AIAI.
134
477125
2167
para nos ajudarem a criar
personalidades da IA.
Precisamos de pessoas
que possam resolver problemas.
08:12
We need people who can solveresolver problemsproblemas.
135
480208
2042
08:15
We need people
who facecara differentdiferente challengesdesafios
136
483125
3768
Precisamos de pessoas
que enfrentem diferentes desafios,
08:18
and we need people who can tell us
what are the realreal issuesproblemas that need fixingcorrigindo
137
486917
5351
e precisamos de pessoas
que nos possam dizer
quais são os problemas reais
que precisam de ser resolvidos
08:24
and help us find waysmaneiras
that technologytecnologia can actuallyna realidade fixconsertar it.
138
492292
3041
e nos ajudem a encontrar maneiras
de a tecnologia os resolver.
08:29
Because, when people
from diversediverso backgroundsfundos come togetherjuntos,
139
497833
3726
Porque, quando as pessoas
de diversas origens se reúnem,
08:33
when we buildconstruir things in the right way,
140
501583
2143
quando construímos as coisas
da maneira certa,
08:35
the possibilitiespossibilidades are limitlesssem limites.
141
503750
2042
as possibilidades são ilimitadas.
08:38
And that's what I want to endfim
by talkingfalando to you about.
142
506750
3309
É disso que quero falar convosco.
08:42
LessMenos racistracista robotsrobôs, lessMenos machinesmáquinas
that are going to take our jobsempregos --
143
510083
4225
Menos sobre robôs racistas,
menos sobre máquinas
que vão roubar os nossos empregos
08:46
and more about what technologytecnologia
can actuallyna realidade achievealcançar.
144
514332
3125
e mais sobre o que a tecnologia
pode realmente conseguir.
08:50
So, yes, some of the energyenergia
in the worldmundo of AIAI,
145
518292
3434
Então, sim, parte da energia
no mundo da IA,
08:53
in the worldmundo of technologytecnologia
146
521750
1393
no mundo da tecnologia
08:55
is going to be about
what adsPublicidades you see on your streamcorrente.
147
523167
4267
vai ser sobre quais os anúncios
que podem ver na Internet.
08:59
But a lot of it is going towardsem direção
makingfazer the worldmundo so much better.
148
527458
5209
Mas muita dessa energia vai ser
sobre como tornar o mundo muito melhor.
09:05
Think about a pregnantgrávida womanmulher
in the DemocraticDemocrática RepublicRepública of CongoCongo,
149
533500
3768
Pensem numa mulher grávida
na República Democrática do Congo,
09:09
who has to walkandar 17 hourshoras
to her nearestmais próximo ruralrural prenatalpré-natal clinicclínica
150
537292
4184
que tem de caminhar 17 horas
até à clínica pré-natal rural mais próxima
09:13
to get a checkupcheck-up.
151
541500
1851
para fazer um exame de rotina.
09:15
What if she could get diagnosisdiagnóstico
on her phonetelefone, insteadem vez de?
152
543375
2917
E se, em vez disso, ela pudesse obter
um diagnóstico pelo telefone?
09:19
Or think about what AIAI could do
153
547750
1809
Ou pensem sobre o que a IA pode fazer
09:21
for those one in threetrês womenmulheres
in SouthSul AfricaÁfrica
154
549583
2726
por uma em cada três mulheres
na África do Sul
09:24
who facecara domesticdoméstica violenceviolência.
155
552333
2125
que enfrenta a violência doméstica.
09:27
If it wasn'tnão foi safeseguro to talk out loudalto,
156
555083
2726
Se não fosse seguro falar em voz alta,
09:29
they could get an AIAI serviceserviço
to raiselevantar alarmalarme,
157
557833
2476
elas podiam obter um serviço de IA
para dar o alerta,
09:32
get financialfinanceiro and legallegal adviceconselho.
158
560333
2459
obter aconselhamento
financeiro e jurídico.
09:35
These are all realreal examplesexemplos of projectsprojetos
that people, includingIncluindo myselfEu mesmo,
159
563958
5018
Estes são todos exemplos de projetos
reais, em que pessoas, incluindo eu,
09:41
are workingtrabalhando on right now, usingusando AIAI.
160
569000
2500
estão agora a trabalhar, usando a IA.
09:45
So, I'm sure in the nextPróximo couplecasal of daysdias
there will be yetainda anotheroutro newsnotícia storyhistória
161
573542
3601
Tenho a certeza que, nos próximos dias,
haverá mais uma notícia
09:49
about the existentialexistencial riskrisco,
162
577167
2684
sobre o risco existencial,
09:51
robotsrobôs takinglevando over
and comingchegando for your jobsempregos.
163
579875
2434
de os robôs assumirem
e roubarem os nossos empregos.
09:54
(LaughterRiso)
164
582333
1018
(Risos)
09:55
And when something like that happensacontece,
165
583375
2309
E quando acontece algo assim,
09:57
I know I'll get the samemesmo messagesmensagens
worryingpreocupante about the futurefuturo.
166
585708
3601
já sei que vou receber as mesmas mensagens
de preocupação com o futuro.
10:01
But I feel incrediblyincrivelmente positivepositivo
about this technologytecnologia.
167
589333
3667
Mas sinto-me incrivelmente otimista
quanto a esta tecnologia.
Esta é a nossa oportunidade
10:07
This is our chancechance to remakeremake the worldmundo
into a much more equaligual placeLugar, colocar.
168
595458
5959
de refazer o mundo
num lugar muito mais igualitário
10:14
But to do that, we need to buildconstruir it
the right way from the get go.
169
602458
4000
Mas para isso, precisamos de construí-lo
da maneira certa, desde o início.
10:19
We need people of differentdiferente genderssexos,
racesraças, sexualitiesSexualidades and backgroundsfundos.
170
607667
5083
Precisamos de pessoas de diferentes sexos,
raças, sexualidades e origens.
10:26
We need womenmulheres to be the makersfabricantes
171
614458
2476
Precisamos que as mulheres
sejam criadoras
10:28
and not just the machinesmáquinas
who do the makers'Makers biddinglicitação.
172
616958
3000
e não apenas máquinas
que cumprem ordens.
10:33
We need to think very carefullycuidadosamente
what we teachEnsinar machinesmáquinas,
173
621875
3768
Precisamos de pensar com muito cuidado
no que ensinamos às máquinas
10:37
what datadados we give them,
174
625667
1642
que dados lhes damos,
10:39
so they don't just repeatrepetir
our ownpróprio pastpassado mistakeserros.
175
627333
3125
para que não repitam
os nossos erros do passado.
10:44
So I hopeesperança I leavesair you
thinkingpensando about two things.
176
632125
3542
Assim, espero deixar-vos
a pensar sobre duas coisas.
10:48
First, I hopeesperança you leavesair
thinkingpensando about biasviés todayhoje.
177
636542
4559
Primeiro, espero que saiam daqui
a pensar nos preconceitos.
10:53
And that the nextPróximo time
you scrollrolagem pastpassado an advertanúncio
178
641125
3184
E da próxima vez
que passem por um anúncio
10:56
that assumesassume you are interestedinteressado
in fertilityfertilidade clinicsclínicas
179
644333
2810
que assume que estão interessadas
em clínicas de fertilidade
10:59
or onlineconectados bettingapostas websitessites,
180
647167
2851
ou em páginas de apostas "online",
11:02
that you think and rememberlembrar
181
650042
2017
pensem e lembrem-se
11:04
that the samemesmo technologytecnologia is assumingassumindo
that a blackPreto man will reoffendreincidência.
182
652083
4625
que é a mesma tecnologia que está
a assumir que um homem negro vai reincidir
11:09
Or that a womanmulher is more likelyprovável
to be a personalpessoal assistantAssistente than a CEOCEO.
183
657833
4167
ou que é mais provável uma mulher ser
uma assistente do que diretora executiva.
11:14
And I hopeesperança that remindslembra you
that we need to do something about it.
184
662958
3709
Espero que isso vos relembre
que precisamos de fazer algo sobre isto.
11:20
And secondsegundo,
185
668917
1851
E em segundo lugar,
11:22
I hopeesperança you think about the factfacto
186
670792
1892
espero que pensem no facto
11:24
that you don't need to look a certaincerto way
187
672708
1976
de não precisarem de parecer
de uma certa maneira
11:26
or have a certaincerto backgroundfundo
in engineeringEngenharia or technologytecnologia
188
674708
3851
ou de ter experiência
em engenharia ou tecnologia
para criar IA,
11:30
to createcrio AIAI,
189
678583
1268
11:31
whichqual is going to be
a phenomenalfenomenal forceforça for our futurefuturo.
190
679875
2875
o que vai ser uma força
fenomenal para o nosso futuro.
11:36
You don't need to look
like a MarkMark ZuckerbergZuckerberg,
191
684166
2143
Não precisam de ser
parecidas com o Mark Zuckerberg,
11:38
you can look like me.
192
686333
1250
podem parecer-se comigo.
11:41
And it is up to all of us in this roomquarto
193
689250
2893
E cabe a todos nós nesta sala
11:44
to convinceconvencer the governmentsgovernos
and the corporationscorporações
194
692167
2726
convencer os governos e as empresas
11:46
to buildconstruir AIAI technologytecnologia for everyonetodos,
195
694917
2892
a construir a tecnologia da IA para todos,
11:49
includingIncluindo the edgeBeira casescasos.
196
697833
2393
incluindo para os casos menos comuns
11:52
And for us all to get educationEducação
197
700250
2059
e para que todos possamos ter educação
11:54
about this phenomenalfenomenal
technologytecnologia in the futurefuturo.
198
702333
2375
sobre esta tecnologia fenomenal do futuro.
11:58
Because if we do that,
199
706167
2017
Porque, se fizermos isso,
12:00
then we'venós temos only just scratchedriscado the surfacesuperfície
of what we can achievealcançar with AIAI.
200
708208
4893
estamos apenas a raspar a superfície
do que podemos conseguir com a IA.
12:05
Thank you.
201
713125
1268
Obrigada.
12:06
(ApplauseAplausos)
202
714417
2708
(Aplausos)
Translated by Marta Pinto
Reviewed by Margarida Ferreira

▲Back to top

ABOUT THE SPEAKER
Kriti Sharma - AI technologist
Kriti Sharma creates AI technology to help address some of the toughest social challenges of our time -- from domestic violence to sexual health and inequality.

Why you should listen

Kriti Sharma is the Founder of AI for Good, an organization focused on building scalable technology solutions for social good. In 2018, she also launched rAInbow, a digital companion for women facing domestic violence in South Africa. This service reached nearly 200,000 conversations within the first 100 days, breaking down the stigma of gender-based violence. In 2019, she collaborated with the Population Foundation of India to launch Dr. Sneha, an AI-powered digital character to engage with young people about sexual health, an issue that is still considered a taboo in India. 

Sharma was recently named in the Forbes "30 Under 30" list for advancements in AI. She was appointed a United Nations Young Leader in 2018 and is an advisor to both the United Nations Technology Innovation Labs and to the UK Government’s Centre for Data Ethics and Innovation. 

More profile about the speaker
Kriti Sharma | Speaker | TED.com