ABOUT THE SPEAKER
Cathy O'Neil - Mathematician, data scientist
Data skeptic Cathy O’Neil uncovers the dark secrets of big data, showing how our "objective" algorithms could in fact reinforce human bias.

Why you should listen

In 2008, as a hedge-fund quant, mathematician Cathy O’Neil saw firsthand how really really bad math could lead to financial disaster. Disillusioned, O’Neil became a data scientist and eventually joined Occupy Wall Street’s Alternative Banking Group.

With her popular blog mathbabe.org, O’Neil emerged as an investigative journalist. Her acclaimed book Weapons of Math Destruction details how opaque, black-box algorithms rely on biased historical data to do everything from sentence defendants to hire workers. In 2017, O’Neil founded consulting firm ORCAA to audit algorithms for racial, gender and economic inequality.

More profile about the speaker
Cathy O'Neil | Speaker | TED.com
TED2017

Cathy O'Neil: The era of blind faith in big data must end

Cathy O'Neil: La era de la fe ciega en los datos masivos ha de terminar

Filmed:
1,391,460 views

Los algoritmos deciden quién obtiene un préstamo, quién será invitado a una entrevista de trabajo, quién obtiene un seguro y muchas cosas más importantes. Pero estos no hacen automáticamente que las cosas sean justas, ya que suelen estar lejos de ser científicas. La matemática y científica de datos Cathy O'Neil acuñó un término para algoritmos que son secretos, importantes y nocivos: "armas matemáticas de destrucción " Aprenda más sobre las agendas ocultas detrás de estas fórmulas supuestamente objetivas y por qué necesitamos empezar a construirlas mejor.
- Mathematician, data scientist
Data skeptic Cathy O’Neil uncovers the dark secrets of big data, showing how our "objective" algorithms could in fact reinforce human bias. Full bio

Double-click the English transcript below to play the video.

00:12
AlgorithmsAlgoritmos are everywhereen todos lados.
0
975
1596
Hay algoritmos por todos lados.
00:16
They sortordenar and separateseparar
the winnersganadores from the losersperdedores.
1
4111
3125
Ordenan y separan a los ganadores
de los perdedores.
00:20
The winnersganadores get the jobtrabajo
2
8019
2264
Los ganadores consiguen el trabajo
00:22
or a good creditcrédito cardtarjeta offeroferta.
3
10307
1743
o buenas condiciones de crédito.
00:24
The losersperdedores don't even get an interviewentrevista
4
12074
2651
A los perdedores ni siquiera
se les invita a una entrevista
00:27
or they paypaga more for insuranceseguro.
5
15590
1777
o tienen que pagar más por el seguro.
00:30
We're beingsiendo scoredanotado with secretsecreto formulasfórmulas
that we don't understandentender
6
18197
3549
Se nos califica mediante fórmulas
secretas que no entendemos
00:34
that oftena menudo don't have systemssistemas of appealapelación.
7
22675
3217
y a las que no se puede apelar.
00:39
That begssuplica the questionpregunta:
8
27240
1296
Eso plantea una pregunta:
00:40
What if the algorithmsAlgoritmos are wrongincorrecto?
9
28560
2913
¿Qué pasa si los algoritmos se equivocan?
00:45
To buildconstruir an algorithmalgoritmo you need two things:
10
33100
2040
Un algoritmo necesita dos cosas:
00:47
you need datadatos, what happenedsucedió in the pastpasado,
11
35164
1981
datos ocurridos en el pasado
00:49
and a definitiondefinición of successéxito,
12
37169
1561
y una definición del éxito;
00:50
the thing you're looking for
and oftena menudo hopingesperando for.
13
38754
2457
esto es, lo que uno quiere y lo que desea.
00:53
You traintren an algorithmalgoritmo
by looking, figuringfigurando out.
14
41235
5037
Los algoritmos se entrenan
mirando, descubriendo.
00:58
The algorithmalgoritmo figuresfiguras out
what is associatedasociado with successéxito.
15
46296
3419
El algoritmo calcula a qué
se asocia el éxito,
01:01
What situationsituación leadsconduce to successéxito?
16
49739
2463
qué situaciones llevan al éxito.
01:04
ActuallyActualmente, everyonetodo el mundo usesusos algorithmsAlgoritmos.
17
52881
1762
En general todos usamos algoritmos
01:06
They just don't formalizeformalizar them
in writtenescrito codecódigo.
18
54667
2718
pero no los formalizamos
mediante un código escrito.
01:09
Let me give you an exampleejemplo.
19
57409
1348
Les doy un ejemplo.
01:10
I use an algorithmalgoritmo everycada day
to make a mealcomida for my familyfamilia.
20
58781
3316
Yo uso un algoritmo todos los días
para preparar la comida en casa.
01:14
The datadatos I use
21
62121
1476
Los datos que uso
01:16
is the ingredientsingredientes in my kitchencocina,
22
64394
1659
son los ingredientes de la cocina,
01:18
the time I have,
23
66077
1527
el tiempo que tengo
01:19
the ambitionambición I have,
24
67628
1233
y lo ambiciosa que estoy.
01:20
and I curatecura that datadatos.
25
68885
1709
Y así organizo los datos.
01:22
I don't countcontar those little packagespaquetes
of ramenramen noodlestallarines as foodcomida.
26
70618
4251
No incluyo esos paquetitos
de fideos como comida.
01:26
(LaughterRisa)
27
74893
1869
(Risas)
01:28
My definitiondefinición of successéxito is:
28
76786
1845
Mi definición del éxito es:
01:30
a mealcomida is successfulexitoso
if my kidsniños eatcomer vegetablesvegetales.
29
78655
2659
la comida tiene éxito,
si mis hijos comen verdura.
01:34
It's very differentdiferente
from if my youngestel más joven sonhijo were in chargecargar.
30
82181
2854
Lo que sería muy distinto,
si mi hijito tuviera el control.
01:37
He'dEl hubiera say successéxito is if
he getsse pone to eatcomer lots of NutellaNutella.
31
85059
2788
Para él el éxito es comer
mucha Nutella.
01:41
But I get to chooseescoger successéxito.
32
89179
2226
Pero yo soy quien elige el éxito.
01:43
I am in chargecargar. My opinionopinión mattersasuntos.
33
91429
2707
Estoy al mando. Mi opinión cuenta.
01:46
That's the first ruleregla of algorithmsAlgoritmos.
34
94160
2675
Esa es la primera regla de los algoritmos.
01:48
AlgorithmsAlgoritmos are opinionsopiniones embeddedincrustado in codecódigo.
35
96859
3180
Los algoritmos se embeben en código.
01:53
It's really differentdiferente from what you think
mostmás people think of algorithmsAlgoritmos.
36
101562
3663
Es muy diferente a cómo la gente
se imagina los algoritmos.
01:57
They think algorithmsAlgoritmos are objectiveobjetivo
and truecierto and scientificcientífico.
37
105249
4504
Se creen que los algoritmos son
objetivos, verdaderos y científicos.
02:02
That's a marketingmárketing tricktruco.
38
110387
1699
Ese en un truco del marketing.
02:05
It's alsoademás a marketingmárketing tricktruco
39
113269
2125
Tambien es un truco del marketing
02:07
to intimidateintimidar you with algorithmsAlgoritmos,
40
115418
3154
la intimidación con algoritmos,
02:10
to make you trustconfianza and fearmiedo algorithmsAlgoritmos
41
118596
3661
que nos hacer confiar
y temer los algoritmos
02:14
because you trustconfianza and fearmiedo mathematicsmatemáticas.
42
122281
2018
porque confiamos y tememos
las matemáticas.
02:17
A lot can go wrongincorrecto when we put
blindciego faithfe in biggrande datadatos.
43
125567
4830
Muchas cosas pueden salir mal si
confiamos a ciegas en datos masivos.
02:23
This is KiriKiri SoaresSoares.
She's a highalto schoolcolegio principaldirector de escuela in BrooklynBrooklyn.
44
131684
3373
Esta es Kiri Soares. Es la directora
de una escuela de Brooklyn.
02:27
In 2011, she told me
her teachersprofesores were beingsiendo scoredanotado
45
135081
2586
En 2011 me contó que
sus maestros se clasificaban
mediante un algoritmo complejo y secreto
02:29
with a complexcomplejo, secretsecreto algorithmalgoritmo
46
137691
2727
llamado "modelo del valor añadido".
02:32
calledllamado the "value-addedvalor añadido modelmodelo."
47
140442
1489
02:34
I told her, "Well, figurefigura out
what the formulafórmula is, showespectáculo it to me.
48
142505
3092
Le dije, "Intente saber
cuál es la fórmula, muéstremela.
02:37
I'm going to explainexplique it to you."
49
145621
1541
Se la voy a explicar".
02:39
She said, "Well, I triedintentó
to get the formulafórmula,
50
147186
2141
Me respondió,
"Trate de conseguir la fórmula,
02:41
but my DepartmentDepartamento of EducationEducación contactcontacto
told me it was mathmates
51
149351
2772
pero un conocido del Departamento
de Educación me dijo
02:44
and I wouldn'tno lo haría understandentender it."
52
152147
1546
que era matemática y
que no la entendería".
02:47
It getsse pone worsepeor.
53
155266
1338
Esto se pone peor.
02:48
The NewNuevo YorkYork PostEnviar filedarchivado
a FreedomLibertad of InformationInformación ActActo requestsolicitud,
54
156628
3530
El New York Post la solicitó bajo la
Ley de Libertad a la Información.
02:52
got all the teachers'maestros namesnombres
and all theirsu scorespuntuaciones
55
160182
2959
Obtuvo los nombres de los maestros
y su puntuación
02:55
and they publishedpublicado them
as an actacto of teacher-shamingmaestro avergonzante.
56
163165
2782
y los publicó como un acto para
avergonzar a los maestros.
02:59
When I triedintentó to get the formulasfórmulas,
the sourcefuente codecódigo, throughmediante the samemismo meansmedio,
57
167084
3860
Cuando intenté conseguir las fórmulas en
código base, usando el mismo mecanismo,
03:02
I was told I couldn'tno pudo.
58
170968
2149
me dijeron que no se podía.
03:05
I was deniednegado.
59
173141
1236
Me lo negaron.
03:06
I laterluego foundencontró out
60
174401
1174
Más tarde descubrí
03:07
that nobodynadie in NewNuevo YorkYork CityCiudad
had accessacceso to that formulafórmula.
61
175599
2866
que nadie tenía derecho
a la fórmula en Nueva York.
03:10
No one understoodentendido it.
62
178489
1305
Nadie lo podía entender.
03:13
Then someonealguien really smartinteligente
got involvedinvolucrado, GaryGary RubensteinRubenstein.
63
181929
3224
Entonces apareció un tipo muy
inteligente, Gary Rubenstein.
03:17
He foundencontró 665 teachersprofesores
from that NewNuevo YorkYork PostEnviar datadatos
64
185177
3621
Localizó a 665 maestros por
los datos del New York Post
03:20
that actuallyactualmente had two scorespuntuaciones.
65
188822
1866
que tenían dos puntuaciones.
03:22
That could happenocurrir if they were teachingenseñando
66
190712
1881
Eso podía ocurrir si enseñaban
03:24
seventhséptimo gradegrado mathmates and eighthoctavo gradegrado mathmates.
67
192617
2439
matemática en 7º y 8º grado.
03:27
He decideddecidido to plottrama them.
68
195080
1538
Decidió hacer un gráfico.
03:28
EachCada dotpunto representsrepresenta a teacherprofesor.
69
196642
1993
Donde cada punto representa
a un maestro.
03:31
(LaughterRisa)
70
199104
2379
(Risas)
03:33
What is that?
71
201507
1521
Y eso ¿qué es?
03:35
(LaughterRisa)
72
203052
1277
(Risas)
03:36
That should never have been used
for individualindividual assessmentevaluación.
73
204353
3446
Eso no debiera haberse usado nunca
para evaluar a una persona.
03:39
It's almostcasi a randomaleatorio numbernúmero generatorgenerador.
74
207823
1926
Es casi un generador de números al azar.
03:41
(ApplauseAplausos)
75
209773
2946
(Aplausos)
03:44
But it was.
76
212743
1162
Pero lo fue.
03:45
This is SarahSarah WysockiWysocki.
77
213929
1176
Esta es Sarah Wysocki.
03:47
She got fireddespedido, alonga lo largo
with 205 other teachersprofesores,
78
215129
2175
La echaron junto a otros 205 maestros
03:49
from the WashingtonWashington, DCcorriente continua schoolcolegio districtdistrito,
79
217328
2662
de una escuela en Washington DC,
03:52
even thoughaunque she had great
recommendationsrecomendaciones from her principaldirector de escuela
80
220014
2909
a pesar de tener muy buena recomendación
de la directora
03:54
and the parentspadres of her kidsniños.
81
222947
1428
y de los padres de sus alumnos.
Me imagino lo que estarán pensando,
03:57
I know what a lot
of you guys are thinkingpensando,
82
225390
2032
especialmente los cientificos de
datos, los expertos en IA
03:59
especiallyespecialmente the datadatos scientistscientíficos,
the AIAI expertsexpertos here.
83
227446
2487
04:01
You're thinkingpensando, "Well, I would never make
an algorithmalgoritmo that inconsistentinconsistente."
84
229957
4226
Pensarán "Nosotros nunca produciríamos
un algoritmo tan inconsistente."
04:06
But algorithmsAlgoritmos can go wrongincorrecto,
85
234853
1683
Pero los algoritmos a veces fallan,
04:08
even have deeplyprofundamente destructivedestructivo effectsefectos
with good intentionsintenciones.
86
236560
4598
y tambien provocar mucha destrucción
sin querer.
04:14
And whereasmientras an airplaneavión
that's designeddiseñado badlymal
87
242531
2379
Y mientras un avión mal diseñado
04:16
crasheschoques to the earthtierra and everyonetodo el mundo seesve it,
88
244934
2001
se estrella y todos lo ven,
04:18
an algorithmalgoritmo designeddiseñado badlymal
89
246959
1850
un algoritmo mal diseñado
04:22
can go on for a long time,
silentlysilenciosamente wreakingwreaking havocestragos.
90
250245
3865
puede funcionar mucho tiempo
provocando un desastre silenciosamente.
04:27
This is RogerRoger AilesAiles.
91
255748
1570
Este es Roger Ailes.
04:29
(LaughterRisa)
92
257342
2000
(Risas)
04:32
He foundedfundado Foxzorro NewsNoticias in 1996.
93
260524
2388
Fundador de Fox News en el 1996.
04:35
More than 20 womenmujer complainedse quejó
about sexualsexual harassmentacoso.
94
263436
2581
Mas de 20 mujeres se quejaron de
acoso sexual.
04:38
They said they weren'tno fueron allowedpermitido
to succeedtener éxito at Foxzorro NewsNoticias.
95
266041
3235
Dijeron que no pudieron
tener éxito en Fox News.
04:41
He was oustedexpulsado last yearaño,
but we'venosotros tenemos seenvisto recentlyrecientemente
96
269300
2520
Lo echaron el año pasado,
pero hemos visto que hace poco
04:43
that the problemsproblemas have persistedpersistió.
97
271844
2670
los problemas han continuado.
04:47
That begssuplica the questionpregunta:
98
275654
1400
Esto plantea una pregunta:
04:49
What should Foxzorro NewsNoticias do
to turngiro over anotherotro leafhoja?
99
277078
2884
¿Qué debe hacer Fox News para cambiar?
04:53
Well, what if they replacedreemplazado
theirsu hiringContratación processproceso
100
281245
3041
Y si substituyeran su mecanismo
de contratación
con un algoritmo de auto-
aprendizaje automatizado?
04:56
with a machine-learningaprendizaje automático algorithmalgoritmo?
101
284310
1654
04:57
That soundssonidos good, right?
102
285988
1595
¿Suena bien?
04:59
Think about it.
103
287607
1300
Piénsenlo,
05:00
The datadatos, what would the datadatos be?
104
288931
2105
Los datos, ¿qué datos serían?
05:03
A reasonablerazonable choiceelección would be the last
21 yearsaños of applicationsaplicaciones to Foxzorro NewsNoticias.
105
291060
4947
Una eleccion razonable serian las últimas
21 solicitudes recibidas por Fox News
05:08
ReasonableRazonable.
106
296031
1502
Razonable.
05:09
What about the definitiondefinición of successéxito?
107
297557
1938
Y ¿cuál sería la definición del éxito?
05:11
ReasonableRazonable choiceelección would be,
108
299921
1324
Algo razonable sería
preguntar, quién es exitoso en Fox News.
05:13
well, who is successfulexitoso at Foxzorro NewsNoticias?
109
301269
1778
05:15
I guessadivinar someonealguien who, say,
stayedse quedó there for fourlas cuatro yearsaños
110
303071
3580
Me imagino que alguien que
hubiera estado alli unos 4 años
05:18
and was promotedpromovido at leastmenos onceuna vez.
111
306675
1654
y subido de puesto por lo menosuna vez.
05:20
SoundsSonidos reasonablerazonable.
112
308816
1561
¿Suena razonable?
05:22
And then the algorithmalgoritmo would be trainedentrenado.
113
310401
2354
Y así se adiestraría el algoritmo.
05:24
It would be trainedentrenado to look for people
to learnaprender what led to successéxito,
114
312779
3877
Se adiestraría para buscar a gente
que logra el éxito.
05:29
what kindtipo of applicationsaplicaciones
historicallyhistóricamente led to successéxito
115
317219
4318
Y qué solicitudes antiguas
llegaron al éxito
05:33
by that definitiondefinición.
116
321561
1294
según esa definición.
05:36
Now think about what would happenocurrir
117
324200
1775
Ahora piensen que ocurriría
05:37
if we appliedaplicado that
to a currentcorriente poolpiscina of applicantssolicitantes.
118
325999
2555
si lo usáramos con los candidatos de hoy.
05:41
It would filterfiltrar out womenmujer
119
329119
1629
Filtraría a las mujeres
05:43
because they do not look like people
who were successfulexitoso in the pastpasado.
120
331663
3930
ya que no parecen ser personas que
hayan tenido éxito en el pasado.
05:51
AlgorithmsAlgoritmos don't make things fairjusta
121
339752
2537
Los algoritmos no son justos
05:54
if you just blithelyalegremente,
blindlya ciegas applyaplicar algorithmsAlgoritmos.
122
342313
2694
si uno usa algoritmos a ciegas.
05:57
They don't make things fairjusta.
123
345031
1482
No son justos.
05:58
They repeatrepetir our pastpasado practicespracticas,
124
346537
2128
Repiten prácticas anteriores,
06:00
our patternspatrones.
125
348689
1183
nuestros patrones.
06:01
They automateautomatizar the statusestado quoquo.
126
349896
1939
Automatizan al status quo.
06:04
That would be great
if we had a perfectPerfecto worldmundo,
127
352718
2389
Sería genial en un mundo perfecto,
06:07
but we don't.
128
355905
1312
pero no lo tenemos.
06:09
And I'll addañadir that mostmás companiescompañías
don't have embarrassingembarazoso lawsuitspleitos,
129
357241
4102
Y aclaro que la mayoria de las empresas
no estan involucradas en litigios,
06:14
but the datadatos scientistscientíficos in those companiescompañías
130
362446
2588
pero los cientificos de datos
de esas empresas
06:17
are told to followseguir the datadatos,
131
365058
2189
emplean esos datos
06:19
to focusatención on accuracyexactitud.
132
367271
2143
para lograr la precisión.
06:22
Think about what that meansmedio.
133
370273
1381
Piensen qué significa esto.
06:23
Because we all have biasparcialidad,
it meansmedio they could be codifyingcodificando sexismsexismo
134
371678
4027
Porque todos tenemos prejuicios,
y así podríamos codificar sexismo
06:27
or any other kindtipo of bigotryfanatismo.
135
375729
1836
u otro tipo de fanatismo.
06:31
Thought experimentexperimentar,
136
379488
1421
Un experimento de pensamiento,
06:32
because I like them:
137
380933
1509
porque me gusta,
06:35
an entirelyenteramente segregatedaislado societysociedad --
138
383574
2975
una sociedad totalmente segregada.
06:40
raciallyracialmente segregatedaislado, all townspueblos,
all neighborhoodsbarrios
139
388247
3328
segregada racialmente,
todas las ciudades y los barrios
06:43
and where we sendenviar the policepolicía
only to the minorityminoría neighborhoodsbarrios
140
391599
3037
y donde enviamos a la policia
solo a barrios minoritarios
06:46
to look for crimecrimen.
141
394660
1193
para detectar delitos.
06:48
The arrestarrestar datadatos would be very biasedparcial.
142
396451
2219
Los arrestos serían sesgados.
06:51
What if, on topparte superior of that,
we foundencontró the datadatos scientistscientíficos
143
399851
2575
Y, además, elegimos a los
cientificos de datos
06:54
and paidpagado the datadatos scientistscientíficos to predictpredecir
where the nextsiguiente crimecrimen would occurocurrir?
144
402450
4161
y pagamos por los datos para predecir
dónde ocurrirán los próximos delitos.
06:59
MinorityMinoría neighborhoodbarrio.
145
407275
1487
El barrio de una minoría.
07:01
Or to predictpredecir who the nextsiguiente
criminalcriminal would be?
146
409285
3125
O a predecir quien será
el próximo criminal.
07:04
A minorityminoría.
147
412888
1395
Una minoría.
07:07
The datadatos scientistscientíficos would bragjactarse
about how great and how accuratepreciso
148
415949
3541
Los cientificos de datos se jactarían
de su grandeza y de la precisión
07:11
theirsu modelmodelo would be,
149
419514
1297
de su modelo,
07:12
and they'dellos habrían be right.
150
420835
1299
y tendrían razón.
07:15
Now, realityrealidad isn't that drasticdrástico,
but we do have severegrave segregationssegregaciones
151
423951
4615
La realidad no es tan drástica,
pero tenemos grandes segregaciones
07:20
in manymuchos citiesciudades and townspueblos,
152
428590
1287
en muchas ciudades
07:21
and we have plentymucho of evidenceevidencia
153
429901
1893
y tenemos muchas pruebas
07:23
of biasedparcial policingvigilancia
and justicejusticia systemsistema datadatos.
154
431818
2688
de datos políticos y
legislativos sesgados.
07:27
And we actuallyactualmente do predictpredecir hotspotsPuntos calientes,
155
435632
2815
Y podemos predecir puntos calientes,
07:30
placeslugares where crimescrímenes will occurocurrir.
156
438471
1530
lugares donde podrá ocurrir un delito
07:32
And we do predictpredecir, in facthecho,
the individualindividual criminalitycriminalidad,
157
440401
3866
Y así predecir un crimen individual
07:36
the criminalitycriminalidad of individualsindividuos.
158
444291
1770
y la criminalidad de los individuos.
07:38
The newsNoticias organizationorganización ProPublicaProPublica
recentlyrecientemente lookedmirado into
159
446972
3963
El organismo de noticias ProPublica
lo estudió hace poco.
07:42
one of those "recidivismreincidencia riskriesgo" algorithmsAlgoritmos,
160
450959
2024
un algoritmo de "riesgo recidivista"
07:45
as they're calledllamado,
161
453007
1163
según los llaman
07:46
beingsiendo used in FloridaFlorida
duringdurante sentencingsentencia by judgesjueces.
162
454194
3194
usado en Florida
al hacer sentencias judiciales.
07:50
BernardBernardo, on the left, the blacknegro man,
was scoredanotado a 10 out of 10.
163
458411
3585
Bernardo, a la izquierda, un hombre negro
sacó una puntuación de 10 de 10.
07:55
DylanDylan, on the right, 3 out of 10.
164
463179
2007
Dylan, a la derecha, 3 de 10.
07:57
10 out of 10, highalto riskriesgo.
3 out of 10, lowbajo riskriesgo.
165
465210
2501
10 de 10, alto riesgo
3 de 10, bajo riesgo.
08:00
They were bothambos broughttrajo in
for drugdroga possessionposesión.
166
468598
2385
Los sentenciaron por tener drogas.
08:03
They bothambos had recordsarchivos,
167
471007
1154
Ambos con antecedentes penales
08:04
but DylanDylan had a felonydelito
168
472185
2806
pero Dylan habia cometido un delito
08:07
but BernardBernardo didn't.
169
475015
1176
Bernard, no.
08:09
This mattersasuntos, because
the highermayor scorePuntuación you are,
170
477818
3066
Esto importa porque
a mayor puntuación
08:12
the more likelyprobable you're beingsiendo givendado
a longermás sentencefrase.
171
480908
3473
mayor probabilidad de
una sentencia más larga.
08:18
What's going on?
172
486294
1294
¿Que sucede?
08:20
DataDatos launderinglavado.
173
488526
1332
Lavado de datos.
08:22
It's a processproceso by whichcual
technologiststecnólogos hideesconder uglyfeo truthsverdades
174
490930
4427
El proceso que se usa para
ocultar verdades feas
08:27
insidedentro blacknegro boxcaja algorithmsAlgoritmos
175
495381
1821
dentro de una caja negra
de algoritmos
08:29
and call them objectiveobjetivo;
176
497226
1290
y llamarlos objetivos;
08:31
call them meritocraticmeritocrático.
177
499320
1568
llamándolos meritocráticos
08:35
When they're secretsecreto,
importantimportante and destructivedestructivo,
178
503118
2385
cuando son secretos,
importantes y destructivos
08:37
I've coinedacuñado a termtérmino for these algorithmsAlgoritmos:
179
505527
2487
Les puse un nombre a estos algoritmos:
08:40
"weaponsarmas of mathmates destructiondestrucción."
180
508038
1999
"armas matemáticas de destrucción"
08:42
(LaughterRisa)
181
510061
1564
(Risas)
08:43
(ApplauseAplausos)
182
511649
3054
(Aplausos)
08:46
They're everywhereen todos lados,
and it's not a mistakeError.
183
514727
2354
Estan en todos sitios
08:49
These are privateprivado companiescompañías
buildingedificio privateprivado algorithmsAlgoritmos
184
517695
3723
Son empresas privadas
que construyen algoritmos privados
08:53
for privateprivado endstermina.
185
521442
1392
para fines privados.
08:55
Even the onesunos I talkedhabló about
for teachersprofesores and the publicpúblico policepolicía,
186
523214
3214
Incluso los mencionados
de los maestros y la policía pública
08:58
those were builtconstruido by privateprivado companiescompañías
187
526452
1869
fueron diseñados por empresas privadas
09:00
and soldvendido to the governmentgobierno institutionsinstituciones.
188
528345
2231
y vendidos a
instituciones gubernamentales.
09:02
They call it theirsu "secretsecreto saucesalsa" --
189
530600
1873
Lo llaman su "salsa secreta"
09:04
that's why they can't tell us about it.
190
532497
2128
por eso no nos pueden hablar de ello.
09:06
It's alsoademás privateprivado powerpoder.
191
534649
2220
Es un poder privado
09:09
They are profitingaprovechando for wieldingempuñando
the authorityautoridad of the inscrutableinescrutable.
192
537924
4695
que saca provecho por su
autoridad inescrutable.
09:17
Now you mightpodría think,
sinceya que all this stuffcosas is privateprivado
193
545114
2934
Entonces uno ha de pensar,
ya que todo esto es privado
09:20
and there's competitioncompetencia,
194
548072
1158
y hay competición,
09:21
maybe the freegratis marketmercado
will solveresolver this problemproblema.
195
549254
2306
tal vez un mercado libre
podrá solucionarlo
09:23
It won'tcostumbre.
196
551584
1249
Pero no.
09:24
There's a lot of moneydinero
to be madehecho in unfairnessinjusticia.
197
552857
3120
Se puede ganar mucho dinero
con la injusticia.
09:29
Alsotambién, we're not economiceconómico rationalracional agentsagentes.
198
557127
3369
Tampoco somos agentes
económicos racionales.
09:33
We all are biasedparcial.
199
561031
1292
Todos tenemos prejuicios
09:34
We're all racistracista and bigotedfanático
in waysformas that we wishdeseo we weren'tno fueron,
200
562960
3377
Somos racistas y fanáticos
de una forma que no quisiéramos,
09:38
in waysformas that we don't even know.
201
566361
2019
de maneras que desconocemos.
09:41
We know this, thoughaunque, in aggregateagregar,
202
569352
3081
Lo sabemos al sumarlo
09:44
because sociologistssociólogos
have consistentlyconsecuentemente demonstrateddemostrado this
203
572457
3220
porque los sociólogos
lo han demostrado consistentemente
09:47
with these experimentsexperimentos they buildconstruir,
204
575701
1665
con experimentos que construyeron
donde mandan una cantidad de solicitudes
de empleo
09:49
where they sendenviar a bunchmanojo
of applicationsaplicaciones to jobstrabajos out,
205
577390
2568
de personas de calificaciones iguales
pero algunas con apellidos blancos
09:51
equallyIgualmente qualifiedcalificado but some
have white-soundingsonido blanco namesnombres
206
579982
2501
09:54
and some have black-soundingSonido negro namesnombres,
207
582507
1706
y otras con apellidos negros,
09:56
and it's always disappointingdecepcionante,
the resultsresultados -- always.
208
584237
2694
y los resultados siempre los
decepcionan, siempre.
09:59
So we are the onesunos that are biasedparcial,
209
587510
1771
Nosotros somos los prejuiciosos
10:01
and we are injectinginyectar those biasessesgos
into the algorithmsAlgoritmos
210
589305
3429
que inyectamos prejuicios
a nuestros algoritmos
10:04
by choosingElegir what datadatos to collectrecoger,
211
592758
1812
al elegir qué datos recoger,
10:06
like I choseElegir not to think
about ramenramen noodlestallarines --
212
594594
2743
así como yo elegí no pensar
en los fideos--
10:09
I decideddecidido it was irrelevantirrelevante.
213
597361
1625
Y decidi que no era importante.
10:11
But by trustingconfiando the datadatos that's actuallyactualmente
pickingcosecha up on pastpasado practicespracticas
214
599010
5684
Pero tenerle confianza a los datos
basados en prácticas pasadas
10:16
and by choosingElegir the definitiondefinición of successéxito,
215
604718
2014
y eligiendo la definición del éxito,
10:18
how can we expectesperar the algorithmsAlgoritmos
to emergesurgir unscathedindemne?
216
606756
3983
¿cómo pretendemos que los
algoritmos emerjan intactos?
10:22
We can't. We have to checkcomprobar them.
217
610763
2356
No podemos. Tenemos que verificarlos.
10:26
We have to checkcomprobar them for fairnessjusticia.
218
614165
1709
Hay que revisarlos por equidad.
10:27
The good newsNoticias is,
we can checkcomprobar them for fairnessjusticia.
219
615898
2711
Y las buenas noticias son
10:30
AlgorithmsAlgoritmos can be interrogatedinterrogado,
220
618633
3352
que los algoritmos pueden ser
interrogados,
10:34
and they will tell us
the truthverdad everycada time.
221
622009
2034
y nos dirán la verdad todas las veces.
10:36
And we can fixfijar them.
We can make them better.
222
624067
2493
Y los podemos arreglar.
Y mejorarlos.
10:38
I call this an algorithmicalgorítmico auditauditoría,
223
626584
2375
Lo explico. Esto se llama revisión
del algoritmo,
10:40
and I'll walkcaminar you throughmediante it.
224
628983
1679
lo explico.
10:42
First, datadatos integrityintegridad checkcomprobar.
225
630686
2196
Primero, verificación de
integridad de datos.
10:46
For the recidivismreincidencia riskriesgo
algorithmalgoritmo I talkedhabló about,
226
634132
2657
por el riesgo recidivista.
10:49
a datadatos integrityintegridad checkcomprobar would mean
we'dmie have to come to termscondiciones with the facthecho
227
637582
3573
La verificación de la integridad de datos
implicaría una conciliación
10:53
that in the US, whitesropa blanca and blacksnegros
smokefumar potmaceta at the samemismo ratetarifa
228
641179
3526
que en EE. UU. los blancos y los
negros fuman marihuana
10:56
but blacksnegros are farlejos more likelyprobable
to be arresteddetenido --
229
644729
2485
pero a los negros es mas fácil que
los arresten
10:59
fourlas cuatro or fivecinco timesveces more likelyprobable,
dependingdependiente on the areazona.
230
647238
3184
más probablemente cuatro o cinco
veces más dependiendo de la zona.
11:03
What is that biasparcialidad looking like
in other crimecrimen categoriescategorías,
231
651317
2826
Y ¿cómo son los prejuicios en
otras categorías criminales,
11:06
and how do we accountcuenta for it?
232
654167
1451
y cómo lo justificamos?
11:08
SecondSegundo, we should think about
the definitiondefinición of successéxito,
233
656162
3039
Segundo, debemos pensar
en la definición del éxito,
11:11
auditauditoría that.
234
659225
1381
revisarla.
11:12
RememberRecuerda -- with the hiringContratación
algorithmalgoritmo? We talkedhabló about it.
235
660630
2752
¿Recuerdan el algoritmo
de la contratación?
11:15
SomeoneAlguien who stayscorsé for fourlas cuatro yearsaños
and is promotedpromovido onceuna vez?
236
663406
3165
alguien que se queda cuatro años
y asciende de cargo una vez?
11:18
Well, that is a successfulexitoso employeeempleado,
237
666595
1769
Ese es el empleado exitoso,
11:20
but it's alsoademás an employeeempleado
that is supportedsoportado by theirsu culturecultura.
238
668388
3079
pero tambien es el empleado
apoyado por la cultura.
11:24
That said, alsoademás it can be quitebastante biasedparcial.
239
672089
1926
Esto puede ser bastante injusto.
11:26
We need to separateseparar those two things.
240
674039
2065
Tenemos que separar dos cosas.
11:28
We should look to
the blindciego orchestraorquesta auditionaudición
241
676128
2426
Mirar a la audicion de una
orquesta de ciegos
11:30
as an exampleejemplo.
242
678578
1196
por ejemplo.
11:31
That's where the people auditioningaudicionando
are behinddetrás a sheethoja.
243
679798
2756
Los que dan la audición están
detrás de la partitura.
11:34
What I want to think about there
244
682946
1931
Lo que quiero que piensen
11:36
is the people who are listeningescuchando
have decideddecidido what's importantimportante
245
684901
3417
es que la gente que escucha
decide lo que es importante
11:40
and they'veellos tienen decideddecidido what's not importantimportante,
246
688342
2029
y lo que no lo es,
11:42
and they're not gettingconsiguiendo
distracteddistraído by that.
247
690395
2059
sin que eso nos distraiga.
11:44
When the blindciego orchestraorquesta
auditionsaudiciones startedempezado,
248
692961
2749
Cuando empezaron las audiciones
de orquesta de ciegos
11:47
the numbernúmero of womenmujer in orchestrasorquestas
wentfuimos up by a factorfactor of fivecinco.
249
695734
3444
la cantidad de mujeres aumentó
un factor de cinco veces.
11:52
NextSiguiente, we have to considerconsiderar accuracyexactitud.
250
700253
2015
Tambien hay que pensar en la precisión
11:55
This is where the value-addedvalor añadido modelmodelo
for teachersprofesores would failfallar immediatelyinmediatamente.
251
703233
3734
y así el modelo
del valor añadido fallaría.
11:59
No algorithmalgoritmo is perfectPerfecto, of coursecurso,
252
707578
2162
Por supuesto ningún algoritmo es perfecto,
12:02
so we have to considerconsiderar
the errorserrores of everycada algorithmalgoritmo.
253
710620
3605
asi que hay que considerar los
errores de cada algoritmo.
12:06
How oftena menudo are there errorserrores,
and for whomquién does this modelmodelo failfallar?
254
714836
4359
¿Qué frecuencia tienen los errores
y con quiénes falla?
12:11
What is the costcosto of that failurefracaso?
255
719850
1718
Y ¿cuál es el costo de dicha falla?
12:14
And finallyfinalmente, we have to considerconsiderar
256
722434
2207
Y por último, tenemos que considerar
12:17
the long-terma largo plazo effectsefectos of algorithmsAlgoritmos,
257
725973
2186
los efectos a largo plazo
de los algoritmos,
12:20
the feedbackrealimentación loopsbucles that are engenderingEngendrando.
258
728866
2207
los bucles de retroalimentación
que engendran.
12:23
That soundssonidos abstractabstracto,
259
731586
1236
Eso suena a abstracto.
12:24
but imagineimagina if FacebookFacebook engineersingenieros
had consideredconsiderado that
260
732846
2664
Pero imagínese si los ingenieros
de Facebook lo hubieran considerado
12:28
before they decideddecidido to showespectáculo us
only things that our friendsamigos had postedal corriente.
261
736270
4855
antes de mostrarnos cosas
publicadas por nuestros amigos.
12:33
I have two more messagesmensajes,
one for the datadatos scientistscientíficos out there.
262
741761
3234
Tengo dos mensajes,
uno para los científicos de datos.
12:37
DataDatos scientistscientíficos: we should
not be the arbitersárbitros of truthverdad.
263
745450
3409
Cientificos de datos: no debemos
ser los árbitros de la verdad.
12:41
We should be translatorstraductores
of ethicalético discussionsdiscusiones that happenocurrir
264
749520
3783
Debemos ser tradutores de las
discusiones éticas que ocurren
12:45
in largermás grande societysociedad.
265
753327
1294
en toda la sociedad.
12:47
(ApplauseAplausos)
266
755579
2133
(Aplausos)
12:49
And the restdescanso of you,
267
757736
1556
Y para el resto de Uds.
12:52
the non-datasin datos scientistscientíficos:
268
760011
1396
los que no son científicos de datos:
12:53
this is not a mathmates testprueba.
269
761431
1498
esta no es un examen de matemáticas.
12:55
This is a politicalpolítico fightlucha.
270
763632
1348
Es una lucha politica.
12:58
We need to demanddemanda accountabilityresponsabilidad
for our algorithmicalgorítmico overlordsseñores supremos.
271
766587
3907
Tenemos que exigir responsabilidad
a los lores de los algoritmos.
13:04
(ApplauseAplausos)
272
772118
1499
(Aplausos)
13:05
The eraera of blindciego faithfe
in biggrande datadatos mustdebe endfin.
273
773641
4225
La era de la fe ciega en los
datos masivos debe terminar.
13:09
Thank you very much.
274
777890
1167
Muchas gracias.
13:11
(ApplauseAplausos)
275
779081
5303
(Aplauso)
Translated by Silvina Katz
Reviewed by Lidia Cámara de la Fuente

▲Back to top

ABOUT THE SPEAKER
Cathy O'Neil - Mathematician, data scientist
Data skeptic Cathy O’Neil uncovers the dark secrets of big data, showing how our "objective" algorithms could in fact reinforce human bias.

Why you should listen

In 2008, as a hedge-fund quant, mathematician Cathy O’Neil saw firsthand how really really bad math could lead to financial disaster. Disillusioned, O’Neil became a data scientist and eventually joined Occupy Wall Street’s Alternative Banking Group.

With her popular blog mathbabe.org, O’Neil emerged as an investigative journalist. Her acclaimed book Weapons of Math Destruction details how opaque, black-box algorithms rely on biased historical data to do everything from sentence defendants to hire workers. In 2017, O’Neil founded consulting firm ORCAA to audit algorithms for racial, gender and economic inequality.

More profile about the speaker
Cathy O'Neil | Speaker | TED.com