ABOUT THE SPEAKER
Anne Milgram - Criminal justice reformer
Anne Milgram is committed to using data and analytics to fight crime.

Why you should listen

Anne Milgram is focused on reforming systems through smart data, analytics and technology. She is currently a Professor of Practice and Distinguished Scholar in Residence at New York University School of Law, where she is building a Criminal Justice Innovation Lab, dedicated to using data and technology to transform the American criminal justice system. She also teaches seminars on criminal justice policy and human trafficking. Milgram began her career as a criminal prosecutor, serving in state, local and federal prosecution offices.  She then became the Attorney General of the State of New Jersey, where she served as the Chief Law Enforcement Officer for the State and oversaw the Camden Police Department.

Though her work, Milgram seeks to bring the best of the modern world -- data, technology and analytics -- to bear in an effort to transform outdated systems and practices. Milgram is centered on creating a paradigm shift in how we think about innovation and reform in the criminal justice system and beyond.

Milgram graduated summa cum laude from Rutgers University and holds a Master of Philosophy in social and political theory from the University of Cambridge. She received her law degree from New York University School of Law.

More profile about the speaker
Anne Milgram | Speaker | TED.com
TED@BCG San Francisco

Anne Milgram: Why smart statistics are the key to fighting crime

Anne Milgram: Por qué las estadísticas inteligentes son la clave para combatir el crimen

Filmed:
1,034,735 views

Cuándo fue nombrada Fiscal General de Nueva Jersey en 2007, Anne Milgram descubrió rápidamente unos datos sorprendentes: no sólo su equipo no sabía a quien encarcelaba, sino que tampoco tenían forma de entender si sus decisiones hacían que la población estuviera más segura. Y así empezó su búsqueda constante e inspiracional para introducir el análisis de datos y la estadística al sistema de justicia criminal de Estados Unidos.
- Criminal justice reformer
Anne Milgram is committed to using data and analytics to fight crime. Full bio

Double-click the English transcript below to play the video.

00:12
In 2007, I becameconvirtió the attorneyabogado generalgeneral
0
843
2591
En 2007, fui nombrada
Fiscal General
00:15
of the stateestado of NewNuevo JerseyJersey.
1
3434
1725
del estado de Nueva Jersey.
00:17
Before that, I'd been a criminalcriminal prosecutorfiscal,
2
5159
2280
Antes de eso, había sido
fiscal en casos penales
00:19
first in the ManhattanManhattan districtdistrito attorney'sabogado officeoficina,
3
7439
2681
primero en la oficina del
Fiscal General de Manhattan
00:22
and then at the UnitedUnido StatesEstados DepartmentDepartamento of JusticeJusticia.
4
10120
2650
y después en el Departamento
de Justicia de Estados Unidos.
00:24
But when I becameconvirtió the attorneyabogado generalgeneral,
5
12770
2201
Pero cuándo llegué
a ser Fiscal General,
00:26
two things happenedsucedió that changedcambiado
the way I see criminalcriminal justicejusticia.
6
14971
3895
pasaron dos cosas que cambiaron la forma
en que yo veía la justicia criminal.
00:30
The first is that I askedpreguntó what I thought
7
18866
2030
La primera fue que me
pregunté qué pensaba
00:32
were really basicBASIC questionspreguntas.
8
20896
2186
sobre cuestiones
realmente básicas.
00:35
I wanted to understandentender who we were arrestingllamativo,
9
23082
2856
Quería entender a
quienes arrestábamos.
00:37
who we were chargingcargando,
10
25938
1664
a quienes estábamos acusando,
00:39
and who we were puttingponiendo in our nation'snación jailscárceles
11
27602
2128
y a quienes estábamos enviando
a las cárceles y prisiones
00:41
and prisonsprisiones.
12
29730
1416
de nuestro país.
00:43
I alsoademás wanted to understandentender
13
31146
1648
También quería entender
00:44
if we were makingfabricación decisionsdecisiones
14
32794
1329
si estábamos tomando las decisiones
00:46
in a way that madehecho us safermás seguro.
15
34123
2518
de forma que nos diera
más seguridad.
00:48
And I couldn'tno pudo get this informationinformación out.
16
36641
3252
Y no podía obtener
esta información.
00:51
It turnedconvertido out that mostmás biggrande criminalcriminal justicejusticia agenciesagencias
17
39893
3357
Me encontré que la mayoría de
las agencias de justicia criminal
00:55
like my ownpropio
18
43250
1302
como la mía
00:56
didn't trackpista the things that matterimportar.
19
44552
2382
no rastreaba las cosas que importan.
00:58
So after about a monthmes of beingsiendo incrediblyincreíblemente frustratedfrustrado,
20
46934
3318
Así que tras un mes de estar
increíblemente frustrada,
01:02
I walkedcaminado down into a conferenceconferencia roomhabitación
21
50252
1971
entré a una sala de reunión
01:04
that was filledlleno with detectivesdetectives
22
52223
1890
llena de detectives
01:06
and stackspilas and stackspilas of casecaso filesarchivos,
23
54113
2782
y pilas y pilas de
expedientes de casos,
01:08
and the detectivesdetectives were sittingsentado there
24
56895
1176
y los detectives
estaban sentados allí
01:10
with yellowamarillo legallegal padsalmohadillas takingtomando notesnotas.
25
58071
2234
tomando nota con
sus libretas amarillas.
01:12
They were tryingmolesto to get the informationinformación
26
60305
1586
Ellos trataban de
encontrar la información
01:13
I was looking for
27
61891
1218
que yo buscaba
01:15
by going throughmediante casecaso by casecaso
28
63109
2045
mediante la revisión
de caso por caso
01:17
for the pastpasado fivecinco yearsaños.
29
65154
1898
de los últimos 5 años.
01:19
And as you can imagineimagina,
30
67052
1653
Y como pueden imaginar,
01:20
when we finallyfinalmente got the resultsresultados, they weren'tno fueron good.
31
68705
2643
cuando finalmente concluimos,
el resultado no era bueno.
01:23
It turnedconvertido out that we were doing
32
71348
1655
Resultó que lo que
estábamos haciendo
01:25
a lot of low-levelnivel bajo drugdroga casescasos
33
73003
2020
eran muchos casos de
drogas de bajo nivel
01:27
on the streetscalles just around the corneresquina
34
75023
1475
de las calles alrededor
01:28
from our officeoficina in TrentonTrenton.
35
76498
2268
de nuestra oficina en Trenton.
01:30
The secondsegundo thing that happenedsucedió
36
78766
1467
Lo segundo que sucedió
01:32
is that I spentgastado the day in the CamdenCamden,
NewNuevo JerseyJersey policepolicía departmentDepartamento.
37
80233
3674
es que pasé el día en el departamento
de policía de Camden, Nueva Jersey.
01:35
Now, at that time, CamdenCamden, NewNuevo JerseyJersey,
38
83907
1887
Entonces, en ese momento,
Camden, Nueva Jersey,
01:37
was the mostmás dangerouspeligroso cityciudad in AmericaAmerica.
39
85794
2652
era la ciudad más peligrosa
en Estados Unidos.
01:40
I rancorrió the CamdenCamden PolicePolicía
DepartmentDepartamento because of that.
40
88446
3827
Yo dirigía el departamento de policía
de Camden a causa de ello.
01:44
I spentgastado the day in the policepolicía departmentDepartamento,
41
92273
2112
Pasé el día en el
departamento de policía,
01:46
and I was takentomado into a roomhabitación
with seniormayor policepolicía officialsoficiales,
42
94385
2726
y me llevaron a un cuarto con
los oficiales de policía veteranos,
01:49
all of whomquién were workingtrabajando harddifícil
43
97111
1675
todos ellos trabajaban duro
01:50
and tryingmolesto very harddifícil to reducereducir crimecrimen in CamdenCamden.
44
98786
3257
e intentaban intensamente en
reducir el crimen en Camden.
01:54
And what I saw in that roomhabitación,
45
102043
1826
Y lo que vi en ese cuarto,
01:55
as we talkedhabló about how to reducereducir crimecrimen,
46
103869
2245
mientras hablábamos sobre
cómo reducir el crimen,
01:58
were a seriesserie of officersoficiales with a
lot of little yellowamarillo stickypegajoso notesnotas.
47
106114
3859
fue un grupo de oficiales con
muchas notitas amarillas adheribles.
02:01
And they would take a yellowamarillo stickypegajoso
and they would writeescribir something on it
48
109973
2846
Tomaban una nota amarilla adherible
y escribían algo en ella
02:04
and they would put it up on a boardtablero.
49
112823
1799
y la colocaban en un tablero.
02:06
And one of them said,
"We had a robberyrobo two weekssemanas agohace.
50
114622
2171
Y uno decía, "Tuvimos un robo
hace dos semanas.
02:08
We have no suspectssospechosos."
51
116793
1711
No tenemos sospechosos".
02:10
And anotherotro said, "We had a shootingdisparo in this neighborhoodbarrio last weeksemana. We have no suspectssospechosos."
52
118504
5027
Otro decía, "Tuvimos un tiroteo en este vecindario
la semana pasada. No hay sospechosos".
02:15
We weren'tno fueron usingutilizando data-drivenmanejado por datos policingvigilancia.
53
123531
2583
No teníamos una política
basada en datos duros.
02:18
We were essentiallyesencialmente tryingmolesto to fightlucha crimecrimen
54
126114
2042
Esencialmente, tratábamos
de combatir el crimen
02:20
with yellowamarillo Post-itPublícalo notesnotas.
55
128156
2527
mediante notas con Post-It.
02:22
Now, bothambos of these things madehecho me realizedarse cuenta de
56
130683
2135
Ahora, ambas cosas
me hicieron percatarme
02:24
fundamentallyfundamentalmente that we were failingdefecto.
57
132818
3251
de que estábamos
fallando fundamentalmente.
02:28
We didn't even know who was
in our criminalcriminal justicejusticia systemsistema,
58
136069
3123
No sabíamos quien estaba en
nuestro sistema de justicia criminal,
02:31
we didn't have any datadatos about
the things that matteredimportado,
59
139192
3235
no teníamos ningún dato sobre
las cosas que sí importaban,
02:34
and we didn't sharecompartir datadatos or use analyticsanalítica
60
142427
2568
y no compartíamos
datos o usábamos análisis
02:36
or toolsherramientas to help us make better decisionsdecisiones
61
144995
2151
o herramientas que nos ayudaran
a tomar mejores decisiones
02:39
and to reducereducir crimecrimen.
62
147146
2003
y a reducir el crímen.
02:41
And for the first time, I startedempezado to think
63
149149
2224
Y por primera vez
empezaba a pensar
02:43
about how we madehecho decisionsdecisiones.
64
151373
1910
acerca de cómo
tomábamos decisiones.
02:45
When I was an assistantasistente D.A.,
65
153283
1397
Cuando fui abogada
asistente del Fiscal,
02:46
and when I was a federalfederal prosecutorfiscal,
66
154680
1870
y cuando fui Fiscal Federal,
02:48
I lookedmirado at the casescasos in frontfrente of me,
67
156550
1746
miraba los casos frente a mí,
02:50
and I generallyen general madehecho decisionsdecisiones basedbasado on my instinctinstinto
68
158296
2626
y generalmente tomaba
decisiones basadas en mi instinto
02:52
and my experienceexperiencia.
69
160922
1692
y mi experiencia.
02:54
When I becameconvirtió attorneyabogado generalgeneral,
70
162614
1659
Cuando me hice Fiscal General,
02:56
I could look at the systemsistema as a wholetodo,
71
164273
1639
y pude observar el
sistema como un todo,
02:57
and what surprisedsorprendido me is that I foundencontró
72
165912
1818
lo que más me sorprendió
es que encontré
02:59
that that was exactlyexactamente how we were doing it
73
167730
1905
que era eso exactamente
lo que estábamos haciendo
03:01
acrossa través de the entiretodo systemsistema --
74
169635
2303
a través de todo el sistema,
03:03
in policepolicía departmentsdepartamentos, in prosecutors'slos fiscales officesoficinas,
75
171938
2401
en los departamentos de policía,
en las oficinas de los fiscales,
03:06
in courtstribunales and in jailscárceles.
76
174339
2800
en los tribunales y las cárceles.
03:09
And what I learnedaprendido very quicklycon rapidez
77
177139
2197
Y lo que aprendí
muy rápidamente
03:11
is that we weren'tno fueron doing a good jobtrabajo.
78
179336
3633
es que no estábamos
haciendo un buen trabajo.
03:14
So I wanted to do things differentlydiferentemente.
79
182969
2016
Así que quería hacer
las cosas diferente.
03:16
I wanted to introduceintroducir datadatos and analyticsanalítica
80
184985
2197
Quería introducir datos y análisis
03:19
and rigorousriguroso statisticalestadístico analysisanálisis
81
187182
2049
y un riguroso análisis estadístico
03:21
into our work.
82
189231
1400
en nuestro trabajo.
03:22
In shortcorto, I wanted to moneyballmoneyball criminalcriminal justicejusticia.
83
190631
2970
En definitiva, quería 'moneyball'
[optimizar] la justicia penal.
03:25
Now, moneyballmoneyball, as manymuchos of you know,
84
193601
2027
Ahora, 'moneyball', como
muchos de Uds. saben,
03:27
is what the OaklandOakland A'sComo did,
85
195628
1569
es lo que hicieron los entrenadores de Oakland,
03:29
where they used smartinteligente datadatos and statisticsestadística
86
197197
1973
cuando utilizaron datos
inteligentes y estadísticas
03:31
to figurefigura out how to pickrecoger playersjugadores
87
199170
1622
para determinar
cómo escoger jugadores
03:32
that would help them winganar gamesjuegos,
88
200792
1521
que les ayudarían a ganar juegos,
03:34
and they wentfuimos from a systemsistema that
was basedbasado on baseballbéisbol scoutsexploradores
89
202313
2980
y pasaron de un sistema que se basaba
en los reclutadores de béisbol
03:37
who used to go out and watch playersjugadores
90
205293
1860
que solían salir a
observar jugadores
03:39
and use theirsu instinctinstinto and experienceexperiencia,
91
207153
1637
y, en uso de su
instinto y experiencia,
03:40
the scouts'exploradores instinctsinstintos and experienceexperiencia,
92
208790
1743
de los instintos y experiencia
de cada reclutador
03:42
to pickrecoger playersjugadores, from one to use
93
210533
1713
para escoger jugadores,
a un sistema que utilizaba
03:44
smartinteligente datadatos and rigorousriguroso statisticalestadístico analysisanálisis
94
212246
2822
datos inteligentes y
riguroso análisis estadístico
03:47
to figurefigura out how to pickrecoger playersjugadores
that would help them winganar gamesjuegos.
95
215068
3371
para averiguar cómo escoger a los jugadores
que les ayudarían a ganar juegos.
03:50
It workedtrabajó for the OaklandOakland A'sComo,
96
218439
1798
Eso funcionó para
los Atléticos de Oakland,
03:52
and it workedtrabajó in the stateestado of NewNuevo JerseyJersey.
97
220237
2219
y funcionó en el estado
de Nueva Jersey.
03:54
We tooktomó CamdenCamden off the topparte superior of the listlista
98
222456
2073
Quitamos a Camden
del inicio de la lista
03:56
as the mostmás dangerouspeligroso cityciudad in AmericaAmerica.
99
224529
2171
de las ciudades más peligrosas
de los Estados Unidos.
03:58
We reducedreducido murdersasesinatos there by 41 percentpor ciento,
100
226700
3155
Redujimos los asesinatos
en un 41%,
04:01
whichcual actuallyactualmente meansmedio 37 livesvive were savedsalvado.
101
229855
2982
lo que en efecto significa
que salvamos 37 vidas.
04:04
And we reducedreducido all crimecrimen in the cityciudad by 26 percentpor ciento.
102
232837
3740
Y redujimos todo el crimen
en la ciudad en un 26%.
04:08
We alsoademás changedcambiado the way
we did criminalcriminal prosecutionsprocesamientos.
103
236577
3239
También cambiamos la manera
que hacíamos los procesos penales.
04:11
So we wentfuimos from doing low-levelnivel bajo drugdroga crimescrímenes
104
239816
2005
Así que cambiamos de delitos
de posesión de drogas de bajo nivel
04:13
that were outsidefuera de our buildingedificio
105
241821
1642
que ocurrían afuera
de nuestro edificio
04:15
to doing casescasos of statewideen todo el estado importanceimportancia,
106
243463
2342
hacia casos de importancia
estatal, actuando
04:17
on things like reducingreduciendo violenceviolencia
with the mostmás violentviolento offendersofensores,
107
245805
3158
en cosas como reducir la violencia
de los delincuentes más violentos,
04:20
prosecutingenjuiciando streetcalle gangspandillas,
108
248963
1858
acusación formal de
bandas callejeras,
04:22
gunpistola and drugdroga traffickingtráfico, and politicalpolítico corruptioncorrupción.
109
250821
3408
tráfico de armas y drogas
y la corrupción política.
04:26
And all of this mattersasuntos greatlymuy,
110
254229
2502
Y todo esto importa mucho,
04:28
because publicpúblico safetyla seguridad to me
111
256731
1945
porque la seguridad
pública para mí
04:30
is the mostmás importantimportante functionfunción of governmentgobierno.
112
258676
2536
es la función más
importante del gobierno.
04:33
If we're not safeseguro, we can't be educatededucado,
113
261212
2298
Si no estamos seguros,
no podemos educarnos,
04:35
we can't be healthysaludable,
114
263510
1348
ni podemos estar sanos,
04:36
we can't do any of the other things
we want to do in our livesvive.
115
264858
2945
ni podemos hacer ninguna de las otras cosas
que queremos hacer en nuestras vidas.
04:39
And we livevivir in a countrypaís todayhoy
116
267803
1701
Y hoy vivimos en un país
04:41
where we facecara seriousgrave criminalcriminal justicejusticia problemsproblemas.
117
269504
3134
donde nos enfrentamos a
problemas graves de justicia penal.
04:44
We have 12 millionmillón arrestsarrestos everycada singlesoltero yearaño.
118
272638
3661
Tenemos 12 millones
de arrestos cada año.
04:48
The vastvasto majoritymayoria of those arrestsarrestos
119
276299
2043
La gran mayoría
de esos arrestos
04:50
are for low-levelnivel bajo crimescrímenes, like misdemeanorsdelitos menores,
120
278342
3012
son por delitos de bajo nivel,
como conductas lesivas,
04:53
70 to 80 percentpor ciento.
121
281354
1734
en un 70 a 80%.
04:55
LessMenos than fivecinco percentpor ciento of all arrestsarrestos
122
283088
1991
Menos del 5% de
todas las detenciones
04:57
are for violentviolento crimecrimen.
123
285079
1895
son por delitos violentos.
04:58
YetTodavía we spendgastar 75 billionmil millones,
124
286974
2055
Sin embargo, gastamos
75 mil millones,
05:01
that's b for billionmil millones,
125
289029
1418
sí dije mil millones,
05:02
dollarsdólares a yearaño on stateestado and locallocal correctionscorrecciones costscostos.
126
290447
4127
de dólares al año en
correccionales locales y estatales.
05:06
Right now, todayhoy, we have 2.3 millionmillón people
127
294574
2841
Justo ahora, hoy, tenemos
2.3 millones de personas
05:09
in our jailscárceles and prisonsprisiones.
128
297415
1900
en nuestras cárceles y prisiones.
05:11
And we facecara unbelievableincreíble publicpúblico safetyla seguridad challengesdesafíos
129
299315
2796
Y nos enfrentamos a increíbles
retos en seguridad pública
05:14
because we have a situationsituación
130
302111
1939
porque tenemos una situación
05:16
in whichcual two thirdstercios of the people in our jailscárceles
131
304050
2898
en la que 2/3 de las
personas en las cárceles
05:18
are there waitingesperando for trialjuicio.
132
306948
1754
están aún esperado juicio.
05:20
They haven'tno tiene yettodavía been convictedconvicto of a crimecrimen.
133
308702
2135
Aún no han sido sentenciados
por algún delito.
05:22
They're just waitingesperando for theirsu day in courtCorte.
134
310837
2119
Sólo están esperando
su día en la corte.
05:24
And 67 percentpor ciento of people come back.
135
312956
3548
Y 67% de las personas regresan.
05:28
Our recidivismreincidencia ratetarifa is amongstentre
the highestmás alto in the worldmundo.
136
316504
3028
Nuestra tasa de reincidencia está
entre las más altas del mundo.
05:31
AlmostCasi sevensiete in 10 people who are releasedliberado
137
319532
2103
Casi 7 de cada 10
personas que se liberan
05:33
from prisonprisión will be rearrestedvuelto a arrestar
138
321635
1651
de la prisión serán
nuevamente detenidos
05:35
in a constantconstante cycleciclo of crimecrimen and incarcerationencarcelamiento.
139
323286
3955
en un ciclo constante de
delito y encarcelamiento.
05:39
So when I startedempezado my jobtrabajo at the ArnoldArnold FoundationFundación,
140
327241
2582
Así que cuando comencé
mi trabajo en la Fundación Arnold,
05:41
I camevino back to looking at a lot of these questionspreguntas,
141
329823
2736
volví a mirar este
montón de preguntas,
05:44
and I camevino back to thinkingpensando about how
142
332559
1654
y volví a pensar en cómo
05:46
we had used datadatos and analyticsanalítica to transformtransformar
143
334213
2383
usamos datos y análisis
para transformar
05:48
the way we did criminalcriminal justicejusticia in NewNuevo JerseyJersey.
144
336596
2584
la forma en que ejercíamos
la justicia penal en Nueva Jersey.
05:51
And when I look at the criminalcriminal justicejusticia systemsistema
145
339180
2144
Y cuando miro el sistema
de justicia penal
05:53
in the UnitedUnido StatesEstados todayhoy,
146
341324
1656
de los Estados Unidos
hoy en día,
05:54
I feel the exactexacto samemismo way that I did
147
342980
1639
me siento igual
que como me sentía
05:56
about the stateestado of NewNuevo JerseyJersey when I startedempezado there,
148
344619
2466
sobre el estado de Nueva Jersey
cuando empecé alli,
05:59
whichcual is that we absolutelyabsolutamente have to do better,
149
347085
3228
que era que sin duda
teníamos que hacer algo mejor,
06:02
and I know that we can do better.
150
350313
1923
y sé que podemos hacerlo mejor.
06:04
So I decideddecidido to focusatención
151
352236
1705
Así que decidí enfocarme
06:05
on usingutilizando datadatos and analyticsanalítica
152
353941
2217
en el uso de datos y análisis
06:08
to help make the mostmás criticalcrítico decisiondecisión
153
356158
2361
para apoyar la toma de
decisiones más críticas
06:10
in publicpúblico safetyla seguridad,
154
358519
1606
en seguridad pública,
06:12
and that decisiondecisión is the determinationdeterminación
155
360125
2021
y esa decisión
es la determinación
06:14
of whethersi, when someonealguien has been arresteddetenido,
156
362146
2535
de que, cuando alguien
ha sido arrestado,
06:16
whethersi they posepose a riskriesgo to publicpúblico safetyla seguridad
157
364681
1915
determinar si suponen un riesgo
para la seguridad pública
06:18
and should be detaineddetenido,
158
366596
1526
y por tanto debe ser detenido,
06:20
or whethersi they don't posepose a riskriesgo to publicpúblico safetyla seguridad
159
368122
2356
o si no supone un riesgo
para la seguridad pública
06:22
and should be releasedliberado.
160
370478
1637
y debe ser liberado
en consecuencia.
06:24
Everything that happenssucede in criminalcriminal casescasos
161
372115
1919
Todo lo que sucede en
los casos criminales
06:26
comesproviene out of this one decisiondecisión.
162
374034
1772
parte de esa única decisión.
06:27
It impactsimpactos everything.
163
375806
1496
Impacta todo.
06:29
It impactsimpactos sentencingsentencia.
164
377302
1350
Afecta a la sentencia.
06:30
It impactsimpactos whethersi someonealguien getsse pone drugdroga treatmenttratamiento.
165
378652
1901
Afecta si alguien recibe
tratamiento contra las drogas.
06:32
It impactsimpactos crimecrimen and violenceviolencia.
166
380553
2323
Afecta al crimen y a la violencia.
06:34
And when I talk to judgesjueces around the UnitedUnido StatesEstados,
167
382876
1937
Y cuando hablo con los jueces
alrededor de los Estados Unidos,
06:36
whichcual I do all the time now,
168
384813
1928
cosa que hago todo el tiempo,
06:38
they all say the samemismo thing,
169
386741
1837
todos dicen lo mismo,
06:40
whichcual is that we put dangerouspeligroso people in jailcárcel,
170
388578
3107
que es "pongamos a la gente
peligrosa en la cárcel,
06:43
and we let non-dangerousno peligroso, nonviolentno violento people out.
171
391685
3525
y soltemos a las personas que
no son peligrosos o no violentos".
06:47
They mean it and they believe it.
172
395210
2233
Lo dicen y lo creen.
06:49
But when you startcomienzo to look at the datadatos,
173
397443
1733
Pero cuando empiezas
a mirar los datos,
06:51
whichcual, by the way, the judgesjueces don't have,
174
399176
2464
que, por cierto,
no tienen los jueces,
06:53
when we startcomienzo to look at the datadatos,
175
401640
1612
cuando comenzamos
a mirar los datos,
06:55
what we find time and time again,
176
403252
2418
lo que encontramos
una y otra vez,
06:57
is that this isn't the casecaso.
177
405670
1982
es que este no ocurre así.
06:59
We find low-riskriesgo bajo offendersofensores,
178
407652
1681
Nos encontramos con
los delincuentes de bajo riesgo,
07:01
whichcual makeshace up 50 percentpor ciento of our
entiretodo criminalcriminal justicejusticia populationpoblación,
179
409333
3714
que constituye el 50% de nuestra población
entera en el sistema de justicia penal,
07:05
we find that they're in jailcárcel.
180
413047
2399
nos encontramos con
que están en la cárcel.
07:07
Take LeslieLeslie ChewMasticar, who was a TexasTexas man
181
415446
2486
Miren a Leslie Chew, un tejano
07:09
who stoleestola fourlas cuatro blanketsmantas on a coldfrío winterinvierno night.
182
417932
2884
que robó 4 mantas en una
noche fría de invierno.
07:12
He was arresteddetenido, and he was keptmantenido in jailcárcel
183
420816
2595
Lo arrestaron y lo
retuvieron en la cárcel
07:15
on 3,500 dollarsdólares bailfianza,
184
423411
2053
con una fianza
de 3500 dólares,
07:17
an amountcantidad that he could not affordpermitirse to paypaga.
185
425464
2776
una cantidad que
él no podía pagar.
07:20
And he stayedse quedó in jailcárcel for eightocho monthsmeses
186
428240
2588
Y permaneció preso
durante 8 meses
07:22
untilhasta his casecaso camevino up for trialjuicio,
187
430828
2065
hasta que su caso
pasó a juicio,
07:24
at a costcosto to taxpayerscontribuyentes of more than 9,000 dollarsdólares.
188
432893
3905
con un costo para los contribuyentes
de más de 9 mil dólares.
07:28
And at the other endfin of the spectrumespectro,
189
436798
1997
Y en el otro
extremo del espectro,
07:30
we're doing an equallyIgualmente terribleterrible jobtrabajo.
190
438795
2282
estamos haciendo un
trabajo igualmente terrible.
07:33
The people who we find
191
441077
1572
Las personas que encontramos
07:34
are the highest-riskmayor riesgo offendersofensores,
192
442649
2019
que son los delincuentes
de mayor riesgo,
07:36
the people who we think have the highestmás alto likelihoodprobabilidad
193
444668
2497
las personas que creemos
que tienen la mayor probabilidad
07:39
of committingcometer a newnuevo crimecrimen if they're releasedliberado,
194
447165
1952
de cometer un nuevo
delito, si son liberados,
07:41
we see nationallynacionalmente that 50 percentpor ciento of those people
195
449117
2950
a nivel nacional vemos que
el 50% de esas personas
07:44
are beingsiendo releasedliberado.
196
452067
1974
están siendo liberados.
07:46
The reasonrazón for this is the way we make decisionsdecisiones.
197
454041
3174
La razón de esto es la manera
en que tomamos decisiones.
07:49
JudgesJueces have the bestmejor intentionsintenciones
198
457215
1709
Los jueces tienen
las mejores intenciones
07:50
when they make these decisionsdecisiones about riskriesgo,
199
458924
1952
cuando toman estas
decisiones acerca del riesgo,
07:52
but they're makingfabricación them subjectivelysubjetivamente.
200
460876
2484
pero las hacen subjetivamente.
07:55
They're like the baseballbéisbol scoutsexploradores 20 yearsaños agohace
201
463360
2146
Son como los reclutadores
de béisbol hace 20 años
07:57
who were usingutilizando theirsu instinctinstinto and theirsu experienceexperiencia
202
465506
2131
que usaban su instinto
y su experiencia
07:59
to try to decidedecidir what riskriesgo someonealguien posesposes.
203
467637
2679
para tratar de decidir
qué riesgo implica alguien.
08:02
They're beingsiendo subjectivesubjetivo,
204
470316
1530
Están siendo subjetivos,
08:03
and we know what happenssucede
with subjectivesubjetivo decisiondecisión makingfabricación,
205
471846
3060
y sabemos lo que pasa
con decisiones subjetivas,
08:06
whichcual is that we are oftena menudo wrongincorrecto.
206
474906
2743
que a menudo
están equivocadas.
08:09
What we need in this spaceespacio
207
477649
1383
Lo que necesitamos
en este espacio
08:11
are strongfuerte datadatos and analyticsanalítica.
208
479032
2552
son datos duros y análisis.
08:13
What I decideddecidido to look for
209
481584
1747
Lo que he decidido buscar
08:15
was a strongfuerte datadatos and analyticanalítico riskriesgo assessmentevaluación toolherramienta,
210
483331
2836
son datos duros y herramientas
analíticas de evaluación de riesgos,
08:18
something that would let judgesjueces actuallyactualmente understandentender
211
486167
2764
algo que podría hacer que los
jueces realmente entiendan
08:20
with a scientificcientífico and objectiveobjetivo way
212
488931
2259
con una forma
científica y objetiva
08:23
what the riskriesgo was that was posedposado
213
491190
1647
cuál es el nivel de
riesgo que plantea
08:24
by someonealguien in frontfrente of them.
214
492837
1610
alguien presentado ante ellos.
08:26
I lookedmirado all over the countrypaís,
215
494447
1649
Busqué por todo el país,
08:28
and I foundencontró that betweenEntre fivecinco and 10 percentpor ciento
216
496096
1942
y encontré que
entre 5 y 10%
08:30
of all U.S. jurisdictionsjurisdicciones
217
498038
1329
de todas las jurisdicciones
de Estados Unidos
08:31
actuallyactualmente use any typetipo of riskriesgo assessmentevaluación toolherramienta,
218
499367
2978
usa cualquier tipo de herramienta
de evaluación de riesgos,
08:34
and when I lookedmirado at these toolsherramientas,
219
502345
1625
y cuando miré
esas herramientas,
08:35
I quicklycon rapidez realizeddio cuenta why.
220
503970
1860
rápidamente me
di cuenta del porqué.
08:37
They were unbelievablyincreíblemente expensivecostoso to administeradministrar,
221
505830
2690
Eran increíblemente
costosas para adminsitrarse,
08:40
they were time-consumingpérdida de tiempo,
222
508520
1528
eran muy lentos,
08:42
they were limitedlimitado to the locallocal jurisdictionjurisdicción
223
510048
2107
estaban limitados a
la jurisdicción local
08:44
in whichcual they'dellos habrían been createdcreado.
224
512155
1430
en el cual había sido creadas.
08:45
So basicallybásicamente, they couldn'tno pudo be scaledescamoso
225
513585
1793
Así que, básicamente,
no podía escalarse
08:47
or transferredtransferido to other placeslugares.
226
515378
2209
o transferirse a otros lugares.
08:49
So I wentfuimos out and builtconstruido a phenomenalfenomenal teamequipo
227
517587
2237
Así que salí y conjunté
un fenomenal equipo
08:51
of datadatos scientistscientíficos and researchersinvestigadores
228
519824
2044
de investigadores y
científicos de datos
08:53
and statisticiansestadísticos
229
521868
1626
y estadísticos
08:55
to buildconstruir a universaluniversal riskriesgo assessmentevaluación toolherramienta,
230
523494
2845
para construir una herramienta de
evaluación de riesgo universal,
08:58
so that everycada singlesoltero judgejuez in
the UnitedUnido StatesEstados of AmericaAmerica
231
526339
2393
para que cada juez en
los Estados Unidos
09:00
can have an objectiveobjetivo, scientificcientífico measuremedida of riskriesgo.
232
528732
4324
pueda tener una medida de
riesgo objetiva y científica.
09:05
In the toolherramienta that we'venosotros tenemos builtconstruido,
233
533056
1658
En la herramienta
que construímos
09:06
what we did was we collectedrecogido 1.5 millionmillón casescasos
234
534714
2868
lo que hicimos fue que recogimos
1.5 millones de casos
09:09
from all around the UnitedUnido StatesEstados,
235
537582
1698
de todo los Estados Unidos,
09:11
from citiesciudades, from countiescondados,
236
539280
1644
de las ciudades, de condados,
09:12
from everycada singlesoltero stateestado in the countrypaís,
237
540924
1511
de cada estado en el país,
09:14
the federalfederal districtsdistritos.
238
542435
1746
de los distritos federales.
09:16
And with those 1.5 millionmillón casescasos,
239
544181
2189
Y con esos 1.5 millones de casos,
09:18
whichcual is the largestmás grande datadatos setconjunto on pretrialpretrial
240
546370
1940
que son la colección más grande
de datos previos a un juicio
09:20
in the UnitedUnido StatesEstados todayhoy,
241
548310
1805
en los Estados Unidos hoy en día,
09:22
we were ablepoder to basicallybásicamente find that there were
242
550115
1865
hemos sido capaces de
encontrar básicamente que había
09:23
900-plus-más riskriesgo factorsfactores that we could look at
243
551980
3322
unos 900 factores de
riesgo que podríamos ver
09:27
to try to figurefigura out what matteredimportado mostmás.
244
555302
2866
para tratar de averiguar
lo que más importa.
09:30
And we foundencontró that there were ninenueve specificespecífico things
245
558168
2081
Y encontramos que había
9 cosas específicas
09:32
that matteredimportado all acrossa través de the countrypaís
246
560249
2235
que importaban en todo el país
09:34
and that were the mostmás highlyaltamente predictiveprofético of riskriesgo.
247
562484
2977
y que esos eran los factores de
predicción del riesgo más precisos.
09:37
And so we builtconstruido a universaluniversal riskriesgo assessmentevaluación toolherramienta.
248
565461
3705
Y así, hemos construido una herramienta
de evaluación de riesgo universal.
09:41
And it looksmiradas like this.
249
569166
1445
Y se parece a esto.
09:42
As you'lltu vas a see, we put some informationinformación in,
250
570611
2612
Como pueden ver,
ponemos algo de información,
09:45
but mostmás of it is incrediblyincreíblemente simplesencillo,
251
573223
2013
pero la mayor parte
es increíblemente simple,
09:47
it's easyfácil to use,
252
575236
1432
es fácil de usar,
09:48
it focusesenfoques on things like the
defendant'sdemandada prioranterior convictionsconvicciones,
253
576668
2969
se centra en cosas cómo:
condenas anteriores del acusado,
09:51
whethersi they'veellos tienen been sentencedsentenciado to incarcerationencarcelamiento,
254
579637
1979
si has sido condenado
a encarcelamiento,
09:53
whethersi they'veellos tienen engagedcomprometido in violenceviolencia before,
255
581616
2264
si se han vinculado a
actos de violencia antes,
09:55
whethersi they'veellos tienen even failedha fallado to come back to courtCorte.
256
583880
2393
si no ha podido evitar
volver al juzgado.
09:58
And with this toolherramienta, we can predictpredecir threeTres things.
257
586273
2500
Y con esta herramienta,
podemos predecir 3 cosas:
10:00
First, whethersi or not someonealguien will commitcometer
258
588773
1853
Primera, si alguien
cometería o no de nuevo
10:02
a newnuevo crimecrimen if they're releasedliberado.
259
590626
1565
un crimen si fuera liberado.
10:04
SecondSegundo, for the first time,
260
592191
1664
Segunda, por primera vez,
10:05
and I think this is incrediblyincreíblemente importantimportante,
261
593855
1861
y creo que es muy importante,
10:07
we can predictpredecir whethersi someonealguien will commitcometer
262
595716
1923
podemos predecir
si alguien cometerá
10:09
an actacto of violenceviolencia if they're releasedliberado.
263
597639
1834
un acto de violencia
si fuera liberado.
10:11
And that's the singlesoltero mostmás importantimportante thing
264
599473
1887
Y esto es la cosa
más importante
10:13
that judgesjueces say when you talk to them.
265
601360
1807
que los jueces dicen
cuando hablan con ellos.
10:15
And thirdtercero, we can predictpredecir whethersi someonealguien
266
603167
1828
Tercera, podemos
predecir cuándo alguien
10:16
will come back to courtCorte.
267
604995
1990
volverá al juzgado.
10:18
And everycada singlesoltero judgejuez in the
UnitedUnido StatesEstados of AmericaAmerica can use it,
268
606985
3033
Y cada juez en los Estados
Unidos puede utilizarlo,
10:22
because it's been createdcreado on a universaluniversal datadatos setconjunto.
269
610018
3812
porque se creó con un
conjunto universal de datos.
10:25
What judgesjueces see if they runcorrer the riskriesgo assessmentevaluación toolherramienta
270
613830
2609
Lo que los jueces ven si usan
la herramienta de evaluación de riesgo
10:28
is this -- it's a dashboardtablero.
271
616439
2120
es esto: un panel de control.
10:30
At the topparte superior, you see the NewNuevo CriminalCriminal ActivityActividad ScorePuntuación,
272
618559
2848
En la parte superior, verás el Puntaje
de Nueva Actividad Criminal,
10:33
sixseis of coursecurso beingsiendo the highestmás alto,
273
621407
1929
en donde, por supuesto,
6 es el más alto,
10:35
and then in the middlemedio you
see, "ElevatedElevado riskriesgo of violenceviolencia."
274
623336
2403
y a la mitad ven:
"riesgo de violencia elevado".
10:37
What that saysdice is that this personpersona
275
625739
1746
Lo que te dice
que esa persona
10:39
is someonealguien who has an elevatedelevado riskriesgo of violenceviolencia
276
627485
2060
es alguien que tiene
un riesgo elevado de violencia
10:41
that the judgejuez should look twicedos veces at.
277
629545
1885
y que el juez debe
analizarlo dos veces.
10:43
And then, towardshacia the bottomfondo,
278
631430
1336
Y luego, hacia la parte inferior,
10:44
you see the FailureFracaso to AppearAparecer ScorePuntuación,
279
632766
1968
ves el Puntaje
de Falla al Asistir,
10:46
whichcual again is the likelihoodprobabilidad
280
634734
1392
que es la probabilidad de
10:48
that someonealguien will come back to courtCorte.
281
636126
3013
que alguien volverá
a los tribunales.
10:51
Now I want to say something really importantimportante.
282
639139
2213
Ahora quiero decir
algo muy importante.
10:53
It's not that I think we should be eliminatingeliminando
283
641352
2727
No es que crea que
deberíamos eliminar
10:56
the judge'sjuez instinctinstinto and experienceexperiencia
284
644079
2244
el instinto y la experiencia del juez
10:58
from this processproceso.
285
646323
1604
de este proceso.
10:59
I don't.
286
647927
1058
No.
11:00
I actuallyactualmente believe the problemproblema that we see
287
648985
2007
En realidad creo que
el problema que vemos
11:02
and the reasonrazón that we have
these incredibleincreíble systemsistema errorserrores,
288
650992
2854
y la razón por la que tenemos estos
increíbles errores en el sistema,
11:05
where we're incarceratingencarcelamiento
low-levelnivel bajo, nonviolentno violento people
289
653846
3087
donde estamos encarcelando a
personas de bajo riesgo, no violentas
11:08
and we're releasingliberando high-riskalto riesgo, dangerouspeligroso people,
290
656933
3172
y liberamos a personas
de alto riesgo, peligrosas,
11:12
is that we don't have an objectiveobjetivo measuremedida of riskriesgo.
291
660105
2723
es porque no tenemos
una medida objetiva de riesgo.
11:14
But what I believe should happenocurrir
292
662828
1300
Pero lo que creo
debe suceder
11:16
is that we should take that
data-drivenmanejado por datos riskriesgo assessmentevaluación
293
664128
2800
es que deberíamos tomar este
examen de riesgo basado en datos
11:18
and combinecombinar that with the
judge'sjuez instinctinstinto and experienceexperiencia
294
666928
3041
y combinarlo con el instinto
y la experiencia del juez
11:21
to leaddirigir us to better decisiondecisión makingfabricación.
295
669969
2958
lo que nos llevará a una
mejor toma de decisiones.
11:24
The toolherramienta wentfuimos statewideen todo el estado in KentuckyKentucky on Julyjulio 1,
296
672927
3303
La herramienta se utilizará estatalmente
en Kentucky a partir del 1 de julio,
11:28
and we're about to go up in a
numbernúmero of other U.S. jurisdictionsjurisdicciones.
297
676230
3351
y vamos a utilizarla en un número importante
de otras jurisdicciones de Estados Unidos.
11:31
Our goalGol, quitebastante simplysimplemente, is that everycada singlesoltero judgejuez
298
679581
2591
Nuestro objetivo, sencillamente,
es que cada juez individual
11:34
in the UnitedUnido StatesEstados will use a data-drivenmanejado por datos riskriesgo toolherramienta
299
682172
2192
en los Estados Unidos utilce una herramienta
de medición de riesgo basada en datos
11:36
withindentro the nextsiguiente fivecinco yearsaños.
300
684364
2091
dentro de los próximos 5 años.
11:38
We're now workingtrabajando on riskriesgo toolsherramientas
301
686455
1352
Ahora, estamos trabajando en
herramientas de medición de riesgo
11:39
for prosecutorsfiscales and for policepolicía officersoficiales as well,
302
687807
3284
para los fiscales y agentes de la policía,
11:43
to try to take a systemsistema that runscarreras todayhoy
303
691091
2700
para tratar de tomar
un sistema que actúa hoy
11:45
in AmericaAmerica the samemismo way it did 50 yearsaños agohace,
304
693791
2796
en Estados Unidos de la misma manera
que lo ha hecho en 50 años,
11:48
basedbasado on instinctinstinto and experienceexperiencia,
305
696587
2097
basado en el instinto y la experiencia,
11:50
and make it into one that runscarreras
306
698684
1855
y convertirlo en
uno que funcione
11:52
on datadatos and analyticsanalítica.
307
700539
2469
con base a datos y análisis.
11:55
Now, the great newsNoticias about all this,
308
703008
1921
Ahora, la gran
noticia de todo esto,
11:56
and we have a tontonelada of work left to do,
309
704929
1617
y tenemos mucho
trabajo por hacer,
11:58
and we have a lot of culturecultura to changecambio,
310
706546
1857
y tenemos mucha
cultura que cambiar,
12:00
but the great newsNoticias about all of it
311
708403
1746
pero la gran noticia
sobre todo
12:02
is that we know it workstrabajos.
312
710149
1868
es que sabemos que funciona.
12:04
It's why GoogleGoogle is GoogleGoogle,
313
712017
2153
Por eso Google es Google,
12:06
and it's why all these baseballbéisbol teamsequipos use moneyballmoneyball
314
714170
2462
por eso todos estos equipos
de beisbol usan 'moneyball'
12:08
to winganar gamesjuegos.
315
716632
1781
para ganar juegos.
12:10
The great newsNoticias for us as well
316
718413
1737
La gran noticia
para nosotros es
12:12
is that it's the way that we can transformtransformar
317
720150
1896
que esta es la manera en
que podemos transformar
12:14
the Americanamericano criminalcriminal justicejusticia systemsistema.
318
722046
2321
el sistema de justicia
penal estadounidense.
12:16
It's how we can make our streetscalles safermás seguro,
319
724367
2357
Es cómo podemos hacer
nuestras calles más seguras,
12:18
we can reducereducir our prisonprisión costscostos,
320
726724
2299
podemos reducir
nuestros costos de prisión,
12:21
and we can make our systemsistema much fairermás justo
321
729023
2067
y podemos hacer nuestro sistema
mucho más equitativo
12:23
and more just.
322
731090
1725
y más justo.
12:24
Some people call it datadatos scienceciencia.
323
732815
2162
Algunas personas lo
llaman "ciencia de datos".
12:26
I call it moneyballingMoneyballing criminalcriminal justicejusticia.
324
734977
2301
Yo lo llamo Optimizar la Justicia Penal.
12:29
Thank you.
325
737278
1804
Gracias.
12:31
(ApplauseAplausos)
326
739082
4093
(Aplausos)
Translated by Gonzalo Javier Suarez Prado
Reviewed by Emma Gon

▲Back to top

ABOUT THE SPEAKER
Anne Milgram - Criminal justice reformer
Anne Milgram is committed to using data and analytics to fight crime.

Why you should listen

Anne Milgram is focused on reforming systems through smart data, analytics and technology. She is currently a Professor of Practice and Distinguished Scholar in Residence at New York University School of Law, where she is building a Criminal Justice Innovation Lab, dedicated to using data and technology to transform the American criminal justice system. She also teaches seminars on criminal justice policy and human trafficking. Milgram began her career as a criminal prosecutor, serving in state, local and federal prosecution offices.  She then became the Attorney General of the State of New Jersey, where she served as the Chief Law Enforcement Officer for the State and oversaw the Camden Police Department.

Though her work, Milgram seeks to bring the best of the modern world -- data, technology and analytics -- to bear in an effort to transform outdated systems and practices. Milgram is centered on creating a paradigm shift in how we think about innovation and reform in the criminal justice system and beyond.

Milgram graduated summa cum laude from Rutgers University and holds a Master of Philosophy in social and political theory from the University of Cambridge. She received her law degree from New York University School of Law.

More profile about the speaker
Anne Milgram | Speaker | TED.com