ABOUT THE SPEAKER
Anne Milgram - Criminal justice reformer
Anne Milgram is committed to using data and analytics to fight crime.

Why you should listen

Anne Milgram is focused on reforming systems through smart data, analytics and technology. She is currently a Professor of Practice and Distinguished Scholar in Residence at New York University School of Law, where she is building a Criminal Justice Innovation Lab, dedicated to using data and technology to transform the American criminal justice system. She also teaches seminars on criminal justice policy and human trafficking. Milgram began her career as a criminal prosecutor, serving in state, local and federal prosecution offices.  She then became the Attorney General of the State of New Jersey, where she served as the Chief Law Enforcement Officer for the State and oversaw the Camden Police Department.

Though her work, Milgram seeks to bring the best of the modern world -- data, technology and analytics -- to bear in an effort to transform outdated systems and practices. Milgram is centered on creating a paradigm shift in how we think about innovation and reform in the criminal justice system and beyond.

Milgram graduated summa cum laude from Rutgers University and holds a Master of Philosophy in social and political theory from the University of Cambridge. She received her law degree from New York University School of Law.

More profile about the speaker
Anne Milgram | Speaker | TED.com
TED@BCG San Francisco

Anne Milgram: Why smart statistics are the key to fighting crime

Anne Milgram: Pourquoi les statistiques sont des éléments clefs pour combattre le crime

Filmed:
1,034,735 views

Lorsqu'elle est devenue procureur général du New Jersey en 2007, Anne Milgram a rapidement découvert quelques faits troublants : non seulement son équipe ne savait pas vraiment qui ils mettaient en prison, mais ils n'avaient aucun moyen de comprendre si leurs décisions était prise pour la sécurité des citoyens. C'est ainsi que commença son incroyablement inspirante quête de l'analyse de données et de l'analyse statistiques du système de justice pénale des Etats-Unis.
- Criminal justice reformer
Anne Milgram is committed to using data and analytics to fight crime. Full bio

Double-click the English transcript below to play the video.

00:12
In 2007, I becamedevenu the attorneyavocat generalgénéral
0
843
2591
En 2007, je suis devenue procureur général
00:15
of the stateEtat of NewNouveau JerseyMaillot.
1
3434
1725
de l'état du New Jersey.
00:17
Before that, I'd been a criminalcriminel prosecutorProcureur,
2
5159
2280
Auparavant, j'étais procureur général,
00:19
first in the ManhattanManhattan districtdistrict attorney'sdu Procureur officeBureau,
3
7439
2681
d'abord au sein du bureau
du procureur de Manhattan,
00:22
and then at the UnitedUnie StatesÉtats DepartmentDépartement of JusticeJustice.
4
10120
2650
puis au Ministère de la Justice
des Etats-Unis.
00:24
But when I becamedevenu the attorneyavocat generalgénéral,
5
12770
2201
Mais lorsque je suis devenue
procureur général,
00:26
two things happenedarrivé that changedmodifié
the way I see criminalcriminel justiceJustice.
6
14971
3895
deux choses se sont passées et ont changé la façon
dont je voyais la justice pénale.
00:30
The first is that I askeda demandé what I thought
7
18866
2030
La première, c'est que j'ai posé,
ce que je pensais être,
00:32
were really basicde base questionsdes questions.
8
20896
2186
des questions vraiment basiques.
00:35
I wanted to understandcomprendre who we were arrestingarrêtant,
9
23082
2856
Je voulais comprendre qui étaient
les personnes qu'on arrêtait,
00:37
who we were chargingcharger,
10
25938
1664
qui est-ce qu'on accusait,
00:39
and who we were puttingen mettant in our nation'snation jailsprisons
11
27602
2128
et qui est-ce qu'on mettait
dans nos prisons d'état.
00:41
and prisonsprisons.
12
29730
1416
00:43
I alsoaussi wanted to understandcomprendre
13
31146
1648
Je voulais aussi comprendre
00:44
if we were makingfabrication decisionsles décisions
14
32794
1329
si nous prenions les décisions
00:46
in a way that madefabriqué us saferplus sûr.
15
34123
2518
de telle manière
à ce qu'on soit plus en sécurité.
00:48
And I couldn'tne pouvait pas get this informationinformation out.
16
36641
3252
Et je n'arrivais pas
à obtenir ces informations.
00:51
It turnedtourné out that mostles plus biggros criminalcriminel justiceJustice agenciesagences
17
39893
3357
Il s'est avéré que la plupart
des grandes organisations de justice
00:55
like my ownposséder
18
43250
1302
comme la mienne
00:56
didn't trackPiste the things that mattermatière.
19
44552
2382
ne suivent pas les choses qui comptent.
00:58
So after about a monthmois of beingétant incrediblyincroyablement frustratedfrustré,
20
46934
3318
Donc après un mois
d'incroyable frustration,
01:02
I walkedmarcha down into a conferenceconférence roomchambre
21
50252
1971
je suis entrée
dans une salle de conférence
01:04
that was filledrempli with detectivesdétectives
22
52223
1890
remplie d'enquêteurs
01:06
and stackspiles and stackspiles of caseCas filesfichiers,
23
54113
2782
et de tas et de tas de dossiers,
01:08
and the detectivesdétectives were sittingséance there
24
56895
1176
les enquêteurs étaient assis là
01:10
with yellowjaune legallégal padstampons takingprise notesRemarques.
25
58071
2234
avec des bloc-notes jaunes réglementaires.
01:12
They were tryingen essayant to get the informationinformation
26
60305
1586
Ils essayaient d'obtenir les informations
01:13
I was looking for
27
61891
1218
que je cherchais
01:15
by going throughpar caseCas by caseCas
28
63109
2045
en vérifiant chaque affaire
01:17
for the pastpassé fivecinq yearsannées.
29
65154
1898
des cinq dernières années.
01:19
And as you can imagineimaginer,
30
67052
1653
Comme vous pouvez l'imaginer,
01:20
when we finallyenfin got the resultsrésultats, they weren'tn'étaient pas good.
31
68705
2643
quand on a finalement obtenu
les résultats, ils n'étaient pas bons.
01:23
It turnedtourné out that we were doing
32
71348
1655
Il s'est avéré que nous traitions
01:25
a lot of low-levelbas niveau drugdrogue casescas
33
73003
2020
beaucoup de petites affaires de drogue
01:27
on the streetsdes rues just around the cornercoin
34
75023
1475
dans le quartier juste au coin de la rue
01:28
from our officeBureau in TrentonTrenton.
35
76498
2268
de notre bureau de Trenton.
01:30
The secondseconde thing that happenedarrivé
36
78766
1467
La deuxième chose qui s'est passée
01:32
is that I spentdépensé the day in the CamdenCamden,
NewNouveau JerseyMaillot policepolice departmentdépartement.
37
80233
3674
c'est que j'ai passé la journée
dans le département de la police
de Camden, au New Jersey.
01:35
Now, at that time, CamdenCamden, NewNouveau JerseyMaillot,
38
83907
1887
A cette époque, Camden, New Jersey,
01:37
was the mostles plus dangerousdangereux cityville in AmericaL’Amérique.
39
85794
2652
était la ville la plus dangereuse
en Amérique.
01:40
I rancouru the CamdenCamden PolicePolice
DepartmentDépartement because of that.
40
88446
3827
J'ai choisi de diriger le département de police
de Camden pour ça.
01:44
I spentdépensé the day in the policepolice departmentdépartement,
41
92273
2112
J'ai passé la journée
dans le département de la police,
01:46
and I was takenpris into a roomchambre
with seniorSénior policepolice officialsfonctionnaires,
42
94385
2726
on m'a emmenée dans une salle
avec les officiers de police,
01:49
all of whomqui were workingtravail harddifficile
43
97111
1675
ils travaillaient tous très dur
01:50
and tryingen essayant very harddifficile to reduceréduire crimela criminalité in CamdenCamden.
44
98786
3257
et essayaient vraiment de réduire
la criminalité à Camden.
01:54
And what I saw in that roomchambre,
45
102043
1826
Ce que j'ai vu dans cette salle,
01:55
as we talkeda parlé about how to reduceréduire crimela criminalité,
46
103869
2245
alors qu'on parlait
de réduire la criminalité,
01:58
were a seriesséries of officersofficiers with a
lot of little yellowjaune stickygluant notesRemarques.
47
106114
3859
c'est un groupe d'officiers
avec beaucoup de post-it jaunes.
02:01
And they would take a yellowjaune stickygluant
and they would writeécrire something on it
48
109973
2846
Ils prenaient un post-it jaune
et ils écrivaient quelque chose dessus
02:04
and they would put it up on a boardplanche.
49
112823
1799
et le plaçait sur un tableau.
02:06
And one of them said,
"We had a robberyvol qualifié two weekssemaines agodepuis.
50
114622
2171
L'un deux a dit, « Nous avons eu
un vol il y a deux semaines.
02:08
We have no suspectssuspects."
51
116793
1711
Nous n'avons pas de suspects. »
02:10
And anotherun autre said, "We had a shootingtournage in this neighborhoodquartier last weekla semaine. We have no suspectssuspects."
52
118504
5027
Un autre a dit : « Nous avons eu une fusillade
dans le quartier la semaine dernière.
Nous n'avons pas de suspects. »
02:15
We weren'tn'étaient pas usingen utilisant data-drivenpilotés par les données policingmaintien de l’ordre.
53
123531
2583
Nous n'utilisions pas
de surveillance statistique.
02:18
We were essentiallyessentiellement tryingen essayant to fightbats toi crimela criminalité
54
126114
2042
Nous combattions le crime essentiellement
02:20
with yellowjaune Post-itPost-it notesRemarques.
55
128156
2527
avec des notes sur des post-it jaunes.
02:22
Now, bothtous les deux of these things madefabriqué me realizeprendre conscience de
56
130683
2135
Ces deux choses m'ont fait
prendre conscience
02:24
fundamentallyfondamentalement that we were failingéchouer.
57
132818
3251
qu'on échouait fondamentalement.
02:28
We didn't even know who was
in our criminalcriminel justiceJustice systemsystème,
58
136069
3123
Nous ne savions même pas qui était
dans notre système de justice pénale,
02:31
we didn't have any dataLes données about
the things that matteredimportait,
59
139192
3235
nous n'avions aucune idée
des choses qui importaient,
02:34
and we didn't sharepartager dataLes données or use analyticsanalytique
60
142427
2568
et nous ne partagions
aucune données ou analyses
02:36
or toolsoutils to help us make better decisionsles décisions
61
144995
2151
ou encore outils pour nous aider
à prendre de meilleures décisions
02:39
and to reduceréduire crimela criminalité.
62
147146
2003
et réduire la criminalité.
02:41
And for the first time, I startedcommencé to think
63
149149
2224
Et pour la première fois,
j'ai commencé à penser
02:43
about how we madefabriqué decisionsles décisions.
64
151373
1910
à la façon dont on prenait des décisions.
02:45
When I was an assistantAssistant D.A.,
65
153283
1397
Lorsque j'étais assistante du procureur
02:46
and when I was a federalfédéral prosecutorProcureur,
66
154680
1870
puis quand j'étais procureur général,
02:48
I lookedregardé at the casescas in frontde face of me,
67
156550
1746
je regardais les affaires en face de moi,
02:50
and I generallygénéralement madefabriqué decisionsles décisions basedbasé on my instinctinstinct
68
158296
2626
et je prenais généralement
des décisions basées sur mon instinct
02:52
and my experienceexpérience.
69
160922
1692
et mon expérience.
02:54
When I becamedevenu attorneyavocat generalgénéral,
70
162614
1659
Lorsque je suis devenue procureur général,
02:56
I could look at the systemsystème as a wholeentier,
71
164273
1639
je pouvais observer le système
dans son ensemble,
02:57
and what surprisedsurpris me is that I founda trouvé
72
165912
1818
et ce qui m'a surpris c'est que j'ai trouvé
02:59
that that was exactlyexactement how we were doing it
73
167730
1905
que c'était exactement
comme ça que nous le faisions
03:01
acrossà travers the entiretout systemsystème --
74
169635
2303
au sein du système entier --
03:03
in policepolice departmentsdépartements, in prosecutors'sde procureurs officesdes bureaux,
75
171938
2401
dans les commissariats de police,
les bureaux des procureurs,
03:06
in courtstribunaux and in jailsprisons.
76
174339
2800
les tribunaux et les prisons.
03:09
And what I learnedappris very quicklyrapidement
77
177139
2197
Ce que j'ai appris très rapidement
03:11
is that we weren'tn'étaient pas doing a good jobemploi.
78
179336
3633
c'est que nous ne faisions pas
du bon travail.
03:14
So I wanted to do things differentlydifféremment.
79
182969
2016
Donc j'ai voulu faire
les choses différemment.
03:16
I wanted to introduceprésenter dataLes données and analyticsanalytique
80
184985
2197
Je voulais introduire
des données et des analyses
03:19
and rigorousrigoureux statisticalstatistique analysisune analyse
81
187182
2049
des analyses statistiques rigoureuses
03:21
into our work.
82
189231
1400
de notre travail.
03:22
In shortcourt, I wanted to moneyballMoneyball criminalcriminel justiceJustice.
83
190631
2970
En clair, je voulais faire
du moneyball en justice pénale.
03:25
Now, moneyballMoneyball, as manybeaucoup of you know,
84
193601
2027
Maintenant, le moneyball,
comme beaucoup d'entre vous le savent,
03:27
is what the OaklandOakland A'sA. did,
85
195628
1569
c'est ce que l'équipe des Atlantics
d'Oakland a fait
03:29
where they used smartintelligent dataLes données and statisticsstatistiques
86
197197
1973
lorsqu'ils ont utilisé des données
pertinentes et des statistiques
03:31
to figurefigure out how to pickchoisir playersjoueurs
87
199170
1622
pour définir comment choisir des joueurs
03:32
that would help them wingagner gamesJeux,
88
200792
1521
qui les aideraient à gagner des matchs,
03:34
and they wentest allé from a systemsystème that
was basedbasé on baseballbase-ball scoutsScouts
89
202313
2980
ils sont partis d'un système fondé
sur des guetteurs de baseball
03:37
who used to go out and watch playersjoueurs
90
205293
1860
qui sortaient voir les joueurs
03:39
and use theirleur instinctinstinct and experienceexpérience,
91
207153
1637
et utilisaient leur instinct
et leur expérience,
03:40
the scouts'des scouts instinctsinstincts and experienceexpérience,
92
208790
1743
l'instinct de guetteur et l'expérience,
03:42
to pickchoisir playersjoueurs, from one to use
93
210533
1713
pour sélectionner
des joueurs, en utilisant
03:44
smartintelligent dataLes données and rigorousrigoureux statisticalstatistique analysisune analyse
94
212246
2822
des données pertinentes
et une analyse statistique rigoureuse
03:47
to figurefigure out how to pickchoisir playersjoueurs
that would help them wingagner gamesJeux.
95
215068
3371
pour décider comment choisir les joueurs
qui les aideraient à gagner des matchs.
03:50
It workedtravaillé for the OaklandOakland A'sA.,
96
218439
1798
Ça a marché pour les Atlantic d'Oakland,
03:52
and it workedtravaillé in the stateEtat of NewNouveau JerseyMaillot.
97
220237
2219
et ça a marché pour l'état du New Jersey.
03:54
We tooka pris CamdenCamden off the topHaut of the listliste
98
222456
2073
Nous avons sorti Camden
du haut de la liste
03:56
as the mostles plus dangerousdangereux cityville in AmericaL’Amérique.
99
224529
2171
des villes les plus dangereuses
en Amérique.
03:58
We reducedréduit murdersmeurtres there by 41 percentpour cent,
100
226700
3155
Nous avons réduit
les meurtres de 41 pour cent,
04:01
whichlequel actuallyréellement meansveux dire 37 livesvies were savedenregistré.
101
229855
2982
ce qui en réalité correspond
à 37 vies sauvées.
04:04
And we reducedréduit all crimela criminalité in the cityville by 26 percentpour cent.
102
232837
3740
Et nous avons réduit la criminalité
totale dans la ville de 26 pour cent.
04:08
We alsoaussi changedmodifié the way
we did criminalcriminel prosecutionspoursuites.
103
236577
3239
Nous avons aussi modifié la façon dont
nous menons les poursuites criminelles.
04:11
So we wentest allé from doing low-levelbas niveau drugdrogue crimescrimes
104
239816
2005
Donc nous sommes passé
des délits mineurs liés à la drogue
04:13
that were outsideà l'extérieur our buildingbâtiment
105
241821
1642
qui avaient lieu
à la sortie de notre bâtiment
04:15
to doing casescas of statewidepar État importanceimportance,
106
243463
2342
à traiter des affaires d'importance
à l'échelle de l'état,
04:17
on things like reducingréduire violencela violence
with the mostles plus violentviolent offendersdélinquants,
107
245805
3158
à réduire les violences issues
des délinquants les plus violents
04:20
prosecutingpoursuivre streetrue gangsgangs,
108
248963
1858
poursuivre des gangs,
04:22
gunpistolet and drugdrogue traffickingtrafic, and politicalpolitique corruptionla corruption.
109
250821
3408
des trafics d'armes et de drogues,
de la corruption politique.
04:26
And all of this mattersimporte greatlytrès,
110
254229
2502
Tout ça a vraiment de l'importance,
04:28
because publicpublic safetysécurité to me
111
256731
1945
parce que pour moi,
assurer la sécurité publique
04:30
is the mostles plus importantimportant functionfonction of governmentgouvernement.
112
258676
2536
est la plus importante
fonction du gouvernement.
04:33
If we're not safesûr, we can't be educatedéduqué,
113
261212
2298
Si nous ne sommes pas en sécurité,
on ne peut pas être éduqué,
04:35
we can't be healthyen bonne santé,
114
263510
1348
on n'est pas en bonne santé,
04:36
we can't do any of the other things
we want to do in our livesvies.
115
264858
2945
on ne peut rien faire de toutes les autres
choses que l'on veut dans nos vies.
04:39
And we livevivre in a countryPays todayaujourd'hui
116
267803
1701
Aujourd'hui, nous vivons dans un pays
04:41
where we facevisage serioussérieux criminalcriminel justiceJustice problemsproblèmes.
117
269504
3134
qui fait face à de sérieux problèmes
de justice criminelle.
04:44
We have 12 millionmillion arrestsarrestations everychaque singleunique yearan.
118
272638
3661
Nous avons 12 millions d'arrestations
chaque année.
04:48
The vastvaste majoritymajorité of those arrestsarrestations
119
276299
2043
La grande majorité de ces arrestations
04:50
are for low-levelbas niveau crimescrimes, like misdemeanorsdélits,
120
278342
3012
concernent des petits crimes,
comme des délits mineurs,
04:53
70 to 80 percentpour cent.
121
281354
1734
70 à 80 pour cent.
04:55
LessMoins than fivecinq percentpour cent of all arrestsarrestations
122
283088
1991
Moins de cinq pour cent
de toutes les arrestations
04:57
are for violentviolent crimela criminalité.
123
285079
1895
sont pour des crimes violents.
04:58
YetEncore we spenddépenser 75 billionmilliard,
124
286974
2055
Pourtant nous avons dépensé 75 milliards,
05:01
that's b for billionmilliard,
125
289029
1418
je dis bien milliards,
05:02
dollarsdollars a yearan on stateEtat and locallocal correctionsservices correctionnels costsfrais.
126
290447
4127
de dollars par an
en dépenses fédérale et locale.
05:06
Right now, todayaujourd'hui, we have 2.3 millionmillion people
127
294574
2841
Maintenant, aujourd'hui,
nous avons 2,3 millions de personnes
05:09
in our jailsprisons and prisonsprisons.
128
297415
1900
dans nos prisons.
05:11
And we facevisage unbelievableincroyable publicpublic safetysécurité challengesdéfis
129
299315
2796
Nous faisons face à des défis
inimaginables de sécurité publique
05:14
because we have a situationsituation
130
302111
1939
parce que nous sommes
dans une situation
05:16
in whichlequel two thirdstiers of the people in our jailsprisons
131
304050
2898
où deux tiers des gens
dans nos prisons
05:18
are there waitingattendre for trialprocès.
132
306948
1754
sont là en attente de procès.
05:20
They haven'tn'a pas yetencore been convictedcondamné of a crimela criminalité.
133
308702
2135
Ils n'ont pas été reconnus
coupables de crime.
05:22
They're just waitingattendre for theirleur day in courttribunal.
134
310837
2119
Ils attendent simplement
leurs tours au tribunal.
05:24
And 67 percentpour cent of people come back.
135
312956
3548
Et 67 pour cent des gens reviennent.
05:28
Our recidivismrécidive ratetaux is amongstparmi
the highestle plus élevé in the worldmonde.
136
316504
3028
Notre taux de récidive est parmi
les plus hauts du monde.
05:31
AlmostPresque sevenSept in 10 people who are releasedlibéré
137
319532
2103
Presque sept personnes sur dix
qui sont relâchées
05:33
from prisonprison will be rearrestedarrêté une nouvelle fois
138
321635
1651
de prison seront, de nouveau, arrêtés
05:35
in a constantconstant cyclecycle of crimela criminalité and incarcerationincarcération.
139
323286
3955
dans un cycle régulier
de crime et d'incarcération.
05:39
So when I startedcommencé my jobemploi at the ArnoldArnold FoundationFondation,
140
327241
2582
Donc lorsque j'ai commencé
mon travail à la Fondation Arnold,
05:41
I camevenu back to looking at a lot of these questionsdes questions,
141
329823
2736
je suis revenue pour étudier
beaucoup de ces questions,
05:44
and I camevenu back to thinkingen pensant about how
142
332559
1654
je suis revenue pour réfléchir à la façon
05:46
we had used dataLes données and analyticsanalytique to transformtransformer
143
334213
2383
dont nous avions utiliser les données
et les analyses pour transformer
05:48
the way we did criminalcriminel justiceJustice in NewNouveau JerseyMaillot.
144
336596
2584
la façon dont nous traitions
la justice pénale au New Jersey.
05:51
And when I look at the criminalcriminel justiceJustice systemsystème
145
339180
2144
Lorsque je regarde le système
de justice pénale
05:53
in the UnitedUnie StatesÉtats todayaujourd'hui,
146
341324
1656
aux Etats-Unis aujourd'hui,
05:54
I feel the exactexact sameMême way that I did
147
342980
1639
j'ai exactement
le même sentiment que j'avais
05:56
about the stateEtat of NewNouveau JerseyMaillot when I startedcommencé there,
148
344619
2466
au sujet de l'état du New Jersey
quand j'ai commencé ici,
05:59
whichlequel is that we absolutelyabsolument have to do better,
149
347085
3228
qui est que nous devons
absolument faire mieux
06:02
and I know that we can do better.
150
350313
1923
et je sais
que nous pouvons mieux faire.
06:04
So I decideddécidé to focusconcentrer
151
352236
1705
J'ai donc décidé de nous concentrer
06:05
on usingen utilisant dataLes données and analyticsanalytique
152
353941
2217
sur l'utilisation
des données et les analyses
06:08
to help make the mostles plus criticalcritique decisiondécision
153
356158
2361
pour aider à prendre
la décision la plus cruciale
06:10
in publicpublic safetysécurité,
154
358519
1606
en matière de sécurité publique.
06:12
and that decisiondécision is the determinationdétermination
155
360125
2021
Il s'agit de déterminer,
06:14
of whetherqu'il s'agisse, when someoneQuelqu'un has been arrestedarrêté,
156
362146
2535
lorsque quelqu'un est arrêté,
06:16
whetherqu'il s'agisse they posepose a riskrisque to publicpublic safetysécurité
157
364681
1915
si il pose un risque
pour la sécurité publique
06:18
and should be detainedplacé en détention,
158
366596
1526
et devrait être détenu,
06:20
or whetherqu'il s'agisse they don't posepose a riskrisque to publicpublic safetysécurité
159
368122
2356
ou s'il ne pose pas de risque
pour la sécurité publique
06:22
and should be releasedlibéré.
160
370478
1637
et pourrait être relâché.
06:24
Everything that happensarrive in criminalcriminel casescas
161
372115
1919
Tout ce qui arrive
dans les affaires criminelles
06:26
comesvient out of this one decisiondécision.
162
374034
1772
ressort de cette unique décision.
06:27
It impactsimpacts everything.
163
375806
1496
Elle influence tout.
06:29
It impactsimpacts sentencingdétermination de la peine.
164
377302
1350
Elle influence la condamnation.
06:30
It impactsimpacts whetherqu'il s'agisse someoneQuelqu'un getsobtient drugdrogue treatmenttraitement.
165
378652
1901
Elle conditionne si quelqu'un
reçoit un traitement médical.
06:32
It impactsimpacts crimela criminalité and violencela violence.
166
380553
2323
Elle influence les crimes et la violence.
06:34
And when I talk to judgesjuges around the UnitedUnie StatesÉtats,
167
382876
1937
Lorsque je parle aux juges
à travers les Etats-Unis,
06:36
whichlequel I do all the time now,
168
384813
1928
ce que je fais tout le temps maintenant,
06:38
they all say the sameMême thing,
169
386741
1837
ils disent tous la même chose,
06:40
whichlequel is that we put dangerousdangereux people in jailprison,
170
388578
3107
qui est : « Nous mettons
les gens dangereux en prison,
06:43
and we let non-dangerousnon dangereux, nonviolentnon-violente people out.
171
391685
3525
et nous laissons les personnes
non dangereuses, non violentes dehors. »
06:47
They mean it and they believe it.
172
395210
2233
Ils le pensent et ils y croient.
06:49
But when you startdébut to look at the dataLes données,
173
397443
1733
Mais quand on commence
à regarder les données,
06:51
whichlequel, by the way, the judgesjuges don't have,
174
399176
2464
que les juges n'ont pas, au passage,
06:53
when we startdébut to look at the dataLes données,
175
401640
1612
lorsqu'on commence
à regarder les données,
06:55
what we find time and time again,
176
403252
2418
on trouve encore trop souvent
06:57
is that this isn't the caseCas.
177
405670
1982
que ce n'est pas le cas.
06:59
We find low-riskfaible risque offendersdélinquants,
178
407652
1681
On trouve des délinquants à faibles risques,
07:01
whichlequel makesfait du up 50 percentpour cent of our
entiretout criminalcriminel justiceJustice populationpopulation,
179
409333
3714
qui représentent jusqu'à 50 pour cent
de notre population carcérale entière,
07:05
we find that they're in jailprison.
180
413047
2399
on voit qu'ils sont en prison.
07:07
Take LeslieLeslie ChewClausse, who was a TexasTexas man
181
415446
2486
Prenez Leslie Chew, qui est un texan
07:09
who stolea volé fourquatre blanketscouvertures on a colddu froid winterhiver night.
182
417932
2884
qui a volé quatre couvertures
lors d'une froide nuit d'hiver.
07:12
He was arrestedarrêté, and he was keptconservé in jailprison
183
420816
2595
Il a été arrêté et fut gardé en prison
07:15
on 3,500 dollarsdollars bailen liberté sous caution,
184
423411
2053
avec une caution de 3500 dollars,
07:17
an amountmontant that he could not affordoffrir to payPayer.
185
425464
2776
une somme qu'il ne pouvait pas
se permettre de payer.
07:20
And he stayedséjourné in jailprison for eighthuit monthsmois
186
428240
2588
Il est resté en prison pendant huit mois
07:22
untiljusqu'à his caseCas camevenu up for trialprocès,
187
430828
2065
jusqu'à ce que son affaire soit jugée,
07:24
at a costCoût to taxpayerscontribuables of more than 9,000 dollarsdollars.
188
432893
3905
avec une facture pour les contribuables
de plus de 9000 dollars.
07:28
And at the other endfin of the spectrumspectre,
189
436798
1997
De l'autre côté du spectre,
07:30
we're doing an equallyégalement terribleterrible jobemploi.
190
438795
2282
on fait un travail aussi mauvais.
07:33
The people who we find
191
441077
1572
Les gens que nous y trouvons
07:34
are the highest-riskrisque le plus élevé offendersdélinquants,
192
442649
2019
sont les criminels les plus dangereux,
07:36
the people who we think have the highestle plus élevé likelihoodprobabilité
193
444668
2497
les gens que nous estimons
avoir la plus haute probabilité
07:39
of committingcommettre a newNouveau crimela criminalité if they're releasedlibéré,
194
447165
1952
de commettre un nouveau crime
s'ils sont relâchés,
07:41
we see nationallyà l’échelle nationale that 50 percentpour cent of those people
195
449117
2950
au niveau national, on voit
que pour cent de ces personnes
07:44
are beingétant releasedlibéré.
196
452067
1974
sont libérées.
07:46
The reasonraison for this is the way we make decisionsles décisions.
197
454041
3174
La raison à ça est la façon
dont nous prenons les décisions.
07:49
JudgesJuges have the bestmeilleur intentionsintentions
198
457215
1709
Les juges ont les meilleurs intentions
07:50
when they make these decisionsles décisions about riskrisque,
199
458924
1952
lorsqu'ils prennent
ces décisions sur le risque,
07:52
but they're makingfabrication them subjectivelysubjectivement.
200
460876
2484
mais ils le font de manière subjective.
07:55
They're like the baseballbase-ball scoutsScouts 20 yearsannées agodepuis
201
463360
2146
Ils sont comme les éclaireurs
du baseball il y a 20 ans,
07:57
who were usingen utilisant theirleur instinctinstinct and theirleur experienceexpérience
202
465506
2131
qui utilisaient leur instinct
et leur expérience
07:59
to try to decidedécider what riskrisque someoneQuelqu'un posespose.
203
467637
2679
pour essayer de déterminer
quels étaient les risques de quelqu'un.
08:02
They're beingétant subjectivesubjectif,
204
470316
1530
Ils sont subjectifs,
08:03
and we know what happensarrive
with subjectivesubjectif decisiondécision makingfabrication,
205
471846
3060
nous savons que ce qui arrive avec
des décisions prises subjectivement,
08:06
whichlequel is that we are oftensouvent wrongfaux.
206
474906
2743
c'est que nous avons souvent tort.
08:09
What we need in this spaceespace
207
477649
1383
Ce dont nous avons besoin ici
08:11
are strongfort dataLes données and analyticsanalytique.
208
479032
2552
sont des données solides et des analyses.
08:13
What I decideddécidé to look for
209
481584
1747
Ce que j'ai décidé de chercher
08:15
was a strongfort dataLes données and analyticanalytique riskrisque assessmentévaluation tooloutil,
210
483331
2836
était des données solides
et un outil analytique
08:18
something that would let judgesjuges actuallyréellement understandcomprendre
211
486167
2764
quelque chose qui donnerait aux juges
la possibilité de comprendre vraiment
08:20
with a scientificscientifique and objectiveobjectif way
212
488931
2259
d'une façon scientifique et objective
08:23
what the riskrisque was that was posedposé
213
491190
1647
quel était le risque qui était posé
08:24
by someoneQuelqu'un in frontde face of them.
214
492837
1610
par la personne en face d'eux.
08:26
I lookedregardé all over the countryPays,
215
494447
1649
J'ai cherché partout dans le pays,
08:28
and I founda trouvé that betweenentre fivecinq and 10 percentpour cent
216
496096
1942
et j'ai trouvé qu'entre 5 et 10 pour cent
08:30
of all U.S. jurisdictionsjuridictions
217
498038
1329
des juridictions américaines
08:31
actuallyréellement use any typetype of riskrisque assessmentévaluation tooloutil,
218
499367
2978
utilisait en fait tous types d'outil
d'analyse de risque,
08:34
and when I lookedregardé at these toolsoutils,
219
502345
1625
et lorsque j'étudiais ces outils,
08:35
I quicklyrapidement realizedréalisé why.
220
503970
1860
j'ai rapidement compris pourquoi.
08:37
They were unbelievablyincroyablement expensivecoûteux to administeradministrer,
221
505830
2690
Ils étaient incroyablement
cher à administrer,
08:40
they were time-consumingbeaucoup de temps,
222
508520
1528
ils exigeaient beaucoup de temps,
08:42
they were limitedlimité to the locallocal jurisdictioncompétence
223
510048
2107
ils étaient limités à la juridiction locale
08:44
in whichlequel they'dils auraient been createdcréé.
224
512155
1430
dans laquelle ils avaient été créés.
08:45
So basicallyen gros, they couldn'tne pouvait pas be scaledescaladé
225
513585
1793
Donc, ils ne pouvaient pas s'étendre
08:47
or transferredtransféré to other placesdes endroits.
226
515378
2209
ou être transférés à d'autres endroits.
08:49
So I wentest allé out and builtconstruit a phenomenalphénoménal teaméquipe
227
517587
2237
Donc je suis sortie et j'ai construit
une équipe phénoménale
08:51
of dataLes données scientistsscientifiques and researchersdes chercheurs
228
519824
2044
d'analystes, de chercheurs
08:53
and statisticiansstatisticiens
229
521868
1626
et de statisticiens
08:55
to buildconstruire a universaluniversel riskrisque assessmentévaluation tooloutil,
230
523494
2845
pour construire un outil
d'analyse de risque universel,
08:58
so that everychaque singleunique judgejuge in
the UnitedUnie StatesÉtats of AmericaL’Amérique
231
526339
2393
pour que chaque juge aux Etats-Unis
09:00
can have an objectiveobjectif, scientificscientifique measuremesure of riskrisque.
232
528732
4324
puisse avoir une mesure du risque
objective et scientifique.
09:05
In the tooloutil that we'venous avons builtconstruit,
233
533056
1658
Dans l'outil que nous avons construit,
09:06
what we did was we collectedrecueilli 1.5 millionmillion casescas
234
534714
2868
nous avons collecté 1,5 millions d'affaires
09:09
from all around the UnitedUnie StatesÉtats,
235
537582
1698
de tous les Etats-Unis,
09:11
from citiesvilles, from countiescomtés,
236
539280
1644
des villes, des comtés,
09:12
from everychaque singleunique stateEtat in the countryPays,
237
540924
1511
de chaque état du pays,
09:14
the federalfédéral districtsquartiers.
238
542435
1746
des cours fédérales.
09:16
And with those 1.5 millionmillion casescas,
239
544181
2189
Avec ces 1,5 millions d'affaires,
09:18
whichlequel is the largestplus grand dataLes données setensemble on pretrialpréventive
240
546370
1940
ce qui représente
le plus grand jeu de données
09:20
in the UnitedUnie StatesÉtats todayaujourd'hui,
241
548310
1805
aux Etats-Unis aujourd'hui,
09:22
we were ablecapable to basicallyen gros find that there were
242
550115
1865
nous avons été capables
de trouver qu'il y avait
09:23
900-plus-plus riskrisque factorsfacteurs that we could look at
243
551980
3322
plus de 900 facteurs de risques
que nous pouvions analyser
09:27
to try to figurefigure out what matteredimportait mostles plus.
244
555302
2866
pour essayer de comprendre
ce qui comptait vraiment.
09:30
And we founda trouvé that there were nineneuf specificspécifique things
245
558168
2081
Nous avons découvert
qu'il y avat neuf éléments spécifiques
09:32
that matteredimportait all acrossà travers the countryPays
246
560249
2235
qui comptaient à travers le pays
09:34
and that were the mostles plus highlytrès predictiveprédictive of riskrisque.
247
562484
2977
et qui étaient les facteurs de risques
les plus prédictifs.
09:37
And so we builtconstruit a universaluniversel riskrisque assessmentévaluation tooloutil.
248
565461
3705
Donc nous avons construit
un outil d'analyse de risque universel.
09:41
And it looksregards like this.
249
569166
1445
Ça ressemble à ça.
09:42
As you'lltu vas see, we put some informationinformation in,
250
570611
2612
Comme vous le voyez,
on saisit quelques informations
09:45
but mostles plus of it is incrediblyincroyablement simplesimple,
251
573223
2013
mais c'est incroyablement simple,
09:47
it's easyfacile to use,
252
575236
1432
c'est facile à utiliser,
09:48
it focusesse concentre on things like the
defendant'sdu défendeur prioravant convictionsdéclarations de culpabilité,
253
576668
2969
il se concentre sur des choses comme
les anciennes condamnations des accusés
09:51
whetherqu'il s'agisse they'veils ont been sentencedcondamné to incarcerationincarcération,
254
579637
1979
s'ils ont été condamnés
à des peines de prison ferme,
09:53
whetherqu'il s'agisse they'veils ont engagedengagé in violencela violence before,
255
581616
2264
s'ils ont été impliqués
dans des violences auparavant,
09:55
whetherqu'il s'agisse they'veils ont even failedéchoué to come back to courttribunal.
256
583880
2393
s'ils ont échoué
en revenant devant une cour.
09:58
And with this tooloutil, we can predictprédire threeTrois things.
257
586273
2500
Avec cet outil,
on peut prédire trois choses.
10:00
First, whetherqu'il s'agisse or not someoneQuelqu'un will commitcommettre
258
588773
1853
Premièrement, si quelqu'un va commettre
10:02
a newNouveau crimela criminalité if they're releasedlibéré.
259
590626
1565
un nouveau crime une fois relâché.
10:04
SecondSeconde, for the first time,
260
592191
1664
Deuxièmement, pour la première fois,
10:05
and I think this is incrediblyincroyablement importantimportant,
261
593855
1861
et je crois que c'est
extrêmement important,
10:07
we can predictprédire whetherqu'il s'agisse someoneQuelqu'un will commitcommettre
262
595716
1923
on peut prédire
si quelqu'un va commettre
10:09
an actacte of violencela violence if they're releasedlibéré.
263
597639
1834
un acte violent s'il est relâché.
10:11
And that's the singleunique mostles plus importantimportant thing
264
599473
1887
Et c'est la chose la plus importante
10:13
that judgesjuges say when you talk to them.
265
601360
1807
que les juges vous disent
quand vous parlez avec eux.
10:15
And thirdtroisième, we can predictprédire whetherqu'il s'agisse someoneQuelqu'un
266
603167
1828
Ensuite, on peut prédire si quelqu'un
10:16
will come back to courttribunal.
267
604995
1990
retournera devant un tribunal.
10:18
And everychaque singleunique judgejuge in the
UnitedUnie StatesÉtats of AmericaL’Amérique can use it,
268
606985
3033
Et chacun des juges
aux Etats-Unis peut l'utiliser
10:22
because it's been createdcréé on a universaluniversel dataLes données setensemble.
269
610018
3812
parce qu'il a été créé
avec un jeu de données universel.
10:25
What judgesjuges see if they runcourir the riskrisque assessmentévaluation tooloutil
270
613830
2609
Ce que les jugent voient lorsqu'ils
lancent l'outil de calcul des risques
10:28
is this -- it's a dashboardTableau de bord.
271
616439
2120
c'est ça, un tableau de bord.
10:30
At the topHaut, you see the NewNouveau CriminalCriminel ActivityActivité ScoreScore,
272
618559
2848
En haut, on voit le résultat
du New Criminal Activity,
10:33
sixsix of coursecours beingétant the highestle plus élevé,
273
621407
1929
six est bien sûr le plus haut,
10:35
and then in the middlemilieu you
see, "ElevatedSurélevée riskrisque of violencela violence."
274
623336
2403
et ensuite, au milieu vous voyez,
"un risque élevé de violence".
10:37
What that saysdit is that this personla personne
275
625739
1746
Ce que ça indique c'est si cette personne
10:39
is someoneQuelqu'un who has an elevatedélevé riskrisque of violencela violence
276
627485
2060
est quelqu'un qui a
un risque élevé de violence
10:41
that the judgejuge should look twicedeux fois at.
277
629545
1885
alors le juge devrait
y regarder deux fois.
10:43
And then, towardsvers the bottombas,
278
631430
1336
Ensuite, vers le bas,
10:44
you see the FailureÉchec to AppearApparaissent ScoreScore,
279
632766
1968
vous voyez le risque
d'apparition de l'échec,
10:46
whichlequel again is the likelihoodprobabilité
280
634734
1392
qui encore une fois est la probabilité
10:48
that someoneQuelqu'un will come back to courttribunal.
281
636126
3013
que quelqu'un revienne au tribunal.
10:51
Now I want to say something really importantimportant.
282
639139
2213
Maintenant, je voudrais vous dire
quelque chose de vraiment important.
10:53
It's not that I think we should be eliminatingéliminer
283
641352
2727
Je ne pense pas que ça devrait éliminer
10:56
the judge'spar le juge instinctinstinct and experienceexpérience
284
644079
2244
l'instinct et l'expérience des juges
10:58
from this processprocessus.
285
646323
1604
de cet processus.
10:59
I don't.
286
647927
1058
Je ne crois pas.
11:00
I actuallyréellement believe the problemproblème that we see
287
648985
2007
Je crois en réalité que le problème
auquel nous faisons face
11:02
and the reasonraison that we have
these incredibleincroyable systemsystème errorsles erreurs,
288
650992
2854
et la raison pour laquelle
nous avons eu ces incroyables erreurs,
11:05
where we're incarceratingincarcérer
low-levelbas niveau, nonviolentnon-violente people
289
653846
3087
où nous avons incarcéré
des personnes non violentes
11:08
and we're releasingrelâchant high-riskrisque élevé, dangerousdangereux people,
290
656933
3172
et avons relâché des personnes
dangereuses à haut risque,
11:12
is that we don't have an objectiveobjectif measuremesure of riskrisque.
291
660105
2723
c'est que nous n'avions pas
de mesure objective du risque.
11:14
But what I believe should happense produire
292
662828
1300
Mais ce que je crois,
c'est qu'on devrait pouvoir
11:16
is that we should take that
data-drivenpilotés par les données riskrisque assessmentévaluation
293
664128
2800
utiliser cet outil
de détermination des risques
11:18
and combinecombiner that with the
judge'spar le juge instinctinstinct and experienceexpérience
294
666928
3041
et combiner ça avec l'instinct
et l'expérience des juges
11:21
to leadconduire us to better decisiondécision makingfabrication.
295
669969
2958
pour nous mener
à une meilleure prise de décision.
11:24
The tooloutil wentest allé statewidepar État in KentuckyKentucky on JulyJuillet 1,
296
672927
3303
L'outil a été lancé
dans tout le Kentucky le 1er juillet,
11:28
and we're about to go up in a
numbernombre of other U.S. jurisdictionsjuridictions.
297
676230
3351
et nous nous apprêtons à le lancer dans
un certain nombre de juridictions américaines.
11:31
Our goalobjectif, quiteassez simplysimplement, is that everychaque singleunique judgejuge
298
679581
2591
Notre but est tout simplement,
que chaque juge des Etats-Unis
11:34
in the UnitedUnie StatesÉtats will use a data-drivenpilotés par les données riskrisque tooloutil
299
682172
2192
utilise cet outil d'analyse de risque
11:36
withindans the nextprochain fivecinq yearsannées.
300
684364
2091
dans les cinq premières années.
11:38
We're now workingtravail on riskrisque toolsoutils
301
686455
1352
Nous travaillons maintenant
à des outils d'analyse de risque
11:39
for prosecutorspoursuivants and for policepolice officersofficiers as well,
302
687807
3284
pour les procureurs
et les officiers de police également,
11:43
to try to take a systemsystème that runsfonctionne todayaujourd'hui
303
691091
2700
pour essayer de prendre un système
qui fonctionne aujourd'hui
11:45
in AmericaL’Amérique the sameMême way it did 50 yearsannées agodepuis,
304
693791
2796
en Amérique
comme il fonctionnait il y a 50 ans,
11:48
basedbasé on instinctinstinct and experienceexpérience,
305
696587
2097
fondé sur l'instinct et l'expérience,
11:50
and make it into one that runsfonctionne
306
698684
1855
et d'en faire un qui fonctionne
11:52
on dataLes données and analyticsanalytique.
307
700539
2469
à partir de données et d'analyses.
11:55
Now, the great newsnouvelles about all this,
308
703008
1921
Maintenant, la bonne nouvelle
avec tout ça,
11:56
and we have a tonton of work left to do,
309
704929
1617
on a une tonne de travail
qui reste à faire,
11:58
and we have a lot of cultureCulture to changechangement,
310
706546
1857
on doit faire beaucoup
d'accompagnement du changement,
12:00
but the great newsnouvelles about all of it
311
708403
1746
mais la bonne nouvelle à ce sujet
12:02
is that we know it workstravaux.
312
710149
1868
c'est que nous savons que ça fonctionne.
12:04
It's why GoogleGoogle is GoogleGoogle,
313
712017
2153
C'est pour ça que Google est comme Google,
12:06
and it's why all these baseballbase-ball teamséquipes use moneyballMoneyball
314
714170
2462
c'est pourquoi toutes ces équipes
de baseball utilise le moneyball
12:08
to wingagner gamesJeux.
315
716632
1781
pour gagner des matchs.
12:10
The great newsnouvelles for us as well
316
718413
1737
La bonne nouvelle pour nous également
12:12
is that it's the way that we can transformtransformer
317
720150
1896
c'est que c'est la façon dont on modifie
12:14
the AmericanAméricain criminalcriminel justiceJustice systemsystème.
318
722046
2321
le système de justice pénale américain.
12:16
It's how we can make our streetsdes rues saferplus sûr,
319
724367
2357
C'est comme ça que
nous rendons nos rues plus sûre,
12:18
we can reduceréduire our prisonprison costsfrais,
320
726724
2299
nous pouvons réduire
le coût de nos prisons,
12:21
and we can make our systemsystème much fairerplus juste
321
729023
2067
et nous pouvons rendre
notre système plus équitable
12:23
and more just.
322
731090
1725
et plus juste.
12:24
Some people call it dataLes données sciencescience.
323
732815
2162
Certains appellent
ça de la science des données.
12:26
I call it moneyballingmoneyballing criminalcriminel justiceJustice.
324
734977
2301
J'appelle ça le moneyball
de la justice pénale.
12:29
Thank you.
325
737278
1804
Merci.
12:31
(ApplauseApplaudissements)
326
739082
4093
(Applaudissements)
Translated by Elise LeCamp

▲Back to top

ABOUT THE SPEAKER
Anne Milgram - Criminal justice reformer
Anne Milgram is committed to using data and analytics to fight crime.

Why you should listen

Anne Milgram is focused on reforming systems through smart data, analytics and technology. She is currently a Professor of Practice and Distinguished Scholar in Residence at New York University School of Law, where she is building a Criminal Justice Innovation Lab, dedicated to using data and technology to transform the American criminal justice system. She also teaches seminars on criminal justice policy and human trafficking. Milgram began her career as a criminal prosecutor, serving in state, local and federal prosecution offices.  She then became the Attorney General of the State of New Jersey, where she served as the Chief Law Enforcement Officer for the State and oversaw the Camden Police Department.

Though her work, Milgram seeks to bring the best of the modern world -- data, technology and analytics -- to bear in an effort to transform outdated systems and practices. Milgram is centered on creating a paradigm shift in how we think about innovation and reform in the criminal justice system and beyond.

Milgram graduated summa cum laude from Rutgers University and holds a Master of Philosophy in social and political theory from the University of Cambridge. She received her law degree from New York University School of Law.

More profile about the speaker
Anne Milgram | Speaker | TED.com