ABOUT THE SPEAKER
Erin Marie Saltman - Policy researcher
Dr. Erin Marie Saltman manages Facebook's counterterrorism and counter-extremism policy work for Europe, the Middle East and Africa.

Why you should listen

Dr. Erin Marie Saltman's background and expertise includes both Far Right and Islamist extremist processes of radicalization within a range of regional and socio-political contexts. Her research and publications have focused on the evolving nature of online extremism and terrorismgender dynamics within violent extremist organizations and youth radicalization. Saltman has previously held senior research positions at Quilliam Foundation and the Institute for Strategic Dialogue, where she managed international programs. She has also worked with local activists, artists and techies to challenge violent extremism.

As Facebook's Counterterrorism Policy Manager based in London, Saltman regularly speaks with both governments and NGOs on issues related to how Facebook counters terrorism and violent extremism. She has also helped establish the Global Internet Forum to Counter Terrorism, bringing together leading industry partners (Facebook, Google, Microsoft and Twitter) with smaller startups and tech companies to create cross-platform knowledge sharing, technology solutions and research. 

Saltman remains a Research Fellow at the Institute for Strategic Dialogue. She is a graduate of Columbia University (BA) and University College London (MA and PhD). View her articles and publications here.

More profile about the speaker
Erin Marie Saltman | Speaker | TED.com
TEDxGhent

Erin Marie Saltman: How young people join violent extremist groups -- and how to stop them

Erin Marie Saltman: Wie junge Menschen gewaltextremistischen Gruppen beitreten – und wir sie stoppen können

Filmed:
1,214,427 views

Nicht alle Terroristen und Extremisten werden als gewalttätige Soziopathen geboren -- sie werden bewusst rekrutiert und radikalisiert in einem oft schwer nachvollziehbaren Prozess. Erin Marie Saltman diskutiert die Push- und Pull-Faktoren, die Menschen dazu verleiten, extremistischen Gruppen beizutreten. Und zeigt innovative Wege, wie Radikalisierung verhindert und bekämpft werden kann.
- Policy researcher
Dr. Erin Marie Saltman manages Facebook's counterterrorism and counter-extremism policy work for Europe, the Middle East and Africa. Full bio

Double-click the English transcript below to play the video.

00:12
So in 2011, I alteredverändert my nameName
0
833
3398
2011 habe ich meinen Namen geändert,
00:16
so that I could participatesich beteiligen
in FarWeit Right youthJugend campLager in HungaryUngarn.
1
4255
3976
um an einem politisch rechtsorientierten
Jugendlager in Ungarn teilzunehmen.
00:20
I was doing a PhDPhD looking at
youthJugend politicalpolitisch socializationSozialisation --
2
8794
4366
Ich arbeitete an meinem Doktorat im
Bereich politischer Jugendsozialisierung.
00:25
why youngjung people were developingEntwicklung
politicalpolitisch ideologiesIdeologien
3
13184
3071
Warum entwickeln Jugendliche
politische Ideologien im Post-Kommunismus?
00:28
in a post-communistPostkommunist settingRahmen,
4
16279
2010
00:30
and I saw that a lot
of youngjung people I was talkingim Gespräch to
5
18313
3233
Ich merkte, dass viele Jugendliche
rechten Parteien beitraten.
00:33
were joiningBeitritt the FarWeit Right,
6
21570
1600
00:35
and this was astoundingerstaunlich to me.
7
23194
2156
Das überraschte mich.
00:37
So I wanted to enrollMelden Sie sich in this youthJugend campLager
8
25374
2295
Ich wollte an dem Jugendlager teilnehmen,
00:39
to get a better understandingVerstehen
of why people were joiningBeitritt.
9
27693
3136
um zu verstehen, warum Leute da mitmachen.
00:42
So a colleagueKollege enrolledangemeldet me,
10
30853
1557
Ein Kollege schrieb mich ein.
Mein Familienname klingt etwas zu jüdisch.
00:44
and my last nameName soundsGeräusche
a little bitBit too JewishJüdische.
11
32434
2928
00:47
So ErinErin got turnedgedreht into IrIrénaNa,
12
35680
2745
Also wurde Erin zu Iréna
00:50
and SaltmanSaltman got turnedgedreht into Sós,
13
38449
2200
und aus Saltman wurde Sós,
was auf Ungarisch "salzig" bedeutet.
00:52
whichwelche meansmeint "saltysalzig" in HungarianUngarisch.
14
40673
2921
Im Ungarischen wird der Familienname
vor den Vornamen gesetzt,
00:55
And in HungarianUngarisch,
your last nameName goesgeht first,
15
43618
2310
00:57
so my JamesJames BondBond nameName
turnedgedreht into "SaltySalzig IrenaIrena,"
16
45952
4414
also bekam ich "Salzige Irena"
als James-Bond-Namen.
01:02
whichwelche is not something
I would have naturallynatürlich chosengewählt for myselfmich selber.
17
50390
3483
Diesen Namen hätte ich
für mich selbst nicht gewählt.
01:06
But going to this campLager,
18
54280
1907
Das Lager überraschte mich.
01:08
I was furtherdes Weiteren shockedschockiert to realizerealisieren
that it was actuallytatsächlich really funSpaß.
19
56211
4523
Ich merkte, dass es eigentlich
sehr viel Spaß machte.
01:13
They talkedsprach very little about politicsPolitik.
20
61180
2215
Es wurde sehr wenig über Politik geredet.
01:15
It was mostlymeist learningLernen how to rideReiten horsesPferde,
21
63419
3013
Wir lernten hauptsächlich,
auf Pferden zu reiten
und mit Pfeil und Bogen zu schießen.
01:18
shootingSchießen a bowBogen and arrowPfeil,
22
66456
1868
01:20
liveLeben musicMusik- at night,
23
68348
1687
Nachts gab es Live-Musik,
01:22
freefrei foodLebensmittel and alcoholAlkohol,
24
70059
1969
kostenloses Essen und Alkohol.
01:24
alsoebenfalls some air-gunLuftgewehr targetZiel practicetrainieren
25
72052
2866
Außerdem gab es
Schießübungen mit Luftgewehren
01:26
usingmit mainstreamMainstream politicians'Politiker
facesGesichter as targetsZiele.
26
74942
3654
mit Gesichtern populärer Politiker
als Zielscheiben.
01:30
And this seemedschien like a very,
actuallytatsächlich, friendlyfreundlich, inclusiveinklusive groupGruppe
27
78620
3727
Es wirkte wie eine sehr
freundliche und offene Gruppe,
01:34
untilbis you startedhat angefangen talkingim Gespräch or mentioningzu erwähnen
anything to do with the RomaRoma populationBevölkerung,
28
82371
5413
bis man irgendetwas bezüglich der Roma,
Juden oder Immigranten erwähnte.
01:39
JewishJüdische people or immigrantsEinwanderer,
29
87808
2262
01:42
and then the discourseDiskurs would becomewerden
very hate-basedHassbasiert very quicklyschnell.
30
90094
4150
Dann wurde das Gespräch
plötzlich sehr schnell hasserfüllt.
Das brachte mich zu meiner jetzigen Arbeit
und der Fragestellung:
01:46
So it led me into my work now,
31
94843
2810
01:49
where we posePose the questionFrage,
32
97677
2381
Warum schließen sich Menschen
gewalttätigen extremistischen Gruppen an?
01:52
"Why do people joinbeitreten
violentheftig extremistextremistische movementsBewegungen,
33
100082
3040
01:55
and how do we effectivelyeffektiv
counterZähler these processesProzesse?"
34
103146
3031
Und wie können wir diesem Prozess
effektiv entgegenwirken?
01:58
In the aftermathNachwirkungen of horribleschrecklich
atrocitiesGräueltaten and attacksAnschläge
35
106573
3291
Nach den schrecklichen
Gräueltaten und Angriffen
02:01
in placessetzt like BelgiumBelgien, FranceFrankreich,
but all over the worldWelt,
36
109888
3363
in Belgien und Frankreich,
aber auch vielen anderen Orten der Welt,
02:05
sometimesmanchmal it's easiereinfacher for us to think,
37
113275
1833
ist es oftmals einfacher zu denken:
02:07
"Well, these mustsollen be sociopathsSoziopathen,
38
115132
1945
"Das müssen Soziopathen sein.
02:09
these mustsollen be naturallynatürlich
violentheftig individualsIndividuen.
39
117101
3064
Das müssen von Natur aus
gewalttätige Menschen sein.
02:12
They mustsollen have something wrongfalsch
with theirihr upbringingErziehung."
40
120189
2596
Da muss etwas in ihrer Erziehung
schiefgelaufen sein."
02:14
And what's really tragictragisch
41
122809
2087
Tragischerweise gibt es aber meistens
nicht das eine passende Profil.
02:16
is that oftentimesoft there's no one profileProfil.
42
124920
2191
Viele stammen aus
einer gebildeten Schicht,
02:19
ManyViele people come
from educatedgebildet backgroundsHintergründe,
43
127135
3254
sind unterschiedlicher
sozioökonomischer Herkunft,
02:22
differentanders socioeconomicsozio-ökonomischen backgroundsHintergründe,
44
130413
2096
02:24
menMänner and womenFrau, differentanders agesAlter,
45
132533
2848
Männer und Frauen
unterschiedlichen Alters,
02:27
some with familiesFamilien, some singleSingle.
46
135405
2278
manche mit Familien, manche alleinstehend.
02:29
So why? What is this allureAllure?
47
137707
2655
Warum also? Was zieht sie an?
02:32
And this is what
I want to talk you throughdurch,
48
140386
2049
Das möchte ich Ihnen heute näher bringen.
02:34
as well as how do we
challengeHerausforderung this in a modernmodern eraEpoche?
49
142459
2887
Ebenso wie wir in der heutigen Zeit
dagegen vorgehen können.
02:38
We do know, throughdurch researchForschung,
50
146711
1483
Durch Forschung wissen wir,
02:40
that there are quiteganz a numberNummer
of differentanders things
51
148218
2356
dass viele Dinge den Prozess
der Radikalisierung beeinflussen.
02:42
that affectbeeinflussen somebody'sjemandes
processverarbeiten of radicalizationRadikalisierung,
52
150598
3351
Wir unterteilen sie
in Push- und Pull-Faktoren --
02:45
and we categorizekategorisieren these
into pushdrücken and pullziehen factorsFaktoren.
53
153973
2770
Schub- und Anziehungsfaktoren.
02:48
And these are prettyziemlich much similarähnlich
for FarWeit Right, neo-NaziNeo-Nazi groupsGruppen
54
156767
3413
Diese Faktoren sind sehr ähnlich,
gleichgültig, ob es sich um
rechtsradikale Neo-Nazis
02:52
all the way to IslamistIslamistische extremistextremistische
and terroristTerrorist groupsGruppen.
55
160204
2904
oder islamistische
Terrororganisationen handelt.
02:55
And pushdrücken factorsFaktoren are basicallyGrundsätzlich gilt
what makesmacht you vulnerableverwundbar
56
163663
3858
Push-Faktoren sind all jene, die jemanden
für Radikalisierung anfällig machen
02:59
to a processverarbeiten of radicalizationRadikalisierung,
57
167545
1858
und dafür öffnen, einer gewalttätigen
extremistischen Gruppe beizutreten.
03:01
to joiningBeitritt a violentheftig extremistextremistische groupGruppe.
58
169427
2206
03:03
And these can be
a lot of differentanders things,
59
171657
2126
Diese können unterschiedlicher Natur sein,
03:05
but roughlygrob, a senseSinn of alienationEntfremdung,
a senseSinn of isolationIsolierung,
60
173807
3913
aber üblicherweise gehören dazu ein
Gefühl der Entfremdung oder Isolierung,
03:09
questioningBefragung your ownbesitzen identityIdentität,
61
177744
2151
ein Hinterfragen der eigenen Identität,
aber auch das Gefühl,
die eigene Gruppe werde angegriffen.
03:11
but alsoebenfalls feelingGefühl that your in-groupGruppe
is underunter attackAttacke,
62
179919
2826
03:14
and your in groupGruppe mightMacht be basedbasierend
on a nationalityStaatsangehörigkeit or an ethnicityEthnizität
63
182769
3793
Die Gruppe kann sich durch Religion,
Nationalität oder Ethnizität definieren.
03:18
or a religionReligion,
64
186586
1326
03:19
and feelingGefühl that largergrößer powersKräfte around you
are doing nothing to help.
65
187936
3611
Außerdem gehört dazu das Gefühl,
dass Machthaber nichts tun, um zu helfen.
03:24
Now, pushdrücken factorsFaktoren aloneallein
do not make you a violentheftig extremistextremistische,
66
192075
3421
Push-Faktoren allein machen niemanden
zu einem gewalttätigen Extremisten.
03:27
because if that were the factTatsache,
67
195520
1430
Wäre das der Fall, würden diese Faktoren
auch für die Roma-Bevölkerung gelten.
03:28
those samegleich factorsFaktoren would go
towardsin Richtung a groupGruppe like the RomaRoma populationBevölkerung,
68
196974
3270
03:32
and they're not
a violentlyheftig mobilizedmobilisiert groupGruppe.
69
200268
2781
Die sind jedoch keine gewalttätig
mobilisierte Gruppierung.
03:35
So we have to look at the pullziehen factorsFaktoren.
70
203073
2287
Also müssen wir uns auch
die Pull-Faktoren ansehen.
03:37
What are these violentheftig
extremistextremistische organizationsOrganisationen offeringAngebot
71
205384
3310
Was bieten gewalttätige
extremistische Organisationen,
03:40
that other groupsGruppen are not offeringAngebot?
72
208718
1945
das andere Gruppierungen nicht bieten?
03:42
And actuallytatsächlich, this is usuallygewöhnlich
very positivepositiv things,
73
210687
2563
Das sind oft sehr positive Dinge,
die Menschen stärken,
03:45
very seeminglyscheinbar empoweringBefähigung things,
74
213274
2017
so wie eine Gemeinschaft,
03:47
sucheine solche as brotherhoodBruderschaft and sisterhoodSchwesternschaft
75
215315
2463
ein Gefühl der Zugehörigkeit,
03:49
and a senseSinn of belongingZugehörigkeit,
76
217802
1334
03:51
as well as givinggeben somebodyjemand
a spiritualgeistig purposeZweck,
77
219160
2874
das Gefühl, einen spirituellen
Zweck zu haben,
03:54
a divinegöttliche purposeZweck
to buildbauen a utopianutopische societyGesellschaft
78
222058
3715
den heiligen Zweck, eine utopische
Gesellschaft zu erschaffen,
03:57
if theirihr goalsTore can be metgetroffen,
79
225797
1921
wenn ihre Ziele erreicht werden,
03:59
but alsoebenfalls a senseSinn of empowermentErmächtigung
and adventureAbenteuer.
80
227742
2751
aber auch ein Gefühl der Bestärkung
und Abenteuerstimmung.
04:02
When we look
at foreignausländisch terroristTerrorist fightersKämpfer,
81
230517
2043
Der Gedanke an terroristische
Kämpfer schafft folgende Bilder:
04:04
we see youngjung menMänner
with the windWind in theirihr hairHaar
82
232584
2691
Junge Männer mit
wehendem Haar in der Wüste
04:07
out in the desertWüste
and womenFrau going to joinbeitreten them
83
235299
2546
und Frauen, die sich ihnen anschließen,
um bei Sonnenuntergang zu heiraten.
04:09
to have nuptialsHochzeit out in the sunsetSonnenuntergang.
84
237869
2641
Das klingt sehr romantisch und heroisch.
04:12
It's very romanticromantisch, and you becomewerden a heroHeld.
85
240534
3820
04:16
For bothbeide menMänner and womenFrau,
that's the propagandaPropaganda beingSein givengegeben.
86
244378
2888
Diese Propaganda wird sowohl
für Männer als auch Frauen genutzt.
Extremistische Gruppen sind gut darin,
04:19
So what extremistextremistische groupsGruppen are very good at
87
247667
2642
04:22
is takingunter a very complicatedkompliziert,
confusingverwirrend, nuancednuanciert worldWelt
88
250333
4826
die sehr komplizierte, verwirrende
und vielfältige Welt zu vereinfachen --
04:27
and simplifyingVereinfachung der that worldWelt
into blackschwarz and whiteWeiß,
89
255183
3243
in Schwarz und Weiß,
Gut und Böse.
04:30
good and evilböse.
90
258450
1210
So wird man Teil des Guten,
das Böses herausfordert.
04:31
And you becomewerden what is good,
91
259684
1881
04:33
challengingherausfordernd what is evilböse.
92
261589
1855
04:36
So I want to talk a little bitBit
about ISISISIS, DaeshDaesh,
93
264541
3864
Ich möchte kurz über den IS
bzw. Daesch sprechen,
04:40
because they have been a gameSpiel changerWechsler
in how we look at these processesProzesse,
94
268429
4378
weil er einen Wendepunkt
in der Betrachtungsweise
04:44
and throughdurch a lot of the materialMaterial
and theirihr tacticsTaktik.
95
272831
3206
der Prozesse, Materialien
und Taktiken darstellt.
04:48
They're very much a modernmodern movementBewegung.
96
276061
2548
Sie sind eine deutlich modernere Bewegung.
04:50
One of the aspectsAspekte is the internetInternet
and the usageVerwendung of socialSozial mediaMedien,
97
278925
4485
Einer der Aspekte ist das Internet
und die Nutzung sozialer Medien.
04:55
as we'vewir haben all seengesehen in headlinesSchlagzeilen
tweetingtwittern and videosVideos of beheadingsEnthauptungen.
98
283434
4382
Wir alle kennen die Tweets
und Videos von Enthauptungen.
04:59
But the internetInternet aloneallein
does not radicalizeRadikalisieren you.
99
287840
2475
Aber das Internet allein
radikalisiert niemanden.
Das Internet ist ein Werkzeug.
05:02
The internetInternet is a toolWerkzeug.
100
290339
1207
05:03
You don't go onlineonline shoppingEinkaufen for shoesSchuhe
101
291570
1856
Man geht nicht ins Internet,
um Schuhe zu kaufen
05:05
and accidentallyversehentlich becomewerden a jihadistDschihad.
102
293450
1798
und wird versehentlich Gotteskrieger.
Allerdings kann das Internet
ein Katalysator sein.
05:07
HoweverJedoch, what the InternetInternet
does do is it is a catalystKatalysator.
103
295793
3389
05:11
It providesbietet toolsWerkzeuge and scaleRahmen and rapiditySchnelligkeit
104
299206
4119
Es bietet Werkzeuge, einen Rahmen und eine
Schnelligkeit, die es sonst nirgends gibt.
05:15
that doesn't existexistieren elsewhereanderswo.
105
303349
1508
05:16
And with ISISISIS, all of a suddenplötzlich,
106
304881
2461
Durch den IS änderte sich das Bild
05:19
this ideaIdee of a cloakedverhüllt, darkdunkel figureZahl
of a jihadistDschihad changedgeändert for us.
107
307366
5318
der verhüllten, dunklen Gotteskrieger.
05:24
All of a suddenplötzlich,
we were in theirihr kitchensKüchen.
108
312708
2055
Plötzlich waren wir in ihren Küchen.
Wir sahen, was sie zu Abend aßen.
05:26
We saw what they were eatingEssen for dinnerAbendessen.
109
314787
1999
Sie schrieben auf Twitter.
05:28
They were tweetingtwittern.
110
316810
1151
Wir sahen ausländische Terroristen,
die in ihrer Muttersprache twitterten,
05:29
We had foreignausländisch terroristTerrorist fightersKämpfer
tweetingtwittern in theirihr ownbesitzen languagesSprachen.
111
317985
3158
05:33
We had womenFrau going out there
talkingim Gespräch about theirihr weddingHochzeit day,
112
321167
2952
Frauen, die über ihre Hochzeit sprachen
und über die Geburt ihrer Kinder.
05:36
about the birthsGeburten of theirihr childrenKinder.
113
324143
1747
Plötzlich gab es eine Computerspiel-Kultur
05:37
We had gamingSpiele cultureKultur, all of a suddenplötzlich,
114
325914
1897
05:39
and referencesVerweise
to GrandGrand TheftDiebstahl AutoAuto beingSein madegemacht.
115
327835
3166
und Verweise auf 'Grand Theft Auto'.
05:43
So all of a suddenplötzlich, they were homeygemütlich.
116
331471
2461
Plötzlich waren sie also vertraut.
05:45
They becamewurde humanMensch.
117
333956
1151
Sie wurden menschlich.
05:47
And the problemProblem
is that tryingversuchen to counterZähler it,
118
335131
2214
Das Problem ist, dass viele Regierungen
und Social-Media-Firmen versuchten,
05:49
lots of governmentsRegierungen
and socialSozial mediaMedien companiesFirmen
119
337369
2310
einfach durch Zensur dagegen vorzugehen.
05:51
just triedversucht to censorZensor.
120
339703
1151
Wie werden wir terroristischen Inhalt los?
05:52
How do we get ridloswerden of terroristTerrorist contentInhalt?
121
340878
1991
Es wurde zu einem Katz-und-Maus-Spiel.
05:54
And it becamewurde a cat-and-mouseKatz gameSpiel
122
342893
1655
05:56
where we would see accountsKonten takengenommen down
and they'dSie würden just come back up,
123
344572
3204
Profile wurden gelöscht, aber
bald darauf wieder hochgeladen.
Nutzer mit 25 Profilen und weit
verbreitetes Material wurden ignoriert.
05:59
and an arroganceArroganz around somebodyjemand
havingmit a 25thth accountKonto
124
347800
3113
06:02
and materialMaterial that was
disseminatedverbreitet everywhereüberall.
125
350937
3094
Wir sahen aber auch
einen gefährlichen Trend.
06:06
But we alsoebenfalls saw a dangerousgefährlich trendTrend --
126
354055
2021
06:08
violentheftig extremistsExtremisten know the rulesRegeln
and regulationsVorschriften of socialSozial mediaMedien, too.
127
356100
5008
Auch gewalttätige Extremisten
kennen die Regeln von sozialen Medien.
06:13
So we would see a banalbanal
conversationKonversation with a recruiterPersonalvermittler
128
361132
4000
Wir beobachteten den Beginn
eines banalen Gesprächs eines Anwerbers
auf einer gängigen Plattform, bis das
Gespräch in eine illegale Richtung ging.
06:17
startAnfang on a mainstreamMainstream platformPlattform,
129
365156
1973
06:19
and at the pointPunkt
at whichwelche that conversationKonversation
130
367153
2081
06:21
was going to becomewerden illegalillegal,
131
369258
1340
Dann wechselten sie auf
eine kleinere, weniger regulierte
06:22
they would jumpspringen to a smallerkleiner,
lessWeniger regulatedgeregelten,
132
370622
2501
und besser verschlüsselte Seite.
06:25
more encryptedverschlüsselt platformPlattform.
133
373147
1623
06:26
So all of a suddenplötzlich, we couldn'tkonnte nicht
trackSpur where that conversationKonversation wentging.
134
374794
3533
Also konnten wir der Unterhaltung
plötzlich nicht mehr folgen.
06:30
So this is a problemProblem with censorshipZensur,
135
378351
1862
Darin liegt das Problem von Zensur.
06:32
whichwelche is why we need to developentwickeln
alternativesAlternativen to censorshipZensur.
136
380237
3232
Also müssen wir Alternativen
zur Zensur finden.
Der IS ist auch ein Wendepunkt,
weil er staatenbildend handelt.
06:36
ISISISIS is alsoebenfalls a game-changerSpiel-Wechsler
because it's state-buildingStaatsaufbau.
137
384035
3350
06:39
It's not just recruitingRekrutierung combatantsKämpfer;
138
387409
2112
Er rekrutiert nicht nur Kämpfer,
sondern versucht, einen Staat zu formen.
06:41
it's tryingversuchen to buildbauen a stateBundesland.
139
389545
1862
06:43
And what that meansmeint is all of a suddenplötzlich,
140
391431
1940
Das bedeutet, das Rekrutierungsprinzip
ist viel breiter gefächert.
06:45
your recruitmentRekrutierung modelModell- is much more broadbreit.
141
393395
2000
06:47
You're not just tryingversuchen to get fightersKämpfer --
142
395419
2049
Sie versuchen nicht nur,
Kämpfer anzuwerben,
06:49
now you need architectsArchitekten, engineersIngenieure,
accountantsBuchhalter, hackersHacker and womenFrau.
143
397492
4266
sondern brauchen auch Architekten,
Ingenieure, Buchhalter, Hacker und Frauen.
Wir sahen in den letzten 24,
aber insbesondere 12 Monaten,
06:53
We'veWir haben actuallytatsächlich seengesehen
a hugeenorm increaseerhöhen, ansteigen of womenFrau going
144
401782
2390
06:56
in the last 24, but especiallyinsbesondere 12 monthsMonate.
145
404196
3499
deutlich mehr Frauen,
die sich dem IS anschlossen.
06:59
Some countriesLänder, one in fourvier
of the people going over to joinbeitreten
146
407719
2889
In manchen Ländern ist inzwischen
jedes vierte neue Mitglied weiblich.
07:02
are now womenFrau.
147
410632
1239
07:03
And so, this really changesÄnderungen
148
411895
1368
Dadurch verändert sich die Zielgruppe,
die wir zu schützen versuchen.
07:05
who we're tryingversuchen to counterZähler
this processverarbeiten with.
149
413287
2782
07:08
Now, not all doomUntergang and gloomTrübsinn.
150
416679
1651
Aber genug von der Schwarzmalerei.
07:10
So the restsich ausruhen I'd like to talk about
some of the positivepositiv things
151
418354
2960
Ich möchte nun auch über
einige positive Dinge sprechen,
07:13
and the newneu innovationInnovation in tryingversuchen
to preventverhindern and counterZähler violentheftig extremismExtremismus.
152
421338
3844
wie Innovationen zur Prävention
und Bekämpfung von Extremismus.
07:17
PreventingVerhindern is very differentanders
than counteringBekämpfung von,
153
425206
2273
Prävention und Bekämpfung
sind grundverschieden.
07:19
and actuallytatsächlich, you can think of it
in medicalmedizinisch termsBegriffe.
154
427503
2556
Man kann es aus medizinischer
Sicht betrachten.
07:22
So preventativepräventiv medicineMedizin is,
155
430083
2222
Präventive Medizin versucht, Menschen
von Natur aus widerstandsfähig zu machen,
07:24
how do we make it
so you are naturallynatürlich resilientwiderstandsfähig
156
432329
3174
in unserem Fall gegen die Radikalisierung.
07:27
to this processverarbeiten of radicalizationRadikalisierung,
157
435527
2500
07:30
whereaswohingegen that is going to be differentanders
158
438051
1862
Anders ist es, wenn jemand
bereits Symptome zeigt,
07:31
if somebodyjemand is alreadybereits showingzeigt
a symptomSymptom or a signSchild
159
439937
2659
die auf eine Identifizierung mit
extremistischem Gedankengut hinweisen.
07:34
of belongingZugehörigkeit to a violentheftig
extremistextremistische ideologyIdeologie.
160
442620
2881
07:37
And so in preventativepräventiv measuresMaßnahmen,
161
445525
1547
Im präventiven Bereich handelt es sich
um ein breites Spektrum an Menschen,
07:39
we're talkingim Gespräch more
about really broadbreit groupsGruppen of people
162
447096
2691
die Ideen ausgesetzt werden,
die sie widerstandsfähig machen sollen.
07:41
and exposureExposition to ideasIdeen
163
449811
1817
07:43
to make them resilientwiderstandsfähig.
164
451652
1767
Das ändert sich, wenn jemand beginnt,
07:45
WhereasWährend it's very differentanders
165
453443
1516
07:46
if somebodyjemand is startingbeginnend to questionFrage
and agreezustimmen with certainsicher things onlineonline,
166
454983
3825
gewisse Dinge im Internet zu hinterfragen
bzw. sich damit zu identifizieren.
07:50
and it's alsoebenfalls very differentanders
if somebodyjemand alreadybereits has a swastikaHakenkreuz tattooTattoo
167
458832
3849
Es ändert sich auch, wenn jemand bereits
eine Hakenkreuz-Tätowierung trägt
07:54
and is very much embeddedeingebettet withininnerhalb a groupGruppe.
168
462705
2048
und sehr stark in einer
Gruppe verankert ist.
07:56
How do you reacherreichen them?
169
464777
1434
Wie erreichen wir diese Menschen?
07:58
So I'd like to go throughdurch threedrei examplesBeispiele
of eachjede einzelne one of those levelsEbenen
170
466785
3682
Ich möchte Ihnen nun drei Beispiele
für jeden Level näher bringen
08:02
and talk you throughdurch
171
470491
1215
und Ihnen die neuen Mittel erklären,
um mit Menschen in Kontakt zu treten.
08:03
what some of the newneu waysWege
of engagingansprechend with people are becomingWerden.
172
471730
3316
Eines ist der "Extreme Dialog",
08:07
One is "ExtremeExtreme DialogueDialog,"
173
475374
1413
ein erzieherisches Programm,
das wir mitentwickelten.
08:08
and it's an educationalBildungs programProgramm
that we helpedhalf developentwickeln.
174
476811
3080
Es stammt aus Kanada
08:11
This one is from CanadaKanada,
175
479915
2381
und soll durch Geschichtenerzählen
zu einem Austausch in Schulklassen führen.
08:14
and it's meantgemeint to createerstellen dialoguesDialoge
withininnerhalb a classroomKlassenzimmer settingRahmen,
176
482320
4095
08:18
usingmit storytellingGeschichten erzählen,
177
486439
1532
Gewaltsamer Extremismus kann besonders
Kindern sehr schwer zu erklären sein.
08:19
because violentheftig extremismExtremismus
can be very hardhart to try to explainerklären,
178
487995
3151
08:23
especiallyinsbesondere to youngerjünger individualsIndividuen.
179
491170
1699
Daher haben wir ein Team,
08:25
So we have a networkNetzwerk of formerehemalige extremistsExtremisten
and survivorsÜberlebende of extremismExtremismus
180
493305
3913
bestehend aus ehemaligen Extremisten
und Überlebenden von Extremismus.
08:29
that tell theirihr storiesGeschichten throughdurch videoVideo
and createerstellen question-givingFragegeben to classroomsKlassenzimmer,
181
497242
3937
Sie erzählen in Videos ihre Geschichten
und liefern Fragestellungen für Klassen.
08:33
to startAnfang a conversationKonversation about the topicThema.
182
501203
2303
So wird das Thema zum Gespräch gemacht.
08:35
These two examplesBeispiele showShow ChristianneChristianne,
183
503530
2532
Diese beiden Beispiele zeigen Christianne,
die ihren Sohn verloren hat.
08:38
who losthat verloren her sonSohn,
184
506086
1151
08:39
who radicalizedradikalisiert and diedist verstorben
fightingKampf for ISISISIS,
185
507261
2493
Er wurde radikalisiert und
starb im Kampf für den IS.
08:41
and DanielDanke. is a formerehemalige neo-NaziNeo-Nazi
186
509778
1667
Daniel ist ein ehemaliger Neo-Nazi,
der extrem gewalttätig war.
08:43
who was an extremelyäußerst violentheftig neo-NaziNeo-Nazi,
187
511469
2358
08:45
and they posePose questionsFragen about theirihr livesLeben
and where they're at and regretbedauern,
188
513851
4158
Sie werfen Fragen auf über ihr Leben,
ihre jetzige Situation und ihre Reue.
08:50
and forceKraft a classroomKlassenzimmer
to have a dialogueDialog around it.
189
518033
2650
Sie zwingen eine Klasse,
darüber zu sprechen.
Wenn wir uns nun
die mittlere Gruppe ansehen,
08:53
Now, looking at that middleMitte rangeAngebot
of individualsIndividuen,
190
521175
2985
brauchen wir unzählige Stimmen
in der Gesellschaft.
08:56
actuallytatsächlich, we need a lot
of civilbürgerlich societyGesellschaft voicesStimmen.
191
524184
2699
08:58
How do you interactinteragieren with people
that are looking for informationInformation onlineonline,
192
526907
3445
Wie erreichen wir Menschen,
die sich online informieren,
die beginnen, mit dem Gedanken
an eine Ideologie zu spielen,
09:02
that are startingbeginnend to toySpielzeug with an ideologyIdeologie,
193
530376
2342
09:04
that are doing those searchingSuche
identityIdentität questionsFragen?
194
532742
3064
die Antworten für ihre
Identitätsprobleme suchen?
09:07
How do we providezu Verfügung stellen alternativesAlternativen for that?
195
535830
2142
Wie schaffen wir Alternativen dazu?
09:09
And that's when we combinekombinieren
largegroß groupsGruppen of civilbürgerlich societyGesellschaft voicesStimmen
196
537996
3390
Hier vereinen wir eine große Anzahl
von Stimmen aus der Zivilgesellschaft
09:13
with creativeskreative, techiesTechnikfreaks,
appApp developersEntwickler, artistsKünstler, comediansKomiker,
197
541410
4531
mit Erfindern, IT-Personal,
App-Entwicklern, Künstlern und Komikern.
09:17
and we can createerstellen really specifiedangegeben contentInhalt
198
545965
2683
Gemeinsam erstellen wir
einen sehr spezifischen Inhalt,
09:20
and actuallytatsächlich, onlineonline, disseminatezu verbreiten it
to very strategicstrategisch audiencesPublikum.
199
548672
4294
den wir dann online unter strategisch
ausgewähltem Publikum verbreiten.
09:24
So one exampleBeispiel would be
creatingErstellen a satiricalsatirische videoVideo
200
552990
2803
Zum Beispiel können wir
ein Satire-Video erstellen,
09:27
whichwelche makesmacht funSpaß of IslamophobiaIslamophobie,
201
555817
2499
das sich über Islamophobie lustig macht
09:30
and targetingTargeting it
to 15- to 20-year-olds-Jährige onlineonline
202
558340
3936
und online auf 15- bis 20-Jährige abzielt,
die Interesse an
rechtsextremer Musik haben
09:34
that have an interestinteressieren in whiteWeiß powerLeistung musicMusik-
203
562300
2247
09:36
and liveLeben specificallyspeziell in ManchesterManchester.
204
564571
2399
und ausschließlich in Manchester leben.
09:38
We can use these marketingMarketing toolsWerkzeuge
to be very specificspezifisch,
205
566994
3031
Wir können diese Marketingwerkzeuge
sehr spezifisch nutzen.
09:42
so that we know
when somebody'sjemandes viewingBetrachten, watchingAufpassen
206
570049
2723
So wissen wir, dass die Personen,
die diese Inhalte sehen
und sich damit auseinandersetzen,
09:44
and engagingansprechend with that contentInhalt,
207
572796
1489
09:46
it's not just the averagedurchschnittlich personPerson,
it's not me or you --
208
574309
2630
keine Durchschnittspersonen sind,
so wie Sie oder ich.
09:48
it's a very specificspezifisch audiencePublikum
that we are looking to engageengagieren with.
209
576963
3107
Es ist ein sehr spezifisches Publikum,
mit dem wir in Kontakt treten wollen.
09:52
Even more downstreamstromab, we developedentwickelt
a pilotPilot programProgramm callednamens "One to One,"
210
580704
3699
Für weiter fortgeschrittene
Radikalisierung
entwickelten wir das
Programm "One to One".
09:56
where we tookdauerte formerehemalige extremistsExtremisten
211
584427
1549
Dabei kontaktieren ehemalige
Extremisten direkt jene Personen,
09:58
and we had them reacherreichen out directlydirekt
to a groupGruppe of labeledmit der Bezeichnung neofascistsNeofastiker
212
586000
4864
die wir als Neofaschisten oder
islamische Extremisten einstufen.
10:02
as well as IslamistIslamistische extremistsExtremisten,
213
590888
1624
Sie schreiben ihnen Nachrichten
über Facebook Messenger wie etwa:
10:04
and put directdirekt messagesNachrichten throughdurch FacebookFacebook
MessengerBote into theirihr inboxPosteingang, sayingSprichwort,
214
592536
3815
"Hi, ich sehe, wohin dein Weg führt,
ich habe das bereits hinter mir.
10:08
"Hey, I see where you're going.
I've been there.
215
596375
2286
10:10
If you want to talk, I'm here."
216
598685
1542
Wenn du reden willst, bin ich da."
10:12
Now, we kindArt of expectederwartet deathTod threatsBedrohungen
from this sortSortieren of interactionInteraktion.
217
600251
3254
Von dieser Art der Interaktion
haben wir Morddrohungen erwartet.
10:15
It's a little alarmingalarmierende to have
a formerehemalige neo-NaziNeo-Nazi say, "Hey, how are you?"
218
603529
4420
Es ist beunruhigend, wenn ein ehemaliger
Neo-Nazi dir schreibt: "Hi, wie geht's?"
Tatsächlich antworteten aber
60 % der Personen, die wir kontaktierten.
10:19
But actuallytatsächlich, we foundgefunden
that around 60 percentProzent
219
607973
2207
10:22
of the people reachederreicht out to respondedantwortete,
220
610204
2554
Von denen haben wiederum etwa 60 %
langfristig den Kontakt gehalten.
10:24
and of that, around anotherein anderer 60 percentProzent
had sustainednachhaltig engagementEngagement,
221
612782
4085
Dabei redeten sie darüber,
was sie durchgemacht haben,
10:28
meaningBedeutung that they were
havingmit conversationsGespräche
222
616891
2056
10:30
with the hardesthärteste people to reacherreichen
about what they were going throughdurch,
223
618971
3216
mit jenen Menschen, die am schwersten
zu erreichen sind, und streuten Zweifel.
10:34
plantingBepflanzung seedsSaat of doubtZweifel
224
622211
1151
10:35
and givinggeben them alternativesAlternativen
for talkingim Gespräch about these subjectsFächer,
225
623386
2992
Sie boten ihnen Alternativen,
um über diese Themen zu reden.
10:38
and that's really importantwichtig.
226
626402
1350
Das ist unglaublich wichtig.
Die Aufgabe ist also,
Leute an einen Tisch zu bringen,
10:41
So what we're tryingversuchen to do
227
629061
2223
10:43
is actuallytatsächlich bringbringen
unlikelyunwahrscheinlich sectorsSektoren to the tableTabelle.
228
631308
2905
die sonst kaum miteinander
in Kontakt treten würden.
10:46
We have amazingtolle activistsAktivisten
all over the worldWelt,
229
634237
2326
Wir haben weltweit wunderbare Aktivisten,
aber häufig sind ihre Botschaften
nicht strategisch genug
10:48
but oftentimesoft,
theirihr messagesNachrichten are not strategicstrategisch
230
636587
2366
10:50
or they don't actuallytatsächlich reacherreichen
the audiencesPublikum they want to reacherreichen.
231
638977
2906
oder sie erreichen nicht
die richtigen Personen.
Daher arbeiten wir mit einem Netzwerk
ehemaliger Extremisten.
10:53
So we work with networksNetzwerke
of formerehemalige extremistsExtremisten.
232
641907
2239
10:56
We work with networksNetzwerke of youngjung people
in differentanders partsTeile of the worldWelt.
233
644170
3429
Wir arbeiten mit jungen Menschen
in verschiedenen Teilen der Welt.
10:59
And we work with them
to bringbringen the techTech sectorSektor to the tableTabelle
234
647623
2770
Wir bringen auch IT-Experten an den Tisch,
sowie Künstler, Erfinder
und Marketingexperten,
11:02
with artistsKünstler and creativeskreative
and marketingMarketing expertiseSachverstand
235
650417
2818
11:05
so that we can actuallytatsächlich have
a more robustrobust and challengingherausfordernd of extremismExtremismus
236
653259
5001
für ein robustes und gemeinschaftliches
Mittel im Kampf gegen den Extremismus.
11:10
that worksWerke togetherzusammen.
237
658284
1300
Falls Sie im Publikum sitzen
und zufällig Grafikdesigner sind,
11:12
So I would say
that if you are in the audiencePublikum
238
660074
2580
11:14
and you happengeschehen to be a graphicGrafik designerDesigner,
239
662678
2699
oder Dichter, Marketing- oder
PR-Experte oder auch Komiker,
11:17
a poetDichter, a marketingMarketing expertExperte,
240
665401
2182
11:19
somebodyjemand that worksWerke in PRPR,
241
667607
1909
11:21
a comedianKomiker --
242
669540
1353
denken Sie vielleicht nicht,
dass das Ihr Bereich ist,
11:22
you mightMacht not think
that this is your sectorSektor,
243
670917
2151
11:25
but actuallytatsächlich, the skillsFähigkeiten
that you have right now
244
673092
2739
aber ihre Fähigkeiten sind möglicherweise
genau das, was wir brauchen,
11:27
mightMacht be exactlygenau what is needederforderlich
245
675855
2003
11:29
to help challengeHerausforderung extremismExtremismus effectivelyeffektiv.
246
677882
2309
um den Extremismus effektiv zu bekämpfen.
11:32
Thank you.
247
680215
1151
Vielen Dank.
11:33
(ApplauseApplaus)
248
681390
4213
(Applaus)
Translated by Andrea Kapplmüller
Reviewed by Andreas Herzog

▲Back to top

ABOUT THE SPEAKER
Erin Marie Saltman - Policy researcher
Dr. Erin Marie Saltman manages Facebook's counterterrorism and counter-extremism policy work for Europe, the Middle East and Africa.

Why you should listen

Dr. Erin Marie Saltman's background and expertise includes both Far Right and Islamist extremist processes of radicalization within a range of regional and socio-political contexts. Her research and publications have focused on the evolving nature of online extremism and terrorismgender dynamics within violent extremist organizations and youth radicalization. Saltman has previously held senior research positions at Quilliam Foundation and the Institute for Strategic Dialogue, where she managed international programs. She has also worked with local activists, artists and techies to challenge violent extremism.

As Facebook's Counterterrorism Policy Manager based in London, Saltman regularly speaks with both governments and NGOs on issues related to how Facebook counters terrorism and violent extremism. She has also helped establish the Global Internet Forum to Counter Terrorism, bringing together leading industry partners (Facebook, Google, Microsoft and Twitter) with smaller startups and tech companies to create cross-platform knowledge sharing, technology solutions and research. 

Saltman remains a Research Fellow at the Institute for Strategic Dialogue. She is a graduate of Columbia University (BA) and University College London (MA and PhD). View her articles and publications here.

More profile about the speaker
Erin Marie Saltman | Speaker | TED.com