ABOUT THE SPEAKER
Del Harvey - Security maven
Del Harvey works to define policy and to ensure user safety and security in the challenging realm of modern social media.

Why you should listen

As Senior Director of Trust and Safety at Twitter, Del Harvey works to define policy and to ensure user safety and security in the challenging realm of modern social media. Prior to joining Twitter, she spent five years as the co-administrator and law enforcement liaison for a 501(c)3 non-profit charity, working with agencies ranging from local police departments to the FBI, U.S. Marshals and the Secret Service.

More profile about the speaker
Del Harvey | Speaker | TED.com
TED2014

Del Harvey: Protecting Twitter users (sometimes from themselves)

Del Harvey: Das Problem der Größenordnung bei Twitter

Filmed:
993,199 views

Wenn mehrere hunderttausend Tweets jede Sekunde abgeschickt werden, ergibt die Wahrscheinlichkeit von eins zu einer Millionen, dass täglich 500-mal User geschädigt werden. Für Del Harvey, Vorsitzende des Trust-and-Safety-Teams bei Twitter, ist das eine schlechte Quote. Die Sicherheitsexpertin verbringt ihre Tage damit, sich zu überlegen, wie man Horrorszenarien verhindert, während Twitter den Menschen auf der Erde eine Stimme gibt. Mit trockenem Humor gibt sie Einblicke, wie sie 240 Millionen User beschützt.
- Security maven
Del Harvey works to define policy and to ensure user safety and security in the challenging realm of modern social media. Full bio

Double-click the English transcript below to play the video.

00:12
My jobJob at TwitterTwitter
0
984
1291
Mein Job bei Twitter ist es,
00:14
is to ensuredafür sorgen userBenutzer trustVertrauen,
1
2275
1978
das Vertrauen der User zu bewahren,
00:16
protectschützen userBenutzer rightsRechte and keep usersBenutzer safeSafe,
2
4253
2837
User-Rechte zu sichern
und sie zu beschützen,
00:19
bothbeide from eachjede einzelne other
3
7090
1260
sowohl voreinander
00:20
and, at timesmal, from themselvessich.
4
8350
3899
als manchmal auch vor sich selbst.
00:24
Let's talk about what scaleRahmen lookssieht aus like at TwitterTwitter.
5
12249
4275
Reden wir über die
Größenordnungen bei Twitter.
00:28
Back in JanuaryJanuar 2009,
6
16524
2870
Im Januar 2009
00:31
we saw more than two millionMillion newneu tweetsTweets eachjede einzelne day
7
19394
3331
gab es auf der Plattform jeden Tag
mehr als 2 Millionen neue Tweets.
00:34
on the platformPlattform.
8
22725
1764
00:36
JanuaryJanuar 2014, more than 500 millionMillion.
9
24489
5908
Im Januar 2014 waren es
mehr als 500 Millionen.
00:42
We were seeingSehen two millionMillion tweetsTweets
10
30397
2492
2 Millionen Tweets geschehen jetzt
00:44
in lessWeniger than sixsechs minutesProtokoll.
11
32889
2176
innerhalb von weniger als 6 Minuten.
00:47
That's a 24,900-percent-Prozent increaseerhöhen, ansteigen.
12
35065
6984
Das ist eine Steigerung um 24 900 %.
00:54
Now, the vastriesig majorityMehrheit of activityAktivität on TwitterTwitter
13
42049
3253
Die große Mehrheit
aller Aktivitäten auf Twitter
00:57
putslegt no one in harm'sHarms way.
14
45302
1503
schadet niemandem.
00:58
There's no riskRisiko involvedbeteiligt.
15
46805
1935
Da besteht kein Risiko.
01:00
My jobJob is to rootWurzel out and preventverhindern activityAktivität that mightMacht.
16
48740
5753
Mein Job ist es, jene Aktivitäten
auszumerzen und zu verhindern,
die schädlich sein könnten.
Hört sich wie ein Kinderspiel an.
01:06
SoundsKlingt straightforwardeinfach, right?
17
54493
1973
01:08
You mightMacht even think it'des würde be easyeinfach,
18
56466
1152
Vielleicht denken Sie, das wäre einfach,
01:09
givengegeben that I just said the vastriesig majorityMehrheit
19
57618
2170
da ich ja gerade sagte,
01:11
of activityAktivität on TwitterTwitter putslegt no one in harm'sHarms way.
20
59788
3810
dass die große Mehrheit der Aktivitäten
auf Twitter niemandem schadet.
01:15
Why spendverbringen so much time
21
63598
2169
Warum also so viel Zeit damit verbringen,
01:17
searchingSuche for potentialPotenzial calamitiesKatastrophen
22
65767
2743
nach potenziellem Unheil
01:20
in innocuousharmlose activitiesAktivitäten?
23
68510
2900
in harmlosen Aktivitäten zu suchen?
01:23
GivenGegeben the scaleRahmen that TwitterTwitter is at,
24
71410
2940
Angesichts der Größe von Twitter
01:26
a one-in-a-millionOne in a million chanceChance happensdas passiert
25
74350
2357
geschehen Dinge mit einer
Wahrscheinlichkeit von 1 : 1 000 000
01:28
500 timesmal a day.
26
76707
4876
ganze 500-mal am Tag.
01:33
It's the samegleich for other companiesFirmen
27
81583
1445
Das Gleiche gilt für andere Unternehmen
01:35
dealingUmgang at this sortSortieren of scaleRahmen.
28
83028
1471
ähnlicher Größe.
01:36
For us, edgeRand casesFälle,
29
84499
1708
Für uns sind solche Ausnahmefälle,
01:38
those rareSelten situationsSituationen that are unlikelyunwahrscheinlich to occurauftreten,
30
86207
3625
seltene, unwahrscheinliche Situationen,
01:41
are more like normsNormen.
31
89832
2622
eher der Normfall.
01:44
Say 99.999 percentProzent of tweetsTweets
32
92454
3942
Sagen wir mal, 99,999 % der Tweets
01:48
posePose no riskRisiko to anyonejemand.
33
96396
1888
gefährden niemanden.
01:50
There's no threatBedrohung involvedbeteiligt.
34
98284
1066
Von ihnen geht keine Gefahr aus.
01:51
Maybe people are documentingdokumentieren travelReise landmarksSehenswürdigkeiten
35
99350
2954
Vielleicht dokumentieren
Leute Sehenswürdigkeiten,
01:54
like Australia'sAustraliens HeartHerz ReefRiff,
36
102304
1963
so wie das "Heart Reef" in Australien,
01:56
or tweetingtwittern about a concertKonzert they're attendinganwesend,
37
104267
2921
oder twittern über ein Konzert,
auf dem sie sind,
01:59
or sharingTeilen picturesBilder of cuteniedlich babyBaby animalsTiere.
38
107188
4747
oder teilen Bilder von
niedlichen Tierbabys.
02:03
After you take out that 99.999 percentProzent,
39
111935
4509
Wenn man die 99,999 % ausblendet,
02:08
that tinysehr klein percentageProzentsatz of tweetsTweets remainingverbleibend
40
116444
3529
kommt der winzige verbleibende
Prozentsatz von Tweets
02:11
worksWerke out to roughlygrob
41
119973
2389
noch immer auf nahezu
02:14
150,000 perpro monthMonat.
42
122362
3475
150 000 im Monat.
02:17
The sheerschier scaleRahmen of what we're dealingUmgang with
43
125837
2456
Die schiere Größe,
mit der wir es zu tun haben,
02:20
makesmacht for a challengeHerausforderung.
44
128293
2312
macht es zu einer Herausforderung.
02:22
You know what elsesonst makesmacht my roleRolle
45
130605
1178
Wissen Sie, was für mich noch
02:23
particularlyinsbesondere challengingherausfordernd?
46
131783
3107
eine große Herausforderung darstellt?
02:26
People do weirdseltsam things.
47
134890
5123
Leute machen komisches Zeug.
(Gelächter)
02:32
(LaughterLachen)
48
140013
1829
02:33
And I have to figureZahl out what they're doing,
49
141842
2391
Ich muss herausfinden, was sie machen,
02:36
why, and whetherob or not there's riskRisiko involvedbeteiligt,
50
144233
2249
warum, und ob ein Risiko besteht,
02:38
oftenhäufig withoutohne much in termsBegriffe of contextKontext
51
146482
2168
oft ohne viel Wissen
über die Zusammenhänge
02:40
or backgroundHintergrund.
52
148650
1847
oder Hintergründe.
02:42
I'm going to showShow you some examplesBeispiele
53
150497
2077
Ich zeige Ihnen ein paar Beispiele,
02:44
that I've runLauf into duringwährend my time at TwitterTwitter --
54
152574
2005
auf die ich bei Twitter gestoßen bin.
02:46
these are all realecht examplesBeispiele
55
154579
1620
Das sind echte Beispiele von Situationen,
02:48
of situationsSituationen that at first seemedschien cutschneiden and driedgetrocknet,
56
156199
2653
die erst ganz klar schienen,
02:50
but the truthWahrheit of the matterAngelegenheit was something
57
158852
1643
aber in Wahrheit völlig anders waren.
02:52
altogetherinsgesamt differentanders.
58
160495
1550
02:54
The detailsDetails have been changedgeändert
59
162045
1977
Manche Details wurden verändert,
um Unschuldige zu schützen
02:56
to protectschützen the innocentunschuldig
60
164022
1257
02:57
and sometimesmanchmal the guiltyschuldig.
61
165279
3233
-- und manchmal auch die Schuldigen.
Wir beginnen mal ganz einfach.
03:00
We'llWir werden startAnfang off easyeinfach.
62
168512
3005
03:03
["YoYo bitchHündin"]
63
171517
1793
["Hey, Schlampe"]
03:05
If you saw a TweetTweet that only said this,
64
173310
3228
Wenn Sie einen solchen Tweet sähen,
würden Sie sich vielleicht sagen:
03:08
you mightMacht think to yourselfdich selber,
65
176538
1694
03:10
"That lookssieht aus like abuseMissbrauch."
66
178232
1653
"Das sieht nach Beleidigung aus."
03:11
After all, why would you
want to receiveerhalten the messageNachricht,
67
179885
3107
Denn warum würden Sie
so eine Nachricht erhalten wollen?
03:14
"YoYo, bitchHündin."
68
182992
2218
"Hey, Schlampe."
03:17
Now, I try to staybleibe relativelyverhältnismäßig hipHüfte
69
185210
4663
Ich versuche,
relativ nahe an den neusten Trends
und Memes zu bleiben.
03:21
to the latestneueste trendsTrends and memesMeme,
70
189873
2512
03:24
so I knewwusste that "yoYo, bitchHündin"
71
192385
2704
Also wusste ich, dass "Hey, Schlampe"
03:27
was alsoebenfalls oftenhäufig a commonverbreitet greetingGruß betweenzwischen friendsFreunde,
72
195089
3154
sowohl häufig eine Begrüßung
unter Freunden ist
03:30
as well as beingSein a popularBeliebt "BreakingBrechen BadSchlechte" referenceReferenz.
73
198243
4262
als auch eine gängige Referenz
zu "Breaking Bad".
03:34
I will admiteingestehen that I did not expecterwarten von
74
202505
2487
Ich gebe zu, dass ich nicht
erwartet hatte,
03:36
to encounterBegegnung a fourthvierte use caseFall.
75
204992
2841
einer vierten Interpretation zu begegnen.
03:39
It turnswendet sich out it is alsoebenfalls used on TwitterTwitter
76
207833
3104
Der Ausdruck wird auf Twitter
auch von Leuten benutzt,
03:42
when people are role-playingRollenspiel as dogsHunde.
77
210937
3062
die Hunde-Rollenspiele praktizieren.
[bitch = auch: Hündin]
03:45
(LaughterLachen)
78
213999
5279
(Gelächter)
03:51
And in factTatsache, in that caseFall,
79
219278
1666
Tatsächlich ist es in diesem Fall
03:52
it's not only not abusivemissbräuchliche,
80
220944
1609
nicht nur nicht beleidigend,
03:54
it's technicallytechnisch just an accurategenau greetingGruß.
81
222553
3139
sondern eine völlig korrekte Anrede.
03:57
(LaughterLachen)
82
225692
2889
(Gelächter)
04:00
So okay, determiningBestimmen whetherob or not
83
228581
2071
Also festzustellen,
ob etwas beleidigend ist,
04:02
something is abusivemissbräuchliche withoutohne contextKontext,
84
230652
1848
ohne den Zusammenhang zu kennen,
04:04
definitelybestimmt hardhart.
85
232500
1592
ist wirklich schwer.
04:06
Let's look at spamSpam.
86
234092
2717
Schauen wir uns mal Spam an.
Hier ein Twitter-Account,
04:08
Here'sHier ist an exampleBeispiel of an accountKonto engagedbeschäftigt
87
236809
1960
der sich wie ein klassischer
Spam-Account verhält,
04:10
in classicklassisch spammerSpammer behaviorVerhalten,
88
238769
1668
04:12
sendingSenden the exactgenau samegleich messageNachricht
89
240437
1559
indem er denselben Tweet
04:13
to thousandsTausende of people.
90
241996
1804
an Tausende von Leuten schickt.
04:15
While this is a mockupMock-up I put
togetherzusammen usingmit my accountKonto,
91
243800
2793
Dieses Beispiel ist von
meinem Account konstruiert,
04:18
we see accountsKonten doing this all the time.
92
246593
3001
aber wir beobachten welche,
die das ständig tun.
04:21
SeemsScheint prettyziemlich straightforwardeinfach.
93
249594
1979
Scheint ziemlich eindeutig zu sein.
04:23
We should just automaticallyautomatisch suspendaussetzen accountsKonten
94
251573
2053
Wir sollten Accounts,
04:25
engagingansprechend in this kindArt of behaviorVerhalten.
95
253626
3307
die sich so verhalten,
einfach automatisch sperren.
04:28
TurnsDreht sich out there's some exceptionsAusnahmen to that ruleRegel.
96
256933
3210
Es gibt aber ein paar
Ausnahmen von der Regel.
04:32
TurnsDreht sich out that that messageNachricht
could alsoebenfalls be a notificationBenachrichtigung
97
260143
2883
Vielleicht haben Sie
die Nachricht sogar angefordert,
04:35
you signedunterzeichnet up for that the InternationalInternational
SpaceRaum StationBahnhof is passingVorbeigehen overheadOverhead
98
263026
3889
weil Sie wissen wollen,
wann sich die Internationale Raumstation
über Ihnen befindet, weil Sie raus gehen
04:38
because you wanted to go outsidedraußen
99
266915
1846
und schauen wollen, ob Sie sie entdecken.
04:40
and see if you could see it.
100
268761
1948
Das könnten Sie nicht,
04:42
You're not going to get that chanceChance
101
270709
1225
04:43
if we mistakenlyirrtümlich suspendaussetzen the accountKonto
102
271934
1847
wenn wir versehentlich
den Account sperren würden,
04:45
thinkingDenken it's spamSpam.
103
273781
2266
weil wir denken, es ist Spam.
04:48
Okay. Let's make the stakesStakes higherhöher.
104
276047
3526
Okay. Legen wir die Latte höher.
04:51
Back to my accountKonto,
105
279573
1916
Kehren wir zurück zu meinem Account
04:53
again exhibitingausstellenden classicklassisch behaviorVerhalten.
106
281489
3505
und zeigen wir wieder
klassisches Verhalten.
04:56
This time it's sendingSenden the samegleich messageNachricht and linkVerknüpfung.
107
284994
2643
Dieses Mal sendet er die
gleiche Nachricht mit gleichem Link,
04:59
This is oftenhäufig indicativeindikativ of
something callednamens phishingPhishing,
108
287637
2774
was oft ein Anzeichen für "Phishing" ist:
05:02
somebodyjemand tryingversuchen to stealstehlen anotherein anderer
person'sPerson accountKonto informationInformation
109
290411
3178
Jemand versucht, Account-Infos
einer anderen Person zu stehlen,
05:05
by directingRegie them to anotherein anderer websiteWebseite.
110
293589
2203
indem er sie zu einer
anderen Webseite lotst.
05:07
That's prettyziemlich clearlydeutlich not a good thing.
111
295792
4194
Das ist natürlich nicht besonders nett.
05:11
We want to, and do, suspendaussetzen accountsKonten
112
299986
1930
Wir möchten Accounts, die so etwas tun,
05:13
engagingansprechend in that kindArt of behaviorVerhalten.
113
301916
2624
sperren und tun das auch.
05:16
So why are the stakesStakes higherhöher for this?
114
304540
3247
Also warum liegt hier die Latte höher?
05:19
Well, this could alsoebenfalls be a bystanderZuschauer at a rallyRally
115
307787
2999
Es könnte auch ein Augenzeuge sein,
dem es gelang,
einen Polizisten zu filmen,
05:22
who managedgelang es to recordAufzeichnung a videoVideo
116
310786
1910
05:24
of a policePolizei officerOffizier beatingPrügel a non-violentgewaltfrei protesterDemonstrant
117
312696
3270
der einen friedlichen
Demonstranten schlägt,
05:27
who'swer ist tryingversuchen to let the worldWelt know what's happeningHappening.
118
315966
2975
und Ersterer versucht, die Welt über
die Zustände aufzuklären.
05:30
We don't want to gamblezocken
119
318941
1643
Wir wollen nicht riskieren,
05:32
on potentiallymöglicherweise silencingzum Schweigen zu bringen that crucialentscheidend speechRede
120
320584
2517
so wichtige Nachrichten zu unterdrücken,
05:35
by classifyingKlassifizierung von it as spamSpam and suspendingAussetzung der it.
121
323101
2929
indem wir sie als Spam
kennzeichnen und aussortieren.
05:38
That meansmeint we evaluatebewerten hundredsHunderte of parametersParameter
122
326030
2879
Deshalb erheben wir Hunderte
von Parametern
05:40
when looking at accountKonto behaviorsVerhaltensweisen,
123
328909
1688
beim Beobachten eines Accounts,
05:42
and even then, we can still get it wrongfalsch
124
330597
2016
und trotzdem können wir uns irren
05:44
and have to reevaluateneu zu bewerten.
125
332613
2236
und müssen Entscheidungen zurücknehmen.
05:46
Now, givengegeben the sortssortiert of challengesHerausforderungen I'm up againstgegen,
126
334849
3708
Angesichts der Herausforderungen,
denen ich gegenüberstehe,
05:50
it's crucialentscheidend that I not only predictvorhersagen
127
338557
2696
ist es wichtig, dass ich Probleme
nicht nur voraussehe,
05:53
but alsoebenfalls designEntwurf protectionsSchutz for the unexpectedunerwartet.
128
341253
3784
sondern mich auch gegen
das Unerwartete wappne.
05:57
And that's not just an issueProblem for me,
129
345037
2342
Und das ist nicht nur ein Thema für mich
oder für Twitter,
es ist auch eines für Sie.
05:59
or for TwitterTwitter, it's an issueProblem for you.
130
347379
2087
06:01
It's an issueProblem for anybodyirgendjemand who'swer ist buildingGebäude or creatingErstellen
131
349466
2406
Es ist ein Thema für jeden,
der etwas erschafft,
06:03
something that you think is going to be amazingtolle
132
351872
1925
von dem er denkt,
es könnte etwas Wundervolles werden
06:05
and will let people do awesomegenial things.
133
353797
2789
und Leute könnten tolle Sachen machen.
06:08
So what do I do?
134
356586
2866
Also was mache ich?
06:11
I pausePause and I think,
135
359452
3318
Ich lege einen Pause ein und denke,
06:14
how could all of this
136
362770
2095
wie könnte all das
06:16
go horriblyentsetzlich wrongfalsch?
137
364865
3793
schrecklich schief laufen?
06:20
I visualizevisualisieren catastropheKatastrophe.
138
368658
4453
Ich stelle mir Katastrophen vor.
06:25
And that's hardhart. There's a sortSortieren of
139
373111
2463
Und das ist schwer.
Da entsteht im Kopf eine Art
ständige "kognitive Dissonanz",
06:27
inherentinhärent cognitivekognitiv dissonanceDissonanz in doing that,
140
375574
2848
06:30
like when you're writingSchreiben your weddingHochzeit vowsGelübde
141
378422
1812
so als ob man
beim Schreiben seines Ehegelübdes
06:32
at the samegleich time as your prenuptialEhevertrag agreementZustimmung.
142
380234
2646
gleichzeitig den Ehevertrag aufsetzt.
06:34
(LaughterLachen)
143
382880
1696
(Gelächter)
06:36
But you still have to do it,
144
384576
2373
Aber man muss es tun,
06:38
particularlyinsbesondere if you're marryingheiraten
500 millionMillion tweetsTweets perpro day.
145
386949
4446
besonders, wenn man 500 Millionen
Tweets täglich "heiratet".
06:43
What do I mean by "visualizevisualisieren catastropheKatastrophe?"
146
391395
3097
Was meine ich mit
"ich stelle mir Katastrophen vor"?
06:46
I try to think of how something as
147
394492
2762
Ich versuche mir auszudenken,
06:49
benigngutartig and innocuousharmlose as a pictureBild of a catKatze
148
397254
3228
wie etwas so Niedliches und Unschuldiges
wie ein Katzenbild
06:52
could leadführen to deathTod,
149
400482
1104
zum Tode führen könnte
06:53
and what to do to preventverhindern that.
150
401586
2326
und wie wir das verhindern können.
06:55
WhichDie happensdas passiert to be my nextNächster exampleBeispiel.
151
403912
2383
Das ist also mein nächstes Beispiel.
06:58
This is my catKatze, EliEli.
152
406295
3110
Das ist meine Katze Eli.
Wir wollten Usern die Möglichkeit bieten,
07:01
We wanted to give usersBenutzer the abilityFähigkeit
153
409405
1981
07:03
to addhinzufügen photosFotos to theirihr tweetsTweets.
154
411386
2073
ihren Tweets Fotos beizufügen.
Ein Bild sagt mehr als 1 000 Worte.
07:05
A pictureBild is worthwert a thousandtausend wordsWörter.
155
413459
1597
07:07
You only get 140 charactersFiguren.
156
415056
2009
Man hat nur 140 Zeichen.
07:09
You addhinzufügen a photoFoto to your tweetTweet,
157
417065
1200
Wenn man seinem Tweet ein Foto beifügt,
07:10
look at how much more contentInhalt you've got now.
158
418265
3038
transportiert er wesentlich mehr Inhalt.
07:13
There's all sortssortiert of great things you can do
159
421303
1677
Man kann viele tolle Sachen tun,
07:14
by addingHinzufügen a photoFoto to a tweetTweet.
160
422980
2007
indem man einem Tweet ein Foto beifügt.
07:16
My jobJob isn't to think of those.
161
424987
2280
Mein Job ist nicht, darüber nachzudenken.
07:19
It's to think of what could go wrongfalsch.
162
427267
2747
Ich muss darüber nachdenken,
was schief laufen könnte.
07:22
How could this pictureBild
163
430014
1892
Wie könnte dieses Bild
07:23
leadführen to my deathTod?
164
431906
3539
zu meinem Tod führen?
07:27
Well, here'shier ist one possibilityMöglichkeit.
165
435445
3160
Hier ist eine Möglichkeit:
07:30
There's more in that pictureBild than just a catKatze.
166
438605
3086
Das Bild zeigt mehr als nur eine Katze.
07:33
There's geodataGeodaten.
167
441691
2092
Es beinhaltet auch Geodaten.
07:35
When you take a pictureBild with your smartphoneSmartphone
168
443783
2212
Wenn man ein Bild mit dem Smartphone
oder der Digitalkamera aufnimmt,
07:37
or digitaldigital cameraKamera,
169
445995
1299
07:39
there's a lot of additionalzusätzliche informationInformation
170
447294
1654
gibt es eine Menge mehr Informationen,
07:40
savedGerettet alongeine lange in that imageBild.
171
448948
1616
die mit dem Bild gespeichert werden.
07:42
In factTatsache, this imageBild alsoebenfalls containsenthält
172
450564
1932
Tatsächlich beinhaltet dieses Bild
07:44
the equivalentÄquivalent of this,
173
452496
1805
ungefähr das.
07:46
more specificallyspeziell, this.
174
454301
3079
Genauer gesagt: das.
07:49
Sure, it's not likelywahrscheinlich that someone'sjemandes going to try
175
457380
1956
Es ist unwahrscheinlich,
dass jemand versucht,
07:51
to trackSpur me down and do me harmSchaden
176
459336
2285
mich aufzuspüren und mir weh zu tun,
07:53
basedbasierend uponauf imageBild dataDaten associateddamit verbundenen
177
461621
1784
aufgrund von Bilddaten eines Fotos,
07:55
with a pictureBild I tookdauerte of my catKatze,
178
463405
1948
das ich von meiner Katze gemacht habe,
07:57
but I startAnfang by assumingunter der Annahme the worstam schlimmsten will happengeschehen.
179
465353
3651
aber ich muss immer
das Schlimmste annehmen.
08:01
That's why, when we launchedgestartet photosFotos on TwitterTwitter,
180
469004
2338
Deshalb entschieden wir,
als wir damit begannen,
08:03
we madegemacht the decisionEntscheidung to stripStreifen that geodataGeodaten out.
181
471342
3821
bei Fotos auf Twitter
die Geodaten rauszuziehen.
08:07
(ApplauseApplaus)
182
475163
5847
(Applaus)
Ich gehe vom Schlimmsten aus
und arbeite mich dann rückwärts.
08:13
If I startAnfang by assumingunter der Annahme the worstam schlimmsten
183
481010
2613
08:15
and work backwardsrückwärts,
184
483623
947
08:16
I can make sure that the protectionsSchutz we buildbauen
185
484570
2553
So funktionieren die Sicherheitsmaßnahmen
08:19
work for bothbeide expectederwartet
186
487123
1768
sowohl für die erwarteten als auch
08:20
and unexpectedunerwartet use casesFälle.
187
488891
2078
für die unerwarteten Fälle.
08:22
GivenGegeben that I spendverbringen my daysTage and nightsNächte
188
490969
2945
Wenn man sich vorstellt,
dass ich mir Tag und Nacht
08:25
imaginingsich vorzustellen the worstam schlimmsten that could happengeschehen,
189
493914
2541
die schlimmsten Dinge ausdenke,
08:28
it wouldn'twürde nicht be surprisingüberraschend if
my worldviewWeltanschauung was gloomydüstere.
190
496455
4257
wäre es nicht überraschend, wenn ich
ein ziemlich düsteres Weltbild hätte.
08:32
(LaughterLachen)
191
500712
1783
(Gelächter)
08:34
It's not.
192
502495
1417
Aber so ist es nicht.
08:35
The vastriesig majorityMehrheit of interactionsWechselwirkungen I see --
193
503912
3876
Die überwältigende Mehrheit
der Interaktionen, die ich sehe,
08:39
and I see a lot, believe me -- are positivepositiv,
194
507788
3901
-- und ich sehe viele, glauben Sie mir --
sind positiv.
08:43
people reachingerreichen out to help
195
511689
1924
Menschen verbinden sich, um zu helfen
08:45
or to connectverbinden or shareAktie informationInformation with eachjede einzelne other.
196
513613
3448
oder Informationen miteinander
auszutauschen.
08:49
It's just that for those of us dealingUmgang with scaleRahmen,
197
517061
3323
Nur wir, die mit dieser
Größenordnung arbeiten,
08:52
for those of us taskeddie Aufgabe with keepinghalten people safeSafe,
198
520384
3800
die den Auftrag haben,
Menschen zu schützen,
08:56
we have to assumeannehmen the worstam schlimmsten will happengeschehen,
199
524184
2546
müssen davon ausgehen,
dass das Schlimmste passiert.
08:58
because for us, a one-in-a-millionOne in a million chanceChance
200
526730
4227
Weil für uns eine Wahrscheinlichkeit
von 1 : 1 000 000
09:02
is prettyziemlich good oddsChancen.
201
530957
2749
eine ziemlich realistische Wette ist.
09:05
Thank you.
202
533706
1864
Vielen Dank.
09:07
(ApplauseApplaus)
203
535570
4000
(Applaus)
Translated by Mick Nitschke
Reviewed by Nadine Hennig

▲Back to top

ABOUT THE SPEAKER
Del Harvey - Security maven
Del Harvey works to define policy and to ensure user safety and security in the challenging realm of modern social media.

Why you should listen

As Senior Director of Trust and Safety at Twitter, Del Harvey works to define policy and to ensure user safety and security in the challenging realm of modern social media. Prior to joining Twitter, she spent five years as the co-administrator and law enforcement liaison for a 501(c)3 non-profit charity, working with agencies ranging from local police departments to the FBI, U.S. Marshals and the Secret Service.

More profile about the speaker
Del Harvey | Speaker | TED.com