ABOUT THE SPEAKER
Susan Etlinger - Data analyst
Susan Etlinger promotes the smart, well-considered and ethical use of data.

Why you should listen

Susan Etlinger is an industry analyst with Altimeter Group, where she focuses on data and analytics. She conducts independent research and has authored two intriguing reports: “The Social Media ROI Cookbook” and “A Framework for Social Analytics.” She also advises global clients on how to work measurement into their organizational structure and how to extract insights from the social web which can lead to tangible actions. In addition, she works with technology innovators to help them refine their roadmaps and strategies. 

Etlinger is on the board of The Big Boulder Initiative, an industry organization dedicated to promoting the successful and ethical use of social data. She is regularly interviewed and asked to speak on data strategy and best practices, and has been quoted in media outlets like The Wall Street Journal, The New York Times, and the BBC.

More profile about the speaker
Susan Etlinger | Speaker | TED.com
TED@IBM

Susan Etlinger: What do we do with all this big data?

Susan Etlinger: Was machen wir mit all den Datenmengen?

Filmed:
1,344,301 views

Helfen Daten Ihnen sich sorgloser und erfolgreicher zu fühlen? Dann ist Ihre Interpretation wohlmöglich falsch. In diesem überraschend rührenden Vortrag erklärt Susan Etlinger, warum wir bei zunehmend größeren Datenmengen unser kritisches Denken verstärken müssen. Denn es ist nicht einfach, über das Zählen von Daten hinaus zu gehen und diese wirklich zu verstehen.
- Data analyst
Susan Etlinger promotes the smart, well-considered and ethical use of data. Full bio

Double-click the English transcript below to play the video.

00:13
TechnologyTechnologie has broughtgebracht us so much:
0
1354
3135
Technik hat uns viel gebracht:
00:16
the moonMond landingLandung, the InternetInternet,
1
4489
2019
die Mondlandung, das Internet,
00:18
the abilityFähigkeit to sequenceSequenz the humanMensch genomeGenom.
2
6508
2625
die Entschlüsselung von Erbgut.
00:21
But it alsoebenfalls tapsArmaturen into a lot of our deepestam tiefsten fearsÄngste,
3
9133
3724
Aber sie nutzt auch
unsere tiefsten Ängste,
00:24
and about 30 yearsJahre agovor,
4
12857
1856
und vor ungefähr 30 Jahren
00:26
the cultureKultur criticKritiker NeilNeil PostmanPostman wroteschrieb a bookBuch
5
14713
2553
schrieb der Kulturkritiker
Neil Postman ein Buch namens
00:29
callednamens "AmusingAmüsante OurselvesUns to DeathTod,"
6
17266
2115
"Wir amüsieren uns zu Tode",
00:31
whichwelche layslegt this out really brilliantlybrillant.
7
19381
2759
worin dies brilliant beschrieben wird.
00:34
And here'shier ist what he said,
8
22140
1650
Er schreibt über den Vergleich
00:35
comparingVergleichen the dystopianDystopie visionsVisionen
9
23790
2263
der dystopischen Vorstellungen
von George Orwell und Aldous Huxley.
00:38
of GeorgeGeorge OrwellOrwell and AldousAldous HuxleyHuxley.
10
26053
3573
00:41
He said, OrwellOrwell fearedgefürchtet we would becomewerden
11
29626
3126
Orwell befürchtete, dass wir
eine gefangene Kultur werden.
00:44
a captivein Gefangenschaft cultureKultur.
12
32752
2248
Huxley befürchtete, dass wir
eine triviale Kultur werden.
00:47
HuxleyHuxley fearedgefürchtet we would becomewerden a trivialtrivial cultureKultur.
13
35000
3752
00:50
OrwellOrwell fearedgefürchtet the truthWahrheit would be
14
38752
2145
Orwell fürchtete, dass die Wahrheit
vor uns verborgen wird.
00:52
concealedverborgen from us,
15
40897
1923
00:54
and HuxleyHuxley fearedgefürchtet we would be drownedertrunken
16
42820
2190
Und Huxley fürchtete, dass wir
in einem Meer der Irrelevanz ertrinken.
00:57
in a seaMeer of irrelevanceIrrelevanz.
17
45010
2693
00:59
In a nutshellÜberblick, it's a choiceWahl betweenzwischen
18
47703
2170
Zusammenfassend ist es die Wahl
zwischen überwachen
01:01
BigGroß BrotherBruder watchingAufpassen you
19
49873
2600
01:04
and you watchingAufpassen BigGroß BrotherBruder.
20
52473
2496
und überwacht werden.
(Gelächter)
01:06
(LaughterLachen)
21
54969
1931
01:08
But it doesn't have to be this way.
22
56900
1734
Aber es muss nicht so sein.
01:10
We are not passivepassiv consumersVerbraucher
of dataDaten and technologyTechnologie.
23
58634
3336
Wir sind keine passiven Konsumenten
von Daten und Technik.
01:13
We shapegestalten the roleRolle it playsTheaterstücke in our livesLeben
24
61970
2403
Wir bestimmen die Rolle,
die sie in unserem Leben spielen
01:16
and the way we make meaningBedeutung from it,
25
64373
2130
und wie viel Bedeutung sie für uns haben.
01:18
but to do that,
26
66503
1603
Aber um das zu tun,
01:20
we have to payZahlen as much attentionAufmerksamkeit to how we think
27
68106
3513
müssen wir genau so sehr
darauf achten, wie wir denken,
01:23
as how we codeCode.
28
71619
2030
wie darauf, wie wir programmieren.
01:25
We have to askFragen questionsFragen, and hardhart questionsFragen,
29
73649
3098
Wir müssen schwere Fragen stellen,
um das Zählen der Dinge
hinter uns zu lassen,
01:28
to moveBewegung pastVergangenheit countingZählen things
30
76747
1869
01:30
to understandingVerstehen them.
31
78616
2602
um sie zu verstehen.
Wir werden andauernd mit Geschichten
über die Menge der Daten bombardiert,
01:33
We're constantlyständig bombardedbombardiert with storiesGeschichten
32
81218
2446
01:35
about how much dataDaten there is in the worldWelt,
33
83664
2476
aber wenn es um große Daten geht,
01:38
but when it comeskommt to biggroß dataDaten
34
86140
1580
01:39
and the challengesHerausforderungen of interpretingDolmetschen it,
35
87720
2596
und die Schwierigkeiten,
diese zu interpretieren,
ist die Größe nicht das Wichtigste.
01:42
sizeGröße isn't everything.
36
90316
2088
01:44
There's alsoebenfalls the speedGeschwindigkeit at whichwelche it movesbewegt,
37
92404
2903
Auch die Geschwindigkeit,
in der Daten sich bewegen,
01:47
and the manyviele varietiesSorten of dataDaten typesTypen,
38
95307
1696
und die Vielfalt der Daten sind wichtig.
01:49
and here are just a fewwenige examplesBeispiele:
39
97003
2498
Hier sind nur ein paar Beispiele:
01:51
imagesBilder,
40
99501
2198
Bilder,
01:53
textText,
41
101699
4007
Text,
(Gelächter)
01:57
videoVideo,
42
105706
2095
Video,
01:59
audioAudio-.
43
107801
1830
Audio.
Diese ungleichen Datentypen haben gemein,
02:01
And what unitesvereint this disparatedisparat typesTypen of dataDaten
44
109631
3042
02:04
is that they're createderstellt by people
45
112673
2221
dass sie von Menschen
gemacht wurden und Kontext benötigen.
02:06
and they requireerfordern contextKontext.
46
114894
2775
02:09
Now, there's a groupGruppe of dataDaten scientistsWissenschaftler
47
117669
2445
Es gibt eine Gruppe von Datenspezialisten
an der Universität von Illinois-Chicago,
02:12
out of the UniversityUniversität of Illinois-ChicagoIllinois-Chicago,
48
120114
2305
und sie heißen
"The Health Media Collaboratory".
02:14
and they're callednamens the HealthGesundheit MediaMedien CollaboratoryCollaboratory,
49
122419
2554
Sie haben mit den Centers
for Disease Control zusammengearbeitet,
02:16
and they'veSie haben been workingArbeiten with
the CentersZentren for DiseaseKrankheit ControlKontrolle
50
124973
2587
02:19
to better understandverstehen
51
127560
1505
um besser verstehen zu können,
02:21
how people talk about quittingbeenden smokingRauchen,
52
129065
2848
wie Menschen über das
Aufhören vom Rauchen reden,
02:23
how they talk about electronicelektronisch cigarettesZigaretten,
53
131913
2680
wie sie über elektronische
Zigaretten reden,
02:26
and what they can do collectivelygemeinsam
54
134593
1985
und was sie gemeinsam tun können,
um Menschen beim Aufhören zu helfen.
02:28
to help them quitVerlassen.
55
136578
1984
Das Interessante daran ist:
02:30
The interestinginteressant thing is, if you want to understandverstehen
56
138562
2013
Wenn Sie verstehen wollen,
wie Menschen über das Rauchen reden,
02:32
how people talk about smokingRauchen,
57
140575
2216
02:34
first you have to understandverstehen
58
142791
1901
müssen Sie zuerst verstehen,
was sie mit "Rauchen" gemeint ist.
02:36
what they mean when they say "smokingRauchen."
59
144692
2565
02:39
And on TwitterTwitter, there are fourvier mainMain categoriesKategorien:
60
147257
3926
Auf Twitter gibt es vier Hauptkategorien.
02:43
numberNummer one, smokingRauchen cigarettesZigaretten;
61
151183
2997
Erstens, Zigaretten rauchen.
02:46
numberNummer two, smokingRauchen marijuanaMarihuana;
62
154180
2807
Zweitens, Marihuana rauchen.
Drittens, Rippchen grillen.
02:48
numberNummer threedrei, smokingRauchen ribsRippen;
63
156987
2643
02:51
and numberNummer fourvier, smokingRauchen hotheiß womenFrau.
64
159630
3553
Und viertens, "rauchend" heiße Mädels.
(Gelächter)
02:55
(LaughterLachen)
65
163183
2993
02:58
So then you have to think about, well,
66
166176
2426
Also wenn Soe darüber nachdenken müssen,
03:00
how do people talk about electronicelektronisch cigarettesZigaretten?
67
168602
2140
wie Leute über Elektro-Zigaretten reden --
03:02
And there are so manyviele differentanders waysWege
68
170742
2025
es gibt so viele verschieden Arten,
wie Menschen dies tun,
03:04
that people do this, and you can see from the slidegleiten
69
172767
2599
und man kann auf der Folie erkennen,
dass es eine schwierige Fragestellung ist.
03:07
it's a complexKomplex kindArt of a queryAbfrage.
70
175366
2610
03:09
And what it remindserinnert us is that
71
177976
3224
Sie zeigt uns auf,
dass Sprache von Menschen entwickelt wird,
03:13
languageSprache is createderstellt by people,
72
181200
2411
und Menschen sind chaotisch und komplex.
03:15
and people are messyunordentlich and we're complexKomplex
73
183611
2340
03:17
and we use metaphorsMetaphern and slangSlang and jargonJargon
74
185951
2767
Wir benutzen Metaphern,
Umgangssprache und Jargon.
03:20
and we do this 24/7 in manyviele, manyviele languagesSprachen,
75
188718
3279
Wir tun das ununterbrochen,
in vielen Sprachen,
03:23
and then as soonbald as we figureZahl it out, we changeVeränderung it up.
76
191997
3224
und sobald wir es verstehen,
ändern wir es wieder.
Genau das taten diese Fernsehwerbungen
der Centers for Disease Control,
03:27
So did these adsAnzeigen that the CDCCDC put on,
77
195221
5118
03:32
these televisionFernsehen adsAnzeigen that featuredFeatured a womanFrau
78
200339
2430
in denen eine Frau mit einem Loch
in ihrem Hals gezeigt wurde,
03:34
with a holeLoch in her throatKehle and that were very graphicGrafik
79
202769
2021
was recht explizit und verstörend war.
03:36
and very disturbingstörend,
80
204790
1904
03:38
did they actuallytatsächlich have an impactEinfluss
81
206694
1885
Hatten diese Werbungen
eine Auswirkung darauf,
03:40
on whetherob people quitVerlassen?
82
208579
2671
ob die Menschen mit dem Rauchen
aufgehört haben?
03:43
And the HealthGesundheit MediaMedien CollaboratoryCollaboratory
respectedrespektierte the limitsGrenzen of theirihr dataDaten,
83
211250
3307
Es gab Grenzen bei
der Auswertung der Daten,
03:46
but they were ablefähig to concludedaraus schließen
84
214557
2005
aber sie konnten schlussfolgern
03:48
that those advertisementsWerbung
and you maykann have seengesehen them —
85
216562
3312
dass diese Werbungen --
Sie haben sie vielleicht
schon einmal gesehen --
03:51
that they had the effectbewirken of joltingrütteln people
86
219874
2591
zum Denken anregten,
03:54
into a thought processverarbeiten
87
222465
1822
was einen Einfluss auf zukünftiges
Verhalten haben kann.
03:56
that maykann have an impactEinfluss on futureZukunft behaviorVerhalten.
88
224287
3667
03:59
And what I admirebewundern and
appreciateschätzen about this projectProjekt,
89
227954
3891
Abgesehen davon, dass es auf realen
menschlichen Bedürfnissen basiert,
04:03
asidebeiseite from the factTatsache, includingeinschließlich the factTatsache
90
231845
1489
04:05
that it's basedbasierend on realecht humanMensch need,
91
233334
4057
bewundere ich so an diesem Projekt,
dass es ein fantastisches Beispiel
von Mut ist,
04:09
is that it's a fantasticfantastisch exampleBeispiel of courageMut
92
237391
2846
04:12
in the faceGesicht of a seaMeer of irrelevanceIrrelevanz.
93
240237
4443
im Angesicht des Meeres der Irrelevanz.
04:16
And so it's not just biggroß dataDaten that causesUrsachen
94
244680
3305
Und so sind es nicht nur
große Datenmengen,
die Schwierigkeiten
im Interpretieren bieten,
04:19
challengesHerausforderungen of interpretationAuslegung, because let's faceGesicht it,
95
247985
2601
denn, seien wir ehrlich,
04:22
we humanMensch beingsWesen have a very richReich historyGeschichte
96
250586
2594
die menschliche Geschichte ist voll
von Missinterpretationen von Daten,
04:25
of takingunter any amountMenge of dataDaten, no matterAngelegenheit how smallklein,
97
253180
2693
egal wie klein sie sind.
04:27
and screwingschraubend it up.
98
255873
1617
Und so wurde vor vielen Jahren --
04:29
So manyviele yearsJahre agovor, you maykann remembermerken
99
257490
3737
Sie erinnern sich vielleicht noch daran --
04:33
that formerehemalige PresidentPräsident RonaldRonald ReaganReagan
100
261227
2273
der frühere Präsident
Ronald Reagan sehr kritisiert,
04:35
was very criticizedkritisiert for makingHerstellung a statementErklärung
101
263500
1991
als er sagte, dass Fakten unnötig sind.
04:37
that factsFakten are stupidblöd things.
102
265491
3010
04:40
And it was a slipUnterhose of the tongueZunge, let's be fairMesse.
103
268501
2794
Und, seien wir fair,
er hatte sich versprochen.
04:43
He actuallytatsächlich meantgemeint to quoteZitat JohnJohn Adams'Adams defenseVerteidigung
104
271295
2430
Er wollte eigentlich John Adams'
Verteidigung über Britische Soldaten
04:45
of BritishBritische soldiersSoldaten in the BostonBoston MassacreMassaker trialsVersuche
105
273725
2751
in den Boston-Massaker-Prozessen zitieren,
04:48
that factsFakten are stubbornstur things.
106
276476
3150
nämlich, dass Fakten stur sind.
04:51
But I actuallytatsächlich think there's
107
279626
2624
Aber ich denke, dass dort ein wenig
unabsichtliche Weisheit drinsteckt.
04:54
a bitBit of accidentalversehentliche wisdomWeisheit in what he said,
108
282250
3418
04:57
because factsFakten are stubbornstur things,
109
285668
2776
Fakten sind stur,
und manchmal sind sie auch unnütz.
05:00
but sometimesmanchmal they're stupidblöd, too.
110
288444
2923
05:03
I want to tell you a personalpersönlich storyGeschichte
111
291367
1888
Ich möchte Ihnen eine
persönliche Geschichte darüber erzählen,
05:05
about why this mattersAngelegenheiten a lot to me.
112
293255
3548
warum das alles für mich so wichtig ist.
05:08
I need to take a breathAtem.
113
296803
2437
Ich muss einmal kurz durchatmen.
Mein Sohn Isaac wurde mit zwei Jahren
mit Autismus diagnostiziert.
05:11
My sonSohn IsaacIsaac, when he was two,
114
299240
2754
05:13
was diagnoseddiagnostiziert with autismAutismus,
115
301994
2417
Er war ein glücklicher, lustiger,
liebevoller, herzlicher kleiner Junge,
05:16
and he was this happyglücklich, hilariousunglaublich witzig,
116
304411
2161
05:18
lovingliebend, affectionatezärtlich little guy,
117
306572
2035
05:20
but the metricsMetriken on his developmentalEntwicklungsbiologie evaluationsBewertungen,
118
308607
2902
aber die Daten seiner
Entwicklungsauswertung,
05:23
whichwelche lookedsah at things like
the numberNummer of wordsWörter
119
311509
2070
die aus Dingen bestanden,
wie die Anzahl der Wörter --
05:25
at that pointPunkt, nonekeiner
120
313579
3657
was damals gar keine waren --
05:29
communicativekommunikative gesturesGesten and minimalminimal eyeAuge contactKontakt,
121
317236
3940
kommunizierende Gesten
und minimaler Augenkontakt,
stellten ihn auf eine Entwicklungsstufe
eines neun Monate alten Babys.
05:33
put his developmentalEntwicklungsbiologie levelEbene
122
321176
2003
05:35
at that of a nine-month-oldneun Monate alten babyBaby.
123
323179
3961
Die Diagnose war sachlich korrekt,
05:39
And the diagnosisDiagnose was factuallysachlich correctrichtig,
124
327140
2960
05:42
but it didn't tell the wholeganze storyGeschichte.
125
330100
3209
aber sie erzählte nicht
die ganze Geschichte.
Ungefähr anderthalb Jahre später,
als er fast vier Jahre alt war,
05:45
And about a yearJahr and a halfHälfte laterspäter,
126
333309
1401
05:46
when he was almostfast fourvier,
127
334710
2102
05:48
I foundgefunden him in frontVorderseite of the computerComputer one day
128
336812
2363
habe ich ihn vor dem Computer gefunden,
05:51
runningLaufen a GoogleGoogle imageBild searchSuche on womenFrau,
129
339175
5453
während er Bilder von Frauen
auf Google suchte,
die er "V r a u e n" schrieb.
05:56
spelledDinkel "w-i-m-e-nw-i-m-e-n."
130
344628
3616
06:00
And I did what any obsessedbesessen parentElternteil would do,
131
348244
2740
Und ich tat, was alle
besorgten Eltern tun würden,
06:02
whichwelche is immediatelysofort startedhat angefangen
hittingschlagen the "back" buttonTaste
132
350984
1901
und durchsuchte sofort den Verlauf,
um zu schauen,
06:04
to see what elsesonst he'der würde been searchingSuche for.
133
352885
3363
wonach er sonst noch gesucht hat.
06:08
And they were, in orderAuftrag: menMänner,
134
356248
2171
Es war in dieser Reihenfolge:
Männer, Schule, Bus
06:10
schoolSchule, busBus and computerComputer.
135
358419
7267
und Computer.
Ich war sprachlos,
06:17
And I was stunnedbetäubt,
136
365686
2070
denn wir wussten nicht,
dass er schreiben oder lesen konnte,
06:19
because we didn't know that he could spellZauber,
137
367756
2002
06:21
much lessWeniger readlesen, and so I askedaufgefordert him,
138
369758
1766
und so fragte ich ihn:
"Isaac, wie hast du das gemacht?"
06:23
"IsaacIsaac, how did you do this?"
139
371524
2193
06:25
And he lookedsah at me very seriouslyernst and said,
140
373717
2678
Er sah mich ernst an und sagte:
06:28
"TypedEingegeben haben in the boxBox."
141
376395
3352
"Ich hab in die Box getippt."
06:31
He was teachingLehren himselfselbst to communicatekommunizieren,
142
379747
3734
Er brachte sich bei zu kommunizieren.
Wir haben bloß auf
die falschen Dinge geachtet.
06:35
but we were looking in the wrongfalsch placeOrt,
143
383481
3004
Und so etwas passiert,
06:38
and this is what happensdas passiert when assessmentsBewertungen
144
386485
2295
wenn Bewertungen und Analysen
einen bestimmten Teil überbewerten --
06:40
and analyticsAnalytics overvalueüberschätzen one metricmetrisch
145
388780
2396
06:43
in this caseFall, verbalverbal communicationKommunikation
146
391176
2609
in diesem Fall, verbale Kommunikation --
06:45
and undervalueunterbewerten othersAndere, sucheine solche
as creativekreativ problem-solvingProblemlösung.
147
393785
5703
und andere unterschätzen,
wie kreative Problemlösung.
Kommunikation war schwer für Isaac,
06:51
CommunicationKommunikation was hardhart for IsaacIsaac,
148
399488
2307
also fand er eine andere Lösung
um herauszufinden, was er wissen wollte.
06:53
and so he foundgefunden a workaroundProblemumgehung
149
401795
1912
06:55
to find out what he needederforderlich to know.
150
403707
2857
Wenn man darüber nachdenkt,
ergibt es eine Menge Sinn,
06:58
And when you think about it, it makesmacht a lot of senseSinn,
151
406564
1890
07:00
because formingBildung a questionFrage
152
408454
2081
denn eine Frage zu stellen,
ist ein wirklich komplexer Prozess,
07:02
is a really complexKomplex processverarbeiten,
153
410535
2565
07:05
but he could get himselfselbst a lot of the way there
154
413100
2522
aber er konnte sich selbst helfen,
in dem er ein Wort in die Suchbox eintrug.
07:07
by puttingPutten a wordWort in a searchSuche boxBox.
155
415622
4092
07:11
And so this little momentMoment
156
419714
2936
Und so hatte dieser kleine Moment
einen tiefen Einfluss auf mich
07:14
had a really profoundtiefsinnig impactEinfluss on me
157
422650
2836
und unsere Familie,
07:17
and our familyFamilie
158
425486
1309
07:18
because it helpedhalf us changeVeränderung our frameRahmen of referenceReferenz
159
426795
3141
denn es half uns,
die Rahmenbedingungen
für sein Verhalten zu ändern,
07:21
for what was going on with him,
160
429936
2208
uns weniger Sorgen zu machen
07:24
and worrySorge a little bitBit lessWeniger and appreciateschätzen
161
432144
2976
und seinen Einfallsreichtum
mehr zu würdigen.
07:27
his resourcefulnessEinfallsreichtum more.
162
435120
2182
07:29
FactsFakten are stupidblöd things.
163
437302
2861
Fakten sind unnütz.
07:32
And they're vulnerableverwundbar to misuseMissbrauch,
164
440163
2397
Man kann sie
zu leicht falsch anwenden,
07:34
willfulmutwillig or otherwiseAndernfalls.
165
442560
1653
gewollt oder nicht.
Meine Freundin, Emily Willingham,
ist Wissenschaftlerin
07:36
I have a friendFreund, EmilyEmily WillinghamWillingham, who'swer ist a scientistWissenschaftler,
166
444213
3026
07:39
and she wroteschrieb a pieceStück for ForbesForbes not long agovor
167
447239
2801
und sie schrieb vor kurzem
einen Artikel für Forbes
namens "Die 10 komischsten Dinge,
die mit Autismus verbunden werden"
07:42
entitledberechtigt "The 10 WeirdestVerrücktesten Things
168
450040
1980
07:44
Ever LinkedVerbunden to AutismAutismus."
169
452020
1810
07:45
It's quiteganz a listListe.
170
453830
3005
Es ist eine ziemlich lange Liste.
07:48
The InternetInternet, blameddie Schuld for everything, right?
171
456835
3532
Dem Internet kann man immer
die Schuld geben, nicht wahr?
Und natürlich auch Müttern.
07:52
And of courseKurs mothersMütter, because.
172
460367
3757
Und es gibt noch mehr,
07:56
And actuallytatsächlich, wait, there's more,
173
464124
1587
07:57
there's a wholeganze bunchBündel in
the "motherMutter" categoryKategorie here.
174
465711
3430
ein ganzes Bündel
in der "Mutter-Kategorie".
Man sieht, dass es eine ziemlich
interessante und ausführliche Liste ist,
08:01
And you can see it's a prettyziemlich
richReich and interestinginteressant listListe.
175
469141
4815
Mir gefallt besonders:
08:05
I'm a biggroß fanVentilator of
176
473956
2193
"Schwanger in der Nähe
von Autobahnen zu sein."
08:08
beingSein pregnantschwanger nearin der Nähe von freewaysAutobahnen, personallypersönlich.
177
476149
3704
(Gelächter)
08:11
The finalFinale one is interestinginteressant,
178
479853
1539
Der letzte Punkt ist interessant,
08:13
because the termBegriff "refrigeratorKühlschrank motherMutter"
179
481392
3003
denn der Begriff "Kühlschrank-Mutter"
08:16
was actuallytatsächlich the originalOriginal hypothesisHypothese
180
484395
2605
war die ursprüngliche Hypothese
über die Ursache von Autismus,
08:19
for the causeUrsache of autismAutismus,
181
487000
1431
und dieser Begriff bezieht sich auf
eine kalte und lieblose Person.
08:20
and that meantgemeint somebodyjemand
who was coldkalt and unlovinglieblos.
182
488431
2735
08:23
And at this pointPunkt, you mightMacht be thinkingDenken,
183
491166
1562
Jetzt denken Sie sich vielleicht,
08:24
"Okay, SusanSusan, we get it,
184
492728
1657
"Schon klar, Susan, man kann Daten
allmächtig werden lassen."
08:26
you can take dataDaten, you can
make it mean anything."
185
494385
1782
08:28
And this is truewahr, it's absolutelyunbedingt truewahr,
186
496167
4703
Und das stimmt,
das stimmt absolut.
08:32
but the challengeHerausforderung is that
187
500870
5610
Aber die Schwierigkeit besteht darin,
08:38
we have this opportunityGelegenheit
188
506480
2448
dass wir diese Möglichkeit haben,
für uns Sinn aus diesen Daten zu ziehen,
08:40
to try to make meaningBedeutung out of it ourselvesuns selbst,
189
508928
2284
08:43
because franklyoffen, dataDaten doesn't
createerstellen meaningBedeutung. We do.
190
511212
5352
denn Daten ergeben keinen Sinn,
wir verleihen ihnen Sinn.
08:48
So as businesspeopleGeschäftsleute, as consumersVerbraucher,
191
516564
3256
Als Geschäftsleute, als Konsumenten,
als Patienten, als Bürger,
08:51
as patientsPatienten, as citizensBürger,
192
519820
2539
haben wir die Verantwortung,
mehr Zeit darauf zu verwerden,
08:54
we have a responsibilityVerantwortung, I think,
193
522359
2396
08:56
to spendverbringen more time
194
524755
2194
uns mit unserer Fähigkeit,
kritisch zu hinterfragen, zu beschäftigen.
08:58
focusingfokussierend on our criticalkritisch thinkingDenken skillsFähigkeiten.
195
526949
2870
09:01
Why?
196
529819
1078
Warum?
09:02
Because at this pointPunkt in our historyGeschichte, as we'vewir haben heardgehört
197
530897
3178
Weil wir heutzutage
schon oft gehört haben,
09:06
manyviele timesmal over,
198
534075
1706
09:07
we can processverarbeiten exabytesExabyte of dataDaten
199
535781
1981
dass wir Exabytes von Daten
in Lichtgeschwindigkeit
verarbeiten können,
09:09
at lightningBlitz speedGeschwindigkeit,
200
537762
2153
09:11
and we have the potentialPotenzial to make badschlecht decisionsEntscheidungen
201
539915
3515
und das Potenzial haben,
schlechte Entscheidungen
viel schneller und effizienter zu treffen,
09:15
farweit more quicklyschnell, efficientlyeffizient,
202
543430
1834
und mit viel größeren Auswirkungen
als in der Vergangenheit.
09:17
and with farweit greatergrößer impactEinfluss than we did in the pastVergangenheit.
203
545264
5028
09:22
Great, right?
204
550292
1388
Toll, oder?
09:23
And so what we need to do insteadstattdessen
205
551680
3030
Also müssen wir stattdessen mehr Zeit
mit Sachen wie Geisteswissenschaften,
09:26
is spendverbringen a little bitBit more time
206
554710
2330
09:29
on things like the humanitiesGeisteswissenschaften
207
557040
2746
Soziologie und den Sozialwissenschaften
09:31
and sociologySoziologie, and the socialSozial sciencesWissenschaften,
208
559786
3464
Rhetorik, Philosophie, Ethik verbringen,
09:35
rhetoricRhetorik, philosophyPhilosophie, ethicsEthik,
209
563250
2308
09:37
because they give us contextKontext that is so importantwichtig
210
565558
2856
denn sie geben uns den Kontext,
der so wichtig für große Datenmengen ist,
09:40
for biggroß dataDaten, and because
211
568414
2576
und deshalb helfen sie uns,
bessere Kritiker zu werden.
09:42
they help us becomewerden better criticalkritisch thinkersDenker.
212
570990
2418
09:45
Because after all, if I can spotStelle
213
573408
4207
Wenn ich nämlich ein Problem
in einem Argument erkennen kann,
09:49
a problemProblem in an argumentStreit, it doesn't much matterAngelegenheit
214
577615
2486
ist es unwichtig, ob es in Zahlen
oder Wörtern ausgedrückt ist.
09:52
whetherob it's expressedausgedrückt in wordsWörter or in numbersNummern.
215
580101
2759
09:54
And this meansmeint
216
582860
2719
Und das bedeutet,
09:57
teachingLehren ourselvesuns selbst to find
those confirmationBestätigung biasesVorurteile
217
585579
4421
uns selbst beizubringen,
diesen Drang nach Bestätigung
und falsche Zusammenhänge zu finden,
10:02
and falsefalsch correlationsKorrelationen
218
590000
1822
und in der Lage zu sein,
10:03
and beingSein ablefähig to spotStelle a nakednackt emotionalemotional appealBeschwerde
219
591822
2138
einen bloßen emotionalen Anreiz
aus 30 m Entfernung zu erkennen,
10:05
from 30 yardsWerften,
220
593960
1662
10:07
because something that happensdas passiert after something
221
595622
2522
denn nur weil etwas
nach etwas anderem passiert,
10:10
doesn't mean it happenedpassiert
because of it, necessarilyNotwendig,
222
598144
3082
bedeutet das nicht,
dass es deswegen passiert ist.
10:13
and if you'lldu wirst let me geekGeek out on you for a secondzweite,
223
601226
2119
Und wenn ich meinen Nerd einmal kurz
raushängen lassen darf,
10:15
the RomansRömer callednamens this
"postPost hochoc ergoERGO propterpropter hochoc,"
224
603345
4297
die Römer nannten dies:
"post hoc ergo propter hoc".
10:19
after whichwelche thereforedeswegen because of whichwelche.
225
607642
3296
"Danach, also deswegen."
Und es bedeutet,
10:22
And it meansmeint questioningBefragung
disciplinesDisziplinen like demographicsDemografie.
226
610938
3757
Wissenszweige wie Demografien
zu hinterfragen.
10:26
Why? Because they're basedbasierend on assumptionsAnnahmen
227
614695
2520
Warum?
Weil sie auf Annahmen aufbauen,
10:29
about who we all are basedbasierend on our genderGeschlecht
228
617215
2306
darauf, wer wir durch unser Geschlecht,
unser Alter und unseren Wohnort sind,
10:31
and our ageAlter and where we liveLeben
229
619521
1462
10:32
as opposedentgegengesetzt to dataDaten on what
we actuallytatsächlich think and do.
230
620983
3478
und nicht darauf, was wir
tatsächlich denken und tun.
10:36
And sinceschon seit we have this dataDaten,
231
624461
1663
Und da wir diese Daten haben,
10:38
we need to treatbehandeln it with appropriateangemessen privacyDatenschutz controlsKontrollen
232
626124
3139
müssen wir sie mit angemessenem
Datenschutz behandeln,
10:41
and consumerVerbraucher opt-inOpt-in,
233
629263
3576
und Konsumentenbeteiligung,
10:44
and beyonddarüber hinaus that, we need to be clearklar
234
632839
2993
und darüber hinaus müssen wir uns
über unsere Hypothesen und Methoden,
10:47
about our hypothesesHypothesen,
235
635832
2103
10:49
the methodologiesMethoden that we use,
236
637935
2596
die wir nutzen,
und unser Vertrauen in
das Ergebnis, im Klaren sein.
10:52
and our confidenceVertrauen in the resultErgebnis.
237
640531
2804
10:55
As my highhoch schoolSchule algebraAlgebra teacherLehrer used to say,
238
643335
2474
Wie mein Mathelehrer zu pflegen sagte:
"Zeig mir deine Rechenwege,
10:57
showShow your mathMathe,
239
645809
1531
10:59
because if I don't know what stepsSchritte you tookdauerte,
240
647340
3441
wenn ich nämlich nicht weiß,
was du gemacht hast und was nicht,
11:02
I don't know what stepsSchritte you didn't take,
241
650781
1991
und wenn ich nicht weiß,
welche Fragen du gestellt hast,
11:04
and if I don't know what questionsFragen you askedaufgefordert,
242
652772
2438
11:07
I don't know what questionsFragen you didn't askFragen.
243
655210
3197
dann weiß ich auch nicht,
welche Fragen du nicht gestellt hast."
11:10
And it meansmeint askingfragen ourselvesuns selbst, really,
244
658407
1523
Es bedeutet wirklich, uns selbst
die schwerste aller Fragen zu stellen:
11:11
the hardesthärteste questionFrage of all:
245
659930
1479
11:13
Did the dataDaten really showShow us this,
246
661409
3500
Haben die Daten uns dies gezeigt
oder lässt uns das Ergebnis uns
erfolgreicher und behaglicher fühlen?
11:16
or does the resultErgebnis make us feel
247
664909
2311
11:19
more successfulerfolgreich and more comfortablegemütlich?
248
667220
3878
11:23
So the HealthGesundheit MediaMedien CollaboratoryCollaboratory,
249
671098
2584
Die "Health Media Collaboratory"
11:25
at the endEnde of theirihr projectProjekt, they were ablefähig
250
673682
1699
fand letztendlich heraus,
dass 87% der Tweets
11:27
to find that 87 percentProzent of tweetsTweets
251
675381
3408
11:30
about those very graphicGrafik and disturbingstörend
252
678789
2144
über die explizite und verstörende
Anti-Raucher-Kampagne
11:32
anti-smokingAnti-Raucher adsAnzeigen expressedausgedrückt fearAngst,
253
680933
4038
Angst äußerten,
11:36
but did they concludedaraus schließen
254
684971
1856
aber haben sie geschlussfolgert,
11:38
that they actuallytatsächlich madegemacht people stop smokingRauchen?
255
686827
3161
dass die Kampagne Menschen
zum Aufhören bewegte?
Nein. Es ist Wissenschaft, keine Magie.
11:41
No. It's scienceWissenschaft, not magicMagie.
256
689988
2542
11:44
So if we are to unlockEntsperren
257
692530
3190
Also wenn wir die Macht
der Daten entschlüsseln,
11:47
the powerLeistung of dataDaten,
258
695720
2862
11:50
we don't have to go blindlyBlind into
259
698582
3448
müssen wir nicht blindlings
in Orwells Vorstellung
einer totalitären Zukunft laufen,
11:54
Orwell'sOrwells visionVision of a totalitariantotalitären futureZukunft,
260
702030
3436
oder Huxleys Vorstellung
von einer trivialen,
11:57
or Huxley'sHuxleys visionVision of a trivialtrivial one,
261
705466
3117
12:00
or some horribleschrecklich cocktailCocktail of bothbeide.
262
708583
3020
oder eine furchtbare Mischung aus beidem.
12:03
What we have to do
263
711603
2379
Wir müssen kritischem
Denken mit Respekt zu begegnen
12:05
is treatbehandeln criticalkritisch thinkingDenken with respectdie Achtung
264
713982
2718
12:08
and be inspiredinspiriert by examplesBeispiele
265
716700
2029
und von Beispielen wie der Health
Media Collaboratory inspiriert werden.
12:10
like the HealthGesundheit MediaMedien CollaboratoryCollaboratory,
266
718729
2610
Wie sagt man in den Superhelden-Filmen?
12:13
and as they say in the superheroSuperheld moviesFilme,
267
721339
2328
12:15
let's use our powersKräfte for good.
268
723667
1822
Setzen wir unsere Macht für das Gute ein.
12:17
Thank you.
269
725489
2351
Danke.
(Applaus)
12:19
(ApplauseApplaus)
270
727840
2334
Translated by Sandra Neuhäuser
Reviewed by Helene Batt

▲Back to top

ABOUT THE SPEAKER
Susan Etlinger - Data analyst
Susan Etlinger promotes the smart, well-considered and ethical use of data.

Why you should listen

Susan Etlinger is an industry analyst with Altimeter Group, where she focuses on data and analytics. She conducts independent research and has authored two intriguing reports: “The Social Media ROI Cookbook” and “A Framework for Social Analytics.” She also advises global clients on how to work measurement into their organizational structure and how to extract insights from the social web which can lead to tangible actions. In addition, she works with technology innovators to help them refine their roadmaps and strategies. 

Etlinger is on the board of The Big Boulder Initiative, an industry organization dedicated to promoting the successful and ethical use of social data. She is regularly interviewed and asked to speak on data strategy and best practices, and has been quoted in media outlets like The Wall Street Journal, The New York Times, and the BBC.

More profile about the speaker
Susan Etlinger | Speaker | TED.com