ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.

Why you should listen

We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.

Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.

Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.

More profile about the speaker
Zeynep Tufekci | Speaker | TED.com
TEDSummit

Zeynep Tufekci: Machine intelligence makes human morals more important

Zeynep Tufekci: Maskinintelligens behöver mänsklig etik och moral

Filmed:
1,648,711 views

De intelligenta maskinerna är här, och vi använder dem redan för att ta subjektiva beslut. Men med det komplexa sätt som AI växer och förbättras på blir den svår att begripa och ännu svårare att kontrollera. I det här alarmerande föredraget förklarar teknologen och sociologen Zeynep Tufekci hur intelligenta maskiner kan misslyckas på sätt som inte stämmer med det mänskliga mönstret - och på sätt som vi varken förväntar oss eller är förberedda för. "Vi kan inte outsourca vårt ansvar till maskiner", menar hon. "Vi måste hålla oss ännu hårdare till våra värderingar och vår mänskliga etik."
- Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread. Full bio

Double-click the English transcript below to play the video.

00:12
So, I startedsatte igång my first jobjobb
as a computerdator programmerprogrammerare
0
739
4122
Mitt första jobb var som dataprogrammerare
00:16
in my very first yearår of collegehögskola --
1
4885
1956
under mitt första år på högskolan -
00:18
basicallyi grund och botten, as a teenagertonåring.
2
6865
1507
jag var tonåring då.
00:20
SoonSnart after I startedsatte igång workingarbetssätt,
3
8889
1732
Strax efter att jag börjat jobba,
00:22
writingskrift softwareprogramvara in a companyföretag,
4
10645
1610
med att utveckla programvara,
00:24
a managerchef who workedarbetade at the companyföretag
camekom down to where I was,
5
12799
3635
kom en chef på företaget ner där jag satt,
00:28
and he whisperedviskade to me,
6
16458
1268
och viskade till mig,
00:30
"Can he tell if I'm lyingliggande?"
7
18229
2861
"Kan han se om jag ljuger?"
00:33
There was nobodyingen elseannan in the roomrum.
8
21806
2077
Där fanns ingen annan i rummet.
00:37
"Can who tell if you're lyingliggande?
And why are we whisperingviskar?"
9
25032
4389
"Kan vem se om du ljuger?
Och varför viskar vi?"
00:42
The managerchef pointedspetsig
at the computerdator in the roomrum.
10
30266
3107
Chefen pekade på datorn som stod i rummet.
00:45
"Can he tell if I'm lyingliggande?"
11
33397
3096
"Kan han se om jag ljuger?"
00:49
Well, that managerchef was havinghar
an affairaffären with the receptionistreceptionist.
12
37613
4362
Den här chefen hade en affär
med receptionisten.
00:53
(LaughterSkratt)
13
41999
1112
(Skratt)
00:55
And I was still a teenagertonåring.
14
43135
1766
Och jag var fortfarande tonåring.
00:57
So I whisper-shoutedWhisper skrek back to him,
15
45447
2019
Så jag visk-skrek tillbaka,
00:59
"Yes, the computerdator can tell
if you're lyingliggande."
16
47490
3624
"Ja, datorn kan se om du ljuger."
01:03
(LaughterSkratt)
17
51138
1806
(Skratt)
01:04
Well, I laughedskrattade, but actuallyfaktiskt,
the laugh'sskratts on me.
18
52968
2923
Jag skrattade, men egentligen
är det jag som är skämtet.
01:07
NowadaysNuförtiden, there are computationalberäknings systemssystem
19
55915
3268
Idag finns det beräkningssystem
01:11
that can susssuss out
emotionalemotionell statesstater and even lyingliggande
20
59207
3548
som kan sortera ut känslor och även lögner
01:14
from processingbearbetning humanmänsklig facesansikten.
21
62779
2044
genom att processa data från ansikten.
01:17
AdvertisersAnnonsörer and even governmentsregeringar
are very interestedintresserad.
22
65248
4153
Annonsörer och till och med regeringar
är mycket intresserade.
01:22
I had becomebli a computerdator programmerprogrammerare
23
70319
1862
Jag blev programmerare
01:24
because I was one of those kidsbarn
crazygalen about mathmatematik and sciencevetenskap.
24
72205
3113
för som barn var jag som tokig
i matematik och vetenskap.
01:27
But somewherenågonstans alonglängs the linelinje
I'd learnedlärt mig about nuclearkärn weaponsvapen,
25
75942
3108
Men någonstans längs vägen
fick jag vetskap om kärnvapen,
01:31
and I'd gottenfått really concernedbekymrad
with the ethicsetik of sciencevetenskap.
26
79074
2952
och blev mycket oroad
över etiken i forskningen.
01:34
I was troubledbekymrad.
27
82050
1204
Jag var bekymrad.
01:35
HoweverEmellertid, because of familyfamilj circumstancesomständigheter,
28
83278
2641
Emellertid, på grund av
familjeomständigheter,
01:37
I alsoockså neededbehövs to startStart workingarbetssätt
as soonsnart as possiblemöjlig.
29
85943
3298
var jag också tvungen
att börja arbeta tidigt.
01:41
So I thought to myselfjag själv, hey,
let me pickplocka a technicalteknisk fieldfält
30
89265
3299
Jag tänkte för mig själv;
jag väljer ett tekniskt område
01:44
where I can get a jobjobb easilylätt
31
92588
1796
där jag lätt kan få arbete och där
01:46
and where I don't have to dealhandla
with any troublesomebesvärande questionsfrågor of ethicsetik.
32
94408
4018
jag inte behöver bekymra mig om
några svårlösta etiska frågor.
01:51
So I pickedplockade computersdatorer.
33
99022
1529
Så jag valde datorer.
01:52
(LaughterSkratt)
34
100575
1104
(Skratt)
01:53
Well, haha, haha, haha!
All the laughsskratt are on me.
35
101703
3410
Ja, ha, ha, ha!
Skratta gärna åt mig.
01:57
NowadaysNuförtiden, computerdator scientistsvetenskapsmän
are buildingbyggnad platformsplattformar
36
105137
2754
Idag bygger datorforskare plattformar
01:59
that controlkontrollera what a billionmiljard
people see everyvarje day.
37
107915
4209
som kontrollerar vad som visas
för miljarder människor varje dag.
02:05
They're developingutvecklande carsbilar
that could decidebesluta who to runspringa over.
38
113052
3822
De utvecklar bilar
som skulle kunna bestämma
vem de ska köra över.
02:09
They're even buildingbyggnad machinesmaskiner, weaponsvapen,
39
117707
3213
De bygger till och med maskiner, vapen,
02:12
that mightmakt killdöda humanmänsklig beingsvarelser in warkrig.
40
120944
2285
som kan döda människor i krig.
02:15
It's ethicsetik all the way down.
41
123253
2771
Det handlar om etik i hela ledet.
02:19
MachineMaskin intelligenceintelligens is here.
42
127183
2058
De intelligenta maskinerna är här.
02:21
We're now usinganvänder sig av computationberäkning
to make all sortsortera of decisionsbeslut,
43
129823
3474
Idag använder vi beräkningssystem
för alla sorters beslut,
02:25
but alsoockså newny kindsslag of decisionsbeslut.
44
133321
1886
men också för nya typer av beslut.
02:27
We're askingbe questionsfrågor to computationberäkning
that have no singleenda right answerssvar,
45
135231
5172
Vi ställer frågor till algoritmerna
som inte har ett entydigt korrekt svar,
02:32
that are subjectivesubjektiv
46
140427
1202
frågor som är subjektiva,
02:33
and open-endedöppna ändar and value-ladenvärde lastad-.
47
141653
2325
öppna och värdeladdade.
02:36
We're askingbe questionsfrågor like,
48
144002
1758
Vi ställer frågor som,
02:37
"Who should the companyföretag hirehyra?"
49
145784
1650
"Vem ska företaget anställa?"
"Vilken av dina vänners uppdateringar
02:40
"WhichSom updateuppdatering from whichsom friendvän
should you be shownvisad?"
50
148096
2759
ska du kunna se?"
02:42
"WhichSom convictstraffånge is more
likelytroligt to reoffendreoffend?"
51
150879
2266
"Vem återfaller troligast i brott?"
02:45
"WhichSom newsNyheter itemArtikel or moviefilm
should be recommendedRekommenderat to people?"
52
153514
3054
"Vilka nyheter eller filmer
ska rekommenderas till folk?"
02:48
Look, yes, we'vevi har been usinganvänder sig av
computersdatorer for a while,
53
156592
3372
Visst, vi har använt datorer ett tag,
02:51
but this is differentannorlunda.
54
159988
1517
men det här är annorlunda.
02:53
This is a historicalhistorisk twisttwist,
55
161529
2067
Det är en historisk vridning,
02:55
because we cannotkan inte anchorankare computationberäkning
for suchsådan subjectivesubjektiv decisionsbeslut
56
163620
5337
för vi kan inte verifiera beräkningarna
för sådana subjektiva beslut
03:00
the way we can anchorankare computationberäkning
for flyingflygande airplanesflygplan, buildingbyggnad bridgesbroar,
57
168981
5420
på samma sätt som vi kan verifiera dem
vi gör för flygplan, brokonstruktioner,
03:06
going to the moonmåne.
58
174425
1259
eller månfärder.
03:08
Are airplanesflygplan safersäkrare?
Did the bridgebro swayvingla and fallfalla?
59
176449
3259
Är flygplan säkrare?
Började bron självsvänga och rasa?
03:11
There, we have agreed-uponöverenskomna,
fairlyganska clearklar benchmarksriktmärken,
60
179732
4498
Där har vi kommit överens om
ganska tydliga ramverk,
03:16
and we have lawslagar of naturenatur to guideguide us.
61
184254
2239
och vi har lagar som vägleder oss.
03:18
We have no suchsådan anchorsankare and benchmarksriktmärken
62
186517
3394
Såna ramverk eller normer finns inte
03:21
for decisionsbeslut in messyrörig humanmänsklig affairsangelägenheter.
63
189935
3963
för beslut gällande
krångliga mänskliga relationer.
03:25
To make things more complicatedkomplicerad,
our softwareprogramvara is getting more powerfulkraftfull,
64
193922
4237
För att göra det än mer komplicerat,
blir vår mjukvara kraftfullare,
03:30
but it's alsoockså getting lessmindre
transparenttransparent and more complexkomplex.
65
198183
3773
samtidigt som den blir
både mindre transparent och mer komplex.
03:34
RecentlyNyligen, in the pastdåtid decadeårtionde,
66
202542
2040
Under det senaste årtiondet,
03:36
complexkomplex algorithmsalgoritmer
have madegjord great stridesframsteg.
67
204606
2729
har komplexa algoritmer
gjort enorma framsteg.
03:39
They can recognizeerkänna humanmänsklig facesansikten.
68
207359
1990
De kan känna igen ansikten.
03:41
They can decipherdechiffrera handwritinghandskrift.
69
209985
2055
De kan tolka handskriven text.
03:44
They can detectupptäcka, detektera creditkreditera cardkort fraudbedrägeri
70
212436
2066
De kan upptäcka kontokortsbedrägerier,
03:46
and blockblockera spamskräppost
71
214526
1189
blockera spam
03:47
and they can translateÖversätt betweenmellan languagesspråk.
72
215739
2037
och de kan översätta språk.
03:49
They can detectupptäcka, detektera tumorstumörer in medicalmedicinsk imagingImaging.
73
217800
2574
De kan upptäcka tumörer
genom medicinsk bildteknik.
03:52
They can beatslå humansmänniskor in chessschack and Go.
74
220398
2205
De kan slå människor i schack och Go.
03:55
Much of this progressframsteg comeskommer
from a methodmetod calledkallad "machinemaskin learninginlärning."
75
223264
4504
Många av de här framstegen härrör från
en metod som kallas "maskininlärning."
04:00
MachineMaskin learninginlärning is differentannorlunda
than traditionaltraditionell programmingprogrammering,
76
228175
3187
Maskininlärning skiljer sig
från traditionell programmering,
04:03
where you give the computerdator
detaileddetaljerad, exactexakt, painstakingomsorgsfulla instructionsinstruktioner.
77
231386
3585
där du ger datorn detaljerade,
exakta, noggranna instruktioner.
04:07
It's more like you take the systemsystemet
and you feedutfodra it lots of datadata,
78
235378
4182
Det här är mer som att du
matar systemet med en massa data,
04:11
includingInklusive unstructuredostrukturerade datadata,
79
239584
1656
inkluderat ostrukturerad data,
04:13
like the kindsnäll we generategenerera
in our digitaldigital livesliv.
80
241264
2278
till exempel från våra digitala liv.
04:15
And the systemsystemet learnslär sig
by churningspottar throughgenom this datadata.
81
243566
2730
Systemet lär sig genom att
bearbeta datamängderna.
04:18
And alsoockså, cruciallyavgörande,
82
246669
1526
Avgörande är också,
04:20
these systemssystem don't operatefungera
underunder a single-answersingel-svar logiclogik.
83
248219
4380
att systemen inte kommer fram till
något entydigt svar.
04:24
They don't produceproducera a simpleenkel answersvar;
it's more probabilisticprobabilistiska:
84
252623
2959
Du får inte ett enkelt svar,
utan en sannolikhetsbedömning;
04:27
"This one is probablyförmodligen more like
what you're looking for."
85
255606
3483
"Det här är sannolikt det du letar efter."
04:32
Now, the upsideupside is:
this methodmetod is really powerfulkraftfull.
86
260023
3070
Fördelen är att metoden är kraftfull.
04:35
The headhuvud of Google'sGoogles AIAI systemssystem calledkallad it,
87
263117
2076
Chefen för Googles AI-system kallade det
04:37
"the unreasonableorimliga effectivenesseffektivitet of datadata."
88
265217
2197
"datas orimliga effektivitet."
04:39
The downsidenackdelen is,
89
267791
1353
Nackdelen är
04:41
we don't really understandförstå
what the systemsystemet learnedlärt mig.
90
269738
3071
att vi inte förstår vad systemet lär sig.
04:44
In factfaktum, that's its powerkraft.
91
272833
1587
Faktum är att det är dess makt.
04:46
This is lessmindre like givingger
instructionsinstruktioner to a computerdator;
92
274946
3798
Det är mindre av
att ge en dator instruktioner,
04:51
it's more like trainingutbildning
a puppy-machine-creaturevalp-maskin-varelse
93
279200
4064
och mer som att träna en Tamagotschi
04:55
we don't really understandförstå or controlkontrollera.
94
283288
2371
som vi varken förstår eller kontrollerar.
04:58
So this is our problemproblem.
95
286362
1551
Det är vårt stora problem.
05:00
It's a problemproblem when this artificialartificiell
intelligenceintelligens systemsystemet getsblir things wrongfel.
96
288427
4262
Det är problematiskt när såna här system
får saker och ting om bakfoten.
05:04
It's alsoockså a problemproblem
when it getsblir things right,
97
292713
3540
Det är också ett problem
när de får till det rätt,
05:08
because we don't even know whichsom is whichsom
when it's a subjectivesubjektiv problemproblem.
98
296277
3628
för vi vet inte vad som är vad,
när frågeställningen är subjektiv.
05:11
We don't know what this thing is thinkingtänkande.
99
299929
2339
Vi vet inte vad den här tingesten tänker.
05:15
So, consideröverväga a hiringuthyrning algorithmalgoritm --
100
303493
3683
Föreställ er en algoritm
för anställning -
05:20
a systemsystemet used to hirehyra people,
usinganvänder sig av machine-learningMaskininlärning systemssystem.
101
308123
4311
ett maskininlärningssystem
som används för att anställa människor.
05:25
SuchSådana a systemsystemet would have been trainedtränad
on previoustidigare employees'anställdas datadata
102
313052
3579
Ett sådant system har lärt sig
av data över tidigare anställda
05:28
and instructedinstruerade to find and hirehyra
103
316655
2591
och instruerats att hitta och anställa
05:31
people like the existingexisterande
highhög performersartister in the companyföretag.
104
319270
3038
likadana högpresterare
som redan är anställda i företaget.
05:34
SoundsLjud good.
105
322814
1153
Det låter ju bra.
05:35
I onceen gång attendeddeltog i a conferencekonferens
106
323991
1999
Jag deltog en gång i en konferens
05:38
that broughttog med togethertillsammans
humanmänsklig resourcesMedel managerschefer and executivesbefattningshavare,
107
326014
3125
med personalchefer och chefer,
05:41
high-levelhög nivå people,
108
329163
1206
högt uppsatta människor,
05:42
usinganvänder sig av suchsådan systemssystem in hiringuthyrning.
109
330393
1559
som använder såna system.
05:43
They were supersuper excitedupphetsad.
110
331976
1646
De var otroligt entusiastiska.
05:45
They thought that this would make hiringuthyrning
more objectivemål, lessmindre biasedpartisk,
111
333646
4653
De trodde att det här skulle göra
anställningsprocessen objektiv,
och mindre fördomsfull,
05:50
and give womenkvinnor
and minoritiesminoriteter a better shotskott
112
338323
3000
och ge kvinnor och minoriteter
en bättre chans
05:53
againstmot biasedpartisk humanmänsklig managerschefer.
113
341347
2188
mot fördomsfulla, partiska
personalchefer.
05:55
And look -- humanmänsklig hiringuthyrning is biasedpartisk.
114
343559
2843
Men lyssna här -
anställningar är fördomsfulla.
05:59
I know.
115
347099
1185
Jag vet.
06:00
I mean, in one of my earlytidigt jobsjobb
as a programmerprogrammerare,
116
348308
3005
Jag menar, under mitt första jobb
som programmerare,
06:03
my immediateomedelbar managerchef would sometimesibland
come down to where I was
117
351337
3868
kom ibland min närmsta chef förbi
06:07
really earlytidigt in the morningmorgon-
or really latesent in the afternooneftermiddag,
118
355229
3753
antingen väldigt tidigt på morgonen
eller mycket sent på eftermiddagen,
06:11
and she'dskjul say, "ZeynepZeynep,
let's go to lunchlunch!"
119
359006
3062
och sade; "Zeynep, nu går vi på lunch!"
06:14
I'd be puzzledförbryllad by the weirdkonstig timingtiming.
120
362724
2167
Jag var brydd av den märkliga tajmingen.
06:16
It's 4pmPM. LunchLunch?
121
364915
2129
Klockan är fyra på eftermiddagen. Lunch?
06:19
I was brokepank, so freefri lunchlunch. I always wentåkte.
122
367068
3094
Jag var pank, så gratis lunch.
Jag följde alltid med.
06:22
I latersenare realizedinsåg what was happeninghappening.
123
370618
2067
Senare förstod jag vad som hände.
06:24
My immediateomedelbar managerschefer
had not confessederkände to theirderas higher-upsstörre företag
124
372709
4546
Min närmaste chef hade inte erkänt
för de högre cheferna
06:29
that the programmerprogrammerare they hiredanlitade
for a seriousallvarlig jobjobb was a teentonåring girlflicka
125
377279
3113
att programmeraren de anställt
var en tonårstjej
06:32
who worebar jeansjeans and sneakersgymnastikskor to work.
126
380416
3930
i jeans och gymnastikskor.
06:37
I was doing a good jobjobb,
I just lookedtittade wrongfel
127
385174
2202
Jag gjorde ett bra jobb,
jag såg bara fel ut
06:39
and was the wrongfel ageålder and genderkön.
128
387400
1699
och var ung och kvinna.
06:41
So hiringuthyrning in a gender-Genus- and race-blindRace-blind way
129
389123
3346
Så att anställa utan att
ta hänsyn till kön och ras
06:44
certainlysäkert soundsljud good to me.
130
392493
1865
låter verkligen bra i mina öron.
06:47
But with these systemssystem,
it is more complicatedkomplicerad, and here'shär är why:
131
395031
3341
Men med de här systemen
blir det mer komplicerat;
06:50
CurrentlyFör närvarande, computationalberäknings systemssystem
can inferhärleda all sortssorterar of things about you
132
398968
5791
Idag kan beräkningssystem
dra alla möjliga slutsatser om dig
06:56
from your digitaldigital crumbssmulor,
133
404783
1872
utifrån dina digitala avtryck,
06:58
even if you have not
disclosedlämnas ut those things.
134
406679
2333
även om du inte har avslöjat dem.
07:01
They can inferhärleda your sexualsexuell orientationorientering,
135
409506
2927
De kan dra slutsatser
om din sexuella läggning,
07:04
your personalitypersonlighet traitsdrag,
136
412994
1306
dina karaktärsdrag,
07:06
your politicalpolitisk leaningssympatier.
137
414859
1373
dina politiska böjelser.
07:08
They have predictiveprediktiva powerkraft
with highhög levelsnivåer of accuracynoggrannhet.
138
416830
3685
De kan prognostisera med hög noggrannhet.
07:13
RememberKom ihåg -- for things
you haven'thar inte even disclosedlämnas ut.
139
421362
2578
Kom ihåg - kring saker du inte avslöjat.
07:15
This is inferenceslutledning.
140
423964
1591
Det är slutledningsförmåga.
07:17
I have a friendvän who developedtagit fram
suchsådan computationalberäknings systemssystem
141
425579
3261
Jag har en vän som utvecklat
ett beräkningssystem
07:20
to predictförutspå the likelihoodsannolikhet
of clinicalklinisk or postpartumpostpartum depressiondepression
142
428864
3641
för att beräkna sannolikheten
för klinisk- eller förlossningsdepression
07:24
from socialsocial mediamedia datadata.
143
432529
1416
utifrån digitala avtryck.
07:26
The resultsresultat are impressiveimponerande.
144
434676
1427
Resultaten är imponerande.
07:28
Her systemsystemet can predictförutspå
the likelihoodsannolikhet of depressiondepression
145
436492
3357
Hennes system kan beräkna
sannolikheten för depression
07:31
monthsmånader before the onsetuppkomsten of any symptomssymptom --
146
439873
3903
månader innan symtomen visar sig -
07:35
monthsmånader before.
147
443800
1373
månader i förväg.
07:37
No symptomssymptom, there's predictionförutsägelse.
148
445197
2246
Inga symtom, bara förutsägelse.
07:39
She hopesförhoppningar it will be used
for earlytidigt interventionintervention. Great!
149
447467
4812
Hon hoppas att det ska användas
för behandling i ett tidigt stadium.
Jättebra!
07:44
But now put this in the contextsammanhang of hiringuthyrning.
150
452911
2040
Men sätt in det
i ett anställningssammanhang.
07:48
So at this humanmänsklig resourcesMedel
managerschefer conferencekonferens,
151
456027
3046
På den här personalchefskonferensen,
07:51
I approachednärmade a high-levelhög nivå managerchef
in a very largestor companyföretag,
152
459097
4709
frågade jag en högt uppsatt chef
i ett mycket stort företag,
07:55
and I said to her, "Look,
what if, unbeknownstvisste inte to you,
153
463830
4578
"Du, tänk om, utan att du vet,
08:00
your systemsystemet is weedingogräsrensning out people
with highhög futureframtida likelihoodsannolikhet of depressiondepression?
154
468432
6549
ert system gallrar ut
personer med hög sannolikhet
att drabbas av depression?
08:07
They're not depresseddeprimerad now,
just maybe in the futureframtida, more likelytroligt.
155
475761
3376
De är inte deprimerade nu,
men kanske blir någon gång i framtiden.
08:11
What if it's weedingogräsrensning out womenkvinnor
more likelytroligt to be pregnantgravid
156
479923
3406
Tänk om det gallrar ut kvinnor
som kan komma att bli gravida
08:15
in the nextNästa yearår or two
but aren'tinte pregnantgravid now?
157
483353
2586
inom ett till två år
men som inte är gravida nu?
08:18
What if it's hiringuthyrning aggressiveaggressiv people
because that's your workplacearbetsplats culturekultur?"
158
486844
5636
Tänk om aggressiva människor anställs för
att det är en del av er företagskultur?"
08:25
You can't tell this by looking
at genderkön breakdownshaverier.
159
493173
2691
Du kan inte bedöma det
utifrån könsfördelningen.
08:27
Those mayMaj be balancedbalanserad.
160
495888
1502
De kan vara i balans.
08:29
And sincesedan this is machinemaskin learninginlärning,
not traditionaltraditionell codingkodning,
161
497414
3557
Eftersom detta gäller maskininlärning,
och inte traditionell kodning,
08:32
there is no variablevariabel there
labeledmärkt "higherhögre riskrisk of depressiondepression,"
162
500995
4907
finns det ingen variabel som säger
"högre risk för depression,"
08:37
"higherhögre riskrisk of pregnancygraviditet,"
163
505926
1833
"högre risk för graviditet,"
08:39
"aggressiveaggressiv guy scaleskala."
164
507783
1734
"macho-tendenser."
08:41
Not only do you not know
what your systemsystemet is selectingatt välja on,
165
509995
3679
Du vet varken
vad ditt system selekterar på,
08:45
you don't even know
where to beginBörja to look.
166
513698
2323
eller var du ska börja titta.
08:48
It's a blacksvart boxlåda.
167
516045
1246
Det är en svart låda.
08:49
It has predictiveprediktiva powerkraft,
but you don't understandförstå it.
168
517315
2807
Det har en förutsägbar kraft,
men du förstår inte det.
08:52
"What safeguardsskyddsåtgärder," I askedfrågade, "do you have
169
520486
2369
"Vilka garantier, frågade jag, har du
08:54
to make sure that your blacksvart boxlåda
isn't doing something shadyskumma?"
170
522879
3673
för att försäkra dig om
att din svarta låda inte gör något skumt?"
09:00
She lookedtittade at me as if I had
just steppedstegad on 10 puppyvalp tailssvansar.
171
528863
3878
Hon tittade på mig som om jag
just trampat på hennes hund.
09:04
(LaughterSkratt)
172
532765
1248
(Skratt)
09:06
She staredstirrade at me and she said,
173
534037
2041
Hon stirrade på mig och sade,
"Jag vill inte höra ett enda ord till."
09:08
"I don't want to hearhöra
anotherannan wordord about this."
174
536556
4333
09:13
And she turnedvände around and walkedpromenerade away.
175
541458
2034
Hon vände sig om och gick.
Kom ihåg - hon var inte oförskämd.
09:16
MindSinne you -- she wasn'tvar inte rudeoförskämd.
176
544064
1486
09:17
It was clearlyklart: what I don't know
isn't my problemproblem, go away, deathdöd starestirra.
177
545574
6308
Det var tydligt: Det jag inte vet
är inte mitt problem, stick iväg.
09:23
(LaughterSkratt)
178
551906
1246
(Skratt)
09:25
Look, suchsådan a systemsystemet
mayMaj even be lessmindre biasedpartisk
179
553862
3839
Ett sånt system kan vara mindre subjektivt
09:29
than humanmänsklig managerschefer in some wayssätt.
180
557725
2103
än personalchefer på vissa sätt.
09:31
And it could make monetarymonetära sensekänsla.
181
559852
2146
Och det kan vara ekonomiskt rimligt.
09:34
But it could alsoockså leadleda
182
562573
1650
Men det kan också leda till
09:36
to a steadystadig but stealthysmygande
shuttingstängande out of the jobjobb marketmarknadsföra
183
564247
4748
ett smygande utestängande
från arbetsmarknaden
09:41
of people with higherhögre riskrisk of depressiondepression.
184
569019
2293
av människor med högre risk
för psykisk ohälsa.
09:43
Is this the kindsnäll of societysamhälle
we want to buildbygga,
185
571753
2596
Vill vi bygga den sortens samhälle,
09:46
withoututan even knowingmenande we'vevi har doneGjort this,
186
574373
2285
utan att ens märka att vi gör det,
09:48
because we turnedvände decision-makingbeslutsfattande
to machinesmaskiner we don't totallytotalt understandförstå?
187
576682
3964
för att vi låter maskiner ta besluten?
Maskiner som vi inte begriper oss på?
09:53
AnotherEn annan problemproblem is this:
188
581265
1458
Ett annat problem är att
09:55
these systemssystem are oftenofta trainedtränad
on datadata generatedgenererad by our actionshandlingar,
189
583314
4452
dessa system ofta reagerar på data
som genererats av våra aktiviteter,
09:59
humanmänsklig imprintsavtryck.
190
587790
1816
våra digitala avtryck.
10:02
Well, they could just be
reflectingreflekterande our biasesförspänner,
191
590188
3808
De kan ju bara reflektera våra fördomar,
10:06
and these systemssystem
could be pickingplockning up on our biasesförspänner
192
594020
3593
och dessa system
kan plocka upp fördomarna,
10:09
and amplifyingförstärkande them
193
597637
1313
förstärka dem
10:10
and showingsom visar them back to us,
194
598974
1418
och återspegla dem för oss,
10:12
while we're tellingtalande ourselvesoss själva,
195
600416
1462
alltmedan vi intalar oss,
10:13
"We're just doing objectivemål,
neutralneutral computationberäkning."
196
601902
3117
att "Vi gör bara objektiva
neutrala beräkningar."
10:18
ResearchersForskare foundhittades that on GoogleGoogle,
197
606314
2677
Forskare fann att på Google,
10:22
womenkvinnor are lessmindre likelytroligt than menmän
to be shownvisad jobjobb adsannonser for high-payinghögt betalda jobsjobb.
198
610134
5313
är det mindre troligt att kvinnor får se
annonser för välbetalda jobb än män.
10:28
And searchingsökande for African-AmericanAfro-amerikan namesnamn
199
616463
2530
Söker man på afro-amerikanska namn
10:31
is more likelytroligt to bringföra up adsannonser
suggestingvilket tyder på criminalkriminell historyhistoria,
200
619017
4706
är det mer troligt att man får annonser
som antyder kriminell bakgrund,
10:35
even when there is noneingen.
201
623747
1567
även när det inte finns någon koppling.
10:38
SuchSådana hiddendold biasesförspänner
and black-boxBlack-box algorithmsalgoritmer
202
626693
3549
Sådana dolda fördomar
och svarta lådor-algoritmer
10:42
that researchersforskare uncoveravslöja sometimesibland
but sometimesibland we don't know,
203
630266
3973
som forskare ibland upptäcker,
och ibland inte,
10:46
can have life-alteringliv-förändra consequenceskonsekvenser.
204
634263
2661
kan få livsavgörande konsekvenser.
10:49
In WisconsinWisconsin, a defendantsvaranden
was sentenceddömd to sixsex yearsår in prisonfängelse
205
637958
4159
I Wisconsin dömdes en åtalad
till sex års fängelse
10:54
for evadingkringgå the policepolis.
206
642141
1355
för att ha kört från polisen.
10:56
You mayMaj not know this,
207
644824
1186
Du vet det kanske inte,
10:58
but algorithmsalgoritmer are increasinglyalltmer used
in parolevillkorlig frigivning and sentencingstraff decisionsbeslut.
208
646034
3998
men algoritmer används mer och mer
vid förelägganden och villkorliga straff.
11:02
He wanted to know:
How is this scoregöra calculatedberäknas?
209
650056
2955
Han ville veta:
Hur beräknades straffsatsen?
11:05
It's a commercialkommersiell blacksvart boxlåda.
210
653795
1665
Av en kommersiell svart låda.
11:07
The companyföretag refusedvägrade to have its algorithmalgoritm
be challengedutmanade in openöppen courtdomstol.
211
655484
4205
Företaget vägrade
att få sin algoritm bedömd
i en offentlig rättegång.
11:12
But ProPublicaProPublica, an investigativeundersökande
nonprofitideell, auditedgranskade that very algorithmalgoritm
212
660396
5532
Men det granskande, icke-vinstdrivande
företaget Pro-Publica, jämförde den
11:17
with what publicoffentlig datadata they could find,
213
665952
2016
med den offentliga data
de kunde hitta, och fann
11:19
and foundhittades that its outcomesutfall were biasedpartisk
214
667992
2316
att algoritmens utfall var partiskt
11:22
and its predictiveprediktiva powerkraft
was dismaldyster, barelynätt och jämnt better than chancechans,
215
670332
3629
och dess kraftfulla beräkningar usla,
knappt bättre än slumpen,
11:25
and it was wronglyfelaktigt labelingmärkning
blacksvart defendantssvarandena as futureframtida criminalsbrottslingar
216
673985
4416
och att den felaktigt pekade ut
svarta åtalade som presumtiva brottslingar
11:30
at twicedubbelt the rateBetygsätta of whitevit defendantssvarandena.
217
678425
3895
dubbelt så ofta som vita åtalade.
11:35
So, consideröverväga this casefall:
218
683891
1564
Så, tänk över det här fallet:
11:38
This womankvinna was latesent
pickingplockning up her godsistergodsister
219
686103
3852
Den här kvinnan var sen
när hon skulle hämta sitt gudbarn
11:41
from a schoolskola in BrowardBroward CountyLän, FloridaFlorida,
220
689979
2075
på en skola i Broward County i Florida,
11:44
runninglöpning down the streetgata
with a friendvän of hershennes.
221
692757
2356
hon och hennes vänner sprang nerför gatan.
11:47
They spottedFläckig an unlockedolåst kid'sbarn bikecykel
and a scooterskoter on a porchveranda
222
695137
4099
De fick syn på en olåst barncykel
och en sparkcykel på en veranda
11:51
and foolishlydumt nog jumpedhoppade on it.
223
699260
1632
och tog dem dumt nog.
11:52
As they were speedingfortkörning off,
a womankvinna camekom out and said,
224
700916
2599
När de stack iväg,
kom en kvinna ut och sade,
11:55
"Hey! That's my kid'sbarn bikecykel!"
225
703539
2205
"Hallå! Det där är mitt barns prylar."
11:57
They droppedtappade it, they walkedpromenerade away,
but they were arrestedarresterad.
226
705768
3294
De släppte dem, gick därifrån,
men blev anhållna.
12:01
She was wrongfel, she was foolishdåraktiga,
but she was alsoockså just 18.
227
709086
3637
Hon gjorde fel, hon betedde sig dumt,
men hon var också bara arton år.
12:04
She had a couplepar of juvenilejuvenil misdemeanorsförseelser.
228
712747
2544
Hon hade några ungsdomsförseelser
sedan tidigare.
12:07
MeanwhileUnder tiden, that man had been arrestedarresterad
for shopliftingsnatteri in Home DepotDepot --
229
715808
5185
Samtidigt hade den här mannen
blivit anhållen för snatteri i Home Depot,
12:13
85 dollars'dollar worthvärde of stuffgrejer,
a similarliknande pettyringa crimebrottslighet.
230
721017
2924
prylar för 85 dollar,
ett ganska litet brott.
12:16
But he had two priortidigare
armedbeväpnade robberyrån convictionsfällande domar.
231
724766
4559
Men han hade tidigare blivit dömd
för två väpnade rån.
12:21
But the algorithmalgoritm scoredgjorde her
as highhög riskrisk, and not him.
232
729955
3482
Men algoritmen bedömde henne
som en högre risk än honom.
12:26
Two yearsår latersenare, ProPublicaProPublica foundhittades
that she had not reoffendedreoffended.
233
734746
3874
Två år senare fann ProPublica
att hon inte återfallit i brott.
12:30
It was just hardhård to get a jobjobb
for her with her recordspela in.
234
738644
2550
Hon hade bara svårt
att få jobb med sin bakgrund.
12:33
He, on the other handhand, did reoffendreoffend
235
741218
2076
Han, å andra sidan,
återföll i brottslighet
12:35
and is now servingbetjänar an eight-yearåtta år
prisonfängelse termtermin for a latersenare crimebrottslighet.
236
743318
3836
och avtjänar nu
ett åttaårigt fängelsestraff
för ett nytt brott.
12:40
ClearlyKlart, we need to auditgranska our blacksvart boxeslådor
237
748088
3369
Det är tydligt att vi måste revidera
våra svarta lådor
12:43
and not have them have
this kindsnäll of uncheckedoskyddad powerkraft.
238
751481
2615
och inte låta dem få
sådan här okontrollerad makt.
12:46
(ApplauseApplåder)
239
754120
2879
(Applåder)
12:50
AuditsRevisioner are great and importantViktig,
but they don't solvelösa all our problemsproblem.
240
758087
4242
Kontroller är bra och viktiga,
men de löser inte alla våra problem.
12:54
Take Facebook'sFacebooks powerfulkraftfull
newsNyheter feedutfodra algorithmalgoritm --
241
762353
2748
Ta Facebooks kraftfulla algoritm
för vårt nyhetsflöde -
12:57
you know, the one that ranksrangordnar everything
and decidesbestämmer what to showshow you
242
765125
4843
ni vet, den som rangordnar allt
och bestämmer vad som ska visas för dig
13:01
from all the friendsvänner and pagessidor you followFölj.
243
769992
2284
från alla vänner och sidor du följer.
13:04
Should you be shownvisad anotherannan babybebis picturebild?
244
772898
2275
Ska du få se ännu en spädbarnsbild?
13:07
(LaughterSkratt)
245
775197
1196
(Skratt)
13:08
A sullentrumpen notenotera from an acquaintancebekantskap?
246
776417
2596
En vresig kommentar från en bekant?
13:11
An importantViktig but difficultsvår newsNyheter itemArtikel?
247
779449
1856
En viktig men svår nyhetsnotis?
13:13
There's no right answersvar.
248
781329
1482
Det finns inget rätt svar.
13:14
FacebookFacebook optimizesoptimerar
for engagementengagemang on the sitewebbplats:
249
782835
2659
Facebook optimerar flödet
för att få engagemang:
13:17
likesgillar, sharesaktier, commentskommentarer.
250
785518
1415
gilla, dela, kommentera.
13:20
In AugustAugusti of 2014,
251
788168
2696
I augusti 2014
13:22
protestsprotester brokepank out in FergusonFerguson, MissouriMissouri,
252
790888
2662
bröt protester ut i Ferguson, Missouri,
13:25
after the killingdödande of an African-AmericanAfro-amerikan
teenagertonåring by a whitevit policepolis officerofficer,
253
793574
4417
efter att en vit polis dödat
en afro-amerikansk tonåring,
13:30
underunder murkyskumma circumstancesomständigheter.
254
798015
1570
under märkliga omständigheter.
13:31
The newsNyheter of the protestsprotester was all over
255
799974
2007
Nyheten om protesterna fanns överallt
13:34
my algorithmicallyalgoritmiskt
unfilteredofiltrerad TwitterTwitter feedutfodra,
256
802005
2685
i mitt i stort sett
algoritmfria Twitter-flöde,
13:36
but nowhereingenstans on my FacebookFacebook.
257
804714
1950
men inte alls på min Facebook.
13:39
Was it my FacebookFacebook friendsvänner?
258
807182
1734
Berodde det på mina Facebook-vänner?
13:40
I disabledInaktiverad Facebook'sFacebooks algorithmalgoritm,
259
808940
2032
Jag inaktiverade Facebooks algoritm,
13:43
whichsom is hardhård because FacebookFacebook
keepshåller wantingönskar to make you
260
811472
2848
vilket är svårt för de vill ha dig
13:46
come underunder the algorithm'salgoritmens controlkontrollera,
261
814344
2036
under algoritmens kontroll,
13:48
and saw that my friendsvänner
were talkingtalande about it.
262
816404
2238
och såg att mina vänner
pratade om händelsen.
Det var bara det att algoritmen
inte visade det.
13:50
It's just that the algorithmalgoritm
wasn'tvar inte showingsom visar it to me.
263
818666
2509
Jag undersökte saken och fann
att det är ett vanligt problem.
13:53
I researchedforskat this and foundhittades
this was a widespreadutbredd problemproblem.
264
821199
3042
13:56
The storyberättelse of FergusonFerguson
wasn'tvar inte algorithm-friendlyalgoritm-vänlig.
265
824265
3813
Händelsen i Ferguson
var inte algoritm-vänlig.
14:00
It's not "likablesympatisk."
266
828102
1171
Den var inte "sympatisk."
14:01
Who'sSom going to clickklick on "like?"
267
829297
1552
Vem skulle klicka på "gilla?"
14:03
It's not even easylätt to commentkommentar on.
268
831500
2206
Den är inte ens lätt att kommentera.
14:05
WithoutUtan likesgillar and commentskommentarer,
269
833730
1371
Utan gillanden och kommentarer
14:07
the algorithmalgoritm was likelytroligt showingsom visar it
to even fewerfärre people,
270
835125
3292
skulle algoritmen troligen visa den
för ännu färre människor,
14:10
so we didn't get to see this.
271
838441
1542
så därför fick vi inte se den.
14:12
InsteadIstället, that weekvecka,
272
840946
1228
Istället, den veckan,
14:14
Facebook'sFacebooks algorithmalgoritm highlightedmarkerad this,
273
842198
2298
lyfte Facebooks algoritm fram det här,
14:16
whichsom is the ALSALS IceIce BucketHink ChallengeUtmaning.
274
844520
2226
ALS Ice Bucket Challenge.
14:18
WorthyVärdig causeorsak; dumpdumpa iceis watervatten,
donatedonera to charityvälgörenhet, fine.
275
846770
3742
Häll iskallt vatten över dig,
och skänk pengar för ett gott syfte.
14:22
But it was supersuper algorithm-friendlyalgoritm-vänlig.
276
850536
1904
Den var superalgoritmvänlig.
14:25
The machinemaskin madegjord this decisionbeslut for us.
277
853219
2613
Maskinen tog beslutet åt oss.
14:27
A very importantViktig
but difficultsvår conversationkonversation
278
855856
3497
En mycket viktig men svår diskussion
14:31
mightmakt have been smotheredkvävd,
279
859377
1555
skulle förmodligen kvävts
14:32
had FacebookFacebook been the only channelkanalisera.
280
860956
2696
om Facebook hade varit
den enda nyhetskällan.
14:36
Now, finallytill sist, these systemssystem
can alsoockså be wrongfel
281
864117
3797
Till sist, de här systemen
kan också göra fel
14:39
in wayssätt that don't resemblelikna humanmänsklig systemssystem.
282
867938
2736
på sätt som människor inte skulle göra.
14:42
Do you guys rememberkom ihåg WatsonWatson,
IBM'sIBM: s machine-intelligencemaskinen-intelligens systemsystemet
283
870698
2922
Kommer ni ihåg Watson,
IBMs intelligenta dator
14:45
that wipedtorkas the floorgolv
with humanmänsklig contestantsTävlande on JeopardyJeopardy?
284
873644
3128
som sopade mattan
med deltagarna i Jeopardy?
Den var en duktig motståndare.
14:49
It was a great playerspelare.
285
877131
1428
14:50
But then, for FinalSlutliga JeopardyJeopardy,
WatsonWatson was askedfrågade this questionfråga:
286
878583
3569
Men sen, som sista fråga i Jeopardy,
fick Watson följande fråga:
"Största flygplatsen är döpt
efter en hjälte i 2:a världskriget,
14:54
"Its largeststörsta airportflygplats is namedsom heter
for a WorldVärlden WarKriget IIII herohjälte,
287
882659
2932
14:57
its second-largestnäst största
for a WorldVärlden WarKriget IIII battleslåss."
288
885615
2252
den andra största,
från ett slag i samma krig."
14:59
(HumsSurrar FinalSlutliga JeopardyJeopardy musicmusik)
289
887891
1378
(Nynnar Jeopardy-vinjetten)
15:01
ChicagoChicago.
290
889582
1182
Chicago.
De två människorna svarade rätt.
15:02
The two humansmänniskor got it right.
291
890788
1370
15:04
WatsonWatson, on the other handhand,
answeredsvarat "TorontoToronto" --
292
892697
4348
Watson, å sin sida, svarade "Toronto" -
15:09
for a US citystad categorykategori!
293
897069
1818
i kategorin amerikanska städer!
Den imponerande maskinen
gjorde också fel
15:11
The impressiveimponerande systemsystemet alsoockså madegjord an errorfel
294
899596
2901
som en människa aldrig skulle göra,
en lågstadieelev aldrig skulle göra.
15:14
that a humanmänsklig would never make,
a second-graderandra-väghyvel wouldn'tskulle inte make.
295
902521
3651
15:18
Our machinemaskin intelligenceintelligens can failmisslyckas
296
906823
3109
Våra intelligenta maskiner kan misslyckas
15:21
in wayssätt that don't fitpassa
errorfel patternsmönster of humansmänniskor,
297
909956
3100
på sätt som inte följer
mänskliga mönster,
15:25
in wayssätt we won'tvana expectförvänta
and be preparedberedd for.
298
913080
2950
på sätt som vi inte förväntar oss
och är förberedda för.
15:28
It'dDet skulle be lousynedlusad not to get a jobjobb
one is qualifiedkvalificerade for,
299
916054
3638
Det är botten att inte få
ett jobb man är kvalificerad för,
15:31
but it would tripletrippel- sucksuga
if it was because of stackstack overflowoverflow
300
919716
3727
men det skulle suga om det
berodde på minneshanteringen
i någon subrutin.
15:35
in some subroutinesubrutin.
301
923467
1432
15:36
(LaughterSkratt)
302
924923
1579
(Skratt)
15:38
In MayKan of 2010,
303
926526
2786
I maj 2010
15:41
a flashblixt crashkrascha on WallVäggen StreetStreet
fueledfueled by a feedbackåterkoppling loopslinga
304
929336
4044
drabbades Wall Street av en "blixtkrasch"
som förstärktes av en loop
15:45
in WallVäggen Street'sStreet "sellsälja" algorithmalgoritm
305
933404
3028
i Wall Streets sälj-algoritm
15:48
wipedtorkas a trillionbiljon dollarsdollar
of valuevärde in 36 minutesminuter.
306
936456
4184
som på 36 minuter
raderade en miljard dollar.
15:53
I don't even want to think
what "errorfel" meansbetyder
307
941722
2187
Jag vill inte tänka på vad "error" betyder
15:55
in the contextsammanhang of lethaldödlig
autonomousautonom weaponsvapen.
308
943933
3589
i samband med automatiserade vapensystem.
16:01
So yes, humansmänniskor have always madegjord biasesförspänner.
309
949894
3790
Visst, människor har alltid
gjort partiska antaganden.
16:05
DecisionBeslut makersbeslutsfattare and gatekeepersGatekeepers,
310
953708
2176
Beslutsfattare och andra grindvakter,
16:07
in courtsdomstol, in newsNyheter, in warkrig ...
311
955908
3493
i domstolar, i nyheter, i krig ...
16:11
they make mistakesmisstag;
but that's exactlyexakt my pointpunkt.
312
959425
3038
de gör misstag;
och det är det här jag menar.
16:14
We cannotkan inte escapefly
these difficultsvår questionsfrågor.
313
962487
3521
Vi kan inte rymma från
de här svåra frågeställningarna.
16:18
We cannotkan inte outsourceoutsourca
our responsibilitiesansvarsområden to machinesmaskiner.
314
966596
3516
Vi kan inte
lämna över ansvaret till maskiner.
16:22
(ApplauseApplåder)
315
970676
4208
(Applåder)
16:29
ArtificialKonstgjorda intelligenceintelligens does not give us
a "Get out of ethicsetik freefri" cardkort.
316
977089
4447
Artificiell intelligens ger oss inte
ett frikort när det gäller etik.
16:34
DataData scientistforskare FredFred BenensonBenenson
callssamtal this math-washingmatematik-tvätt.
317
982742
3381
Dataanalytikern Fred Benenson
kallar det för matematik-tvätt.
16:38
We need the oppositemotsatt.
318
986147
1389
Vi behöver motsatsen.
16:39
We need to cultivateodla algorithmalgoritm suspicionmisstanke om,
scrutinygranskning and investigationundersökning.
319
987560
5388
Vi måste förfina algoritmerna,
granska och kontrollera dem.
16:45
We need to make sure we have
algorithmicalgoritmisk accountabilityansvarighet,
320
993380
3198
Vi måste se till att ha
ansvarsfulla algoritmer,
16:48
auditinggranskning and meaningfulmeningsfull transparencygenomskinlighet.
321
996602
2445
revideringar och meningsfull transparens.
Vi måste förstå att användande av
matematik och maskinberäkningar
16:51
We need to acceptacceptera
that bringingföra mathmatematik and computationberäkning
322
999380
3234
16:54
to messyrörig, value-ladenvärde lastad- humanmänsklig affairsangelägenheter
323
1002638
2970
i krångliga, värdeladdade
mänskliga relationer
16:57
does not bringföra objectivityobjektivitet;
324
1005632
2384
inte skapar objektivitet;
17:00
rathersnarare, the complexitykomplexitet of humanmänsklig affairsangelägenheter
invadesinvaderar the algorithmsalgoritmer.
325
1008040
3633
utan snarare, att komplexa handlingar
påverkar algoritmerna.
17:04
Yes, we can and we should use computationberäkning
326
1012148
3487
Ja, vi kan och vi bör
använda maskinberäkningar
17:07
to help us make better decisionsbeslut.
327
1015659
2014
som en hjälp för att ta bättre beslut.
17:09
But we have to ownegen up
to our moralmoralisk responsibilityansvar to judgmentdom,
328
1017697
5332
Men vi måste ta vårt moraliska ansvar
i beaktande i bedömningarna
17:15
and use algorithmsalgoritmer withininom that frameworkramverk,
329
1023053
2818
och använda algoritmerna i det ramverket,
17:17
not as a meansbetyder to abdicateabdikera
and outsourceoutsourca our responsibilitiesansvarsområden
330
1025895
4935
och inte som ett sätt att frånsäga oss
eller outsourca vårt ansvar
17:22
to one anotherannan as humanmänsklig to humanmänsklig.
331
1030854
2454
till varandra som människa till människa.
17:25
MachineMaskin intelligenceintelligens is here.
332
1033807
2609
Maskinintelligens är här för att stanna.
17:28
That meansbetyder we mustmåste holdhåll on ever tighterstramare
333
1036440
3421
Det betyder att vi måste
hålla ännu hårdare
17:31
to humanmänsklig valuesvärden and humanmänsklig ethicsetik.
334
1039885
2147
i våra värderingar och vår etik.
17:34
Thank you.
335
1042056
1154
Tack.
17:35
(ApplauseApplåder)
336
1043234
5020
(Applåder)
Translated by Anette Smedberg
Reviewed by Annika Bidner

▲Back to top

ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.

Why you should listen

We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.

Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.

Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.

More profile about the speaker
Zeynep Tufekci | Speaker | TED.com