ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.

Why you should listen

We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.

Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.

Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.

More profile about the speaker
Zeynep Tufekci | Speaker | TED.com
TEDSummit

Zeynep Tufekci: Machine intelligence makes human morals more important

Zeynep Tufekci: A gépi intelligenciától fontosabbá válnak az emberi erkölcsök

Filmed:
1,648,711 views

A gépi intelligencia megérkezett, és már használjuk is szubjektív döntések meghozatalára. De mivel a mesterséges intelligencia növekedése és javulása bonyolult, nehéz megérteni, és még nehezebb irányítani. Ebben az óvatosságra intő beszédben Zeynep Tufecki műszaki szociológus elmagyarázza, hogy az intelligens gépek olyan módon hibázhatnak, amelyek nem hasonlítanak az emberi hibamintákra; olymódon, amire nem számítunk, és amire nem vagyunk felkészülve. "Nem szervezhetjük ki a felelősségünket a gépekbe" – mutat rá. "Még szigorúbban kell ragaszkodnunk az emberi értékekhez és az emberi etikához."
- Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread. Full bio

Double-click the English transcript below to play the video.

00:12
So, I startedindult my first jobmunka
as a computerszámítógép programmerprogramozó
0
739
4122
Az első munkám számítógép-programozás volt
00:16
in my very first yearév of collegefőiskola --
1
4885
1956
a főiskola legelső évében,
00:18
basicallyalapvetően, as a teenagertizenéves.
2
6865
1507
amit még tizenévesként kezdtem.
00:20
SoonHamarosan after I startedindult workingdolgozó,
3
8889
1732
Kezdésem után nem sokkal
00:22
writingírás softwareszoftver in a companyvállalat,
4
10645
1610
szoftvereket írtam egy cégnek,
00:24
a managermenedzser who workeddolgozott at the companyvállalat
camejött down to where I was,
5
12799
3635
amikor a cég egyik főnök odajött hozzám,
00:28
and he whisperedsuttogta to me,
6
16458
1268
és suttogva megkérdezte:
00:30
"Can he tell if I'm lyingfekvő?"
7
18229
2861
"Ő tudja-e, ha hazudok?"
00:33
There was nobodysenki elsemás in the roomszoba.
8
21806
2077
Senki más nem volt a szobában.
00:37
"Can who tell if you're lyingfekvő?
And why are we whisperingsuttogó?"
9
25032
4389
"Kicsoda tudja-e, ha hazudsz?
És miért suttogunk?"
00:42
The managermenedzser pointedhegyes
at the computerszámítógép in the roomszoba.
10
30266
3107
A főnök a szobában lévő
számítógépre mutatott.
00:45
"Can he tell if I'm lyingfekvő?"
11
33397
3096
"Ő tudja-e, ha hazudok?"
00:49
Well, that managermenedzser was havingamelynek
an affairügy with the receptionistrecepciós.
12
37613
4362
Hát, ennek a főnöknek
viszonya volt a recepcióssal.
00:53
(LaughterNevetés)
13
41999
1112
(Nevetés)
00:55
And I was still a teenagertizenéves.
14
43135
1766
És én még csak tizenéves voltam.
00:57
So I whisper-shoutedsuttogva-kiáltotta: back to him,
15
45447
2019
Hangosan visszasuttogtam:
00:59
"Yes, the computerszámítógép can tell
if you're lyingfekvő."
16
47490
3624
"Igen, a számítógép tudja, mikor hazudsz."
01:03
(LaughterNevetés)
17
51138
1806
(Nevetés)
01:04
Well, I laughednevetett, but actuallytulajdonképpen,
the laugh'snevetés barátait on me.
18
52968
2923
Kinevettem, de igazából
engem kellene kinevetni.
01:07
NowadaysManapság, there are computationalszámítási systemsrendszerek
19
55915
3268
Manapság olyan számítógépes
rendszerek vannak,
01:11
that can sussSüss out
emotionalérzelmi statesÁllamok and even lyingfekvő
20
59207
3548
amelyek kiszimatolják az érzelmi
állapotot, sőt a hazugságot is
01:14
from processingfeldolgozás humanemberi facesarcok.
21
62779
2044
az emberi arc tanulmányozásából.
01:17
AdvertisersHirdetők and even governmentskormányok
are very interestedérdekelt.
22
65248
4153
A reklámozók és a hatóságok is
erősen érdeklődnek irántuk.
01:22
I had becomeválik a computerszámítógép programmerprogramozó
23
70319
1862
Azért lettem számítógép-programozó,
01:24
because I was one of those kidsgyerekek
crazyőrült about mathmatematikai and sciencetudomány.
24
72205
3113
mert gyerekként megőrültem
a matekért és a tudományért.
01:27
But somewherevalahol alongmentén the linevonal
I'd learnedtanult about nuclearnukleáris weaponsfegyverek,
25
75942
3108
De valamikor később tudomást
szereztem a nukleáris fegyverekről,
01:31
and I'd gottenütött really concernedaz érintett
with the ethicsetikai of sciencetudomány.
26
79074
2952
és komolyan aggódni kezdtem
a tudomány etikájáért.
01:34
I was troubledzavaros.
27
82050
1204
Zavarban voltam.
01:35
HoweverAzonban, because of familycsalád circumstanceskörülmények,
28
83278
2641
Ám családi körülményeim miatt
01:37
I alsois neededszükséges to startRajt workingdolgozó
as soonhamar as possiblelehetséges.
29
85943
3298
minél hamarabb munkába kellett állnom.
01:41
So I thought to myselfmagamat, hey,
let me pickszed a technicalműszaki fieldmező
30
89265
3299
Úgyhogy azt gondoltam magamban:
választok egy műszaki területet,
01:44
where I can get a jobmunka easilykönnyen
31
92588
1796
ahol könnyen találok munkát,
01:46
and where I don't have to dealüzlet
with any troublesomefáradságos questionskérdések of ethicsetikai.
32
94408
4018
és ahol nem kell foglalkoznom
semmilyen zavaró etikai kérdéssel.
01:51
So I pickedválogatott computersszámítógépek.
33
99022
1529
A számítógépeket választottam.
01:52
(LaughterNevetés)
34
100575
1104
(Nevetés)
01:53
Well, haHa, haHa, haHa!
All the laughsnevet are on me.
35
101703
3410
Hát, ha-ha-ha! Ki lehet engem nevetni.
01:57
NowadaysManapság, computerszámítógép scientiststudósok
are buildingépület platformsállványok
36
105137
2754
Manapság az informatikusok
olyan felületeket építenek,
01:59
that controlellenőrzés what a billionmilliárd, ezermillió
people see everyminden day.
37
107915
4209
amelyek azt irányítják,
amit egymilliárd ember naponta lát.
02:05
They're developingfejlesztés carsautók
that could decidedöntsd el who to runfuss over.
38
113052
3822
Autókat fejlesztenek,
amelyek eldönthetik, kit ütnek el.
02:09
They're even buildingépület machinesgépek, weaponsfegyverek,
39
117707
3213
Sőt, gépeket és fegyvereket gyártanak,
02:12
that mightesetleg killmegöl humanemberi beingslények in warháború.
40
120944
2285
amelyek háborúban
embereket ölhetnek meg.
02:15
It's ethicsetikai all the way down.
41
123253
2771
Etika végestelen végig.
02:19
MachineGép intelligenceintelligencia is here.
42
127183
2058
A gépi intelligencia megérkezett.
02:21
We're now usinghasználva computationszámítás
to make all sortfajta of decisionsdöntések,
43
129823
3474
Ma a számítástechnikát
mindenféle döntésre használjuk,
02:25
but alsois newúj kindsféle of decisionsdöntések.
44
133321
1886
újfajta döntésekre is.
02:27
We're askingkérve questionskérdések to computationszámítás
that have no singleegyetlen right answersválaszokat,
45
135231
5172
Olyan kérdéseket teszünk fel a gépeknek,
amelyekre nincs egyetlen helyes válasz,
02:32
that are subjectiveszubjektív
46
140427
1202
szubjektív,
02:33
and open-endednyíltvégű and value-ladenérték-terhelt.
47
141653
2325
nyitott és fontos kérdéseket.
02:36
We're askingkérve questionskérdések like,
48
144002
1758
Ilyen kérdéseket teszünk fel:
02:37
"Who should the companyvállalat hirebérel?"
49
145784
1650
„Kit alkalmazzon a cég?”,
02:40
"WhichAmely updatefrissítés from whichmelyik friendbarát
should you be shownLátható?"
50
148096
2759
„Melyik ismerős melyik frissítését
mutassuk meg neked?”,
02:42
"WhichAmely convictfegyenc is more
likelyvalószínűleg to reoffendreoffend?"
51
150879
2266
„Melyik elítéltről valószínűbb,
hogy újból bűnözik?”,
02:45
"WhichAmely newshírek itemtétel or moviefilm
should be recommendedajánlott to people?"
52
153514
3054
„Melyik hírt vagy mozifilmet
ajánljuk az embereknek?”
02:48
Look, yes, we'vevoltunk been usinghasználva
computersszámítógépek for a while,
53
156592
3372
Már használjuk egy ideje a számítógépeket,
02:51
but this is differentkülönböző.
54
159988
1517
de ez most más.
02:53
This is a historicaltörténelmi twistcsavar,
55
161529
2067
Ez történelmi fordulat,
mert a számítástechnikát nem tudjuk
úgy kötni e szubjektív döntésekhez,
02:55
because we cannotnem tud anchorhorgony computationszámítás
for suchilyen subjectiveszubjektív decisionsdöntések
56
163620
5337
03:00
the way we can anchorhorgony computationszámítás
for flyingrepülő airplanesrepülőgépek, buildingépület bridgeshidak,
57
168981
5420
ahogy összekapcsoljuk a légi
közlekedéssel, a hídépítéssel,
03:06
going to the moonhold.
58
174425
1259
a holdra szállással.
03:08
Are airplanesrepülőgépek saferbiztonságosabb?
Did the bridgehíd swayinog, befolyás and fallesik?
59
176449
3259
Biztonságosabbak a repülőgépek?
Kilengett és összedőlt a híd?
03:11
There, we have agreed-uponegyeztetett,
fairlymeglehetősen clearegyértelmű benchmarksreferenciaértékek,
60
179732
4498
Ott vannak egyeztetett,
elég világos viszonyítási alapjaink,
03:16
and we have lawstörvények of naturetermészet to guideútmutató us.
61
184254
2239
és a természet törvényei irányítanak.
03:18
We have no suchilyen anchorshorgonyok and benchmarksreferenciaértékek
62
186517
3394
A zűrös emberi viszonyokra
vonatkozó döntésekhez
03:21
for decisionsdöntések in messyrendetlen humanemberi affairsügyek.
63
189935
3963
nincsenek ilyen kapcsolódási
és viszonyítási pontjaink.
03:25
To make things more complicatedbonyolult,
our softwareszoftver is gettingszerzés more powerfulerős,
64
193922
4237
Hogy bonyolítsa a dolgokat,
szoftverünk egyre erősebb,
03:30
but it's alsois gettingszerzés lessKevésbé
transparentátlátszó and more complexösszetett.
65
198183
3773
ugyanakkor kevésbé átlátható
és egyre bonyolultabb lesz.
03:34
RecentlyNemrégiben, in the pastmúlt decadeévtized,
66
202542
2040
Nemrég, az elmúlt évtizedben,
03:36
complexösszetett algorithmsalgoritmusok
have madekészült great strideslépéseket.
67
204606
2729
a komplex algoritmusok
nagyot léptek előre.
03:39
They can recognizeelismerik humanemberi facesarcok.
68
207359
1990
Emberi arcokat ismernek fel.
03:41
They can deciphermegfejtés handwritingkézírás.
69
209985
2055
Kézírást silabizálnak ki.
03:44
They can detectfelismerni credithitel cardkártya fraudcsalás
70
212436
2066
Hitelkártyacsalásokat ismernek fel,
03:46
and blockBlokk spamlevélszemét
71
214526
1189
spamet szűrnek ki,
03:47
and they can translatefordít betweenközött languagesnyelvek.
72
215739
2037
és egyik nyelvről a másikra fordítanak.
03:49
They can detectfelismerni tumorstumorok in medicalorvosi imagingImaging.
73
217800
2574
Az orvosi képalkotásban
daganatokat ismernek fel.
03:52
They can beatüt humansemberek in chesssakk and Go.
74
220398
2205
Megverik az embert sakkban és ban.
03:55
Much of this progressHaladás comesjön
from a methodmódszer calledhívott "machinegép learningtanulás."
75
223264
4504
A haladás zöme az ún. „gépi tanulás”
módszerének köszönhető.
04:00
MachineGép learningtanulás is differentkülönböző
than traditionalhagyományos programmingprogramozás,
76
228175
3187
A gépi tanulás különbözik
a hagyományos programozástól,
04:03
where you give the computerszámítógép
detailedrészletes, exactpontos, painstakinggondos instructionsutasítás.
77
231386
3585
ahol a számítógépnek részletes,
pontos, precíz utasításokat adunk.
04:07
It's more like you take the systemrendszer
and you feedtakarmány it lots of dataadat,
78
235378
4182
Inkább olyan, hogy egy rendszerbe
beletöltünk egy csomó adatot,
04:11
includingbeleértve unstructuredstrukturálatlan dataadat,
79
239584
1656
strukturálatlan adatokat is,
04:13
like the kindkedves we generategenerál
in our digitaldigitális liveséletét.
80
241264
2278
amilyeneket digitális életünk hoz létre.
04:15
And the systemrendszer learnstanul
by churningkavargó throughkeresztül this dataadat.
81
243566
2730
A rendszer az adatok átfésüléséből tanul.
04:18
And alsois, cruciallydöntően,
82
246669
1526
Még egy alapvető dolog:
04:20
these systemsrendszerek don't operateműködik
underalatt a single-answerSingle-válasz logiclogika.
83
248219
4380
e rendszerek nem az egyetlen
válasz logikáját követik.
04:24
They don't producegyárt a simpleegyszerű answerválasz;
it's more probabilisticvalószínűségi:
84
252623
2959
Nem egy egyszerű választ
szűrnek le, inkább valószínűséget:
04:27
"This one is probablyvalószínűleg more like
what you're looking for."
85
255606
3483
„Ez inkább hasonlít arra, amit keresel.”
04:32
Now, the upsidefejjel is:
this methodmódszer is really powerfulerős.
86
260023
3070
A jó dolog ebben az,
hogy a módszer valóban hatásos.
04:35
The headfej of Google'sA Google AIAI systemsrendszerek calledhívott it,
87
263117
2076
A Google MI-rendszer vezetője így nevezte:
04:37
"the unreasonableésszerűtlen effectivenesshatékonyság of dataadat."
88
265217
2197
„az adatok észszerűtlen hatékonysága”.
04:39
The downsidehátránya is,
89
267791
1353
A hátránya,
04:41
we don't really understandmegért
what the systemrendszer learnedtanult.
90
269738
3071
hogy nemigen értjük,
mit tanult a rendszer.
04:44
In facttény, that's its powererő.
91
272833
1587
Valójában ez az erőssége.
04:46
This is lessKevésbé like givingígy
instructionsutasítás to a computerszámítógép;
92
274946
3798
Ez nem olyan, mint amikor utasításokat
adunk egy számítógépnek,
04:51
it's more like trainingkiképzés
a puppy-machine-creaturekiskutya-gép-lény
93
279200
4064
inkább olyan, mintha kiképeznénk
egy gép-kutyus-szerű lényt,
04:55
we don't really understandmegért or controlellenőrzés.
94
283288
2371
akit nemigen értünk,
és nem tudunk irányítani.
04:58
So this is our problemprobléma.
95
286362
1551
Ez a gondunk.
05:00
It's a problemprobléma when this artificialmesterséges
intelligenceintelligencia systemrendszer getsjelentkeznek things wrongrossz.
96
288427
4262
Gond, ha ez az MI-rendszer valamit elszúr.
05:04
It's alsois a problemprobléma
when it getsjelentkeznek things right,
97
292713
3540
Az is, ha nem szúrja el,
05:08
because we don't even know whichmelyik is whichmelyik
when it's a subjectiveszubjektív problemprobléma.
98
296277
3628
mert nem is tudjuk, mi micsoda.
ha szubjektív kérdésről van szó.
05:11
We don't know what this thing is thinkinggondolkodás.
99
299929
2339
Nem tudjuk, mit gondol ez a dolog.
05:15
So, considerfontolgat a hiringbérlés algorithmalgoritmus --
100
303493
3683
Vegyünk egy felvételi algoritmust,
05:20
a systemrendszer used to hirebérel people,
usinghasználva machine-learninggép-tanulás systemsrendszerek.
101
308123
4311
azaz felvételre való rendszert,
amely gépi tanulási rendszert használ.
05:25
SuchIlyen a systemrendszer would have been trainedkiképzett
on previouselőző employees'a munkavállalók dataadat
102
313052
3579
A rendszert az eddigi alkalmazottak
adatain tanították be,
05:28
and instructedutasította to find and hirebérel
103
316655
2591
és arra utasították, hogy a cég jelenlegi
05:31
people like the existinglétező
highmagas performerselőadók in the companyvállalat.
104
319270
3038
jól teljesítő embereihez hasonlókat
találjon és alkalmazzon.
05:34
SoundsHangok good.
105
322814
1153
Jól hangzik.
05:35
I onceegyszer attendedrészt vett a conferencekonferencia
106
323991
1999
Részt vettem egyszer egy konferencián,
05:38
that broughthozott togetheregyütt
humanemberi resourceserőforrások managersmenedzserek and executivesvezetők,
107
326014
3125
ahol humánerőforrás-ügyintézők
és -vezetők gyűltek össze,
05:41
high-levelmagas szint people,
108
329163
1206
magas rangú emberek,
ők ilyeneket használtak felvételhez.
05:42
usinghasználva suchilyen systemsrendszerek in hiringbérlés.
109
330393
1559
05:43
They were superszuper excitedizgatott.
110
331976
1646
Rendkívül izgatottak voltak.
05:45
They thought that this would make hiringbérlés
more objectivecélkitűzés, lessKevésbé biasedelfogult,
111
333646
4653
Azt gondolták, hogy ez objektívabbá,
pártatlanabbá teszi a felvételt,
05:50
and give womennők
and minoritieskisebbségek a better shotlövés
112
338323
3000
és jobb esélyt ad nőknek
és a kisebbségeknek
05:53
againstellen biasedelfogult humanemberi managersmenedzserek.
113
341347
2188
a részrehajló ügyintézőkkel szemben.
05:55
And look -- humanemberi hiringbérlés is biasedelfogult.
114
343559
2843
De az emberek felvétele részrehajló.
05:59
I know.
115
347099
1185
Én tudom.
06:00
I mean, in one of my earlykorai jobsmunkahelyek
as a programmerprogramozó,
116
348308
3005
Az egyik korai munkahelyemen
programozóként dolgoztam,
06:03
my immediateazonnali managermenedzser would sometimesnéha
come down to where I was
117
351337
3868
és a kisfőnököm néha odajött hozzám
06:07
really earlykorai in the morningreggel
or really latekéső in the afternoondélután,
118
355229
3753
nagyon korán reggel
vagy nagyon késő délután,
06:11
and she'dfészer say, "ZeynepZeynep,
let's go to lunchebéd!"
119
359006
3062
és azt mondta: „Zeynep, menjünk ebédelni!”
06:14
I'd be puzzledzavartan by the weirdfurcsa timingidőzítés.
120
362724
2167
Meglepett a fura időzítés.
06:16
It's 4pmPM. LunchEbéd?
121
364915
2129
Délután négykor ebédeljünk?
06:19
I was broketörött, so freeingyenes lunchebéd. I always wentment.
122
367068
3094
Le voltam égve, ingyenes az ebéd...
Mindig vele mentem.
06:22
I latera későbbiekben realizedrealizált what was happeningesemény.
123
370618
2067
Később rájöttem, mi történt.
06:24
My immediateazonnali managersmenedzserek
had not confessedbevallotta to theirazok higher-upsfejesek
124
372709
4546
Kisfőnökeim nem vallották
be feletteseiknek,
06:29
that the programmerprogramozó they hiredbérelt
for a serioussúlyos jobmunka was a teentini girllány
125
377279
3113
hogy a komoly munkára
felvett programozó egy tinilány,
06:32
who woreviselt jeansFarmer and sneakerstornacipő to work.
126
380416
3930
aki farmerben és surranóban jár munkába.
06:37
I was doing a good jobmunka,
I just lookednézett wrongrossz
127
385174
2202
Jól dolgoztam, de nem néztem ki elég jól,
06:39
and was the wrongrossz agekor and gendernem.
128
387400
1699
nem felelt meg a korom és a nemem.
06:41
So hiringbérlés in a gender-nemek- and race-blindverseny-vak way
129
389123
3346
Ezért egy nemtől és rassztól
független felvétel
06:44
certainlybiztosan soundshangok good to me.
130
392493
1865
jól hangzik nekem.
06:47
But with these systemsrendszerek,
it is more complicatedbonyolult, and here'sitt why:
131
395031
3341
De elmondom, hogy e rendszerekkel
a helyzet ennél miért bonyolultabb,
06:50
CurrentlyJelenleg, computationalszámítási systemsrendszerek
can inferkövetkeztetni all sortsfajta of things about you
132
398968
5791
Ma már a számítógép-rendszerek mindenfélét
ki tudnak következtetni rólunk
06:56
from your digitaldigitális crumbsmorzsa,
133
404783
1872
a digitális morzsáinkból,
06:58
even if you have not
disclosednyilvánosságra those things.
134
406679
2333
még akkor is, ha nem
hoztuk nyilvánosságra őket.
07:01
They can inferkövetkeztetni your sexualszexuális orientationtájékozódás,
135
409506
2927
Ki tudják következtetni
nemi orientációnkat,
07:04
your personalityszemélyiség traitsvonások,
136
412994
1306
személyiségjegyeinket,
07:06
your politicalpolitikai leaningsleanings.
137
414859
1373
politikai szimpátiáinkat.
07:08
They have predictivea prediktív powererő
with highmagas levelsszintek of accuracypontosság.
138
416830
3685
Előrejelző erejük nagy fokú
pontossággal párosul.
07:13
RememberNe feledje -- for things
you haven'tnincs even disclosednyilvánosságra.
139
421362
2578
Figyelem: olyan dolgokról,
amelyeket nem is közöltünk.
07:15
This is inferencekövetkeztetés.
140
423964
1591
Ez a kikövetkeztetés.
07:17
I have a friendbarát who developedfejlett
suchilyen computationalszámítási systemsrendszerek
141
425579
3261
Egyik barátnőm olyan számítógépes
rendszereket fejlesztett,
07:20
to predictmegjósolni the likelihoodvalószínűség
of clinicalklinikai or postpartumszülés utáni depressiondepresszió
142
428864
3641
amelyek előrejelzik a szülés utáni
vagy a súlyos depresszió valószínűségét
07:24
from socialtársadalmi mediamédia dataadat.
143
432529
1416
a közösségi média adataiból.
07:26
The resultstalálatok are impressivehatásos.
144
434676
1427
Az eredmények lenyűgözőek.
07:28
Her systemrendszer can predictmegjósolni
the likelihoodvalószínűség of depressiondepresszió
145
436492
3357
Rendszere előrejelzi
a depresszió valószínűségét
07:31
monthshónap before the onsetkialakulása of any symptomstünetek --
146
439873
3903
hónapokkal a tünetek megjelenése előtt.
07:35
monthshónap before.
147
443800
1373
Hónapokkal előtte!
07:37
No symptomstünetek, there's predictionjóslás.
148
445197
2246
Nincs még tünet, de előrejelzés már van.
07:39
She hopesremények it will be used
for earlykorai interventionközbelépés. Great!
149
447467
4812
Barátnőm reméli, hogy felhasználják
majd a korai beavatkozáshoz. Nagyszerű!
07:44
But now put this in the contextkontextus of hiringbérlés.
150
452911
2040
De nézzük ezt a felvételi szempontjából!
07:48
So at this humanemberi resourceserőforrások
managersmenedzserek conferencekonferencia,
151
456027
3046
Az említett humánerőforrás-konferencián
07:51
I approachedmegközelítette a high-levelmagas szint managermenedzser
in a very largenagy companyvállalat,
152
459097
4709
odamentem az egyik óriási cég
magas rangú vezetőjéhez,
07:55
and I said to her, "Look,
what if, unbeknownsttudtán kívül to you,
153
463830
4578
és megkérdeztem tőle:
„M van, ha az ön tudta nélkül
08:00
your systemrendszer is weedinggyomlálás out people
with highmagas futurejövő likelihoodvalószínűség of depressiondepresszió?
154
468432
6549
rendszerük kiszűri azokat,
akiknél a depresszió jövőbeni
valószínűsége nagy?
08:07
They're not depressednyomott now,
just maybe in the futurejövő, more likelyvalószínűleg.
155
475761
3376
Mi van, ha kiszűri azokat,
akik egy-két éven belül
08:11
What if it's weedinggyomlálás out womennők
more likelyvalószínűleg to be pregnantterhes
156
479923
3406
valószínűleg teherbe esnek,
de most nem terhesek?
08:15
in the nextkövetkező yearév or two
but aren'tnem pregnantterhes now?
157
483353
2586
08:18
What if it's hiringbérlés aggressiveagresszív people
because that's your workplacemunkahely culturekultúra?"
158
486844
5636
Mi van, ha agresszív embereket vesz fel,
mert a munkahelyi kultúrába beleillenek?"
08:25
You can't tell this by looking
at gendernem breakdownsbontások.
159
493173
2691
Ez nem derül ki a nemek
szerinti bontásból.
08:27
Those maylehet be balancedkiegyensúlyozott.
160
495888
1502
Az lehet, hogy rendben van.
08:29
And sincemivel this is machinegép learningtanulás,
not traditionalhagyományos codingkódolás,
161
497414
3557
Mivel ez gépi tanulás,
nem hagyományos kódolás,
08:32
there is no variableváltozó there
labeledfeliratú "highermagasabb riskkockázat of depressiondepresszió,"
162
500995
4907
nincs „magas depressziókockázat”,
08:37
"highermagasabb riskkockázat of pregnancyterhesség,"
163
505926
1833
„magas terhességi kockázat”,
08:39
"aggressiveagresszív guy scaleskála."
164
507783
1734
„agresszív pasi skála” nevű változó.
08:41
Not only do you not know
what your systemrendszer is selectingkiválasztása on,
165
509995
3679
Nemcsak azt nem tudjuk,
mi alapján választ a rendszer,
08:45
you don't even know
where to beginkezdődik to look.
166
513698
2323
hanem azt sem, hol kezd el keresni.
08:48
It's a blackfekete boxdoboz.
167
516045
1246
Ez egy fekete doboz.
08:49
It has predictivea prediktív powererő,
but you don't understandmegért it.
168
517315
2807
Előrejelző ereje van, de nem értjük.
08:52
"What safeguardsbiztosítéki intézkedések," I askedkérdezte, "do you have
169
520486
2369
„Mi a biztosíték rá – kérdeztem,
08:54
to make sure that your blackfekete boxdoboz
isn't doing something shadyárnyas?"
170
522879
3673
hogy a fekete doboz nem
csinál valami kétes dolgot?”
09:00
She lookednézett at me as if I had
just steppedlépcsős on 10 puppykölyökkutya tailsfrakk.
171
528863
3878
Úgy nézett rám, mintha megöltem
volna a tanácselnököt.
09:04
(LaughterNevetés)
172
532765
1248
(Nevetés)
09:06
She staredbámult at me and she said,
173
534037
2041
Bámult rám, majd azt mondta:
09:08
"I don't want to hearhall
anotheregy másik wordszó about this."
174
536556
4333
„Nem akarok erről hallani
többet egy szót sem”.
09:13
And she turnedfordult around and walkedsétált away.
175
541458
2034
Sarkon fordult, és elment.
09:16
MindSzem előtt tartva you -- she wasn'tnem volt rudedurva.
176
544064
1486
Megjegyezném: nem volt durva.
09:17
It was clearlytisztán: what I don't know
isn't my problemprobléma, go away, deathhalál starebámul.
177
545574
6308
Világos volt: amiről nem tudok, az nem
az én problémám, lelépek, bután nézek.
09:23
(LaughterNevetés)
178
551906
1246
(Nevetés)
09:25
Look, suchilyen a systemrendszer
maylehet even be lessKevésbé biasedelfogult
179
553862
3839
Egy ilyen rendszer, lehet,
hogy kevésbé részrehajló,
09:29
than humanemberi managersmenedzserek in some waysmódokon.
180
557725
2103
mint bizonyos esetekben az ügyintézők.
09:31
And it could make monetarymonetáris senseérzék.
181
559852
2146
Pénzügyileg megérheti.
09:34
But it could alsois leadvezet
182
562573
1650
De ahhoz vezethet,
09:36
to a steadyállandó but stealthylopakodó
shuttingredőny out of the jobmunka marketpiac
183
564247
4748
hogy folyamatosan és alattomosan
kizárja a munkaerőpiacról
09:41
of people with highermagasabb riskkockázat of depressiondepresszió.
184
569019
2293
a magas depressziókockázatúakat.
09:43
Is this the kindkedves of societytársadalom
we want to buildépít,
185
571753
2596
Ilyenfajta társadalmat akarunk építeni,
09:46
withoutnélkül even knowingtudva we'vevoltunk doneKész this,
186
574373
2285
még ha tudtunkon kívül is,
09:48
because we turnedfordult decision-makingDöntéshozatal
to machinesgépek we don't totallyteljesen understandmegért?
187
576682
3964
csak mert olyan gépeknek adtuk át
a döntéshozatalt, amelyeket nem is értünk?
09:53
AnotherEgy másik problemprobléma is this:
188
581265
1458
Egy másik nehézség:
09:55
these systemsrendszerek are oftengyakran trainedkiképzett
on dataadat generatedgenerált by our actionsakciók,
189
583314
4452
a rendszerek tanítása gyakran
tetteinkből létrehozott adatokkal,
09:59
humanemberi imprintslenyomatok.
190
587790
1816
emberi lenyomatokkal történik.
10:02
Well, they could just be
reflectingtükröző our biasestorzítások,
191
590188
3808
Lehet, hogy ezek
tükrözik részrehajlásunkat,
10:06
and these systemsrendszerek
could be pickingfeltörés up on our biasestorzítások
192
594020
3593
és a rendszerek eltanulják őket,
10:09
and amplifyingerősítő them
193
597637
1313
felerősítik,
10:10
and showingkiállítás them back to us,
194
598974
1418
és visszatükrözik nekünk,
10:12
while we're tellingsokatmondó ourselvesminket,
195
600416
1462
miközben azt mondjuk magunknak
10:13
"We're just doing objectivecélkitűzés,
neutralsemleges computationszámítás."
196
601902
3117
„Mi csak objektív, semleges
számítástechnikát gyakorlunk.”
10:18
ResearchersA kutatók foundtalál that on GoogleGoogle,
197
606314
2677
Kutatók kimutatták, hogy a Google
nőknek kisebb valószínűséggel mutat
10:22
womennők are lessKevésbé likelyvalószínűleg than menférfiak
to be shownLátható jobmunka adshirdetések for high-payingjól fizető jobsmunkahelyek.
198
610134
5313
jól fizetett állásokról szóló
hirdetéseket, mint férfiaknak.
10:28
And searchingkutató for African-AmericanAfro-amerikai namesnevek
199
616463
2530
Ha afroamerikai nevekre keresünk,
10:31
is more likelyvalószínűleg to bringhoz up adshirdetések
suggestingami arra utal, criminalBűnügyi historytörténelem,
200
619017
4706
gyakrabban hoz fel büntetett
előéletet sejtető reklámokat,
10:35
even when there is noneegyik sem.
201
623747
1567
akkor is, ha nincs ilyenről szó.
10:38
SuchIlyen hiddenrejtett biasestorzítások
and black-boxfekete-doboz algorithmsalgoritmusok
202
626693
3549
Az ilyen rejtett részrehajlásokat
és „fekete doboz” algoritmusokat
10:42
that researcherskutatók uncoverfeltárni sometimesnéha
but sometimesnéha we don't know,
203
630266
3973
olykor felfedik a kutatók,
de néha nem tudunk róluk,
10:46
can have life-alteringélet-megváltoztató consequenceskövetkezményei.
204
634263
2661
pedig következményeik
megváltoztathatják az életet.
10:49
In WisconsinWisconsin, a defendantalperes
was sentencedelítélt to sixhat yearsévek in prisonbörtön
205
637958
4159
Wisconsinban egy vádlottat
hat év börtönre ítéltek,
10:54
for evadingmegkerülésére the policerendőrség.
206
642141
1355
mert kijátszotta a rendőröket.
10:56
You maylehet not know this,
207
644824
1186
Tán nem tudják: szabadlábra helyezési
10:58
but algorithmsalgoritmusok are increasinglyegyre inkább used
in parolefeltételes szabadlábra helyezés and sentencingbüntetés decisionsdöntések.
208
646034
3998
és büntetési döntésekhez egyre
gyakrabban használnak algoritmust.
11:02
He wanted to know:
How is this scorepontszám calculatedszámított?
209
650056
2955
Ez az ember meg akarta tudni,
hogyan számítják a pontszámot.
11:05
It's a commercialkereskedelmi blackfekete boxdoboz.
210
653795
1665
Ez egy kereskedelmi fekete doboz.
11:07
The companyvállalat refusedelutasított to have its algorithmalgoritmus
be challengedmegtámadta in opennyisd ki courtbíróság.
211
655484
4205
A cég visszautasította, hogy nyilvános
bíróság elé vigyék az algoritmusát.
11:12
But ProPublicaProPublica, an investigativevizsgálati
nonprofitnonprofit, auditedellenőrzött that very algorithmalgoritmus
212
660396
5532
De a ProPublica nonprofit
nyomozó szervezet auditálta az algoritmust
11:17
with what publicnyilvános dataadat they could find,
213
665952
2016
a hozzáférhető nyilvános adatokkal,
11:19
and foundtalál that its outcomeseredmények were biasedelfogult
214
667992
2316
és az eredményeket részrehajlónak találta,
11:22
and its predictivea prediktív powererő
was dismallehangoló, barelyalig better than chancevéletlen,
215
670332
3629
az előrejelző képességét pedig
pocséknak, alig jobbnak a véletlennél,
11:25
and it was wronglytévesen labelingcímkézés
blackfekete defendantsalperesek as futurejövő criminalsa bűnözők
216
673985
4416
kétszer olyan gyakran jelölte hibásan
leendő bűnözőnek a fekete,
11:30
at twicekétszer the ratearány of whitefehér defendantsalperesek.
217
678425
3895
mint a fehér elítélteket.
11:35
So, considerfontolgat this caseügy:
218
683891
1564
Vegyünk egy másik esetet:
11:38
This woman was latekéső
pickingfeltörés up her godsistergodsister
219
686103
3852
egy nőnek el kellett hoznia keresztlányát
11:41
from a schooliskola in BrowardBroward CountyMegye, FloridaFlorida,
220
689979
2075
az iskolából a floridai Broward megyében.
11:44
runningfutás down the streetutca
with a friendbarát of hersaz övé.
221
692757
2356
Késésben volt, rohant
az utcán a barátnőjével.
11:47
They spottedfoltos an unlockedkulccsal be nem zárt kid'sgyerekek bikebicikli
and a scooterrobogó on a porchveranda
222
695137
4099
Egy tornácon lezáratlan
gyerekbiciklit és rollert láttak meg,
11:51
and foolishlyostoba jumpedugrott on it.
223
699260
1632
meggondolatlanul felugrottak rá.
11:52
As they were speedinggyorshajtás off,
a woman camejött out and said,
224
700916
2599
Ahogy elhajtottak,
kijött egy nő, s azt kiáltotta:
11:55
"Hey! That's my kid'sgyerekek bikebicikli!"
225
703539
2205
„Hé! Az a gyerek biciklije!”
11:57
They droppedcsökkent it, they walkedsétált away,
but they were arrestedletartóztatott.
226
705768
3294
Eldobták, továbbmentek,
de letartóztatták őket.
12:01
She was wrongrossz, she was foolishostoba,
but she was alsois just 18.
227
709086
3637
Rosszat tett, őrültség volt,
de csak 18 éves volt.
12:04
She had a couplepárosít of juvenilefiatalkori misdemeanorsvétségek.
228
712747
2544
Volt néhány fiatalkori kihágása.
12:07
MeanwhileKözben, that man had been arrestedletartóztatott
for shopliftingbolti lopás in Home DepotRaktár --
229
715808
5185
Ugyanakkor letartóztattak egy férfit
85 dollár értékű áruházi lopásért,
12:13
85 dollars'dollár worthérdemes of stuffdolog,
a similarhasonló pettypiti crimebűn.
230
721017
2924
ez egy hasonló kisebb vétség.
12:16
But he had two priorelőzetes
armedfegyveres robberyrablás convictionsítéletek.
231
724766
4559
Volt viszont két korábbi
ítélete fegyveres rablásért.
12:21
But the algorithmalgoritmus scoredgól her
as highmagas riskkockázat, and not him.
232
729955
3482
Az algoritmus mégis a nőt értékelte
magas kockázatúnak, nem a férfit.
12:26
Two yearsévek latera későbbiekben, ProPublicaProPublica foundtalál
that she had not reoffendedreoffended.
233
734746
3874
Két évvel később a ProPublica azt találta,
hogy a nő nem követett el új vétséget.
12:30
It was just hardkemény to get a jobmunka
for her with her recordrekord.
234
738644
2550
Csak nehéz volt munkát találnia
a priusza miatt.
12:33
He, on the other handkéz, did reoffendreoffend
235
741218
2076
A férfi viszont visszaeső volt,
12:35
and is now servingszolgáló an eight-yearnyolc éves
prisonbörtön termkifejezés for a latera későbbiekben crimebűn.
236
743318
3836
és most nyolcéves büntetését tölti
egy későbbi bűncselekmény miatt.
12:40
ClearlyEgyértelműen, we need to auditaudit our blackfekete boxesdobozok
237
748088
3369
Világos, hogy auditálnunk kell
a fekete dobozainkat,
12:43
and not have them have
this kindkedves of uncheckednincs bejelölve powererő.
238
751481
2615
s nem engedhetjük, hogy ilyen
korlátlan hatalmuk legyen.
12:46
(ApplauseTaps)
239
754120
2879
(Taps)
12:50
AuditsEllenőrzések are great and importantfontos,
but they don't solvemegfejt all our problemsproblémák.
240
758087
4242
Az auditok nagyszerűek és fontosak,
de nem oldják meg minden gondunkat.
12:54
Take Facebook'sFacebook powerfulerős
newshírek feedtakarmány algorithmalgoritmus --
241
762353
2748
Vegyük a Facebook hatásos
hírválogató algoritmusát,
12:57
you know, the one that rankssoraiban everything
and decidesúgy határoz, what to showelőadás you
242
765125
4843
azt, amelyik mindent sorba rak,
és eldönti, mit mutasson meg nekünk
13:01
from all the friendsbarátok and pagesoldalak you followkövesse.
243
769992
2284
az összes követett ismerős és oldal közül.
13:04
Should you be shownLátható anotheregy másik babybaba picturekép?
244
772898
2275
Mutasson még egy kisbabás képet?
13:07
(LaughterNevetés)
245
775197
1196
(Nevetés)
13:08
A sullenmogorva notejegyzet from an acquaintanceismeretség?
246
776417
2596
Egy ismerős morcos megjegyzését?
13:11
An importantfontos but difficultnehéz newshírek itemtétel?
247
779449
1856
Egy fontos, de fajsúlyos hírt?
13:13
There's no right answerválasz.
248
781329
1482
Nincs helyes válasz.
13:14
FacebookFacebook optimizesoptimalizálja a
for engagementeljegyzés on the sitewebhely:
249
782835
2659
A Facebook az oldalon zajló
tevékenységre optimalizál:
13:17
likeskedvel, sharesmegoszt, commentsHozzászólások.
250
785518
1415
lájk, megosztás, komment.
13:20
In AugustAugusztus of 2014,
251
788168
2696
2014 augusztusában
13:22
proteststiltakozik broketörött out in FergusonFerguson, MissouriMissouri,
252
790888
2662
tüntetések törtek ki a Missouribeli
Fergusonban,
13:25
after the killinggyilkolás of an African-AmericanAfro-amerikai
teenagertizenéves by a whitefehér policerendőrség officertiszt,
253
793574
4417
miután egy fehér rendőr lelőtt
egy afroamerikai tinédzsert,
13:30
underalatt murkysötét circumstanceskörülmények.
254
798015
1570
gyanús körülmények között.
13:31
The newshírek of the proteststiltakozik was all over
255
799974
2007
Tele volt a tüntetések híreivel
13:34
my algorithmicallyalgoritmikusan
unfilteredszűretlen TwitterTwitter feedtakarmány,
256
802005
2685
az algoritmussal nem szűrt Twitter-fiókom,
13:36
but nowheremost itt on my FacebookFacebook.
257
804714
1950
de a Facebookon nem volt semmi.
13:39
Was it my FacebookFacebook friendsbarátok?
258
807182
1734
A Facebook-ismerőseim az oka?
13:40
I disabledTiltva Facebook'sFacebook algorithmalgoritmus,
259
808940
2032
Kikapcsoltam a Facebook algoritmusát,
13:43
whichmelyik is hardkemény because FacebookFacebook
keepstartja wantinghiányzó to make you
260
811472
2848
ami nehéz, mert a Facebook
azt akarja,
13:46
come underalatt the algorithm'salgoritmus barátait controlellenőrzés,
261
814344
2036
hogy az algoritmus irányítson minket.
13:48
and saw that my friendsbarátok
were talkingbeszél about it.
262
816404
2238
Láttam, hogy az ismerőseim
beszélgetnek róla.
13:50
It's just that the algorithmalgoritmus
wasn'tnem volt showingkiállítás it to me.
263
818666
2509
Csakhogy az algoritmus azt
nem mutatta meg nekem.
13:53
I researchedkutatott this and foundtalál
this was a widespreadszéles körben elterjedt problemprobléma.
264
821199
3042
Kutattam utána, és azt találtam,
hogy ez egy elterjedt probléma.
13:56
The storysztori of FergusonFerguson
wasn'tnem volt algorithm-friendlyalgoritmus-barát.
265
824265
3813
A fergusoni sztori nem volt
szimpatikus az algoritmusnak.
14:00
It's not "likableszimpatikus."
266
828102
1171
Nem lájkolható.
14:01
Who'sAki barátait going to clickkettyenés on "like?"
267
829297
1552
Ki fog a lájkra kattintani?
14:03
It's not even easykönnyen to commentmegjegyzés on.
268
831500
2206
Még kommentelni sem könnyű.
14:05
WithoutNélkül likeskedvel and commentsHozzászólások,
269
833730
1371
Lájkok és kommentek nélkül
14:07
the algorithmalgoritmus was likelyvalószínűleg showingkiállítás it
to even fewerkevesebb people,
270
835125
3292
az algoritmus egyre kisebb valószínűséggel
mutatta egyre kevesebbeknek,
14:10
so we didn't get to see this.
271
838441
1542
így nem láthattuk meg.
14:12
InsteadEhelyett, that weekhét,
272
840946
1228
Ehelyett azon a héten
14:14
Facebook'sFacebook algorithmalgoritmus highlightedkiemelve this,
273
842198
2298
a Facebook algoritmusa előtérbe helyezte
14:16
whichmelyik is the ALSALS IceJég BucketVödör ChallengeKihívás.
274
844520
2226
az ALS jeges vödör kihívást.
14:18
WorthyMéltó causeok; dumplerak icejég watervíz,
donateadományoz to charityadomány, fine.
275
846770
3742
Nemes cél: önts magadra jeges vizet,
és adakozz; rendben.
14:22
But it was superszuper algorithm-friendlyalgoritmus-barát.
276
850536
1904
Ez szimpatikus volt az algoritmusnak.
14:25
The machinegép madekészült this decisiondöntés for us.
277
853219
2613
A gép ezt helyettünk döntötte el.
14:27
A very importantfontos
but difficultnehéz conversationbeszélgetés
278
855856
3497
Egy igen fontos, de nehéz beszélgetést
14:31
mightesetleg have been smotheredelárasztott,
279
859377
1555
fojtott volna el,
14:32
had FacebookFacebook been the only channelcsatorna.
280
860956
2696
ha a Facebook lett volna
az egyetlen csatorna.
14:36
Now, finallyvégül, these systemsrendszerek
can alsois be wrongrossz
281
864117
3797
S végül, e rendszerek úgy is hibázhatnak,
14:39
in waysmódokon that don't resemblehasonlítanak humanemberi systemsrendszerek.
282
867938
2736
ami nem hasonlít az emberi rendszerekre.
14:42
Do you guys rememberemlékezik WatsonWatson,
IBM'sAz IBM machine-intelligencegépi intelligencia systemrendszer
283
870698
2922
Emlékeznek a Watsonra,
az IBM gépi intelligencia rendszerére,
amelyik felmosta a padlót a "Mindent
vagy semmit" kvíz versenyzőivel?
14:45
that wipedmegtöröl the floorpadló
with humanemberi contestantsversenyzők on JeopardyVeszélyben?
284
873644
3128
14:49
It was a great playerjátékos.
285
877131
1428
Nagyszerű játékos volt.
14:50
But then, for FinalVégső JeopardyVeszélyben,
WatsonWatson was askedkérdezte this questionkérdés:
286
878583
3569
De az utolsó fordulóban a következő
kérdést tették fel a Watsonnak:
14:54
"Its largestlegnagyobb airportrepülőtér is namednevezett
for a WorldVilág WarHáború IIII. herohős,
287
882659
2932
„Legnagyobb repterét egy
II. világháborús hősről nevezték el,
14:57
its second-largestmásodik legnagyobb
for a WorldVilág WarHáború IIII. battlecsata."
288
885615
2252
a másodikat egy II.
világháborús csatáról.”
14:59
(HumsOlyan FinalVégső JeopardyVeszélyben musiczene)
289
887891
1378
(Dúdolja a kvíz zenéjét)
15:01
ChicagoChicago.
290
889582
1182
Chicago.
15:02
The two humansemberek got it right.
291
890788
1370
A két ember eltalálta.
15:04
WatsonWatson, on the other handkéz,
answeredválaszol "TorontoToronto" --
292
892697
4348
A Watson válasza viszont Toronto volt –
15:09
for a US cityváros categorykategória!
293
897069
1818
az USA-város kategóriában!
15:11
The impressivehatásos systemrendszer alsois madekészült an errorhiba
294
899596
2901
A lenyűgöző rendszer olyan hibát ejtett,
15:14
that a humanemberi would never make,
a second-gradermásodik osztályos wouldn'tnem make.
295
902521
3651
amilyet ember sosem tenne,
egy másodikos gyerek sem.
15:18
Our machinegép intelligenceintelligencia can failnem sikerül
296
906823
3109
A gépi intelligenciánk
15:21
in waysmódokon that don't fitillő
errorhiba patternsminták of humansemberek,
297
909956
3100
olyan módon hibázhat, ami nem
hasonlít az emberi hibamintákra,
15:25
in waysmódokon we won'tszokás expectelvár
and be preparedelőkészített for.
298
913080
2950
olyan módon, amire nem számítunk,
nem vagyunk rá felkészülve.
15:28
It'dLenne be lousytetves not to get a jobmunka
one is qualifiedminősített for,
299
916054
3638
Ronda dolog lenne lemaradni egy munkáról,
amire megvan a képesítésünk,
15:31
but it would triplehármas suckszív
if it was because of stackKazal overflowtúlcsordulás
300
919716
3727
de háromszoros szívás lenne,
ha ezt egy szubrutinban
túlcsordult verem okozná.
15:35
in some subroutineszubrutin.
301
923467
1432
15:36
(LaughterNevetés)
302
924923
1579
(Nevetés)
15:38
In MayMájus of 2010,
303
926526
2786
2010 májusában
15:41
a flashvaku crashcsattanás on WallFal StreetUtca
fueledtáplálta by a feedbackVisszacsatolás loophurok
304
929336
4044
a Wall Street villámkrachja,
amit a tőzsdei „eladási” algoritmus
15:45
in WallFal Street'sStreet "sellelad" algorithmalgoritmus
305
933404
3028
visszacsatolási hurka okozott,
15:48
wipedmegtöröl a trillionbillió dollarsdollár
of valueérték in 36 minutespercek.
306
936456
4184
egybillió dollárnyi értéket
tett semmivé 36 perc alatt.
15:53
I don't even want to think
what "errorhiba" meanseszközök
307
941722
2187
Bele sem akarok gondolni,
mit jelent a „hiba”
15:55
in the contextkontextus of lethalhalálos
autonomousautonóm weaponsfegyverek.
308
943933
3589
az autonóm halálos fegyverekkel
összefüggésben.
16:01
So yes, humansemberek have always madekészült biasestorzítások.
309
949894
3790
Igen, az emberek mindig
részrehajlók voltak.
16:05
DecisionHatározat makersdöntéshozók and gatekeepersforgalomirányítók,
310
953708
2176
Döntéshozók és kapuőrök
16:07
in courtsbíróságok, in newshírek, in warháború ...
311
955908
3493
a bíróságokon, hírekben, háborúban...
16:11
they make mistakeshibák;
but that's exactlypontosan my pointpont.
312
959425
3038
hibáznak; de éppen erről beszélek.
16:14
We cannotnem tud escapemenekülni
these difficultnehéz questionskérdések.
313
962487
3521
Nem szabadulhatunk meg
e fogós kérdésektől.
16:18
We cannotnem tud outsourcekiszervezik
our responsibilitiesfelelősség to machinesgépek.
314
966596
3516
Nem szervezhetjük ki
felelősségünket gépekbe.
16:22
(ApplauseTaps)
315
970676
4208
(Taps)
16:29
ArtificialMesterséges intelligenceintelligencia does not give us
a "Get out of ethicsetikai freeingyenes" cardkártya.
316
977089
4447
A mesterséges intelligencia nem
ment föl az etikus gondolkodás alól.
16:34
DataAdatok scientisttudós FredFred BenensonBenenson
callshívások this math-washingmatematika-mosás.
317
982742
3381
Fred Benenson adatkutató
„math-washing”-nak nevezi ezt.
16:38
We need the oppositeszemben.
318
986147
1389
Az ellenkezője szükséges.
16:39
We need to cultivateápolása algorithmalgoritmus suspiciongyanú,
scrutinyvizsgálat and investigationvizsgálat.
319
987560
5388
Gyanakodnunk kell az algoritmusokra,
és vizsgálnunk kell őket.
16:45
We need to make sure we have
algorithmicalgoritmikus accountabilityfelelősségre vonhatóság,
320
993380
3198
Gondoskodnunk kell róla,
hogy az algoritmusok számon kérhetők,
16:48
auditingnaplózás and meaningfuljelentőségteljes transparencyátláthatóság.
321
996602
2445
auditálhatók és észszerűen
átláthatók legyenek.
16:51
We need to acceptelfogad
that bringingfűződő mathmatematikai and computationszámítás
322
999380
3234
El kell fogadnunk, hogy a matek
és az informatika bevonása
16:54
to messyrendetlen, value-ladenérték-terhelt humanemberi affairsügyek
323
1002638
2970
a zavaros, értékeket hordozó emberi
viszonyokba
16:57
does not bringhoz objectivitytárgyilagosság;
324
1005632
2384
nem eredményez objektivitást;
17:00
ratherInkább, the complexitybonyolultság of humanemberi affairsügyek
invadesmegtámadja the algorithmsalgoritmusok.
325
1008040
3633
ehelyett az emberi viszonyok
komplexitása átitatja az algoritmust.
17:04
Yes, we can and we should use computationszámítás
326
1012148
3487
Igen, lehet és kell használnunk
az informatikát,
17:07
to help us make better decisionsdöntések.
327
1015659
2014
hogy segítsen jobb döntéseket hozni.
17:09
But we have to ownsaját up
to our moralerkölcsi responsibilityfelelősség to judgmentítélet,
328
1017697
5332
De ítéleteinkért az erkölcsi felelősséget
nekünk kell viselnünk,
17:15
and use algorithmsalgoritmusok withinbelül that frameworkkeretrendszer,
329
1023053
2818
és az algoritmusokat azon
keretek között kell használnunk,
17:17
not as a meanseszközök to abdicatemondjanak le
and outsourcekiszervezik our responsibilitiesfelelősség
330
1025895
4935
nem pedig arra, hogy lemondjunk
az egymás iránti felelősségünkről,
17:22
to one anotheregy másik as humanemberi to humanemberi.
331
1030854
2454
és azt kiszervezzük.
17:25
MachineGép intelligenceintelligencia is here.
332
1033807
2609
A gépi intelligencia megérkezett.
17:28
That meanseszközök we mustkell holdtart on ever tighterszigorúbb
333
1036440
3421
Ez azt jelenti, hogy még szigorúbban
kell ragaszkodnunk
17:31
to humanemberi valuesértékeket and humanemberi ethicsetikai.
334
1039885
2147
az emberi értékekhez és etikához.
17:34
Thank you.
335
1042056
1154
Köszönöm.
17:35
(ApplauseTaps)
336
1043234
5020
(Taps) (Üdvrivalgás)
Translated by Peter Balla
Reviewed by Peter Pallós

▲Back to top

ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.

Why you should listen

We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.

Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.

Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.

More profile about the speaker
Zeynep Tufekci | Speaker | TED.com