ABOUT THE SPEAKER
Kate Darling - Robot ethicist
Kate Darling investigates the relationship between humans and robots -- now, and in the future.

Why you should listen

Robots are taking increasingly bigger roles in life and business -- moving well beyond manufacturing and into transportation, education, medicine, care for the elderly, our offices and our homes. But ethics and law haven't caught up. Kate Darling, a pioneer in these fields, is helping quicken the pace.

A leading expert in robot ethics, Darling is a researcher at the Massachusetts Institute of Technology (MIT) Media Lab where she investigates social robotics and conducts experimental studies on human-robot interaction. Darling explores the emotional connection between people and life-like inventions, seeking to influence technology design and policy direction. Her writing and research anticipate difficult questions that lawmakers, engineers and the wider public must address as human-robot relationships evolve in the coming decades.

While her background is in intellectual property and law and economics, Darling's passion for technology and robots led her to interdisciplinary fields. She's a former Fellow and current Affiliate at the Harvard Berkman Klein Center for Internet & Society and a former fellow at the Yale Information Society Project, and she's an affiliate at the Institute for Ethics and Emerging Technologies. 
Her work has been featured in Vogue, The New Yorker, The Guardian, BBC, NPR, PBS, The Boston Globe, Forbes, CBC, WIRED, Boston Magazine, The Atlantic, Slate, Die Zeit, The Japan Times and more. She is a contributing writer to Robohub and IEEE Spectrum and speaks and holds workshops covering some of the more interesting developments in the world of robotics, and where we might find ourselves in the future.

Darling graduated from law school with honors and holds a doctorate of sciences from the Swiss Federal Institute of Technology (ETH Zurich) and an honorary doctorate of sciences from Middlebury College. In 2017, the American Bar Association honored her legal work with the Mark T. Banner award in Intellectual Property. She is the caretaker for several domestic robots, including her Pleos Yochai, Peter, and Mr. Spaghetti. She tweets as @grok_ about eating cheerios for dinner.

More profile about the speaker
Kate Darling | Speaker | TED.com
TED Salon Samsung

Kate Darling: Why we have an emotional connection to robots

Kate Darling: Miért vannak érzelmeink a robotok iránt?

Filmed:
2,403,010 views

Messze vagyunk még attól, hogy olyan robotokat fejlesszünk ki, amelyek érzéseket élnek át, de nekünk már vannak érzelmeink irántuk, és ennek következményei lehetnek – mondja Kate Darling, a robotetika szakértője. Előadásából megtudhatjuk, hogy természetes tulajdonságunk, hogy szándékot és lelket tulajdonítunk egyes gépeknek – és azt is, hogyan segíthet ez minket abban, hogy jobban megértsük saját magunkat.
- Robot ethicist
Kate Darling investigates the relationship between humans and robots -- now, and in the future. Full bio

Double-click the English transcript below to play the video.

00:13
There was a day, about 10 yearsévek agoezelőtt,
0
1047
2508
Valamikor 10 évvel ezelőtt
megkértem egy barátomat,
hogy tartson fejjel lefelé egy robotdinót.
00:15
when I askedkérdezte a friendbarát to holdtart
a babybaba dinosaurdinoszaurusz robotrobot upsidefejjel down.
1
3579
3944
00:21
It was this toyjáték calledhívott a PleoSzószaporítás
that I had orderedmegrendelt,
2
9889
3446
A Pleo nevű játékról van szó,
amit megrendeltem,
és nagyon izgatottan vártam,
mert mindig szerettem a robotokat,
00:25
and I was really excitedizgatott about it
because I've always lovedszeretett robotsrobotok.
3
13359
4401
és ez a játék elképesztő
technikai jellemzőket vonultat fel.
00:29
And this one has really coolmenő
technicalműszaki featuresjellemzők.
4
17784
2279
00:32
It had motorsmotorok and touchérintés sensorsérzékelők
5
20087
2119
Motorjai, érzékelői
00:34
and it had an infraredinfravörös camerakamera.
6
22230
2244
és infrakamerája volt.
00:36
And one of the things it had
was a tiltbillenés sensorérzékelő,
7
24498
2763
Többek között dőlésérzékelője is volt,
00:39
so it knewtudta what directionirány it was facingnéző.
8
27285
2318
így tudta, merre néz.
00:42
And when you heldtartotta it upsidefejjel down,
9
30095
2134
Amikor fejjel lefelé tartották,
00:44
it would startRajt to crykiáltás.
10
32253
1572
elkezdett sírni.
00:46
And I thought this was superszuper coolmenő,
so I was showingkiállítás it off to my friendbarát,
11
34527
3496
Odáig voltam tőle,
és megmutattam egyik barátomnak.
00:50
and I said, "Oh, holdtart it up by the tailfarok.
See what it does."
12
38047
2805
Mondtam neki: „Tartsd a farkánál fogva,
és nézd, mit csinál!”
00:55
So we're watchingnézni
the theatricsszínházi of this robotrobot
13
43268
3625
Néztük a kis robot alakítását,
00:58
struggleküzdelem and crykiáltás out.
14
46917
2199
kapálózott, jajgatott.
01:02
And after a fewkevés secondsmásodperc,
15
50767
2047
Néhány másodperc után
01:04
it startskezdődik to botherkellemetlenség me a little,
16
52838
1972
már zavart egy kicsit,
01:07
and I said, "OK, that's enoughelég now.
17
55744
3424
és azt mondtam:
„Jól van, most már elég lesz.
01:11
Let's put him back down."
18
59930
2305
Tegyük le.”
01:14
And then I petházi kedvenc the robotrobot
to make it stop cryingsírás.
19
62259
2555
És megsimogattam, hogy ne sírjon.
01:18
And that was kindkedves of
a weirdfurcsa experiencetapasztalat for me.
20
66973
2452
Furcsa élmény volt ez számomra.
01:22
For one thing, I wasn'tnem volt the mosta legtöbb
maternalanyai personszemély at the time.
21
70084
4569
Egyrészt mert nem voltam
az az anyatípus akkoriban.
01:26
AlthoughBár sincemivel then I've becomeválik
a motheranya, ninekilenc monthshónap agoezelőtt,
22
74677
2731
Bár azóta anya lettem
kilenc hónappal ezelőtt,
01:29
and I've learnedtanult that babiesbabák alsois squirmfészkelődik
when you holdtart them upsidefejjel down.
23
77432
3433
és tudom, hogy a babák is vergődnek,
ha fejjel lefelé tartjuk őket.
(Nevetés)
01:32
(LaughterNevetés)
24
80889
1563
Másrészt azért volt érdekes ez a reakcióm,
01:35
But my responseválasz to this robotrobot
was alsois interestingérdekes
25
83023
2358
01:37
because I knewtudta exactlypontosan
how this machinegép workeddolgozott,
26
85405
4101
mert pontosan tudtam,
hogyan működik a robot,
01:41
and yetmég I still feltfilc
compelledkénytelen to be kindkedves to it.
27
89530
3262
mégis késztetést éreztem,
hogy kedves legyek hozzá.
01:46
And that observationmegfigyelés sparkedváltott a curiositykíváncsiság
28
94450
2707
Ez a tapasztalat felkeltette
bennem a kíváncsiságot,
01:49
that I've spentköltött the pastmúlt decadeévtized pursuingfolytat.
29
97181
2832
és ez az érdeklődés motivált
az elmúlt évtizedben.
01:52
Why did I comfortkényelem this robotrobot?
30
100911
1793
Miért vigasztaltam meg ezt a robotot?
01:56
And one of the things I discoveredfelfedezett
was that my treatmentkezelés of this machinegép
31
104228
3579
Az egyik, amit felfedeztem,
hogy többről van szó,
01:59
was more than just an awkwardkínos momentpillanat
in my livingélő roomszoba,
32
107831
3701
minthogy e gép iránti empátiám miatt
volt egy kínos pillanatom a nappaliban.
02:03
that in a worldvilág where we're increasinglyegyre inkább
integratingintegráló robotsrobotok into our liveséletét,
33
111556
5420
Egy olyan világban, ahol a robotok
egyre jobban beépülnek az életünkbe,
02:09
an instinctösztön like that
mightesetleg actuallytulajdonképpen have consequenceskövetkezményei,
34
117000
3126
egy ilyen ösztönös reakciónak
következményei lehetnek,
02:13
because the first thing that I discoveredfelfedezett
is that it's not just me.
35
121452
3749
ugyanis az első, amit felfedeztem,
hogy nem csak velem történt ilyen.
02:19
In 2007, the WashingtonWashington PostPost
reportedjelentett that the UnitedEgyesült StatesÁllamok militarykatonai
36
127249
4802
2007-ben a Washington Post írt arról,
hogy az Egyesült Államok hadserege
02:24
was testingtesztelés this robotrobot
that defusedhatástalanították landföld minesbányák.
37
132075
3230
olyan robotot tesztel,
amely aknamezőket hatástalanít.
02:27
And the way it workeddolgozott
was it was shapedalakú like a stickrúd insectrovar
38
135329
2912
A módszer az volt, hogy a botsáskához
hasonlóan nézett ki,
02:30
and it would walkséta
around a minefieldaknamező on its legslábak,
39
138265
2651
és lábait emelgetve járkált a mezőn.
02:32
and everyminden time it steppedlépcsős on a mineenyém,
one of the legslábak would blowfúj up,
40
140940
3206
Amikor csak aknára lépett,
az egyik lába felrobbant,
majd folytatta útját a többi lábával,
hogy még több aknát robbantson fel.
02:36
and it would continueFolytatni on the other legslábak
to blowfúj up more minesbányák.
41
144170
3057
02:39
And the colonelezredes who was in chargedíj
of this testingtesztelés exercisegyakorlat
42
147251
3786
A tesztgyakorlatért felelős ezredes
02:43
endsvéget ér up callinghívás it off,
43
151061
2118
végül leállította az akciót,
02:45
because, he saysmondja, it's too inhumaneembertelen
44
153203
2435
mondván, lelki szenvedés nézni,
02:47
to watch this damagedsérült robotrobot
dragellenállás itselfmaga alongmentén the minefieldaknamező.
45
155662
4516
ahogy a sérült robot
vonszolja magát az aknamezőn.
02:54
Now, what would causeok
a hardenededzett militarykatonai officertiszt
46
162978
3897
Mi késztet egy edzett katonatisztet,
02:58
and someonevalaki like myselfmagamat
47
166899
2043
vagy engem és bárkit,
03:00
to have this responseválasz to robotsrobotok?
48
168966
1857
hogy így reagáljon robotokra?
03:03
Well, of coursetanfolyam, we're primedalapozott
by sciencetudomány fictionkitalálás and poppop culturekultúra
49
171537
3310
Bizonyára a sci-fi
és a popkultúra hatása is,
03:06
to really want to personifymegtestesít these things,
50
174871
2579
hogy megszemélyesítünk dolgokat,
03:09
but it goesmegy a little bitbit deepermélyebb than that.
51
177474
2789
de az okok kicsit mélyebben gyökereznek.
03:12
It turnsmenetek out that we're biologicallybiológiailag
hardwiredvezetékes to projectprogram intentelszánt and life
52
180287
5309
Úgy tűnik, természetes tulajdonságunk,
hogy szándékot és lelket tulajdonítunk
03:17
onto-ra any movementmozgalom in our physicalfizikai spacehely
that seemsÚgy tűnik, autonomousautonóm to us.
53
185620
4766
mindennek, ami fizikai környezetünkben
autonómnak tűnő mozgást végez.
03:23
So people will treatcsemege all sortsfajta
of robotsrobotok like they're aliveélő.
54
191214
3465
Így minden robotot úgy kezelünk,
mintha élőlény lenne.
03:26
These bomb-disposalbomba ártalmatlanítása unitsegységek get namesnevek.
55
194703
2683
A bombahatástalanító egységek
nevet kapnak.
03:29
They get medalsérmek of honorbecsület.
56
197410
1682
Érdemérmeket kapnak.
03:31
They'veŐk már had funeralstemetkezés for them
with gunpisztoly salutestiszteleg.
57
199116
2325
Temetésük volt díszlövéssel.
03:34
And researchkutatás showsműsorok that we do this
even with very simpleegyszerű householdháztartás robotsrobotok,
58
202380
3833
Kutatások szerint ugyanígy vagyunk
egyszerű háztartási robotokkal is,
03:38
like the RoombaRoomba vacuumvákuum cleanertisztító.
59
206237
2135
mint például a Roomba porszívóval.
03:40
(LaughterNevetés)
60
208396
1291
(Nevetés)
03:41
It's just a disclemez that roamsszáguld
around your floorpadló to cleantiszta it,
61
209711
3089
Csak egy korong, ami körbejár,
hogy feltakarítsa a padlót,
03:44
but just the facttény it's movingmozgó
around on its ownsaját
62
212824
2306
mégis a puszta tény, hogy magától mozog,
03:47
will causeok people to namenév the RoombaRoomba
63
215154
2167
arra késztet embereket, hogy elnevezzék,
03:49
and feel badrossz for the RoombaRoomba
when it getsjelentkeznek stuckmegragadt underalatt the couchkanapé.
64
217345
3182
és sajnálják, amikor beszorul
a kanapé alá.
03:52
(LaughterNevetés)
65
220551
1865
(Nevetés)
Tervezhetünk robotokat úgy,
hogy kiváltsák ezt a reakciót
03:54
And we can designtervezés robotsrobotok
specificallykifejezetten to evokemegidéz this responseválasz,
66
222440
3340
03:57
usinghasználva eyesszemek and facesarcok or movementsmozgások
67
225804
3461
olyan szemek, arcok,
mozgások segítségével,
04:01
that people automaticallyautomatikusan,
subconsciouslytudat alatt associatetársult
68
229289
3259
amelyeket tudat alatt
automatikusan összekapcsolunk
04:04
with statesÁllamok of mindelme.
69
232572
2020
valamilyen lelkiállapottal.
04:06
And there's an entireteljes bodytest of researchkutatás
calledhívott human-robotember-robot interactioninterakció
70
234616
3293
Külön kutatási terület jött létre:
az ember-robot kapcsolat,
ami mutatja, hogy nem marad el a hatás.
04:09
that really showsműsorok how well this worksművek.
71
237933
1826
04:11
So for examplepélda, researcherskutatók
at StanfordStanford UniversityEgyetem foundtalál out
72
239783
3126
A Stanford Egyetem kutatói
például azt tapasztalták,
04:14
that it makesgyártmányú people really uncomfortablekényelmetlen
73
242933
2001
hogy az emberek zavarba jönnek,
04:16
when you askkérdez them to touchérintés
a robot'srobot privatemagán partsalkatrészek.
74
244958
2472
ha azt kérik tőlük, hogy érintsék meg
robot intim területeit.
04:19
(LaughterNevetés)
75
247454
2120
(Nevetés)
04:21
So from this, but from manysok other studiestanulmányok,
76
249598
2023
Ebből és más kutatásokból is tudjuk,
04:23
we know, we know that people
respondreagál to the cuesMegadja a végszót givenadott to them
77
251645
4223
hogy az emberek reagálnak
az ilyen életszerű robotok utasításaira,
04:27
by these lifelikeéletszerű machinesgépek,
78
255892
2022
04:29
even if they know that they're not realigazi.
79
257938
2017
akkor is, ha tudják,
hogy nem valódi lények.
04:33
Now, we're headedfejes towardsfelé a worldvilág
where robotsrobotok are everywheremindenhol.
80
261654
4056
Olyan világ felé haladunk,
ahol a robotok mindenütt jelen lesznek.
04:37
RoboticRobot technologytechnológia is movingmozgó out
from behindmögött factorygyár wallsfalak.
81
265734
3065
A robottechnológia kilép
a gyárak falai mögül,
04:40
It's enteringbelépés workplacesmunkahelyek, householdsháztartások.
82
268823
3013
és belép a munkahelyekre, háztartásokba.
04:43
And as these machinesgépek that can senseérzék
and make autonomousautonóm decisionsdöntések and learntanul
83
271860
6209
Ahogyan ezek a döntéseket megértő és
autonóm döntéseket hozó,
tanulásra képes gépek
belépnek élettereinkbe,
04:50
enterbelép into these sharedmegosztott spacesterek,
84
278093
2552
04:52
I think that maybe the bestlegjobb
analogyanalógia we have for this
85
280669
2496
úgy gondolom,
ez a jelenség nagyon hasonlít
az állatokkal való kapcsolatunkhoz.
04:55
is our relationshipkapcsolat with animalsállatok.
86
283189
1935
04:57
ThousandsTöbb ezer of yearsévek agoezelőtt,
we startedindult to domesticatemegszelídít animalsállatok,
87
285523
3888
Több ezer évvel ezelőtt
elkezdtük háziasítani az állatokat,
05:01
and we trainedkiképzett them for work
and weaponryfegyverzet and companionshiptársasága.
88
289435
4045
és munkára, harcászatra,
társas kapcsolatra tanítottuk őket.
05:05
And throughoutegész historytörténelem, we'vevoltunk treatedkezelt
some animalsállatok like toolsszerszámok or like productsTermékek,
89
293504
4985
Az idők folyamán egyes állatokkal
eszközként vagy termékként bántunk,
05:10
and other animalsállatok,
we'vevoltunk treatedkezelt with kindnesskedvesség
90
298513
2174
más állatokkal barátságosak voltunk.
05:12
and we'vevoltunk givenadott a placehely in societytársadalom
as our companionstársak.
91
300711
3078
Helyet adtunk nekik a társadalomban,
társaink lettek.
05:15
I think it's plausiblehihető we mightesetleg startRajt
to integrateegyesít robotsrobotok in similarhasonló waysmódokon.
92
303813
3849
Lehetségesnek tartom, hogy a robotokat
hasonló módon elkezdjük integrálni.
05:21
And sure, animalsállatok are aliveélő.
93
309484
3096
Persze tény: az állatok élnek,
05:24
RobotsRobotok are not.
94
312604
1150
a robotok pedig nem.
05:27
And I can tell you,
from workingdolgozó with roboticistsroboticists,
95
315626
2580
És mondhatom, miután dolgoztam
robotszakértőkkel,
05:30
that we're prettyszép farmessze away from developingfejlesztés
robotsrobotok that can feel anything.
96
318230
3522
hogy messze vagyunk olyan robotok
fejlesztésétől, amelyek bármit is éreznek.
05:35
But we feel for them,
97
323072
1460
De mi érzünk irántuk,
05:37
and that mattersügyek,
98
325835
1207
és ez lényeges,
05:39
because if we're tryingmegpróbálja to integrateegyesít
robotsrobotok into these sharedmegosztott spacesterek,
99
327066
3627
mert ha integrálni akarjuk a robotokat
különböző élettereinkbe,
05:42
we need to understandmegért that people will
treatcsemege them differentlyeltérően than other deviceskészülékek,
100
330717
4628
meg kell értenünk, hogy az emberek nem úgy
fogják kezelni őket, mint más eszközöket,
05:47
and that in some casesesetek,
101
335369
1844
és hogy bizonyos esetekben,
05:49
for examplepélda, the caseügy of a soldierkatona
who becomesválik emotionallyérzelmileg attachedcsatolt
102
337237
3172
például amikor egy katona
elkezd érzelmileg kötődni a robothoz,
05:52
to the robotrobot that they work with,
103
340433
2047
akivel dolgozik,
05:54
that can be anything
from inefficienthatástalan to dangerousveszélyes.
104
342504
2504
ez a kudarctól a veszélyig
sokféle bajt okozhat.
Ugyanakkor más esetekben
éppenséggel hasznos lehet,
05:58
But in other casesesetek,
it can actuallytulajdonképpen be usefulhasznos
105
346551
2138
06:00
to fosterelősegítése this emotionalérzelmi
connectionkapcsolat to robotsrobotok.
106
348713
2623
ha kialakul ez az érzelmi
kapcsolat robotok iránt.
06:04
We're alreadymár seeinglátás some great use casesesetek,
107
352184
2134
Nagyszerű alkalmazási példákat láthatunk:
06:06
for examplepélda, robotsrobotok workingdolgozó
with autisticautisztikus childrengyermekek
108
354342
2604
robotok részt vesznek
autista gyerekek terápiájában
06:08
to engagerészt them in waysmódokon
that we haven'tnincs seenlátott previouslykorábban,
109
356970
3634
eddig nem látott módszerekkel,
vagy tanárok robotok segítségével jobban
be tudják vonni a gyerekeket a tanulásba.
06:12
or robotsrobotok workingdolgozó with teacherstanárok to engagerészt
kidsgyerekek in learningtanulás with newúj resultstalálatok.
110
360628
4000
06:17
And it's not just for kidsgyerekek.
111
365433
1381
De nemcsak gyerekekről van szó.
A kezdetei kutatások alapján a robotok
orvosoknak és betegeknek is segíthetnek
06:19
EarlyKorai studiestanulmányok showelőadás that robotsrobotok
can help doctorsorvosok and patientsbetegek
112
367750
3223
06:22
in healthEgészség caregondoskodás settingsbeállítások.
113
370997
1427
az egészségügyi ellátásban.
06:25
This is the PAROPARO babybaba sealfóka robotrobot.
114
373535
1810
Ez itt PARO, a bébifóka-robot.
06:27
It's used in nursingápolási homesotthonok
and with dementiademencia patientsbetegek.
115
375369
3285
Idősek otthonában segít demens betegeknek.
06:30
It's been around for a while.
116
378678
1570
Egy ideje már szolgálatban áll.
06:32
And I rememberemlékezik, yearsévek agoezelőtt,
beinglény at a partyparty
117
380272
3325
Emlékszem, évekkel ezelőtt egy partin
06:35
and tellingsokatmondó someonevalaki about this robotrobot,
118
383621
2571
említést tettem valakinek
erről a robotról,
06:38
and her responseválasz was,
119
386216
2126
és így reagált:
06:40
"Oh my goshmindenit.
120
388366
1262
„Úristen!
06:42
That's horribleszörnyű.
121
390508
1188
Ez borzalmas.
06:45
I can't believe we're givingígy people
robotsrobotok insteadhelyette of humanemberi caregondoskodás."
122
393056
3397
Nem hiszem el, hogy robotokat adunk
betegeknek emberi gondoskodás helyett.”
06:50
And this is a really commonközös responseválasz,
123
398540
1875
Nagyon gyakori ez a reakció,
06:52
and I think it's absolutelyteljesen correcthelyes,
124
400439
2499
és azt gondolom, teljesen helyénvaló,
06:54
because that would be terribleszörnyű.
125
402962
2040
mert szörnyű lenne, ha ez lenne a helyzet.
06:57
But in this caseügy,
it's not what this robotrobot replaceshelyettesíti.
126
405795
2484
De ez esetben nem emberi gondoskodást
helyettesít a robot.
07:00
What this robotrobot replaceshelyettesíti is animalállat therapyterápia
127
408858
3120
Állatterápiát helyettesít
07:04
in contextsösszefüggések where
we can't use realigazi animalsállatok
128
412002
3198
olyan területeken, ahol nem tudunk
igazi állatokat alkalmazni,
07:07
but we can use robotsrobotok,
129
415224
1168
de robotokat igen,
07:08
because people will consistentlykövetkezetesen treatcsemege
them more like an animalállat than a deviceeszköz.
130
416416
5230
mert a betegek szívesen tekintik őket
inkább állatnak, mint eszköznek.
07:15
AcknowledgingElismerve this emotionalérzelmi
connectionkapcsolat to robotsrobotok
131
423502
2380
A robotokkal való érzelmi
kapcsolat elfogadása
07:17
can alsois help us anticipateszámít challengeskihívások
132
425906
1969
segíti a felkészülésünket arra,
07:19
as these deviceskészülékek movemozog into more intimateintim
areasnak of people'semberek liveséletét.
133
427899
3451
hogy ezek az eszközök az emberek életének
egyre intimebb területeire lépnek be.
07:24
For examplepélda, is it OK
if your child'sgyermek teddyMaci bearmedve robotrobot
134
432111
3404
Például rendben van-e,
ha a gyerek robotmacija
07:27
recordsfeljegyzések privatemagán conversationsbeszélgetések?
135
435539
2237
magánbeszélgetéseket vesz fel?
07:29
Is it OK if your sexszex robotrobot
has compellingkényszerítő in-appin-app purchasesvásárlások?
136
437800
4063
Rendben van-e, ha a szexrobot
alkalmazáson belüli vásárlásokra buzdít?
07:33
(LaughterNevetés)
137
441887
1396
(Nevetés)
07:35
Because robotsrobotok plusplusz capitalismkapitalizmus
138
443307
2501
Mert robotok plusz kapitalizmus
07:37
equalsegyenlő questionskérdések around
consumerfogyasztó protectionvédelem and privacyAdatvédelem.
139
445832
3705
egyenlő a fogyasztóvédelmi
és adatvédelmi szempontokkal.
07:42
And those aren'tnem the only reasonsokok
140
450549
1612
De más okok is magyarázzák,
07:44
that our behaviorviselkedés around
these machinesgépek could matterügy.
141
452185
2570
miért lehet jelentősége
a gépek iránti viselkedésünknek.
07:48
A fewkevés yearsévek after that first
initiala kezdeti experiencetapasztalat I had
142
456747
3270
Néhány évvel a kis robotdinóval
07:52
with this babybaba dinosaurdinoszaurusz robotrobot,
143
460041
2311
való első tapasztalatom után
07:54
I did a workshopMűhely
with my friendbarát HannesHannes GassertGassert.
144
462376
2501
szerveztem egy kísérletet
Hannes Gassert barátommal.
07:56
And we tookvett fiveöt
of these babybaba dinosaurdinoszaurusz robotsrobotok
145
464901
2897
Fogtunk öt ilyen robotdinót,
07:59
and we gaveadott them to fiveöt teamscsapat of people.
146
467822
2453
és odaadtuk őket öt csoportnak.
A feladat az volt, hogy nevezzék el őket,
08:02
And we had them namenév them
147
470299
1697
08:04
and playjáték with them and interactegymásra hat with them
for about an houróra.
148
472020
3809
játsszanak és kommunikáljanak
velük egy órán át.
Aztán bemutattunk
egy kalapácsot és egy fejszét,
08:08
And then we unveiledbemutatta
a hammerkalapács and a hatchetszekerce
149
476707
2206
08:10
and we told them to torturekínvallatás
and killmegöl the robotsrobotok.
150
478937
2278
és kértük, hogy kínozzák,
majd öljék meg a robotot.
08:13
(LaughterNevetés)
151
481239
3007
(Nevetés)
08:16
And this turnedfordult out to be
a little more dramaticdrámai
152
484857
2294
Kicsit drámaibb lett a helyzet,

08:19
than we expectedvárt it to be,
153
487175
1278
mint gondoltuk,
08:20
because noneegyik sem of the participantsrésztvevők
would even so much as strikesztrájk
154
488477
3072
mert senki nem akarta még csak megütni sem
08:23
these babybaba dinosaurdinoszaurusz robotsrobotok,
155
491573
1307
ezeket a kis robotdinókat.
08:24
so we had to improviserögtönöz a little,
and at some pointpont, we said,
156
492904
5150
Úgyhogy improvizálnunk kellett egy kicsit,
és egy ponton azt mondtuk:
„Oké, megmenthetitek a saját csoportotok
robotját, ha egy másikét tönkreteszitek.”
08:30
"OK, you can savementés your team'scsapat robotrobot
if you destroyelpusztítani anotheregy másik team'scsapat robotrobot."
157
498078
4437
08:34
(LaughterNevetés)
158
502539
1855
(Nevetés)
08:36
And even that didn't work.
They couldn'tnem tudott do it.
159
504839
2195
Még ez sem működött.
Nem tudták megtenni.
08:39
So finallyvégül, we said,
160
507058
1151
Végül azt mondtuk:
08:40
"We're going to destroyelpusztítani all of the robotsrobotok
161
508233
2032
„Tönkrevágjuk az összes robotot,
08:42
unlesshacsak someonevalaki takes
a hatchetszekerce to one of them."
162
510289
2285
ha valaki nem fog fejszét valamelyikre.”
08:45
And this guy stoodállt up,
and he tookvett the hatchetszekerce,
163
513586
3579
Akkor egy srác felállt, fogta a fejszét,
08:49
and the wholeegész roomszoba wincedösszerezzent
as he broughthozott the hatchetszekerce down
164
517189
2706
és az egész terem feljajdult,
amikor a fejszével
08:51
on the robot'srobot necknyak,
165
519919
1780
lesújtott a robot nyakára.
08:53
and there was this half-jokingfélig viccel,
half-seriousfél-súlyos momentpillanat of silencecsend in the roomszoba
166
521723
6338
Félig vicces, félig komoly
csendes megemlékezés következett
09:00
for this fallenelesett robotrobot.
167
528085
1698
az elesett robotért.
09:01
(LaughterNevetés)
168
529807
1406
(Nevetés)
09:03
So that was a really
interestingérdekes experiencetapasztalat.
169
531237
3694
Szóval rendkívül érdekes tapasztalat volt.
09:06
Now, it wasn'tnem volt a controlledellenőrzött
studytanulmány, obviouslymagától értetődően,
170
534955
2459
Természetesen, nem kontrollált
kísérlet volt,
09:09
but it did leadvezet to some
latera későbbiekben researchkutatás that I did at MITMIT
171
537438
2850
de elvezetett egy későbbi kutatáshoz,
amit az MIT-n végeztem
09:12
with PalashPalráz NandyÁgnes and CynthiaCynthia BreazealBreazealis,
172
540312
2228
Palash Nandyvel és Cynthia Breazeallel.
09:14
where we had people come into the lablabor
and smashSmash these HEXBUGsHexbugok
173
542564
3627
A tesztalanyoknak a laborban
össze kellett törniük a HEXBUG robotokat,
09:18
that movemozog around in a really
lifelikeéletszerű way, like insectsrovarok.
174
546215
3087
amik élethűen utánozzák
a rovarok mozgását.
09:21
So insteadhelyette of choosingkiválasztása something cutecuki
that people are drawnhúzott to,
175
549326
3134
Tehát nem valami cukiságot választottunk,
ami tetszik az embereknek,
09:24
we choseválasztotta something more basicalapvető,
176
552484
2093
hanem valami egyszerűbbet.
09:26
and what we foundtalál
was that high-empathymagas empátia people
177
554601
3480
Azt tapasztaltuk,
hogy az empatikusabb emberek
09:30
would hesitatetétovázik more to hittalálat the HEXBUGSHEXBUGOK.
178
558105
2143
jobban vonakodnak megütni a robotokat.
Ez csak egy kisebb kísérlet volt,
09:33
Now this is just a little studytanulmány,
179
561575
1564
09:35
but it's partrész of a largernagyobb bodytest of researchkutatás
180
563163
2389
de egy kiterjedtebb kutatás része,
09:37
that is startingkiindulási to indicatejelez
that there maylehet be a connectionkapcsolat
181
565576
2944
amely azt sejteti, hogy összefüggés lehet
09:40
betweenközött people'semberek tendenciestendenciák for empathyátélés
182
568544
2373
az emberek empátiára való hajlama
09:42
and theirazok behaviorviselkedés around robotsrobotok.
183
570941
1976
és a robotokhoz való viszonya között.
De számomra az ember-robot kapcsolat
elkövetkező korszakának nem az a kérdése,
09:45
But my questionkérdés for the comingeljövetel erakorszak
of human-robotember-robot interactioninterakció
184
573721
3627
09:49
is not: "Do we empathizeempatikusak with robotsrobotok?"
185
577372
3055
hogy empatikusak vagyunk-e
a robotok irányában,
hanem hogy megváltoztathatják-e
a robotok az emberek empátiáját.
09:53
It's: "Can robotsrobotok changeváltozás
people'semberek empathyátélés?"
186
581211
2920
09:57
Is there reasonok to, for examplepélda,
187
585489
2287
Van-e alapja például,
09:59
preventmegelőzése your childgyermek
from kickingrúgás a roboticrobot dogkutya,
188
587800
2333
hogy ne engedjük meg gyerekünknek,
hogy belerúgjon egy robotkutyába.
10:03
not just out of respecttisztelet for propertyingatlan,
189
591228
2914
Nemcsak azért, mert óvjuk értékeinket,
10:06
but because the childgyermek mightesetleg be
more likelyvalószínűleg to kickrúgás a realigazi dogkutya?
190
594166
2953
hanem mert lehet, hogy akkor
egy igazi kutyába is bele fog rúgni.
És itt ismét nem csak gyerekekről van szó.
10:10
And again, it's not just kidsgyerekek.
191
598507
1883
10:13
This is the violenterőszakos videovideó- gamesjátékok questionkérdés,
but it's on a completelyteljesen newúj levelszint
192
601564
4056
Az erőszakos videojátékok problémájáról,
csak egy teljesen új szinten,
10:17
because of this visceralzsigeri physicalitytestiség
that we respondreagál more intenselyintenzíven to
193
605644
4760
mert arra, ami fizikai valójában létezik,
erőteljesebben reagálunk,
10:22
than to imagesképek on a screenképernyő.
194
610428
1547
mint arra, ami képernyőn jelenik meg.
10:25
When we behaveviselkedik violentlyhevesen towardsfelé robotsrobotok,
195
613674
2578
Ha erőszakosan viselkedünk robotokkal,
10:28
specificallykifejezetten robotsrobotok
that are designedtervezett to mimicutánzó life,
196
616276
3120
különösen élethű robotokkal,
10:31
is that a healthyegészséges outletkivezetés
for violenterőszakos behaviorviselkedés
197
619420
3892
az vajon erőszakos indulatok
egészséges levezetése
10:35
or is that trainingkiképzés our crueltykegyetlenség musclesizmok?
198
623336
2544
vagy pusztító izmaink fejlesztése?
10:39
We don't know ...
199
627511
1150
Nem tudjuk.
10:42
But the answerválasz to this questionkérdés has
the potentiallehetséges to impacthatás humanemberi behaviorviselkedés,
200
630622
3945
De e kérdésre adott válasz
hatással lehet az emberi magatartásra,
10:46
it has the potentiallehetséges
to impacthatás socialtársadalmi normsnormák,
201
634591
2768
hatással lehet a társadalmi normákra,
10:49
it has the potentiallehetséges to inspireinspirál rulesszabályok
around what we can and can't do
202
637383
3849
és hatással lehet annak szabályozására,
hogy mit tehetünk meg, és mit nem
10:53
with certainbizonyos robotsrobotok,
203
641256
1151
egyes robotokkal,
10:54
similarhasonló to our animalállat crueltykegyetlenség lawstörvények.
204
642431
1848
az állatvédelmi törvényhez hasonlóan.
10:57
Because even if robotsrobotok can't feel,
205
645228
2864
Mert annak ellenére,
hogy a robotok nem éreznek,
11:00
our behaviorviselkedés towardsfelé them
mightesetleg matterügy for us.
206
648116
3080
számunkra van jelentősége
a velük szembeni viselkedésünknek.
11:04
And regardlesstekintet nélkül of whetherakár
we endvég up changingváltozó our rulesszabályok,
207
652889
2855
És függetlenül attól,
hogy végül változtatunk-e szabályainkon,
11:08
robotsrobotok mightesetleg be ableképes to help us
come to a newúj understandingmegértés of ourselvesminket.
208
656926
3556
a robotok segíthetnek,
hogy új képet kapjunk magunkról.
11:14
MostA legtöbb of what I've learnedtanult
over the pastmúlt 10 yearsévek
209
662276
2316
Amit az elmúlt tíz évben megtudtam,
11:16
has not been about technologytechnológia at all.
210
664616
2238
nagyrészt nem a technológiáról szól.
11:18
It's been about humanemberi psychologypszichológia
211
666878
2503
Az emberi lélekről és az empátiáról szól,
11:21
and empathyátélés and how we relateviszonyul to othersmások.
212
669405
2603
valamint arról,
hogyan viszonyulunk másokhoz.
11:25
Because when a childgyermek is kindkedves to a RoombaRoomba,
213
673524
2365
Mert amikor egy gyerek
kedves egy Roombához,
11:29
when a soldierkatona triespróbálkozás to savementés
a robotrobot on the battlefieldBattlefield,
214
677262
4015
amikor egy katona meg akar menteni
egy robotot a harcmezőn,
11:33
or when a groupcsoport of people refusesvisszautasít
to harmsérelem a roboticrobot babybaba dinosaurdinoszaurusz,
215
681301
3638
amikor egy csoport nem hajlandó
kárt tenni egy robotdinóban,
11:38
those robotsrobotok aren'tnem just motorsmotorok
and gearsfogaskerekek and algorithmsalgoritmusok.
216
686248
3191
akkor ezek a robotok nemcsak motorok,
szerkezetek és algoritmusok.
11:42
They're reflectionsgondolatok of our ownsaját humanityemberiség.
217
690501
1905
Saját emberségünk fejeződik ki bennük.
11:45
Thank you.
218
693523
1151
Köszönöm.
(Taps)
11:46
(ApplauseTaps)
219
694698
3397
Translated by Zsuzsanna Lőrincz
Reviewed by Peter Pallós

▲Back to top

ABOUT THE SPEAKER
Kate Darling - Robot ethicist
Kate Darling investigates the relationship between humans and robots -- now, and in the future.

Why you should listen

Robots are taking increasingly bigger roles in life and business -- moving well beyond manufacturing and into transportation, education, medicine, care for the elderly, our offices and our homes. But ethics and law haven't caught up. Kate Darling, a pioneer in these fields, is helping quicken the pace.

A leading expert in robot ethics, Darling is a researcher at the Massachusetts Institute of Technology (MIT) Media Lab where she investigates social robotics and conducts experimental studies on human-robot interaction. Darling explores the emotional connection between people and life-like inventions, seeking to influence technology design and policy direction. Her writing and research anticipate difficult questions that lawmakers, engineers and the wider public must address as human-robot relationships evolve in the coming decades.

While her background is in intellectual property and law and economics, Darling's passion for technology and robots led her to interdisciplinary fields. She's a former Fellow and current Affiliate at the Harvard Berkman Klein Center for Internet & Society and a former fellow at the Yale Information Society Project, and she's an affiliate at the Institute for Ethics and Emerging Technologies. 
Her work has been featured in Vogue, The New Yorker, The Guardian, BBC, NPR, PBS, The Boston Globe, Forbes, CBC, WIRED, Boston Magazine, The Atlantic, Slate, Die Zeit, The Japan Times and more. She is a contributing writer to Robohub and IEEE Spectrum and speaks and holds workshops covering some of the more interesting developments in the world of robotics, and where we might find ourselves in the future.

Darling graduated from law school with honors and holds a doctorate of sciences from the Swiss Federal Institute of Technology (ETH Zurich) and an honorary doctorate of sciences from Middlebury College. In 2017, the American Bar Association honored her legal work with the Mark T. Banner award in Intellectual Property. She is the caretaker for several domestic robots, including her Pleos Yochai, Peter, and Mr. Spaghetti. She tweets as @grok_ about eating cheerios for dinner.

More profile about the speaker
Kate Darling | Speaker | TED.com