ABOUT THE SPEAKER
Kate Darling - Robot ethicist
Kate Darling investigates the relationship between humans and robots -- now, and in the future.

Why you should listen

Robots are taking increasingly bigger roles in life and business -- moving well beyond manufacturing and into transportation, education, medicine, care for the elderly, our offices and our homes. But ethics and law haven't caught up. Kate Darling, a pioneer in these fields, is helping quicken the pace.

A leading expert in robot ethics, Darling is a researcher at the Massachusetts Institute of Technology (MIT) Media Lab where she investigates social robotics and conducts experimental studies on human-robot interaction. Darling explores the emotional connection between people and life-like inventions, seeking to influence technology design and policy direction. Her writing and research anticipate difficult questions that lawmakers, engineers and the wider public must address as human-robot relationships evolve in the coming decades.

While her background is in intellectual property and law and economics, Darling's passion for technology and robots led her to interdisciplinary fields. She's a former Fellow and current Affiliate at the Harvard Berkman Klein Center for Internet & Society and a former fellow at the Yale Information Society Project, and she's an affiliate at the Institute for Ethics and Emerging Technologies. 
Her work has been featured in Vogue, The New Yorker, The Guardian, BBC, NPR, PBS, The Boston Globe, Forbes, CBC, WIRED, Boston Magazine, The Atlantic, Slate, Die Zeit, The Japan Times and more. She is a contributing writer to Robohub and IEEE Spectrum and speaks and holds workshops covering some of the more interesting developments in the world of robotics, and where we might find ourselves in the future.

Darling graduated from law school with honors and holds a doctorate of sciences from the Swiss Federal Institute of Technology (ETH Zurich) and an honorary doctorate of sciences from Middlebury College. In 2017, the American Bar Association honored her legal work with the Mark T. Banner award in Intellectual Property. She is the caretaker for several domestic robots, including her Pleos Yochai, Peter, and Mr. Spaghetti. She tweets as @grok_ about eating cheerios for dinner.

More profile about the speaker
Kate Darling | Speaker | TED.com
TED Salon Samsung

Kate Darling: Why we have an emotional connection to robots

Kate Darling: Dlaczego odczuwamy więź emocjonalną z robotami?

Filmed:
2,403,010 views

Daleko nam do odkrycia robota, który odczuwa emocje, lecz już teraz potrafimy im współczuć, mówi etyk pracujący z robotami Kate Darling, a taki instynkt może prowadzić do różnych konsekwencji. Dowiedz się więcej o tym, jak nasze biologicznie uwarunkowanie powoduje, że widzimy cel i życie w maszynach, oraz jak może nam to pomóc lepiej zrozumieć siebie.
- Robot ethicist
Kate Darling investigates the relationship between humans and robots -- now, and in the future. Full bio

Double-click the English transcript below to play the video.

00:13
There was a day, about 10 yearslat agotemu,
0
1047
2508
Jakieś 10 lat temu
00:15
when I askedspytał a friendprzyjaciel to holdutrzymać
a babydziecko dinosaurdinozaur robotrobot upsidedo góry down.
1
3579
3944
poprosiłam kolegę, by potrzymał
do góry nogami małego dinozaura-zabawkę.
00:21
It was this toyzabawka callednazywa a PleoPleo
that I had orderedzamówione,
2
9889
3446
Zamówiona zabawka nazywała się Pleo,
00:25
and I was really excitedpodekscytowany about it
because I've always lovedkochany robotsroboty.
3
13359
4401
a byłam tym bardzo przejęta,
ponieważ od zawsze kochałam roboty.
00:29
And this one has really coolchłodny
technicaltechniczny featurescechy.
4
17784
2279
Ten model miał świetne funkcje.
00:32
It had motorssilniki and touchdotknąć sensorsczujniki
5
20087
2119
Silniczki i sensory dotykowe,
00:34
and it had an infraredpodczerwony cameraaparat fotograficzny.
6
22230
2244
miał też kamerę na podczerwień.
00:36
And one of the things it had
was a tiltprzechylenie sensorczujnik,
7
24498
2763
Był tam i czujnik pochylenia,
00:39
so it knewwiedziałem what directionkierunek it was facingokładzina.
8
27285
2318
tak że zabawka wiedziała,
gdzie jest zwrócona.
00:42
And when you heldtrzymany it upsidedo góry down,
9
30095
2134
Trzymana do góry nogami
00:44
it would startpoczątek to crypłakać.
10
32253
1572
- zaczynała płakać.
00:46
And I thought this was superWspaniały coolchłodny,
so I was showingseans it off to my friendprzyjaciel,
11
34527
3496
Myślałam, że to niesamowite,
więc chwaliłam się przed znajomymi:
00:50
and I said, "Oh, holdutrzymać it up by the tailogon.
See what it does."
12
38047
2805
"Potrzymaj go za ogon. Zobacz, co robi".
00:55
So we're watchingoglądanie
the theatricssztuki teatralne of this robotrobot
13
43268
3625
Patrzymy na ruchy robota,
00:58
struggleborykać się and crypłakać out.
14
46917
2199
który walczy i płacze.
01:02
And after a fewkilka secondstowary drugiej jakości,
15
50767
2047
Po kilku sekundach
01:04
it startszaczyna się to botherprzeszkadza me a little,
16
52838
1972
zaczęło mi to trochę przeszkadzać.
01:07
and I said, "OK, that's enoughdość now.
17
55744
3424
Powiedziałam: "OK, już wystarczy.
01:11
Let's put him back down."
18
59930
2305
Odstawmy go".
01:14
And then I petzwierzę domowe the robotrobot
to make it stop cryingpłacz.
19
62259
2555
Potem pogłaskałam robota,
żeby przestał płakać.
01:18
And that was kinduprzejmy of
a weirddziwne experiencedoświadczenie for me.
20
66973
2452
To było dość dziwne doświadczenie.
01:22
For one thing, I wasn'tnie było the mostwiększość
maternalze strony matki personosoba at the time.
21
70084
4569
Po pierwsze, miałam wtedy
słaby instynkt macierzyński.
01:26
AlthoughChociaż sinceod then I've becomestają się
a mothermama, ninedziewięć monthsmiesiące agotemu,
22
74677
2731
Teraz jestem już matką od 9 miesięcy
01:29
and I've learnednauczyli that babiesdzieci alsorównież squirmskręcać
when you holdutrzymać them upsidedo góry down.
23
77432
3433
i wiem, że dzieci też płaczą,
jeśli się je trzyma do góry nogami.
01:32
(LaughterŚmiech)
24
80889
1563
(Śmiech)
01:35
But my responseodpowiedź to this robotrobot
was alsorównież interestingciekawy
25
83023
2358
Moja reakcja była o tyle interesująca,
01:37
because I knewwiedziałem exactlydokładnie
how this machinemaszyna workedpracował,
26
85405
4101
że doskonale znałam działanie tej maszyny,
01:41
and yetjeszcze I still feltczułem
compelledzmuszony to be kinduprzejmy to it.
27
89530
3262
a nadal chciałam być dla niej miła.
01:46
And that observationobserwacja sparkedzaiskrzyło a curiosityciekawość
28
94450
2707
Ta obserwacja zaciekawiła mnie tak mocno,
01:49
that I've spentwydany the pastprzeszłość decadedekada pursuingdążenie.
29
97181
2832
że ostatnią dekadę spędziłam,
szukając odpowiedzi.
01:52
Why did I comfortkomfort this robotrobot?
30
100911
1793
dlaczego pocieszałam robota?
01:56
And one of the things I discoveredodkryty
was that my treatmentleczenie of this machinemaszyna
31
104228
3579
Między innymi odkryłam,
że moje zachowanie wobec maszyny
01:59
was more than just an awkwardniewygodne momentza chwilę
in my livingżycie roompokój,
32
107831
3701
było czymś więcej niż niezręczną chwilą.
02:03
that in a worldświat where we're increasinglycoraz bardziej
integratingintegracja robotsroboty into our liveszyje,
33
111556
5420
W świecie, w którym
coraz częściej uczestniczą roboty,
02:09
an instinctinstynkt like that
mightmoc actuallytak właściwie have consequenceskonsekwencje,
34
117000
3126
taki instynkt mógłby mieć
prawdziwe konsekwencje,
02:13
because the first thing that I discoveredodkryty
is that it's not just me.
35
121452
3749
ponieważ od razu odkryłam,
że nie tylko ja go mam.
02:19
In 2007, the WashingtonWaszyngton PostStanowisko
reportedzgłaszane that the UnitedStany Zjednoczone StatesPaństwa militarywojskowy
36
127249
4802
W 2007 roku Washington Post doniósł,
że armia USA testuje robota
do rozbrajania min lądowych.
02:24
was testingtestowanie this robotrobot
that defusedrozbrojono landwylądować mineskopalnie.
37
132075
3230
02:27
And the way it workedpracował
was it was shapedw kształcie like a stickkij insectowad
38
135329
2912
Wyglądał jak patyczak,
02:30
and it would walkspacerować
around a minefieldpole minowe on its legsnogi,
39
138265
2651
chodził na cienkich nogach
po polu minowym,
02:32
and everykażdy time it steppedkrok po kroku on a minekopalnia,
one of the legsnogi would blowcios up,
40
140940
3206
a gdy nadepnął na minę, urywało mu nogę
02:36
and it would continueKontyntynuj on the other legsnogi
to blowcios up more mineskopalnie.
41
144170
3057
i szedł dalej na pozostałych nogach,
by rozbrajać kolejne miny.
02:39
And the colonelpułkownik who was in chargeopłata
of this testingtestowanie exercisećwiczenie
42
147251
3786
Pułkownik, który nadzorował te testy,
02:43
endskończy się up callingpowołanie it off,
43
151061
2118
w końcu je przerwał,
02:45
because, he saysmówi, it's too inhumanenieludzkie
44
153203
2435
bo uznał za zbyt nieludzki widok
02:47
to watch this damageduszkodzony robotrobot
dragopór itselfsamo alongwzdłuż the minefieldpole minowe.
45
155662
4516
uszkodzonego robota
wlokącego się przez pole minowe.
02:54
Now, what would causeprzyczyna
a hardenedutwardzony militarywojskowy officeroficer
46
162978
3897
Co mogłoby wywołać
u zahartowanego oficera
02:58
and someonektoś like myselfsiebie
47
166899
2043
lub u mnie
03:00
to have this responseodpowiedź to robotsroboty?
48
168966
1857
taką reakcję wobec robota?
03:03
Well, of coursekurs, we're primedzagruntowane
by sciencenauka fictionfikcja and popmuzyka pop culturekultura
49
171537
3310
Oczywiście sci-fi
i pop kultura nastawiła nas
03:06
to really want to personifyuosabiać these things,
50
174871
2579
na chęć ich uczłowieczania,
03:09
but it goesidzie a little bitkawałek deepergłębiej than that.
51
177474
2789
ale jest to trochę bardziej skomplikowane.
03:12
It turnsskręca out that we're biologicallybiologicznie
hardwiredprzewodowych to projectprojekt intentzamiar and life
52
180287
5309
Okazuje się, że jesteśmy
biologicznie uwarunkowani,
by widzieć celowość
i życie w każdym ruchu
03:17
ontona any movementruch in our physicalfizyczny spaceprzestrzeń
that seemswydaje się autonomousautonomiczny to us.
53
185620
4766
który w naszej sferze fizycznej
wydaje się niezależny od nas.
03:23
So people will treatleczyć all sortssortuje
of robotsroboty like they're aliveżywy.
54
191214
3465
Ludzie traktują różne roboty
jakby były żywe.
03:26
These bomb-disposalUsuwanie bomb unitsjednostki get namesnazwy.
55
194703
2683
Jednostki rozbrajające bomby
dostają imiona.
03:29
They get medalsmedale of honorhonor.
56
197410
1682
Dostają odznaczenia.
03:31
They'veThey've had funeralspogrzeby for them
with gunpistolet salutesPozdrawia.
57
199116
2325
Robiono dla nich pogrzeby
z salwami honorowymi
03:34
And researchBadania showsprzedstawia that we do this
even with very simpleprosty householdgospodarstwo domowe robotsroboty,
58
202380
3833
Badania pokazują, że robimy to
nawet z prostymi urządzeniami w domu,
03:38
like the RoombaRoomba vacuumodkurzać cleanerodkurzacz.
59
206237
2135
jak odkurzacz Roomba.
03:40
(LaughterŚmiech)
60
208396
1291
(Śmiech)
03:41
It's just a discpłyty that roamsPrzemieszcza się
around your floorpiętro to cleanczysty it,
61
209711
3089
To tylko dysk, który czyści podłogę,
03:44
but just the factfakt it's movingw ruchu
around on its ownwłasny
62
212824
2306
ale sam fakt, że porusza się samodzielnie,
03:47
will causeprzyczyna people to nameNazwa the RoombaRoomba
63
215154
2167
wystarcza, by ludzie nadawali mu imię
03:49
and feel badzły for the RoombaRoomba
when it getsdostaje stuckutknął underpod the couchsofa.
64
217345
3182
i współczuli mu, gdy utknie pod kanapą.
03:52
(LaughterŚmiech)
65
220551
1865
(Śmiech)
03:54
And we can designprojekt robotsroboty
specificallykonkretnie to evokeprzywołać this responseodpowiedź,
66
222440
3340
Można projektować roboty
właśnie tak, żeby wzbudzały te odczucia,
03:57
usingza pomocą eyesoczy and facestwarze or movementsruchy
67
225804
3461
używając oczu, twarzy lub ruchu,
04:01
that people automaticallyautomatycznie,
subconsciouslypodświadomie associateskojarzyć
68
229289
3259
aby ludzie podświadomie kojarzyli go
04:04
with statesstany of mindumysł.
69
232572
2020
z różnymi stanami umysłu.
04:06
And there's an entireCały bodyciało of researchBadania
callednazywa human-robotczłowiek robot interactioninterakcja
70
234616
3293
Istnieje cały zakres badań pod nazwą
interakcja człowiek - robot,
04:09
that really showsprzedstawia how well this worksPrace.
71
237933
1826
który pokazuje, jak dobrze to działa.
04:11
So for exampleprzykład, researchersnaukowcy
at StanfordStanford UniversityUniwersytet founduznany out
72
239783
3126
Na przykład badacze
z Uniwersytetu Stanforda odkryli,
04:14
that it makesczyni people really uncomfortableniewygodny
73
242933
2001
że ludziom robi się nieprzyjemnie,
04:16
when you askzapytać them to touchdotknąć
a robot'srobota privateprywatny partsCzęści.
74
244958
2472
gdy prosi się ich o dotykanie
miejsc intymnych robota.
04:19
(LaughterŚmiech)
75
247454
2120
(Śmiech)
04:21
So from this, but from manywiele other studiesstudia,
76
249598
2023
Z tych oraz innych badań
04:23
we know, we know that people
respondodpowiadać to the cuespodpowiedzi givendany to them
77
251645
4223
wynika, że ludzie reagują
na sygnały niby-żywych maszyn,
04:27
by these lifelikerealistyczne machinesmaszyny,
78
255892
2022
04:29
even if they know that they're not realreal.
79
257938
2017
nawet gdy wiedzą, że nie są one prawdziwe.
04:33
Now, we're headedgłowiasty towardsw kierunku a worldświat
where robotsroboty are everywherewszędzie.
80
261654
4056
Obecnie zmierzamy ku rzeczywistości,
w której roboty są wszędzie.
04:37
RoboticRoboty technologytechnologia is movingw ruchu out
from behindza factoryfabryka wallsściany.
81
265734
3065
Robotyka przenosi się z fabryk
04:40
It's enteringwstępowanie workplacesmiejsca pracy, householdsGospodarstwa domowe.
82
268823
3013
i wprowadza do miejsc pracy, domów.
04:43
And as these machinesmaszyny that can sensesens
and make autonomousautonomiczny decisionsdecyzje and learnuczyć się
83
271860
6209
Maszyny, które umieją czuć,
podejmować niezależne decyzje, uczyć się
04:50
enterwchodzić into these sharedudostępniony spacesspacje,
84
278093
2552
- znajdą się w tej wspólnej przestrzeni.
04:52
I think that maybe the bestNajlepiej
analogyanalogia we have for this
85
280669
2496
Myślę, że najlepsze porównanie
04:55
is our relationshipzwiązek with animalszwierzęta.
86
283189
1935
to nasz stosunek do zwierząt.
04:57
ThousandsTysiące of yearslat agotemu,
we startedRozpoczęty to domesticateoswajać animalszwierzęta,
87
285523
3888
Tysiące lat temu zaczęliśmy
udomawiać zwierzęta,
05:01
and we trainedprzeszkolony them for work
and weaponryUzbrojenie and companionshipTowarzystwo.
88
289435
4045
trenować je na współpracowników,
obrońców i towarzyszy.
05:05
And throughoutpoprzez historyhistoria, we'vemamy treatedleczony
some animalszwierzęta like toolsprzybory or like productsprodukty,
89
293504
4985
Na przestrzeni dziejów jedne zwierzęta
traktowaliśmy jak narzędzia lub produkty,
05:10
and other animalszwierzęta,
we'vemamy treatedleczony with kindnessdobroć
90
298513
2174
a inne darzyliśmy życzliwością
05:12
and we'vemamy givendany a placemiejsce in societyspołeczeństwo
as our companionstowarzysze.
91
300711
3078
i społeczną rangą towarzyszy.
05:15
I think it's plausiblewiarygodne we mightmoc startpoczątek
to integratezintegrować robotsroboty in similarpodobny wayssposoby.
92
303813
3849
Możliwe, że podobnie postąpimy z robotami.
05:21
And sure, animalszwierzęta are aliveżywy.
93
309484
3096
Wiadomo, zwierzęta są żywe.
05:24
RobotsRoboty are not.
94
312604
1150
Roboty nie.
05:27
And I can tell you,
from workingpracujący with roboticistsroboticists,
95
315626
2580
Dzięki pracy z robotykami
mogę was zapewnić,
05:30
that we're prettyładny fardaleko away from developingrozwijanie
robotsroboty that can feel anything.
96
318230
3522
że daleko nam od wynalezienia
robotów, które by coś czuły.
05:35
But we feel for them,
97
323072
1460
Za to my im współczujemy.
05:37
and that matterssprawy,
98
325835
1207
To ważne,
05:39
because if we're tryingpróbować to integratezintegrować
robotsroboty into these sharedudostępniony spacesspacje,
99
327066
3627
bo jeśli chcemy zintegrować roboty
z naszą wspólną przestrzenią,
05:42
we need to understandzrozumieć that people will
treatleczyć them differentlyróżnie than other devicespomysłowość,
100
330717
4628
musimy zrozumieć, że ludzie będą
traktować je inaczej niż inne urządzenia,
05:47
and that in some casesprzypadki,
101
335369
1844
Niektóre przypadki;
05:49
for exampleprzykład, the casewalizka of a soldierżołnierz
who becomesstaje się emotionallyemocjonalnie attachedprzywiązany
102
337237
3172
jak żołnierz podchodzący emocjonalnie
05:52
to the robotrobot that they work with,
103
340433
2047
do robota, z którym pracuje,
05:54
that can be anything
from inefficientnieskuteczny to dangerousniebezpieczny.
104
342504
2504
mogą stwarzać sytuacje
tak niewydajne, jak i groźne.
05:58
But in other casesprzypadki,
it can actuallytak właściwie be usefulprzydatny
105
346551
2138
Jednak w innym kontekście może pomóc nam
06:00
to fosterwspieranie this emotionalemocjonalny
connectionpołączenie to robotsroboty.
106
348713
2623
wspieranie tej więzi emocjonalnej.
06:04
We're alreadyjuż seeingwidzenie some great use casesprzypadki,
107
352184
2134
Już teraz widzimy wspaniałe przykłady,
06:06
for exampleprzykład, robotsroboty workingpracujący
with autisticautystyczny childrendzieci
108
354342
2604
jak roboty współpracujące
z autystycznymi dziećmi,
06:08
to engageangażować them in wayssposoby
that we haven'tnie mam seenwidziany previouslypoprzednio,
109
356970
3634
by angażować je metodami
niespotykanymi wcześniej,
06:12
or robotsroboty workingpracujący with teachersnauczyciele to engageangażować
kidsdzieciaki in learninguczenie się with newNowy resultswyniki.
110
360628
4000
lub roboty pomagające nauczycielom
we wdrażaniu nowych metod nauki.
06:17
And it's not just for kidsdzieciaki.
111
365433
1381
I to nie tylko z dziećmi.
06:19
EarlyNa początku studiesstudia showpokazać that robotsroboty
can help doctorslekarze and patientspacjenci
112
367750
3223
Wstępne badania dowodzą, że roboty
mogą pomagać lekarzom i pacjentom
06:22
in healthzdrowie careopieka settingsUstawienia.
113
370997
1427
podczas leczenia.
06:25
This is the PAROParo babydziecko sealfoka robotrobot.
114
373535
1810
To jest Paro, mała foczka-robot.
06:27
It's used in nursingPielęgniarstwo homesdomy
and with dementiaotępienie patientspacjenci.
115
375369
3285
Używa się jej w domach opieki
i z pacjentami z demencją.
06:30
It's been around for a while.
116
378678
1570
Używana już od jakiegoś czasu.
06:32
And I rememberZapamiętaj, yearslat agotemu,
beingistota at a partyprzyjęcie
117
380272
3325
Wiele lat temu na imprezie
06:35
and tellingwymowny someonektoś about this robotrobot,
118
383621
2571
opowiadałam komuś o tym robocie.
06:38
and her responseodpowiedź was,
119
386216
2126
Jej odpowiedź brzmiała:
06:40
"Oh my goshBoże.
120
388366
1262
"O Boże.
06:42
That's horribleokropny.
121
390508
1188
To okropne.
06:45
I can't believe we're givingdający people
robotsroboty insteadzamiast of humanczłowiek careopieka."
122
393056
3397
Nie do wiary, że powierzamy kogoś
opiece robotów, a nie ludzi".
06:50
And this is a really commonpospolity responseodpowiedź,
123
398540
1875
Jest to dość typowa reakcja
06:52
and I think it's absolutelyabsolutnie correctpoprawny,
124
400439
2499
i według mnie całkiem właściwa,
06:54
because that would be terriblestraszny.
125
402962
2040
ponieważ to by było okropne.
06:57
But in this casewalizka,
it's not what this robotrobot replaceszastępuje.
126
405795
2484
Lecz w tym przypadku
robot nie zastępuje człowieka.
07:00
What this robotrobot replaceszastępuje is animalzwierzę therapyterapia
127
408858
3120
Zastępuje terapię z udziałem zwierząt,
07:04
in contextsKonteksty where
we can't use realreal animalszwierzęta
128
412002
3198
w sytuacji, gdy nie można
użyć prawdziwych zwierząt,
07:07
but we can use robotsroboty,
129
415224
1168
ale można użyć robotów,
07:08
because people will consistentlykonsekwentnie treatleczyć
them more like an animalzwierzę than a deviceurządzenie.
130
416416
5230
bo ludzie będą je konsekwentnie traktować
bardziej jak zwierzęta niż jak maszyny.
07:15
AcknowledgingUznając this emotionalemocjonalny
connectionpołączenie to robotsroboty
131
423502
2380
Uświadomienie sobie więzi z robotami
07:17
can alsorównież help us anticipateprzewidywać challengeswyzwania
132
425906
1969
może pomóc nam przewidzieć wyzwania
07:19
as these devicespomysłowość moveruszaj się into more intimateintymne
areasobszary of people'sludzie liveszyje.
133
427899
3451
podczas wkraczania robotów
w coraz intymniejsze obszary naszego życia
07:24
For exampleprzykład, is it OK
if your child'sdziecka teddyTeddy bearNiedźwiedź robotrobot
134
432111
3404
Czy to dobrze, że miś twojego dziecka
07:27
recordsdokumentacja privateprywatny conversationsrozmowy?
135
435539
2237
ma opcje nagrywania prywatnych rozmów?
07:29
Is it OK if your sexseks robotrobot
has compellingprzekonujące in-appw aplikacji purchaseszakupy?
136
437800
4063
Lub że przez aplikację sex-robota
można kupić ciekawe produkty?
07:33
(LaughterŚmiech)
137
441887
1396
(Śmiech)
07:35
Because robotsroboty plusplus capitalismkapitalizm
138
443307
2501
Bo roboty plus kapitalizm
07:37
equalsrówna się questionspytania around
consumerkonsument protectionochrona and privacyPrywatność.
139
445832
3705
równa się kwestia prywatności
i ochrony konsumenta.
07:42
And those aren'tnie są the only reasonspowody
140
450549
1612
Nie są to jedyne powody,
07:44
that our behaviorzachowanie around
these machinesmaszyny could mattermateria.
141
452185
2570
dla których nasze zachowanie
wobec nich ma znaczenie.
07:48
A fewkilka yearslat after that first
initialInicjał experiencedoświadczenie I had
142
456747
3270
Kilka lat po moim pierwszym doświadczeniu
07:52
with this babydziecko dinosaurdinozaur robotrobot,
143
460041
2311
z małym dinozaurem-zabawką,
07:54
I did a workshopwarsztat
with my friendprzyjaciel HannesHannes GassertGassert.
144
462376
2501
prowadziłam warsztaty z moim kolegą,
Hannesem Gassertem.
07:56
And we tookwziął fivepięć
of these babydziecko dinosaurdinozaur robotsroboty
145
464901
2897
Wzieliśmy 5 takich dinozaurów
07:59
and we gavedał them to fivepięć teamszespoły of people.
146
467822
2453
i daliśmy je pięciu grupom ludzi.
08:02
And we had them nameNazwa them
147
470299
1697
Kazaliśmy im je nazwać
08:04
and playgrać with them and interactoddziaływać with them
for about an hourgodzina.
148
472020
3809
i bawić się z nimi przez godzinę.
08:08
And then we unveiledodsłonięty
a hammermłot and a hatchettopór
149
476707
2206
Potem odsłoniliśmy młotek i siekierkę
08:10
and we told them to torturetorturować
and killzabić the robotsroboty.
150
478937
2278
i kazaliśmy im torturować i zabić roboty.
08:13
(LaughterŚmiech)
151
481239
3007
(Śmiech)
08:16
And this turnedobrócony out to be
a little more dramaticdramatyczny
152
484857
2294
Okazało się to
trochę bardziej dramatyczne,
08:19
than we expectedspodziewany it to be,
153
487175
1278
niż oczekiwaliśmy.
08:20
because noneŻaden of the participantsUczestnicy
would even so much as strikestrajk
154
488477
3072
Żaden z uczestników
nie chciał choćby uderzyć
08:23
these babydziecko dinosaurdinozaur robotsroboty,
155
491573
1307
tych małych dinozaurów.
08:24
so we had to improviseimprowizować a little,
and at some pointpunkt, we said,
156
492904
5150
Musieliśmy więc improwizować
i powiedzieliśmy:
"Możecie uratować swojego robota,
jeśli zniszczycie robota innej drużyny".
08:30
"OK, you can savezapisać your team'szespołu robotrobot
if you destroyzniszczyć anotherinne team'szespołu robotrobot."
157
498078
4437
08:34
(LaughterŚmiech)
158
502539
1855
(Śmiech)
08:36
And even that didn't work.
They couldn'tnie mógł do it.
159
504839
2195
Nawet to nie podziałało.
Nie mogli tego zrobić.
08:39
So finallywreszcie, we said,
160
507058
1151
W końcu powiedzieliśmy:
08:40
"We're going to destroyzniszczyć all of the robotsroboty
161
508233
2032
"Zniszczymy wszystkie roboty,
08:42
unlesschyba że someonektoś takes
a hatchettopór to one of them."
162
510289
2285
chyba że ktoś rozwali jednego z nich".
08:45
And this guy stoodstał up,
and he tookwziął the hatchettopór,
163
513586
3579
Jeden facet wstał, wziął siekierkę,
08:49
and the wholecały roompokój wincedskrzywił
as he broughtprzyniósł the hatchettopór down
164
517189
2706
a wszyscy wzdrygnęli się, gdy opuścił ją
08:51
on the robot'srobota neckszyja,
165
519919
1780
na kark robota,
08:53
and there was this half-jokingpół żartem,
half-seriouspółciężka momentza chwilę of silencecisza in the roompokój
166
521723
6338
pół żartem, pół serio nastała chwila ciszy
09:00
for this fallenupadły robotrobot.
167
528085
1698
dla poległego robota.
09:01
(LaughterŚmiech)
168
529807
1406
(Śmiech)
09:03
So that was a really
interestingciekawy experiencedoświadczenie.
169
531237
3694
Naprawdę ciekawe doświadczenie.
09:06
Now, it wasn'tnie było a controlledkontrolowane
studybadanie, obviouslyoczywiście,
170
534955
2459
Choć badania te nie były kontrolowane,
09:09
but it did leadprowadzić to some
laterpóźniej researchBadania that I did at MITMIT
171
537438
2850
doprowadziły do badań, które robiłam w MIT
09:12
with PalashPalash NandyNandy and CynthiaCynthia BreazealCB,
172
540312
2228
z Palashem Nandym i Cynthią Breazeal.
09:14
where we had people come into the lablaboratorium
and smashSmash these HEXBUGsZ HEXBUGs
173
542564
3627
Zapraszaliśmy do laboratorium ludzi,
żeby rozwalili roboty HEXBUG,
09:18
that moveruszaj się around in a really
lifelikerealistyczne way, like insectsowady.
174
546215
3087
które poruszały się jak żywe insekty.
09:21
So insteadzamiast of choosingwybór something cuteładny
that people are drawnpociągnięty to,
175
549326
3134
Zamiast czegoś ślicznego,
co przyciągałoby ludzi,
09:24
we chosewybrał something more basicpodstawowy,
176
552484
2093
wybraliśmy coś prostszego.
09:26
and what we founduznany
was that high-empathyWysoka empatia people
177
554601
3480
Okazało się, że ludzie
o wysokim poziomie empatii
09:30
would hesitatewahać się more to hittrafienie the HEXBUGSHEXBUGS (sześcian).
178
558105
2143
z większym wahaniem podchodzili do bicia.
09:33
Now this is just a little studybadanie,
179
561575
1564
To tylko pomniejsze badania,
09:35
but it's partczęść of a largerwiększy bodyciało of researchBadania
180
563163
2389
ale stanowią część większego korpusu badań
09:37
that is startingstartowy to indicatewskazać
that there maymoże be a connectionpołączenie
181
565576
2944
wskazujących na związek
09:40
betweenpomiędzy people'sludzie tendenciestendencje for empathyempatia
182
568544
2373
między ludzkimi tendencjami do empatii,
09:42
and theirich behaviorzachowanie around robotsroboty.
183
570941
1976
a ich zachowaniem wobec robotów.
09:45
But my questionpytanie for the comingprzyjście eraera
of human-robotczłowiek robot interactioninterakcja
184
573721
3627
Lecz moje pytanie dla nadchodzącej ery
w relacjach między ludźmi i robotami
09:49
is not: "Do we empathizeempatię with robotsroboty?"
185
577372
3055
to nie: "Czy współczujemy robotom?",
09:53
It's: "Can robotsroboty changezmiana
people'sludzie empathyempatia?"
186
581211
2920
ale: "Czy roboty potrafią
wpłynąć na ludzką empatię?".
09:57
Is there reasonpowód to, for exampleprzykład,
187
585489
2287
Czy jest powód, by, na przykład,
09:59
preventzapobiec your childdziecko
from kickingkopanie a roboticzrobotyzowany dogpies,
188
587800
2333
zabronić dziecku kopania psa-robota?
10:03
not just out of respectPoszanowanie for propertynieruchomość,
189
591228
2914
Nie tylko ze względu
na szacunek do rzeczy,
10:06
but because the childdziecko mightmoc be
more likelyprawdopodobne to kickkopnięcie a realreal dogpies?
190
594166
2953
lecz dlatego, że wtedy łatwiej
przyszłoby mu kopnąć żywego psa?
10:10
And again, it's not just kidsdzieciaki.
191
598507
1883
Nie chodzi wyłącznie o dzieci.
10:13
This is the violentgwałtowny videowideo gamesGry questionpytanie,
but it's on a completelycałkowicie newNowy levelpoziom
192
601564
4056
To jak pytanie o brutalność
gier komputerowych, ale na nowym poziomie,
10:17
because of this visceraltrzewnej physicalityfizyczność
that we respondodpowiadać more intenselyintensywnie to
193
605644
4760
ponieważ reakcja jest intensywniejsza,
gdy mamy do czynienia z czymś fizycznym,
10:22
than to imagesobrazy on a screenekran.
194
610428
1547
a nie z obrazem na ekranie.
10:25
When we behavezachować się violentlygwałtownie towardsw kierunku robotsroboty,
195
613674
2578
Jeśli jesteśmy brutalni wobec robotów,
10:28
specificallykonkretnie robotsroboty
that are designedzaprojektowany to mimicimitować life,
196
616276
3120
szczególnie tych imitujących żywe istoty,
10:31
is that a healthyzdrowy outletwylot
for violentgwałtowny behaviorzachowanie
197
619420
3892
czy jest to zdrowy sposób
na pozbycie się gwałtownych emocji,
10:35
or is that trainingtrening our crueltyokrucieństwo musclesmięśnie?
198
623336
2544
czy raczej trenowanie okrucieństwa?
10:39
We don't know ...
199
627511
1150
Nie wiemy...
10:42
But the answerodpowiedź to this questionpytanie has
the potentialpotencjał to impactwpływ humanczłowiek behaviorzachowanie,
200
630622
3945
Jednak odpowiedź na to pytanie
może wpłynąć na ludzkie zachowanie,
10:46
it has the potentialpotencjał
to impactwpływ socialspołeczny normsnormy,
201
634591
2768
może wpłynąć na normy społeczne,
10:49
it has the potentialpotencjał to inspireinspirować ruleszasady
around what we can and can't do
202
637383
3849
może zainicjować prawa dotyczące tego,
co wolno, a czego nie wolno robić
10:53
with certainpewny robotsroboty,
203
641256
1151
z konkretnymi robotami,
10:54
similarpodobny to our animalzwierzę crueltyokrucieństwo lawsprawa.
204
642431
1848
podobnie do praw zwierząt.
10:57
Because even if robotsroboty can't feel,
205
645228
2864
Pomimo że roboty nie mają uczuć,
11:00
our behaviorzachowanie towardsw kierunku them
mightmoc mattermateria for us.
206
648116
3080
nasze zachowanie wobec nich
może mieć dla nas znaczenie.
11:04
And regardlessbez względu of whetherczy
we endkoniec up changingwymiana pieniędzy our ruleszasady,
207
652889
2855
Bez względu na to,
czy zmienimy zasady wobec robotów,
mogą pomóc nam inaczej spojrzeć na siebie.
11:08
robotsroboty mightmoc be ablezdolny to help us
come to a newNowy understandingzrozumienie of ourselvesmy sami.
208
656926
3556
Większość tego, czego nauczyłam się
przez ostatnie 10 lat,
11:14
MostWiększość of what I've learnednauczyli
over the pastprzeszłość 10 yearslat
209
662276
2316
11:16
has not been about technologytechnologia at all.
210
664616
2238
nie dotyczyło technologii.
11:18
It's been about humanczłowiek psychologyPsychologia
211
666878
2503
Dotyczyło ludzkiej psychologii,
11:21
and empathyempatia and how we relateodnosić się to othersinni.
212
669405
2603
empatii i stosunku do innych.
11:25
Because when a childdziecko is kinduprzejmy to a RoombaRoomba,
213
673524
2365
Bo gdy dziecko jest uprzejme dla Roomby,
11:29
when a soldierżołnierz triespróbuje to savezapisać
a robotrobot on the battlefieldpole bitwy,
214
677262
4015
gdy żołnierz próbuje
ocalić robota na polu walki
albo gdy grupa ludzi odmawia
skrzywdzenia małego dinozaura-robota,
11:33
or when a groupGrupa of people refusesodmawia
to harmszkoda a roboticzrobotyzowany babydziecko dinosaurdinozaur,
215
681301
3638
11:38
those robotsroboty aren'tnie są just motorssilniki
and gearskoła zębate and algorithmsalgorytmy.
216
686248
3191
te roboty nie są już tylko silnikami,
trybikami i algorytmami.
Są odbiciem naszego człowieczeństwa.
11:42
They're reflectionsrefleksje of our ownwłasny humanityludzkość.
217
690501
1905
Dziękuję.
11:45
Thank you.
218
693523
1151
11:46
(ApplauseAplauz)
219
694698
3397
(Brawa)
Translated by Sylwia Bohadana
Reviewed by Rysia Wand

▲Back to top

ABOUT THE SPEAKER
Kate Darling - Robot ethicist
Kate Darling investigates the relationship between humans and robots -- now, and in the future.

Why you should listen

Robots are taking increasingly bigger roles in life and business -- moving well beyond manufacturing and into transportation, education, medicine, care for the elderly, our offices and our homes. But ethics and law haven't caught up. Kate Darling, a pioneer in these fields, is helping quicken the pace.

A leading expert in robot ethics, Darling is a researcher at the Massachusetts Institute of Technology (MIT) Media Lab where she investigates social robotics and conducts experimental studies on human-robot interaction. Darling explores the emotional connection between people and life-like inventions, seeking to influence technology design and policy direction. Her writing and research anticipate difficult questions that lawmakers, engineers and the wider public must address as human-robot relationships evolve in the coming decades.

While her background is in intellectual property and law and economics, Darling's passion for technology and robots led her to interdisciplinary fields. She's a former Fellow and current Affiliate at the Harvard Berkman Klein Center for Internet & Society and a former fellow at the Yale Information Society Project, and she's an affiliate at the Institute for Ethics and Emerging Technologies. 
Her work has been featured in Vogue, The New Yorker, The Guardian, BBC, NPR, PBS, The Boston Globe, Forbes, CBC, WIRED, Boston Magazine, The Atlantic, Slate, Die Zeit, The Japan Times and more. She is a contributing writer to Robohub and IEEE Spectrum and speaks and holds workshops covering some of the more interesting developments in the world of robotics, and where we might find ourselves in the future.

Darling graduated from law school with honors and holds a doctorate of sciences from the Swiss Federal Institute of Technology (ETH Zurich) and an honorary doctorate of sciences from Middlebury College. In 2017, the American Bar Association honored her legal work with the Mark T. Banner award in Intellectual Property. She is the caretaker for several domestic robots, including her Pleos Yochai, Peter, and Mr. Spaghetti. She tweets as @grok_ about eating cheerios for dinner.

More profile about the speaker
Kate Darling | Speaker | TED.com