ABOUT THE SPEAKER
Raphael Arar - Designer, researcher
IBM's Raphael Arar creates art and designs experiences that examine the complexities of our increasingly technocentric lives.

Why you should listen

While his artwork raises questions about our relationship with modernity and technology, Raphael Arar’s design work revolves around answering those questions in human-centered ways. 

Currently a designer and researcher at IBM Research, Arar has been exploring ways to translate aspects of emotional intelligence into machine-readable format. Through this, he is passionately tackling ethical platforms of artificial intelligence. Inc. Magazine says he "epitomizes the style and multi-disciplinary skill set of the modern designer," and in 2017, he was listed as one of Forbes's "30 under 30 in Enterprise Technology."

More profile about the speaker
Raphael Arar | Speaker | TED.com
TED@IBM

Raphael Arar: How we can teach computers to make sense of our emotions

라파엘 아라르(Raphael Arar): 어떻게 AI에게 사람의 감정을 가르칠 수 있을까요?

Filmed:
1,255,602 views

사람과 진심으로 교감할 수 있는 AI는 어떻게 만들 수 있을까요? 라파엘 아라르(Raphael Arar)는 예술로부터 그 과정을 시작하자고 제안합니다. 그는 그리움, 직감 및 대화와 같은 복잡한 개념을 AI에게 가르치기 위해 그가 창조했던 쌍뱡향 예술 프로젝트를 공유합니다. 인간만큼이나 인간적인 미래 기술 구현을 향한 그의 노력을 확인해봅시다.
- Designer, researcher
IBM's Raphael Arar creates art and designs experiences that examine the complexities of our increasingly technocentric lives. Full bio

Double-click the English transcript below to play the video.

00:13
I consider중히 여기다 myself자기 one part부품 artist예술가
and one part부품 designer디자이너.
0
1760
4680
저는 저 자신을 예술가이자
디자이너라고 생각합니다.
00:18
And I work at an artificial인공의
intelligence지성 research연구 lab.
1
6480
3160
전 인공지능 연구소에서 일합니다.
00:22
We're trying견딜 수 없는 to create몹시 떠들어 대다 technology과학 기술
2
10720
1696
우리가 개발 중인 기술은
00:24
that you'll want to interact상호 작용하다 with
in the far멀리 future미래.
3
12440
3296
먼 미래에 인간과
상호작용할 수 있는 AI입니다.
00:27
Not just six months개월 from now,
but try years연령 and decades수십 년 from now.
4
15760
4640
현재로부터 6개월이 아닌
수년, 수십 년 후를 준비하고 있습니다.
00:33
And we're taking취득 a moonshot달빛
5
21120
1616
우리의 획기적이고 야심 찬 목표는
00:34
that we'll want to be
interacting상호 작용하는 with computers컴퓨터들
6
22760
2456
깊이 있는 감정교류가 가능한
00:37
in deeply깊이 emotional정서적 인 ways.
7
25240
2120
인공지능 개발에 있습니다.
00:40
So in order주문 to do that,
8
28280
1456
이를 위해서
00:41
the technology과학 기술 has to be
just as much human인간의 as it is artificial인공의.
9
29760
4480
인공지능에 인간성이 필요합니다.
00:46
It has to get you.
10
34920
2256
인간의 감정을 이해해야 하죠.
00:49
You know, like that inside내부 joke농담
that'll그거야. have you and your best베스트 friend친구
11
37200
3336
친한 친구와 배꼽이
빠지도록 웃을 수 있는
00:52
on the floor바닥, cracking열분해 up.
12
40560
1936
둘만의 은밀한 농담도 이해하고
00:54
Or that look of disappointment실망
that you can just smell냄새 from miles마일 away.
13
42520
4560
상대방의 실망감을
멀리서 전해지는 분위기 만으로
눈치챌 수 있어야 합니다.
01:00
I view전망 art미술 as the gateway게이트웨이 to help us
bridge다리 this gap between중에서 human인간의 and machine기계:
14
48560
6040
제가 보기에 예술이야말로
인간과 기계의 간극을
좁혀주는 관문입니다.
01:07
to figure그림 out what it means방법
to get each마다 other
15
55280
3136
이를 통해 서로를 이해하고
01:10
so that we can train기차 AIAI to get us.
16
58440
2760
AI가 인간을 제대로 이해하도록
훈련할 수 있습니다.
01:13
See, to me, art미술 is a way
to put tangible명백한 experiences경험담
17
61920
3816
무형의 생각과 느낌, 감정에
01:17
to intangible만질 수 없는 ideas아이디어,
feelings감정 and emotions감정.
18
65760
3240
유형의 경험을 선사하는 방법이
예술이라고 생각합니다.
01:21
And I think it's one
of the most가장 human인간의 things about us.
19
69800
2600
감정은 사람을 가장 인간적이게 하죠.
01:25
See, we're a complicated복잡한
and complex복잡한 bunch다발.
20
73480
2936
인간은 복합적인 존재입니다.
01:28
We have what feels느낀다. like
an infinite무한의 range범위 of emotions감정,
21
76440
3136
인간의 감정은 무한하고
01:31
and to top상단 it off, we're all different다른.
22
79600
2496
무엇보다도 모든 사람이 다릅니다.
01:34
We have different다른 family가족 backgrounds배경,
23
82120
2296
개개인의 가정환경이 다르고,
01:36
different다른 experiences경험담
and different다른 psychologies이라.
24
84440
3080
경험과 심리상태도 다릅니다.
01:40
And this is what makes~을 만든다 life
really interesting재미있는.
25
88240
2720
삶이 흥미로운 이유도 이 때문입니다.
01:43
But this is also또한 what makes~을 만든다
working on intelligent지적인 technology과학 기술
26
91440
3496
반면, 바로 이 점이
인공지능 기술 개발을
01:46
extremely매우 difficult어려운.
27
94960
1600
매우 어렵게 만듭니다.
01:49
And right now, AIAI research연구, well,
28
97640
3456
현재 AI 연구는
01:53
it's a bit비트 lopsided편 편한 on the tech기술 side측면.
29
101120
2016
기술 측면으로 치우친 편입니다.
01:55
And that makes~을 만든다 a lot of sense감각.
30
103160
2136
물론 타당한 이유가 있습니다.
01:57
See, for every...마다
qualitative질적 인 thing about us --
31
105320
2456
그러니까 인간의 질적인 면모인
01:59
you know, those parts부분품 of us that are
emotional정서적 인, dynamic동적 and subjective주걱 --
32
107800
4456
감정적, 역동적이며 주관적인 자질을
02:04
we have to convert변하게 하다 it
to a quantitative정량적 인 metric미터법의:
33
112280
3136
측정 가능한 형태로
변환해야 하기 때문입니다.
02:07
something that can be represented표현 된
with facts사리, figures인물 and computer컴퓨터 code암호.
34
115440
4360
실체화, 수치화하거나
프로그래밍 언어로 구현해야 하죠.
02:13
The issue발행물 is, there are
many많은 qualitative질적 인 things
35
121000
3376
그런데 문제는
도무지 손댈 수 없는
정성적 요소가 많다는 것이죠.
02:16
that we just can't put our finger손가락 on.
36
124400
1960
02:20
So, think about hearing듣기
your favorite특히 잘하는 song노래 for the first time.
37
128400
3200
좋아하는 노래를 처음 들었던
순간을 떠올려봅시다.
02:25
What were you doing?
38
133200
1200
무엇을 하고 있었나요?
02:28
How did you feel?
39
136000
1200
기분이 어땠나요?
02:30
Did you get goosebumps거위 덩굴?
40
138720
1360
닭살이 돋았나요?
02:33
Or did you get fired해고당한 up?
41
141240
1640
감정이 북받쳤나요?
02:36
Hard단단한 to describe기술하다, right?
42
144400
1200
형언하기 어렵지 않나요?
02:38
See, parts부분품 of us feel so simple단순한,
43
146800
2096
단순한 감정이라 할지라도
02:40
but under아래에 the surface표면,
there's really a ton of complexity복잡성.
44
148920
3656
그 이면에는 굉장히
복합적인 감정이 깔려습니다.
02:44
And translating번역
that complexity복잡성 to machines기계들
45
152600
2936
그 복합성을 기계로 옮기는 작업은
02:47
is what makes~을 만든다 them modern-day현대 moonshots월호.
46
155560
2856
현대의 꿈같은 계획일 수밖에 없습니다.
02:50
And I'm not convinced납득시키다 that we can
answer대답 these deeper더 깊은 questions질문들
47
158440
4176
솔직히 저는 이 심오한 질문에 대해
0과 1로 대답할 수 있을지
확신이 들지 않아요.
02:54
with just ones그들 and zeros0들 alone혼자.
48
162640
1480
02:57
So, in the lab, I've been creating창조 art미술
49
165120
1936
그래서 저는
더 나은 경험을 선사하는
최첨단 기술을 설계하기 위해
02:59
as a way to help me
design디자인 better experiences경험담
50
167080
2456
03:01
for bleeding-edge출혈 가장자리 technology과학 기술.
51
169560
2096
예술 창작을 연구해왔습니다.
03:03
And it's been serving피복재 as a catalyst촉매
52
171680
1736
예술은 기술과 인간을 잇는 촉매제로서
03:05
to beef소고기 up the more human인간의 ways
that computers컴퓨터들 can relate말하다 to us.
53
173440
3840
컴퓨터의 인간적 면모를
채워주는 역할을 했습니다.
03:10
Through을 통하여 art미술, we're tacking시침
some of the hardest단단한 questions질문들,
54
178000
2696
예술을 통해 가장 어려운 질문에
다가갈 수 있습니다.
03:12
like what does it really mean to feel?
55
180720
2360
느낌이란 무엇을 뜻하는가?
03:16
Or how do we engage끌다 and know
how to be present선물 with each마다 other?
56
184120
4080
관계를 맺고 서로를 위해
어떻게 존재할 수 있을까?
03:20
And how does intuition직관
affect감정 the way that we interact상호 작용하다?
57
188800
4000
그리고..
직감은 상호작용에 어떤 영향을 줄까?
03:26
So, take for example human인간의 emotion감정.
58
194440
2056
인간의 감정을 예를 들어봅시다.
03:28
Right now, computers컴퓨터들 can make sense감각
of our most가장 basic기본 ones그들,
59
196520
3256
현재 인공지능은 인간의
기초적 감정이라 할 수 있는
03:31
like joy즐거움, sadness비애,
anger분노, fear무서움 and disgust싫음,
60
199800
3696
기쁨, 슬픔, 화, 두려움, 혐오를
03:35
by converting개조하다 those
characteristics형질 to math수학.
61
203520
3000
수학적으로 변환하여 이해합니다.
03:39
But what about the more complex복잡한 emotions감정?
62
207400
2536
더 복잡미묘한 감정은 어떨까요?
03:41
You know, those emotions감정
63
209960
1216
말로 설명하기 어려운 감정들 말이지요.
03:43
that we have a hard단단한 time
describing묘사하는 to each마다 other?
64
211200
2376
03:45
Like nostalgia노스탤지어.
65
213600
1440
예를 들어, '그리움' 같은 거죠.
03:47
So, to explore탐험하다 this, I created만들어진
a piece조각 of art미술, an experience경험,
66
215640
3936
'그리움'의 감정을 살펴보기 위해
저희는 예술 작품 하나를 만들고
03:51
that asked물었다 people to share a memory기억,
67
219600
2096
사람들이 어떤 기억을
떠올리는지 물었습니다.
03:53
and I teamed팀을 이룬 up with some data데이터 scientists과학자들
68
221720
2136
몇몇 데이터 과학자들과 팀을 이루어
03:55
to figure그림 out how to take
an emotion감정 that's so highly고도로 subjective주걱
69
223880
3576
매우 주관적인 그리움의 감정을
03:59
and convert변하게 하다 it into something
mathematically수학적으로 precise정확한.
70
227480
3200
수학적으로 정확하게
변환할 방법을 알아냈습니다.
04:03
So, we created만들어진 what we call
a nostalgia노스탤지어 score점수
71
231840
2136
우리는 예술장치의 핵심인
'그리움 점수'를 만들었습니다.
04:06
and it's the heart심장 of this installation설치.
72
234000
2216
04:08
To do that, the installation설치
asks묻다 you to share a story이야기,
73
236240
3056
예술장치가 당신에게
추억 이야기를 들려달라고 청합니다.
04:11
the computer컴퓨터 then analyzes복수 it
for its simpler더 단순한 emotions감정,
74
239320
3256
컴퓨터는 이야기를 분석하여
더 간단한 감정으로 정리하고
04:14
it checks체크 무늬 for your tendency경향
to use past-tense과거 시제 wording말씨
75
242600
2656
당신이 과거시제를 사용하는
경향을 확인합니다.
04:17
and also또한 looks외모 for words
that we tend지키다 to associate동무 with nostalgia노스탤지어,
76
245280
3336
'그리움'을 떠올릴 때 함께 쓰는
04:20
like "home," "childhood어린 시절" and "the past과거."
77
248640
3040
"집", "어린 시절", "과거" 등의
연관 단어도 확인하지요.
04:24
It then creates창조하다 a nostalgia노스탤지어 score점수
78
252760
2056
그 후 그리움 점수가 나타납니다.
04:26
to indicate가리키다 how nostalgic노스탤지어의 your story이야기 is.
79
254840
2736
이렇게 과거를 그리워하는
정도를 파악할 수 있죠.
04:29
And that score점수 is the driving운전 force
behind뒤에 these light-based빛에 기초한 sculptures조각들
80
257600
4136
빛을 소재로 한 이 작품은
그 점수에 따라 만들어집니다.
04:33
that serve서브 as physical물리적 인 embodiments실시 예들
of your contribution기부.
81
261760
3896
여러분의 참여로 감정이
물리적으로 구현되는 것이죠.
04:37
And the higher더 높은 the score점수,
the rosier로시에 the hue색조.
82
265680
3216
그리움 점수가 높을수록
더욱 장밋빛 색조를 띄게 됩니다.
04:40
You know, like looking at the world세계
through...을 통하여 rose-colored장미 빛의 glasses안경.
83
268920
3936
장밋빛 안경으로
세상을 바라보듯 말이죠.
04:44
So, when you see your score점수
84
272880
2616
그리움 점수와 함께
04:47
and the physical물리적 인 representation대표 of it,
85
275520
2656
물리적으로 표현된 결과를 보며
04:50
sometimes때때로 you'd당신은 agree동의하다
and sometimes때때로 you wouldn't~ 않을거야..
86
278200
2936
우리는 때로는 동의하고
때로는 동의하지 않습니다.
04:53
It's as if it really understood이해 된
how that experience경험 made만든 you feel.
87
281160
3480
우리의 감정을 정말 이해한 듯
보일 때도 있습니다.
04:57
But other times타임스 it gets도착 tripped걸려 넘어졌다 up
88
285400
2216
그러나 헛다리를 짚고
04:59
and has you thinking생각
it doesn't understand알다 you at all.
89
287640
2560
당신을 전혀 이해하지
못할 때도 있습니다.
05:02
But the piece조각 really serves봉사하다 to show보여 주다
90
290680
1896
이 작품이 우리에게 말하는 것은
05:04
that if we have a hard단단한 time explaining설명하는
the emotions감정 that we have to each마다 other,
91
292600
4056
우리도 설명하기 어려운 감정들을
05:08
how can we teach가르치다 a computer컴퓨터
to make sense감각 of them?
92
296680
2360
어떻게 컴퓨터가 이해할 수 있도록
가르치냐의 문제입니다.
05:12
So, even the more objective목표 parts부분품
about being존재 human인간의 are hard단단한 to describe기술하다.
93
300360
3576
객관적인 영역도 설명하기
어렵긴 마찬가지입니다.
05:15
Like, conversation대화.
94
303960
1240
예를 들어, 대화를 봅시다.
05:17
Have you ever really tried시도한
to break단절 down the steps걸음?
95
305880
2736
대화법을 분석해보신 적 있나요?
05:20
So think about sitting좌석
with your friend친구 at a coffee커피 shop가게
96
308640
2656
카페에서 친구와 수다를 떠는
상황을 생각해보세요.
05:23
and just having small작은 talk.
97
311320
1320
05:25
How do you know when to take a turn회전?
98
313160
1720
자신이 말할 차례를 어떻게 아시나요?
05:27
How do you know when to shift시프트 topics주제?
99
315440
1840
주제를 바꿔야 할 타이밍은요?
05:29
And how do you even know
what topics주제 to discuss즐기며 먹다?
100
317960
2720
어떤 주제로 이야기할지는 어떻게 알죠?
05:33
See, most가장 of us
don't really think about it,
101
321560
2096
대다수 사람들은 이런 걸
생각하지 않습니다.
제2의 천성에 가깝기 때문이죠.
05:35
because it's almost거의 second둘째 nature자연.
102
323680
1656
05:37
And when we get to know someone어떤 사람,
we learn배우다 more about what makes~을 만든다 them tick진드기,
103
325360
3496
우리는 누군가를 만나면
상대방의 행동을 살핍니다.
05:40
and then we learn배우다
what topics주제 we can discuss즐기며 먹다.
104
328880
2376
그리고 토론할만한 주제가
무엇인지 파악합니다.
05:43
But when it comes온다 to teaching가르치는
AIAI systems시스템 how to interact상호 작용하다 with people,
105
331280
3656
그러나 인공지능을 상대로
인간과 교감하는 법을 가르칠 때는
05:46
we have to teach가르치다 them
step단계 by step단계 what to do.
106
334960
2856
해야 할 일을
단계적으로 가르쳐야 해요.
05:49
And right now, it feels느낀다. clunky투박한.
107
337840
3496
현재 AI는 투박한 감이 있어요.
05:53
If you've ever tried시도한 to talk
with Alexa알렉사, Siri시리 or GoogleGoogle Assistant조수,
108
341360
4136
알렉사, 시리, 구글 어시스턴트와
대화해본 적 있으시다면
05:57
you can tell that it or they
can still sound소리 cold감기.
109
345520
4200
차갑다는 인상을 받으셨을 겁니다.
06:02
And have you ever gotten얻은 annoyed괴로운
110
350440
1656
AI에 음악 재생을 명령했는데
06:04
when they didn't understand알다
what you were saying속담
111
352120
2256
말을 못 알아듣는 탓에
06:06
and you had to rephrase바꿔 말하다 what you wanted
20 times타임스 just to play놀이 a song노래?
112
354400
3840
20번이나 다시 말하여
짜증 났던 기억이 있으신가요?
06:11
Alright좋구나, to the credit신용 of the designers디자이너,
realistic현실적인 communication통신 is really hard단단한.
113
359440
4896
디자이너를 대변하자면, 현실적인
의사소통 구현은 정말 어렵습니다.
06:16
And there's a whole완전한 branch분기 of sociology사회학,
114
364360
2136
실제로 사회학 분야의 하나인
대화 분석 분야에서는
06:18
called전화 한 conversation대화 analysis분석,
115
366520
1936
06:20
that tries시도하다 to make blueprints청사진
for different다른 types유형 of conversation대화.
116
368480
3136
다양한 대화 유형의 구조를
청사진으로 보여줍니다.
06:23
Types유형 like customer고객 service서비스
or counseling상담, teaching가르치는 and others다른 사람.
117
371640
4080
고객 서비스, 상담, 교육 등의
대화 유형을 분석하죠.
06:28
I've been collaborating협력
with a conversation대화 analyst분석자 at the lab
118
376880
2936
저는 저희 연구실의
대화 분석가와 협업하며
06:31
to try to help our AIAI systems시스템
hold보류 more human-sounding인간-들리는 conversations대화.
119
379840
4696
인간에 가깝게 대화할 수 있는
AI를 개발하고 있습니다.
06:36
This way, when you have an interaction상호 작용
with a chatbotchatbot on your phone전화
120
384560
3176
스마트폰의 챗봇을 이용하거나
차량의 음성기반 시스템과 대화할 때
06:39
or a voice-based음성 기반 system체계 in the car,
121
387760
1856
06:41
it sounds소리 a little more human인간의
and less적게 cold감기 and disjointed연결.
122
389640
3320
좀 더 인간에 가깝게 일관성 있고,
덜 차갑게 말하도록 하려는 것입니다.
06:46
So I created만들어진 a piece조각 of art미술
123
394360
1336
따라서 저는 AI의 기계적이고 투박한
면을 부각시킨 작품을 만들어서
06:47
that tries시도하다 to highlight가장 밝은 부분
the robotic로봇 식의, clunky투박한 interaction상호 작용
124
395720
2816
06:50
to help us understand알다, as designers디자이너,
125
398560
1976
AI의 말이 부자연스러운 이유를
디자이너의 관점에서 이해하고
06:52
why it doesn't sound소리 human인간의 yet아직
and, well, what we can do about it.
126
400560
4576
개선 방안을 생각해보고자 했습니다.
06:57
The piece조각 is called전화 한 Bot to Bot
127
405160
1456
이 작품은 봇투봇(Bot to Bot)입니다.
06:58
and it puts넣다 one conversational이야기 잘하는
system체계 against반대 another다른
128
406640
2936
두 개의 대화 시스템이
서로 대화하도록 하고
07:01
and then exposes노출 it to the general일반 public공공의.
129
409600
2536
이 과정을 일반 대중에게 공개합니다.
07:04
And what ends끝이다 up happening사고
is that you get something
130
412160
2496
결국, 여기서 확인할 수 있는 것은
인간의 대화를 모방하고 있지만
07:06
that tries시도하다 to mimic모방품 human인간의 conversation대화,
131
414680
1896
07:08
but falls폭포 short짧은.
132
416600
1896
어디인지 미흡한 대화입니다.
07:10
Sometimes때때로 it works공장 and sometimes때때로
it gets도착 into these, well,
133
418520
2736
때에 따라 자연스러울 때도 있지만
07:13
loops루프 of misunderstanding오해.
134
421280
1536
오해의 늪에 빠지기도 합니다.
07:14
So even though그래도 the machine-to-machine컴퓨터-
conversation대화 can make sense감각,
135
422840
3096
기계 대 기계의 대화는
07:17
grammatically문법적으로 and colloquially대 놓고,
136
425960
2016
문법, 회화적인 측면에서 자연스러워도
07:20
it can still end종료 up
feeling감각 cold감기 and robotic로봇 식의.
137
428000
3216
여전히 기계적이고 차가울 수 있습니다.
07:23
And despite무례 checking확인 all the boxes상자들,
the dialogue대화 lacks부족하다 soul영혼
138
431240
4016
이론적으로 성립되어도
대화에는 여전히 영혼이 없고
07:27
and those one-off일회성의 quirks버릇
that make each마다 of us who we are.
139
435280
3136
인간만이 가지는
유일한 특징이 빠져 있죠.
07:30
So while it might be grammatically문법적으로 correct옳은
140
438440
2056
따라서 문법적으로 정확하고
07:32
and uses용도 all the right
hashtags해시 태그 and emojis그림 이모티콘,
141
440520
2656
정확한 해시 태그와 이모티콘을 사용해도
07:35
it can end종료 up sounding수심 측량 mechanical기계의
and, well, a little creepy소름 끼치는.
142
443200
4136
여전히 기계적이고,
심지어 오싹하게 들리기도 합니다.
07:39
And we call this the uncanny섬뜩한 valley골짜기.
143
447360
2336
이를 '불쾌한 골짜기'라고 부릅니다.
07:41
You know, that creepinesscreepiness factor인자 of tech기술
144
449720
1936
인간과 매우 유사하지만
약간의 차이로 인해서 느껴지는
07:43
where it's close닫기 to human인간의
but just slightly약간 off.
145
451680
2856
오싹한 거부감을 의미하죠.
07:46
And the piece조각 will start스타트 being존재
146
454560
1456
이 작품을 통해서
대화 속의 인간성을 체험하고
07:48
one way that we test테스트
for the humanness인간성 of a conversation대화
147
456040
3216
07:51
and the parts부분품 that get
lost잃어버린 in translation번역.
148
459280
2160
통역할 수 없는 비언어적
요소를 알 수 있습니다.
07:54
So there are other things
that get lost잃어버린 in translation번역, too,
149
462560
2856
통역할 수 없는 부분이 또 있습니다.
07:57
like human인간의 intuition직관.
150
465440
1616
인간의 직관력이죠.
07:59
Right now, computers컴퓨터들
are gaining얻는 more autonomy자치.
151
467080
2776
현재 컴퓨터는 더 큰 자율권을 갖습니다.
08:01
They can take care케어 of things for us,
152
469880
1736
인간을 위해 자체적으로
판단을 내리기도 해요.
08:03
like change변화 the temperature온도
of our houses주택들 based기반 on our preferences환경 설정
153
471640
3176
평소 선호도를 파악하여
집 안 온도를 바꾸거나
08:06
and even help us drive드라이브 on the freeway고속 도로.
154
474840
2160
고속도로 주행을 돕기도 합니다.
08:09
But there are things
that you and I do in person사람
155
477560
2496
그러나 사람 사이에
일대일로 이루어지는 행위는
08:12
that are really difficult어려운
to translate옮기다 to AIAI.
156
480080
2760
AI에게 가르치기가 어렵습니다.
08:15
So think about the last time
that you saw an old늙은 classmate동급생 or coworker직장 동료.
157
483440
4360
동창과 옛 동료를 마지막으로
만났을 때를 떠올려보세요.
08:21
Did you give them a hug포옹
or go in for a handshake악수?
158
489080
2480
그들과 포옹을 했나요?
아니면 악수를 했나요?
08:24
You probably아마 didn't think twice두번
159
492800
1496
두 번 생각하지 않으셨을 겁니다.
08:26
because you've had so many많은
built세워짐 up experiences경험담
160
494320
2336
이미 축적된 경험이 있기 때문에
08:28
that had you do one or the other.
161
496680
2000
자연스럽게 둘 중 하나를
선택했을 테니까요.
08:31
And as an artist예술가, I feel
that access접속하다 to one's사람의 intuition직관,
162
499440
3456
예술가의 입장에서 볼 때
인간의 직감을 이용하고
무의식적 자각의 영역에 접근하는 것이
08:34
your unconscious무의식 knowing,
163
502920
1416
08:36
is what helps도움이된다. us create몹시 떠들어 대다 amazing놀랄 만한 things.
164
504360
3056
놀라운 창조를 이끈다고 생각합니다.
08:39
Big ideas아이디어, from that abstract추상,
nonlinear비선형 place장소 in our consciousness의식
165
507440
4056
모든 경험의 총집합인
비선형 세계의 추상성에서
08:43
that is the culmination최고점
of all of our experiences경험담.
166
511520
2960
위대한 발상들이 출발합니다.
08:47
And if we want computers컴퓨터들 to relate말하다 to us
and help amplify더욱 상 세히 하다 our creative창조적 인 abilities능력,
167
515840
4656
컴퓨터와 인간을 연계하여
창의력을 확장하고 싶다면
08:52
I feel that we'll need to start스타트 thinking생각
about how to make computers컴퓨터들 be intuitive직관적 인.
168
520520
3896
직관적인 컴퓨터를 개발할
방법을 고안해야 합니다.
08:56
So I wanted to explore탐험하다
how something like human인간의 intuition직관
169
524440
3096
저는 직감과 같은 인간의 특징이
08:59
could be directly직접 translated번역 된
to artificial인공의 intelligence지성.
170
527560
3456
어떻게 직접 인공지능에
반영되는지 알고 싶었습니다.
09:03
And I created만들어진 a piece조각
that explores탐구하다 computer-based컴퓨터 기반 intuition직관
171
531040
3216
그래서 실제 공간에서
컴퓨터 직관을 탐구할 수 있는
09:06
in a physical물리적 인 space공간.
172
534280
1320
작품을 만들었습니다.
09:08
The piece조각 is called전화 한 WayfindingWayfinding,
173
536480
1696
웨이파인딩(Wayfinding)입니다.
09:10
and it's set세트 up as a symbolic상징적 인 compass나침반
that has four kinetic동역학의 sculptures조각들.
174
538200
3936
움직이는 4개의 조각상으로 된
상징적 나침반인데요.
09:14
Each마다 one represents대표하다 a direction방향,
175
542160
2056
각각의 조각은 동서남북의
일정한 방향을 나타냅니다.
09:16
north북쪽, east동쪽, south남쪽 and west서쪽.
176
544240
2120
09:19
And there are sensors센서 set세트 up
on the top상단 of each마다 sculpture조각
177
547080
2696
조각 상단에는 감지 센서가 탑재되어 있어
09:21
that capture포착 how far멀리 away
you are from them.
178
549800
2256
사람이 떨어져 있는 거리를 파악합니다.
09:24
And the data데이터 that gets도착 collected모은
179
552080
1816
자료가 수집되면
09:25
ends끝이다 up changing작고 보기 흉한 사람 the way
that sculptures조각들 move움직임
180
553920
2136
조각이 움직이는 방향이 바뀌고
09:28
and the direction방향 of the compass나침반.
181
556080
2040
결국 나침반의 방향도 달라집니다.
09:31
The thing is, the piece조각 doesn't work
like the automatic오토매틱 door sensor감지기
182
559360
3656
이 설치물의 각각의 조각은
사람이 걸어들어올 때 열리는
09:35
that just opens열리다
when you walk산책 in front of it.
183
563040
2656
자동문 센서처럼 작동하지 않습니다.
09:37
See, your contribution기부 is only a part부품
of its collection수집 of lived살았던 experiences경험담.
184
565720
5056
여러분의 참여는
총체적 체험의 일부입니다.
09:42
And all of those experiences경험담
affect감정 the way that it moves움직임.
185
570800
4056
축적된 모든 경험이
방향 결정에 영향을 줍니다.
09:46
So when you walk산책 in front of it,
186
574880
1736
그래서 누군가 그 앞을 지나가면
09:48
it starts시작하다 to use all of the data데이터
187
576640
1976
전시 기간 동안 축적된
모든 데이터를 이용하거나
09:50
that it's captured포착 된
throughout전역 its exhibition전시회 history역사 --
188
578640
2616
09:53
or its intuition직관 --
189
581280
1816
직감을 발휘하여
09:55
to mechanically기계적으로 respond응창 성가 to you
based기반 on what it's learned배운 from others다른 사람.
190
583120
3560
그동안 습득한 체험에 바탕을 둔
기계적 반응을 보이게 되죠.
09:59
And what ends끝이다 up happening사고
is that as participants참가자
191
587480
2536
이 체험에 참여한 사람들은
10:02
we start스타트 to learn배우다 the level수평
of detail세부 묘사 that we need
192
590040
2816
예측을 관리하기 위해
정밀한 과정이 필요하다는 점을
이해하게 됩니다.
10:04
in order주문 to manage꾸리다 expectations기대
193
592880
2016
10:06
from both양자 모두 humans인간 and machines기계들.
194
594920
2776
인간과 기계 모두에 해당하죠.
10:09
We can almost거의 see our intuition직관
being존재 played연주 한 out on the computer컴퓨터,
195
597720
3616
컴퓨터가 인간의 직관을
실행하고 있음을 확인하고
10:13
picturing떠 올 all of that data데이터
being존재 processed가공 된 in our mind's마음의 eye.
196
601360
3600
마음속에서 모든 데이터가
처리되고 있음을 알 수 있습니다.
10:17
My hope기대 is that this type유형 of art미술
197
605560
1656
저는 이런 유형의 예술을 접함으로써
우리가 직관에 대해 다르게 생각하고
10:19
will help us think differently다르게
about intuition직관
198
607240
2416
10:21
and how to apply대다 that to AIAI in the future미래.
199
609680
2280
이를 미래의 AI에 적용하기를 바랍니다.
10:24
So these are just a few조금 examples예제들
of how I'm using~을 사용하여 art미술 to feed먹이 into my work
200
612480
3936
인공지능 디자이너이자 연구원으로
예술을 활용한 연구 사례
몇 가지를 말씀드렸습니다.
10:28
as a designer디자이너 and researcher연구원
of artificial인공의 intelligence지성.
201
616440
3096
저는 이 방법이 혁신으로 나아가는
중요한 길이라 믿습니다.
10:31
And I see it as a crucial결정적인 way
to move움직임 innovation혁신 forward앞으로.
202
619560
3496
현재 AI에 대한 극단적인 생각들이
많이 자리 잡고 있죠.
10:35
Because right now, there are
a lot of extremes과격한 수단 when it comes온다 to AIAI.
203
623080
4376
10:39
Popular인기 있는 movies영화 산업 show보여 주다 it
as this destructive파괴적인 force
204
627480
2816
인기 영화는 AI의 파괴력을 강조하고
10:42
while commercials광고
are showing전시 it as a savior구조자
205
630320
3056
광고는 AI가 마치 구세주라도 된 듯
10:45
to solve풀다 some of the world's세계의
most가장 complex복잡한 problems문제들.
206
633400
2936
세계의 복잡한 문제를
해결할 것이라 말합니다.
10:48
But regardless관계없이 of where you stand,
207
636360
2536
하지만 우리가 어디에 있든
10:50
it's hard단단한 to deny부정하다
that we're living생활 in a world세계
208
638920
2176
매 순간 더욱 디지털화하는
세상 속에 살고 있음을
부정하기는 어렵습니다.
10:53
that's becoming어울리는 more
and more digital디지털 by the second둘째.
209
641120
2576
기계, 스마트 기기를 중심으로
삶이 돌아가고 있습니다.
10:55
Our lives revolve돌다 around our devices장치들,
smart똑똑한 appliances가전 ​​제품 and more.
210
643720
4600
11:01
And I don't think
this will let up any time soon.
211
649400
2320
당분간 이 추세가
누그러질 것 같지 않고요.
11:04
So, I'm trying견딜 수 없는 to embed깊숙이 박다
more humanness인간성 from the start스타트.
212
652400
3736
저는 시작 단계에서부터
더 많은 인간성을 부여하고자 합니다.
11:08
And I have a hunch직감 that bringing데려 오는 art미술
into an AIAI research연구 process방법
213
656160
5136
그리고 예술을 통한 AI 연구가
이 목표를 실현할 방법이라는
예감이 듭니다.
11:13
is a way to do just that.
214
661320
1896
감사합니다.
11:15
Thank you.
215
663240
1216
(박수)
11:16
(Applause박수 갈채)
216
664480
2280
Translated by Kim Sojeong Sue
Reviewed by JY Kang

▲Back to top

ABOUT THE SPEAKER
Raphael Arar - Designer, researcher
IBM's Raphael Arar creates art and designs experiences that examine the complexities of our increasingly technocentric lives.

Why you should listen

While his artwork raises questions about our relationship with modernity and technology, Raphael Arar’s design work revolves around answering those questions in human-centered ways. 

Currently a designer and researcher at IBM Research, Arar has been exploring ways to translate aspects of emotional intelligence into machine-readable format. Through this, he is passionately tackling ethical platforms of artificial intelligence. Inc. Magazine says he "epitomizes the style and multi-disciplinary skill set of the modern designer," and in 2017, he was listed as one of Forbes's "30 under 30 in Enterprise Technology."

More profile about the speaker
Raphael Arar | Speaker | TED.com