ABOUT THE SPEAKER
Raphael Arar - Designer, researcher
IBM's Raphael Arar creates art and designs experiences that examine the complexities of our increasingly technocentric lives.

Why you should listen

While his artwork raises questions about our relationship with modernity and technology, Raphael Arar’s design work revolves around answering those questions in human-centered ways. 

Currently a designer and researcher at IBM Research, Arar has been exploring ways to translate aspects of emotional intelligence into machine-readable format. Through this, he is passionately tackling ethical platforms of artificial intelligence. Inc. Magazine says he "epitomizes the style and multi-disciplinary skill set of the modern designer," and in 2017, he was listed as one of Forbes's "30 under 30 in Enterprise Technology."

More profile about the speaker
Raphael Arar | Speaker | TED.com
TED@IBM

Raphael Arar: How we can teach computers to make sense of our emotions

رافائل آرار: چگونه می‌توانیم به کامپیوتر‌ها یاد دهیم تا احساسات ما را درک کنند

Filmed:
1,255,602 views

چگونه می‌توانیم هوش مصنوعی بسازیم که انسان را دوست داشته باشد و با آن تعامل کند؟ رافائل آرار به ما پیشنهاد می‌کند که هنری بسازیم. او با ما تجربیاتش در مورد پروژه‌های تعاملی به اشتراک می‌گذارد که به هوش مصنوعی کمک می‌کند تا حس‌های پیچیده‌ای مانند نوستالژی، بینش و صحبت کردن را درک کند. همه کارهایی که برای هدف ساختن آینده‌ی فناوری ما که انسان و هوش مصنوعی نقش دارد.
- Designer, researcher
IBM's Raphael Arar creates art and designs experiences that examine the complexities of our increasingly technocentric lives. Full bio

Double-click the English transcript below to play the video.

00:13
I considerدر نظر گرفتن myselfخودم one partبخشی artistهنرمند
and one partبخشی designerطراح.
0
1760
4680
من خودم را یک طراح و یک هنرمند می‌دانم.
00:18
And I work at an artificialمصنوعی
intelligenceهوش researchپژوهش labآزمایشگاه.
1
6480
3160
و در یک آزمایشگاه هوش مصنوعی کار می‌کنم.
00:22
We're tryingتلاش کن to createايجاد كردن technologyتکنولوژی
2
10720
1696
ما سعی براین داریم تا فناوری بسازیم
00:24
that you'llشما خواهید بود want to interactتعامل with
in the farدور futureآینده.
3
12440
3296
که بخواهید با آن در آینده‌ دور تعامل کنید.
00:27
Not just sixشش monthsماه ها from now,
but try yearsسالها and decadesچند دهه from now.
4
15760
4640
نه شش ماه بعد، بلکه سال‌ها و دهه‌ها بعد.
00:33
And we're takingگرفتن a moonshotماه تولد
5
21120
1616
و می‌خواهیم شق‌القمر کرده
00:34
that we'llخوب want to be
interactingتعامل with computersکامپیوترها
6
22760
2456
و با کامپیوتر‌ها عامل به روشهای عمیق عاطفی
00:37
in deeplyعمیقا emotionalعاطفی waysراه ها.
7
25240
2120
در تعامل باشیم.
00:40
So in orderسفارش to do that,
8
28280
1456
پس برای انجام دادن این کار
00:41
the technologyتکنولوژی has to be
just as much humanانسان as it is artificialمصنوعی.
9
29760
4480
فناوری باید به جای مصنوعی بودن
خیلی شبیه انسان‌ها باشد.
00:46
It has to get you.
10
34920
2256
باید آن جایگاه را بگیرد.
00:49
You know, like that insideداخل jokeجوک
that'llکه میگه have you and your bestبهترین friendدوست
11
37200
3336
مثل آن لطیفه‌ای که فقط شما و
بهترین دوستتان می‌دانید
00:52
on the floorکف, crackingترک خوردن up.
12
40560
1936
و از شدت خنده روی زمین می‌افتید.
00:54
Or that look of disappointmentناامیدی
that you can just smellبو from milesمایل away.
13
42520
4560
یا آن شکل نا امیدی که شما می‌توانید
آن را فقط از کیلومترها دور بفهمید.
01:00
I viewچشم انداز artهنر as the gatewayدروازه to help us
bridgeپل this gapشکاف betweenبین humanانسان and machineدستگاه:
14
48560
6040
هنر را دروازه‌ای دیدم که کمک به
بستن تا شکاف بین انسان و ماشین می‌کند.
01:07
to figureشکل out what it meansبه معنای
to get eachهر یک other
15
55280
3136
برای فهمیدن اینکه این چیست،
و برای فهمیدن یکدیگر
01:10
so that we can trainقطار AIAI to get us.
16
58440
2760
می‌توانیم هوش مصنوعی را تربیت دهیم
تا ما را بفهمد.
01:13
See, to me, artهنر is a way
to put tangibleمحسوس experiencesتجربیات
17
61920
3816
توجه، برای من هنر تجربه‌ای قابل ملاحظه
01:17
to intangibleغیرمستقیم ideasایده ها,
feelingsاحساسات and emotionsاحساسات.
18
65760
3240
برای ایده‌های غیرمستقیم و احساسات است.
01:21
And I think it's one
of the mostاکثر humanانسان things about us.
19
69800
2600
و به نظرم یکی از مهم‌ترین
شاخصه‌های انسانی ما می‌باشد.
01:25
See, we're a complicatedبغرنج
and complexپیچیده bunchدسته ای.
20
73480
2936
پس ما یک گروه پیچیده و پیشرفته هستیم.
01:28
We have what feelsاحساس می کند like
an infiniteبي نهايت rangeدامنه of emotionsاحساسات,
21
76440
3136
ما چیزی را احساس می‌کنیم
که بی‌نهایت احساس دارد،
01:31
and to topبالا it off, we're all differentناهمسان.
22
79600
2496
و در آخر ما همه با هم فرق داریم.
01:34
We have differentناهمسان familyخانواده backgroundsپس زمینه,
23
82120
2296
ما پس زمینه‌های مختلف خانوادگی داریم،
01:36
differentناهمسان experiencesتجربیات
and differentناهمسان psychologiespsychologies.
24
84440
3080
تجربه‌ها و روح و روان‌های مختلف.
01:40
And this is what makesباعث می شود life
really interestingجالب هست.
25
88240
2720
و این است که زندگی را جذاب می‌کند.
01:43
But this is alsoهمچنین what makesباعث می شود
workingکار کردن on intelligentباهوش - هوشمند technologyتکنولوژی
26
91440
3496
اما این چیزی است که فناوری هوشمند را
01:46
extremelyفوق العاده difficultدشوار.
27
94960
1600
بسیار سخت می‌کند.
01:49
And right now, AIAI researchپژوهش, well,
28
97640
3456
و اکنون، تحقیق هوش مصنوعی، خب،
01:53
it's a bitبیت lopsidedیکپارچه on the techتکنولوژی sideسمت.
29
101120
2016
این کار کمی طرف فناوری هم هست.
01:55
And that makesباعث می شود a lot of senseاحساس.
30
103160
2136
و بسیار هم مفهومی است.
01:57
See, for everyهرکدام
qualitativeکیفی thing about us --
31
105320
2456
خب، برای هر چیز کیفی درباره ما--
01:59
you know, those partsقطعات of us that are
emotionalعاطفی, dynamicپویا and subjectiveذهنی --
32
107800
4456
آن قسمت‌هایی از ما که احساسی،
پویا و ذهنی هستند--
02:04
we have to convertتبدیل it
to a quantitativeکمی metricمتریک:
33
112280
3136
باید آن‌ها را تبدیل به یکایی کیفی کنیم:
02:07
something that can be representedنمایندگی
with factsحقایق, figuresارقام and computerکامپیوتر codeکد.
34
115440
4360
چیزی که می‌تواند نماینده‌ای برای حقایق،
ارقام و کدهای کامپیوتری باشد.
02:13
The issueموضوع is, there are
manyبسیاری qualitativeکیفی things
35
121000
3376
اما بحث اینجاست که چیزهای کیفی زیادی هستند
02:16
that we just can't put our fingerانگشت on.
36
124400
1960
که نمی‌توانیم از آن‌ها بگذریم.
02:20
So, think about hearingشنیدن
your favoriteمورد علاقه songترانه for the first time.
37
128400
3200
خب، به اولین باری که آهنگ مورد علاقه‌تان
را شنیده‌اید، فکر کنید.
02:25
What were you doing?
38
133200
1200
آن موقع چه کار می‌کردید؟
02:28
How did you feel?
39
136000
1200
چه احساسی داشتید؟
02:30
Did you get goosebumpsغازها?
40
138720
1360
آیا مو به تنتان سیخ شده؟
02:33
Or did you get firedاخراج شد up?
41
141240
1640
یا هیجان‌زده شدید؟
02:36
Hardسخت to describeتوصیف کردن, right?
42
144400
1200
توضیحش سخت است، درسته؟
02:38
See, partsقطعات of us feel so simpleساده,
43
146800
2096
خب، حس برای قسمت‌هایی از ما
خیلی ساده است،
02:40
but underزیر the surfaceسطح,
there's really a tonتن of complexityپیچیدگی.
44
148920
3656
اما در اعماق، پیچیدگی‌های زیادی وجود دارد.
02:44
And translatingترجمه
that complexityپیچیدگی to machinesماشین آلات
45
152600
2936
و ترجمه این پیچیدگی به ماشین‌ها
02:47
is what makesباعث می شود them modern-dayمدرن امروز moonshotsتوله ها.
46
155560
2856
چیزی است که اکنون آن‌ها را تبدیل
به فضاپیماهای به روز کرده.
02:50
And I'm not convincedمتقاعد that we can
answerپاسخ these deeperعمیق تر questionsسوالات
47
158440
4176
و من شما را متقاعد نمی‌کنم که
می‌خواهیم به این سوال‌های عمیق
02:54
with just onesآنهایی که and zerosصفرها aloneتنها.
48
162640
1480
فقط با کدهای صفر و
یک جواب دهیم.
02:57
So, in the labآزمایشگاه, I've been creatingپدید آوردن artهنر
49
165120
1936
خب، در آزمایشگاه، من هنری را
02:59
as a way to help me
designطرح better experiencesتجربیات
50
167080
2456
برای کمک کردن به من، ساختم
تا تجربه‌های بهتری برای
03:01
for bleeding-edgeخونریزی لبه technologyتکنولوژی.
51
169560
2096
برای عصر جدید تکنولوژی طراحی کردم.
03:03
And it's been servingخدمت as a catalystکاتالیزور
52
171680
1736
و مثل کاتالیزور برای بهینه‌سازی
03:05
to beefگوشت گاو up the more humanانسان waysراه ها
that computersکامپیوترها can relateمربوط بودن to us.
53
173440
3840
راه‌های انسانی عمل می‌کند که کامپیوترها
بتوانند به ما مربوط شوند.
03:10
Throughاز طریق artهنر, we're tackingچسباندن
some of the hardestسخت ترین questionsسوالات,
54
178000
2696
از طریق هنر، دنبال سخت‌ترین سوالات هستیم،
03:12
like what does it really mean to feel?
55
180720
2360
مثل اینکه واقعا چه معنای احساسی دارد؟
03:16
Or how do we engageمشغول کردن and know
how to be presentحاضر with eachهر یک other?
56
184120
4080
یا چگونه سرگرم شویم و بدانیم که
چگونه با یکدیگر همکاری کنیم؟
03:20
And how does intuitionبینش
affectتاثیر می گذارد the way that we interactتعامل?
57
188800
4000
و چگونه بینش ما بر روی
تعامل ما اثر می‌گذارد؟
03:26
So, take for exampleمثال humanانسان emotionهیجانی.
58
194440
2056
خب احساسات انسان‌ها را در نظر بگیرید.
03:28
Right now, computersکامپیوترها can make senseاحساس
of our mostاکثر basicپایه ای onesآنهایی که,
59
196520
3256
در حال حاضر کامپیوترها توانایی
درک احساسات ساده‌ی ما را دارند،
03:31
like joyشادی, sadnessغمگینی,
angerخشم, fearترس and disgustنفرت,
60
199800
3696
مثل شادی، ناراحتی، عصبانیت، ترس و نفرت،
03:35
by convertingتبدیل those
characteristicsمشخصات to mathریاضی.
61
203520
3000
با تبدیل کردن آن‌ مشخصه‌ها به کدها.
03:39
But what about the more complexپیچیده emotionsاحساسات?
62
207400
2536
اما درباره احساسات پیچیده‌تر
چگونه عمل می‌کنند؟
03:41
You know, those emotionsاحساسات
63
209960
1216
می‌دانید آن احساساتی را
03:43
that we have a hardسخت time
describingتوصیف to eachهر یک other?
64
211200
2376
که ما وقتی داریم خیلی سخت است
تا آن را بروز دهیم
03:45
Like nostalgiaنوستالژی.
65
213600
1440
مثل نوستالژی.
03:47
So, to exploreکاوش کنید this, I createdایجاد شده
a pieceقطعه of artهنر, an experienceتجربه,
66
215640
3936
خب، برای کشف کردن این کار،
من هنر و تجربه‌ای را طراحی کردم،
03:51
that askedپرسید: people to shareاشتراک گذاری a memoryحافظه,
67
219600
2096
که از مردم می‌خواهد خاطره
به اشتراک بگذارند.
03:53
and I teamedتیمی up with some dataداده ها scientistsدانشمندان
68
221720
2136
و من با یک سری متخصصان داده مشورت کردم
03:55
to figureشکل out how to take
an emotionهیجانی that's so highlyبه شدت subjectiveذهنی
69
223880
3576
تا بفهمم که چگونه می‌توان یک احساس وابسته
به طرز تفکر شخص را فهمید
03:59
and convertتبدیل it into something
mathematicallyاز نظر ریاضی preciseدقیق.
70
227480
3200
و آن را تبدیل به کدهای دقیق کرد.
04:03
So, we createdایجاد شده what we call
a nostalgiaنوستالژی scoreنمره
71
231840
2136
خب، آن به اصطلاح امتیاز
نوستالژی را ساختیم
04:06
and it's the heartقلب of this installationنصب و راه اندازی.
72
234000
2216
و این کار، قلب این تاسیسات است.
04:08
To do that, the installationنصب و راه اندازی
asksمی پرسد you to shareاشتراک گذاری a storyداستان,
73
236240
3056
برای انجامش، تاسیسات از شما می‌پرسد
تا داستانی را بگویید،
04:11
the computerکامپیوتر then analyzesتجزیه و تحلیل it
for its simplerساده تر emotionsاحساسات,
74
239320
3256
کامپیوتر‌ بعد از آن این احساس را برای
احساسات ساده‌تر آنالیز می‌کند،
04:14
it checksچک ها for your tendencyگرایش
to use past-tenseزمان گذشته wordingاصطلاح
75
242600
2656
گرایش‌تان در استفاده از عبارات‌
زمان گذشته را چک می‌کند
04:17
and alsoهمچنین looksبه نظر می رسد for wordsکلمات
that we tendگرایش داشتن to associateوابسته with nostalgiaنوستالژی,
76
245280
3336
و حتی کلماتی را جستجو می‌کند
که با نوستالژی همراه هستند.
04:20
like "home," "childhoodدوران کودکی" and "the pastگذشته."
77
248640
3040
برای مثال خانه، دوران بچگی و گذشته
04:24
It then createsایجاد می کند a nostalgiaنوستالژی scoreنمره
78
252760
2056
بعد از آن یک نمره نوستالژی می‌سازد
04:26
to indicateنشان می دهد how nostalgicدلتنگ your storyداستان is.
79
254840
2736
تا نشان دهد که داستان شما
چقدر نوستالژیک است.
04:29
And that scoreنمره is the drivingرانندگی forceزور
behindپشت these light-basedمبتنی بر نور sculpturesمجسمه ها
80
257600
4136
و آن نمره نیروی پیشران پشت
این مجسمه‌های نور محور است
04:33
that serveخدمت as physicalفیزیکی embodimentsتجسم
of your contributionمشارکت.
81
261760
3896
که مثل تجسم فیزیکی،
مشارکت شما خدمت می‌کند.
04:37
And the higherبالاتر the scoreنمره,
the rosierسبز the hueرنگ.
82
265680
3216
و نمره بالاتر، رنگ شفاف‌تر.
04:40
You know, like looking at the worldجهان
throughاز طریق rose-coloredrose-colored glassesعینک.
83
268920
3936
مثل نگاه کردن دنیا با عینک قرمز رنگ.
04:44
So, when you see your scoreنمره
84
272880
2616
خب، وقتی به نمره‌تان
04:47
and the physicalفیزیکی representationنمایندگی of it,
85
275520
2656
و به نمایش فیزیکی آن نگاه می‌کنید،
04:50
sometimesگاه گاهی you'dمی خواهی agreeموافق
and sometimesگاه گاهی you wouldn'tنمی خواهم.
86
278200
2936
گاهی اوقات شما موافق یا مخالف آن هستید
04:53
It's as if it really understoodفهمید
how that experienceتجربه madeساخته شده you feel.
87
281160
3480
همانطور که فهمیدید که چگونه این
تجربه برای شما احساسی می‌سازد.
04:57
But other timesبار it getsمی شود trippedمتوقف شد up
88
285400
2216
اما هر وقت این شکست خورد
04:59
and has you thinkingفكر كردن
it doesn't understandفهمیدن you at all.
89
287640
2560
و شما فکر کردید این هیچوقت
شما را درک نمی‌کند.
05:02
But the pieceقطعه really servesخدمت to showنشان بده
90
290680
1896
اما قطعه واقعا سعی میکند تا نشان دهد
05:04
that if we have a hardسخت time explainingتوضیح دادن
the emotionsاحساسات that we have to eachهر یک other,
91
292600
4056
که احساس کردن یکدیگر کار زمان‌بری است،
05:08
how can we teachتدریس کنید a computerکامپیوتر
to make senseاحساس of them?
92
296680
2360
چگونه می‌خواهیم به کامپیوتر
حس کردن را یاد بدهیم؟
05:12
So, even the more objectiveهدف، واقعگرایانه partsقطعات
about beingبودن humanانسان are hardسخت to describeتوصیف کردن.
93
300360
3576
حتی قسمتهای واقع گرایانه درباره
انسان بودن توضیح‌شان سخت است.
05:15
Like, conversationگفتگو.
94
303960
1240
مثل گفتگو.
05:17
Have you ever really triedتلاش کرد
to breakزنگ تفريح down the stepsمراحل?
95
305880
2736
آیا تا به حال شده که اینقدر خسته باشید
تا از پا بیفتید؟
05:20
So think about sittingنشسته
with your friendدوست at a coffeeقهوه shopفروشگاه
96
308640
2656
به کنار یک دوست بودن در کافی شاپ
05:23
and just havingداشتن smallکوچک talk.
97
311320
1320
و یک گپ کوتاه فکر کنید.
05:25
How do you know when to take a turnدور زدن?
98
313160
1720
چطور می‌دانید چه زمانی
نوبت شماست؟
05:27
How do you know when to shiftتغییر مکان topicsموضوعات?
99
315440
1840
و چه زمانی باید موضوع را عوض کنید؟
05:29
And how do you even know
what topicsموضوعات to discussبحث و گفتگو?
100
317960
2720
و حتی در مورد چه موضوعاتی باید بحث کنید؟
05:33
See, mostاکثر of us
don't really think about it,
101
321560
2096
خب، بیشتر ما حتی به آن هم فکر نمی‌کنیم،
05:35
because it's almostتقریبا secondدومین natureطبیعت.
102
323680
1656
چون تقریبا به
عادت تبدیل شده.
05:37
And when we get to know someoneکسی,
we learnیاد گرفتن more about what makesباعث می شود them tickتیک,
103
325360
3496
و وقتی سعی می‌کنیم کسی را بشناسیم
میفهمیم چگونه باید با آن رفتار کنیم،
05:40
and then we learnیاد گرفتن
what topicsموضوعات we can discussبحث و گفتگو.
104
328880
2376
و می‌فهمیم در مورد چه
موضوع‌هایی باید بحث کنیم.
05:43
But when it comesمی آید to teachingدرس دادن
AIAI systemsسیستم های how to interactتعامل with people,
105
331280
3656
وقتی یاد دادن به هوش
05:46
we have to teachتدریس کنید them
stepگام by stepگام what to do.
106
334960
2856
باید پله به پله یادشان دهیم
که چه کار کنند
05:49
And right now, it feelsاحساس می کند clunkyدلربا.
107
337840
3496
اکنون این احساس دلربایی دارد.
05:53
If you've ever triedتلاش کرد to talk
with Alexaالکسا, Siriسیری or Googleگوگل Assistantدستیار,
108
341360
4136
اگر تا به حال سعی کرده باشید با الکسا،
سیری یا دستیار گوگل حرف زده باشید،
05:57
you can tell that it or they
can still soundصدا coldسرماخوردگی.
109
345520
4200
می‌توانید بگویید که هنوز خشک هستند.
06:02
And have you ever gottenدریافت کردم annoyedآزاردهنده
110
350440
1656
آیا تا بحال ناراحت شده‌اید
06:04
when they didn't understandفهمیدن
what you were sayingگفت:
111
352120
2256
وقتی که آن‌ها منظور شما را نمی‌فهمند
06:06
and you had to rephraseدوباره توصیف کنید what you wanted
20 timesبار just to playبازی a songترانه?
112
354400
3840
و شما باید از اول عبارتی را بگویید
تا فقط یک ترانه را پخش کند؟
06:11
Alrightبسيار خوب, to the creditاعتبار of the designersطراحان,
realisticواقع بین communicationارتباطات is really hardسخت.
113
359440
4896
خب، برای اعتبار طراحان ارتباط
واقع بینانه بسیار سخت است.
06:16
And there's a wholeکل branchشاخه of sociologyجامعه شناسی,
114
364360
2136
و یک رشته مستقل از جامعه شناسی وجود دارد،
06:18
calledبه نام conversationگفتگو analysisتحلیل و بررسی,
115
366520
1936
به آن تجزیه و تحلیل گفتگو می‌گویند،
06:20
that triesتلاش می کند to make blueprintsطرح ها
for differentناهمسان typesانواع of conversationگفتگو.
116
368480
3136
که سعی می‌کند تا طرح‌هایی را برای
گفتگوهای مختلف ارائه کند.
06:23
Typesانواع like customerمشتری serviceسرویس
or counselingمشاوره, teachingدرس دادن and othersدیگران.
117
371640
4080
و این انواع شامل خدمات مشتری
یا مشاوره یا درس دادن می‌شود.
06:28
I've been collaboratingهمکاری
with a conversationگفتگو analystتحلیلگر at the labآزمایشگاه
118
376880
2936
من داشتم با یک تحلیل گر گفتگو در
آزمایشگاه همکاری میکردم
06:31
to try to help our AIAI systemsسیستم های
holdنگه دارید more human-soundingبشر صدایی conversationsگفتگو.
119
379840
4696
تا به سیستم‌های هوش مصنوعیمان مکالمه‌های
انسانی بیشتری را تشخیص دهد
06:36
This way, when you have an interactionاثر متقابل
with a chatbotchatbot on your phoneتلفن
120
384560
3176
وقتی با دستیار صوتی موبایلتان یا سیستم
06:39
or a voice-basedمبتنی بر صدا systemسیستم in the carماشین,
121
387760
1856
مبنی بر صدا در
ماشین‌تان تعامل می‌کنید.
06:41
it soundsبرای تلفن های موبایل a little more humanانسان
and lessکمتر coldسرماخوردگی and disjointedبی ربط.
122
389640
3320
کمی احساس می‌کنید انسان است
یا کمی خشک و نچسب.
06:46
So I createdایجاد شده a pieceقطعه of artهنر
123
394360
1336
خب من یک هنر را طراحی کردم
06:47
that triesتلاش می کند to highlightبرجسته
the roboticروباتیک, clunkyدلربا interactionاثر متقابل
124
395720
2816
که سعی می‌کند تعامل رباتیک
و دلربای خود را نشان دهد
06:50
to help us understandفهمیدن, as designersطراحان,
125
398560
1976
به ما کمک کند تا بفهمیم، به عنوان طراحان،
06:52
why it doesn't soundصدا humanانسان yetهنوز
and, well, what we can do about it.
126
400560
4576
چرا مثل انسان هنوز حرف نمی‌زنند
و چه کاری از دست ما ساخته است.
06:57
The pieceقطعه is calledبه نام Botبت to Botبت
127
405160
1456
این قطعه بات به بات نام دارد.
06:58
and it putsقرار می دهد one conversationalمکالمه
systemسیستم againstدر برابر anotherیکی دیگر
128
406640
2936
که با یک ربات دیگر گفتگو می‌کند
07:01
and then exposesدر معرض it to the generalعمومی publicعمومی.
129
409600
2536
و در معرض عموم قرار می‌گیرد.
07:04
And what endsبه پایان می رسد up happeningاتفاق می افتد
is that you get something
130
412160
2496
و سرآخر آنچه اتفاق می‌افتد
این است که چیزی را دارید
07:06
that triesتلاش می کند to mimicتقلید کردن humanانسان conversationگفتگو,
131
414680
1896
که سعی دارد از گفتگوی
انسان‌ تقلید کند،
07:08
but fallsسقوط shortکوتاه.
132
416600
1896
اما ناموفق است.
07:10
Sometimesگاهی it worksآثار and sometimesگاه گاهی
it getsمی شود into these, well,
133
418520
2736
گاهی اوقات اتفاق می‌افتد
و گاهی اوقات دردسر دارد،
07:13
loopsحلقه ها of misunderstandingسوء تفاهم.
134
421280
1536
خب کلی سو تفاهم
به وجود آمد.
07:14
So even thoughگرچه the machine-to-machineماشین به ماشین
conversationگفتگو can make senseاحساس,
135
422840
3096
با اینکه صحبت کردن
ماشین به ماشین امکان دارد،
07:17
grammaticallyگرامشی and colloquiallyمحاوره,
136
425960
2016
چه دستور زبانی یا گفتاری.
07:20
it can still endپایان up
feelingاحساس coldسرماخوردگی and roboticروباتیک.
137
428000
3216
حتی هنوز می‌تواند حس خشک
و رباتیک بودن داشته باشد.
07:23
And despiteبا وجود checkingچک کردن all the boxesجعبه ها,
the dialogueگفتگو lacksفاقد soulروح
138
431240
4016
جدا از همه امکاناتی که بررسی شد
این گفتگو روح ندارد
07:27
and those one-offیک بار quirksپیش فرض
that make eachهر یک of us who we are.
139
435280
3136
و این تغییرات ناگهانی هستند
که ما را می‌سازند.
07:30
So while it mightممکن be grammaticallyگرامشی correctدرست
140
438440
2056
خب وقتی شاید از نظر
دستور زبان درست باشد
07:32
and usesاستفاده می کند all the right
hashtagsهشتگ ها and emojisemojis,
141
440520
2656
و بتواند درست‌ترین هشتگ‌ها
و ایموجی‌ها را استفاده کند،
07:35
it can endپایان up soundingصدایی mechanicalمکانیکی
and, well, a little creepyخزنده.
142
443200
4136
می‌تواند در نهایت مکانیکی و
کمی ترسناک به نظر برسد.
07:39
And we call this the uncannyغیر طبیعی valleyدره.
143
447360
2336
و ما آن را دره غیر طبیعی می‌نامیم
07:41
You know, that creepinesscreepiness factorعامل of techتکنولوژی
144
449720
1936
می‌دانید که فاکتور خشونت فناوری
07:43
where it's closeبستن to humanانسان
but just slightlyکمی off.
145
451680
2856
که به انسان نزدیک است اما خاموش است.
07:46
And the pieceقطعه will startشروع کن beingبودن
146
454560
1456
و دستگاه جوری
کار خواهد کرد
07:48
one way that we testتست
for the humannessانسانیت of a conversationگفتگو
147
456040
3216
که ما مثل انسان بودن
را در یک گفتگو آزمایش می‌کنیم
07:51
and the partsقطعات that get
lostکم شده in translationترجمه.
148
459280
2160
و بخش‌هایی که در ترجمه گم شده‌اند.
07:54
So there are other things
that get lostکم شده in translationترجمه, too,
149
462560
2856
خب حتی چیزهایی هستند
که در ترجمه گم شده‌اند،
07:57
like humanانسان intuitionبینش.
150
465440
1616
ماند بینش انسانی
07:59
Right now, computersکامپیوترها
are gainingبه دست آوردن more autonomyخودمختاری.
151
467080
2776
در حال حاضر کامپیوتر‌ها دارند
خود مختار می‌شوند.
08:01
They can take careاهميت دادن of things for us,
152
469880
1736
می‌توانند مواظب اشیا برای ما شوند،
08:03
like changeتغییر دادن the temperatureدرجه حرارت
of our housesخانه ها basedمستقر on our preferencesاولویت ها
153
471640
3176
مثل عوض کردن دمای
خانه‌هایمان بر اساس اولویت و حتی
08:06
and even help us driveراندن on the freewayبزرگراه.
154
474840
2160
به ما در رانندگی در
آزاد راهها کمک کنند.
08:09
But there are things
that you and I do in personفرد
155
477560
2496
اما چیزهای خیلی زیادی
که من و شما انجام می‌دهیم
08:12
that are really difficultدشوار
to translateترجمه کردن to AIAI.
156
480080
2760
که واقعا ترجمه کردن آن‌ها برای ه
وش مصنوعی سخت است.
08:15
So think about the last time
that you saw an oldقدیمی classmateهمکلاسی or coworkerهمکار.
157
483440
4360
آخرین باری را که یک همکار یا
همکلاسی قدیمی را دیده‌اید به یاد آورید.
08:21
Did you give them a hugدر آغوش گرفتن
or go in for a handshakeدستشویی?
158
489080
2480
آیا همدیگر را بغل کردید یا دست داده‌اید؟
08:24
You probablyشاید didn't think twiceدو برابر
159
492800
1496
شاید دو بار فکر به آن نکنید
08:26
because you've had so manyبسیاری
builtساخته شده up experiencesتجربیات
160
494320
2336
به خاطر اینکه تجربه‌های
ساخته شده‌ای را داشته‌اید
08:28
that had you do one or the other.
161
496680
2000
که شما یک کار یا کار دیگری را انجام دهید.
08:31
And as an artistهنرمند, I feel
that accessدسترسی به to one'sیک نفر intuitionبینش,
162
499440
3456
و به عنوان یک هنرمند حس می‌کنم
دست یافتن به بینش یک نفر،
08:34
your unconsciousناخودآگاه knowingدانستن,
163
502920
1416
دانسته‌های ناخودآگاه ما،
08:36
is what helpsکمک می کند us createايجاد كردن amazingحیرت آور things.
164
504360
3056
چیزهایی هستند که به ما کمک می‌کنند
چیزهای خارق‌العاده‌ای بسازیم.
08:39
Bigبزرگ ideasایده ها, from that abstractچکیده,
nonlinearغیر خطی placeمحل in our consciousnessآگاهی
165
507440
4056
ایده‌های بزرگ، از آن خلاصه،
مکان‌های غیر خطی در خودآگاه ما
08:43
that is the culminationنقطه اوج
of all of our experiencesتجربیات.
166
511520
2960
که این نقطه اوج تجربه‌های ما است.
08:47
And if we want computersکامپیوترها to relateمربوط بودن to us
and help amplifyتقویت our creativeخلاقانه abilitiesتوانایی ها,
167
515840
4656
اگر بخواهیم کامپیوترها به ما ربط پیدا کرده
و به تقویت خلاقیت ما کمک کنند،
08:52
I feel that we'llخوب need to startشروع کن thinkingفكر كردن
about how to make computersکامپیوترها be intuitiveبصری.
168
520520
3896
احساس می‌کنم که نیاز داریم
کامپیوترهایمان را درک کننده کنیم.
08:56
So I wanted to exploreکاوش کنید
how something like humanانسان intuitionبینش
169
524440
3096
خب می‌خواستم کاوش کنم که
چگونه هر چیزی مثل بینش انسان
08:59
could be directlyبه طور مستقیم translatedترجمه شده
to artificialمصنوعی intelligenceهوش.
170
527560
3456
می‌تواند مستقیما به هوش
مصنوعی ترجمه شود.
09:03
And I createdایجاد شده a pieceقطعه
that exploresکاوش می کند computer-basedمبتنی بر کامپیوتر intuitionبینش
171
531040
3216
و من چیزی را ساختم که بینش کامپیوتر محور،
در فضای فیزیکی
09:06
in a physicalفیزیکی spaceفضا.
172
534280
1320

را کاوش می‌کند.
09:08
The pieceقطعه is calledبه نام WayfindingWayfinding,
173
536480
1696
این دستگاه مسیریاب نام دارد،
09:10
and it's setتنظیم up as a symbolicنمادین compassقطب نما
that has fourچهار kineticجنبشی sculpturesمجسمه ها.
174
538200
3936
و این مانند یک قطب نمای
نمادین است که ۴ شئ متحرک دارد
09:14
Eachهر یک one representsنشان دهنده a directionجهت,
175
542160
2056
که هر کدام نشان دهنده یک جهت است،
09:16
northشمال, eastشرق, southجنوب and westغرب.
176
544240
2120
شمال، جنوب، شرق و غرب
09:19
And there are sensorsسنسورها setتنظیم up
on the topبالا of eachهر یک sculptureمجسمه سازی
177
547080
2696
و بالای هر شئ سنسورهایی نصب شده
09:21
that captureگرفتن how farدور away
you are from them.
178
549800
2256
که نشان می‌دهد چقدر شما
از آن‌ها دور هستید.
09:24
And the dataداده ها that getsمی شود collectedجمع آوری شده
179
552080
1816
و داده‌ای که گرفته می‌شود
09:25
endsبه پایان می رسد up changingتغییر دادن the way
that sculpturesمجسمه ها moveحرکت
180
553920
2136
و وقتی راه به پایان می‌رسد آن شئ
09:28
and the directionجهت of the compassقطب نما.
181
556080
2040
و جهت قطب نما عوض می‌شود.
09:31
The thing is, the pieceقطعه doesn't work
like the automaticاتوماتیک doorدرب sensorسنسور
182
559360
3656
و این سنسور مثل سنسور درب اتوماتیک نیست
09:35
that just opensباز می شود
when you walkراه رفتن in frontجلوی of it.
183
563040
2656
که فقط هنگامی جلوی آن هستید
در را باز می‌کند.
09:37
See, your contributionمشارکت is only a partبخشی
of its collectionمجموعه of livedزندگی می کرد experiencesتجربیات.
184
565720
5056
همکاری شما فقط یک بخش از این
مجموعه تجربه‌های زنده است
09:42
And all of those experiencesتجربیات
affectتاثیر می گذارد the way that it movesحرکت می کند.
185
570800
4056
و همه آن تجربه‌هایی که روی
حرکت آن تاثیر می‌گذارند.
09:46
So when you walkراه رفتن in frontجلوی of it,
186
574880
1736
پس وقتی که شما جلوی آن قدم می‌زنید،
09:48
it startsشروع می شود to use all of the dataداده ها
187
576640
1976
شروع به استفاده از
تمام داده‌هایی می‌کند
09:50
that it's capturedاسیر
throughoutدر سراسر its exhibitionنمایشگاه historyتاریخ --
188
578640
2616
که این در سراسر تاریخ
نمایشگاهی‌اش گرفته شده است--
09:53
or its intuitionبینش --
189
581280
1816
یا بینش آن--
09:55
to mechanicallyمکانیکی respondپاسخ دادن to you
basedمستقر on what it's learnedیاد گرفتم from othersدیگران.
190
583120
3560
تا به شما پاسخی مبنی بر چیزهایی
که از دیگران یاد گرفته است بدهد.
09:59
And what endsبه پایان می رسد up happeningاتفاق می افتد
is that as participantsشركت كنندگان
191
587480
2536
از چشم شرکت کنندگان چیزی
اتفاق افتاده است که
10:02
we startشروع کن to learnیاد گرفتن the levelسطح
of detailجزئیات that we need
192
590040
2816
شروع کردیم تا یاد بگیریم رتبه
جزییات آن چه که نیاز داریم
10:04
in orderسفارش to manageمدیریت کردن expectationsانتظارات
193
592880
2016
به منظور مدیریت انتظارها
10:06
from bothهر دو humansانسان and machinesماشین آلات.
194
594920
2776
هم از انسان‌ها و هم ماشین‌ها.
10:09
We can almostتقریبا see our intuitionبینش
beingبودن playedبازی کرد out on the computerکامپیوتر,
195
597720
3616
ما تقریبا می‌توانیم بینش خودمان را
که اکنون روی کامپیوتر است ببینیم،
10:13
picturingتصویر کشیدن all of that dataداده ها
beingبودن processedفرآوری شده in our mind'sذهن eyeچشم.
196
601360
3600
به تصویر کشیده شدن تمام آن داده که
در چشم ذهن ما فراوری شده است.
10:17
My hopeامید is that this typeتایپ کنید of artهنر
197
605560
1656
آرزوی من این نوع شکل از هنر است
10:19
will help us think differentlyمتفاوت است
about intuitionبینش
198
607240
2416
که در داشتن تفکری متفاوت درباره بینش‌ و
10:21
and how to applyدرخواست that to AIAI in the futureآینده.
199
609680
2280
و چگونگی کاربرد آن را درهوش
مصنوعی کمک میکند.
10:24
So these are just a fewتعداد کمی examplesمثال ها
of how I'm usingاستفاده كردن artهنر to feedخوراک into my work
200
612480
3936
این‌ها مثال‌هایی بودند که چگونه
از هنرم در مورد کارم استفاده می‌کنم،
10:28
as a designerطراح and researcherپژوهشگر
of artificialمصنوعی intelligenceهوش.
201
616440
3096
به عنوان یک طراح و محقق هوش مصنوعی.
10:31
And I see it as a crucialحیاتی way
to moveحرکت innovationنوآوری forwardرو به جلو.
202
619560
3496
و من آن را برای پیشبرد نوآوری
به عنوان یک راه، بسیار مهم می‌بینم.
10:35
Because right now, there are
a lot of extremesافراط when it comesمی آید to AIAI.
203
623080
4376
بخاطر اینکه در حال حاضر افراط‌های
زیادی در زمینه هوش مصنوعی وجود دارد.
10:39
Popularمحبوب moviesفیلم ها showنشان بده it
as this destructiveمخرب forceزور
204
627480
2816
فیلم‌های معروف آن را به عنوان
یک نیروی مخرب نشان می‌دهند
10:42
while commercialsآگهی های بازرگانی
are showingنشان دادن it as a saviorنجات دهنده
205
630320
3056
وقتی که تبلیغات هوش مصنوعی
را یک نجات دهنده
10:45
to solveحل some of the world'sجهان
mostاکثر complexپیچیده problemsمشکلات.
206
633400
2936
برای حل کردن مشکل‌ترین
مشکل‌های دنیا می‌دانند
10:48
But regardlessبدون در نظر گرفتن of where you standایستادن,
207
636360
2536
اما بدون در نظر گرفتن جایی که ایستادید
10:50
it's hardسخت to denyانکار
that we're livingزندگي كردن in a worldجهان
208
638920
2176
سخت است که انکار کنید
در جهانی زندگی می‌کنید
10:53
that's becomingتبدیل شدن به more
and more digitalدیجیتال by the secondدومین.
209
641120
2576
که دارد هر ثانیه بیشتر دیجیتالی می‌شود.
10:55
Our livesزندگی می کند revolveچرخش around our devicesدستگاه ها,
smartهوشمندانه appliancesلوازم خانگی and more.
210
643720
4600
زندگی‌های ما حول ابزارها و لوازم خانگی
و دیگر چیزها می‌چرخد.
11:01
And I don't think
this will let up any time soonبه زودی.
211
649400
2320
و فکر نمی‌کنم که بزودی از
آن کاسته شود.
11:04
So, I'm tryingتلاش کن to embedجاسازی
more humannessانسانیت from the startشروع کن.
212
652400
3736
من سعی بر این دارم که از
ابتدا انسان بودن را بگنجانم.
11:08
And I have a hunchهانچ that bringingبه ارمغان آوردن artهنر
into an AIAI researchپژوهش processروند
213
656160
5136
و این احساس را دارم که آوردن هنر
به پروسه هوش مصنوعی
11:13
is a way to do just that.
214
661320
1896
راهی برای انجام آن است.
11:15
Thank you.
215
663240
1216
متشکرم.
11:16
(Applauseتشویق و تمجید)
216
664480
2280
(تشویق)
Translated by Leila Ataei
Reviewed by Muhammad Tabibzadeh

▲Back to top

ABOUT THE SPEAKER
Raphael Arar - Designer, researcher
IBM's Raphael Arar creates art and designs experiences that examine the complexities of our increasingly technocentric lives.

Why you should listen

While his artwork raises questions about our relationship with modernity and technology, Raphael Arar’s design work revolves around answering those questions in human-centered ways. 

Currently a designer and researcher at IBM Research, Arar has been exploring ways to translate aspects of emotional intelligence into machine-readable format. Through this, he is passionately tackling ethical platforms of artificial intelligence. Inc. Magazine says he "epitomizes the style and multi-disciplinary skill set of the modern designer," and in 2017, he was listed as one of Forbes's "30 under 30 in Enterprise Technology."

More profile about the speaker
Raphael Arar | Speaker | TED.com