ABOUT THE SPEAKER
Rana el Kaliouby - Computer scientist
What if a computer could recognize your facial expression, and react to how you feel? Rana el Kaliouby sees big possibilities in making technology emotionally aware.

Why you should listen

Rana el Kaliouby, chief science officer and co-founder of Affectiva, an MIT Media Lab spin-off, is on a mission to bring emotion intelligence to our digital experiences. She leads the company's emotion analytics team, which is responsible for developing emotion-sensing algorithms and mining the world's largest emotion data database. So far, they've collected 12 billion emotion data points from 2.9 million face videos from volunteers in 75 countries. The company’s platform is used by many Fortune Global 100 companies to measure consumer engagement, and is pioneering emotion-enabled digital apps for enterprise, entertainment, video communication and online education.

Entrepreneur magazine called el Kaliouby one of “The 7 Most Powerful Women To Watch in 2014,” and the MIT Technology Review included her in their list of the “Top 35 Innovators Under 35.”

More profile about the speaker
Rana el Kaliouby | Speaker | TED.com
TEDWomen 2015

Rana el Kaliouby: This app knows how you feel -- from the look on your face

رعنا الکالیوبی: این اپلیکیشن می‎داند شما چطور احساس می‎کنید-- با نگاه کردن به چهره‎تان

Filmed:
1,613,290 views

احساساتمان جنبه‌های مختلف زندگی‌مان را تحت تأثیر قرار می‌دهند - چگونگی یادگیریمان، چگونگی برقراری ارتباطمان، چگونگی تصمیم‌گیریمان. اما احساساتمان در زندگی دیجیتال غایب هستند؛ وسایل و اپلیکیشن‌هایی که با آن‌ها کار می کنیم، نمی‌دانند چه احساسی داریم. دانشمند رعنا الکالیوبی، می‌خواهد این وضعیت را تغییر دهد. او یک نمونه‌ی نمایشی از یک تکنولوژی جدید را نشان می‌دهد که حالات صورت شما را می‌خواند و آن‌ها را با احساسات مربوطه تطبیق می‌دهد. او می‌گوید، این «جست‌و‌جوگر احساسات» پیچیدگی‌های بزرگی دارد، و می‌تواند نه تنها تعامل ما و ماشین‌ها را تغییر دهد، بلکه می‌تواند تعامل ما با یک‌دیگر را نیز تغییر دهد.
- Computer scientist
What if a computer could recognize your facial expression, and react to how you feel? Rana el Kaliouby sees big possibilities in making technology emotionally aware. Full bio

Double-click the English transcript below to play the video.

00:12
Our emotionsاحساسات influenceنفوذ
everyهرکدام aspectجنبه of our livesزندگی می کند,
0
556
4017
احساسات ما روی همه‌ی جنبه‌های زندگیمان
تأثیر می‌گذارد،
00:16
from our healthسلامتی and how we learnیاد گرفتن,
to how we do businessکسب و کار and make decisionsتصمیمات,
1
4573
3576
از سلامتی و چگونگی یادگیریمان گرفته،
تا شیوه‌ی کسب و کار و تصمیم‌گیریمان،
00:20
bigبزرگ onesآنهایی که and smallکوچک.
2
8149
1773
از ریز تا درشت.
00:22
Our emotionsاحساسات alsoهمچنین influenceنفوذ
how we connectاتصال with one anotherیکی دیگر.
3
10672
3490
احساساتمان روی برقراری ارتباطمات
با دیگران نیز تأثیر می‌گذارد.
00:27
We'veما هستیم evolvedتکامل یافته است to liveزنده
in a worldجهان like this,
4
15132
3976
ما چنان رشد کرده‌ایم
تا در جهانی این‌چنین زندگی کنیم،
00:31
but insteadبجای, we're livingزندگي كردن
more and more of our livesزندگی می کند like this --
5
19108
4319
ولی در مقابل، بیشتر این‌گونه
زندگی می‌کنیم --
00:35
this is the textمتن messageپیام
from my daughterفرزند دختر last night --
6
23427
3134
این پیامک را دخترم،
شب گذشته برایم فرستاده است --
00:38
in a worldجهان that's devoidاز دست رفته of emotionهیجانی.
7
26561
2740
در جهانی که خالی از احساسات است.
00:41
So I'm on a missionماموریت to changeتغییر دادن that.
8
29301
1951
من مأموریت دارم که وضعیت را
تغییر دهم.
00:43
I want to bringآوردن emotionsاحساسات
back into our digitalدیجیتال experiencesتجربیات.
9
31252
4091
می‌خواهم احساسات را
به تجربه‌ی دیجیتال بیاورم.
00:48
I startedآغاز شده on this pathمسیر 15 yearsسالها agoپیش.
10
36223
3077
این راه را ۱۵ سال پیش آغاز کردم.
00:51
I was a computerکامپیوتر scientistدانشمند in Egyptمصر,
11
39300
2066
من یک دانشمند کامپیوتر در مصر بودم،
00:53
and I had just gottenدریافت کردم acceptedپذیرفته شده to
a PhPh.D. programبرنامه at Cambridgeکمبریج Universityدانشگاه.
12
41366
4505
و به‌تازگی در یک برنامه‌ی دکترا
در دانشگاه کمبریج پذیرفته شده‌ بودم.
00:57
So I did something quiteکاملا unusualغیر معمول
13
45871
2113
من کاری به نسبت غیر معمول
00:59
for a youngجوان newlywednewlywed Muslimمسلمان Egyptianمصری wifeهمسر:
14
47984
4225
برای یک زن مسلمان مصری تازه عروس
انجام دادم:
01:05
With the supportحمایت کردن of my husbandشوهر,
who had to stayاقامت کردن in Egyptمصر,
15
53599
2999
با حمایت همسرم که
باید در مصر می‌ماند
01:08
I packedبسته بندی شده my bagsکیسه and I movedنقل مکان کرد to Englandانگلستان.
16
56598
3018
چمدان‌هایم را برداشتم و به انگلیس رفتم.
01:11
At Cambridgeکمبریج, thousandsهزاران نفر of milesمایل
away from home,
17
59616
3228
در کمبریج، هزاران مایل
دور از خانه،
01:14
I realizedمتوجه شدم I was spendingهزینه کردن
more hoursساعت ها with my laptopلپ تاپ
18
62844
3413
فهمیدم که بیشتر ساعات را
با لپ‌تاپم سپری می‌کنم
01:18
than I did with any other humanانسان.
19
66257
2229
تا با دیگر انسان‌ها.
01:20
Yetهنوز despiteبا وجود this intimacyصمیمیت, my laptopلپ تاپ
had absolutelyکاملا no ideaاندیشه how I was feelingاحساس.
20
68486
4853
با وجود این صمیمیت، لپ‌تاپ من هیچ ایده‌ای
درباره‌ی آن‌چه من احساس می‌کردم نداشت.
01:25
It had no ideaاندیشه if I was happyخوشحال,
21
73339
3211
هیچ ایده‌ای درباره‌ی این که من خوش‌حالم
01:28
havingداشتن a badبد day, or stressedتاکید کرد, confusedسردرگم,
22
76550
2988
روز بدی را گذرانده‌ام، استرس داشته‌ام،
یا گیجم،
01:31
and so that got frustratingخسته کننده، اذیت کننده.
23
79538
2922
و خب، این‌ها ناامید‌کننده شد.
01:35
Even worseبدتر, as I communicatedارتباط برقرار کرد
onlineآنلاین with my familyخانواده back home,
24
83600
5231
حتی بدتر، هنگامی که با خانواده‌ام،
به صورت آنلاین ارتباط برقرار می‌کردم،
01:41
I feltنمد that all my emotionsاحساسات
disappearedناپدید شد in cyberspaceفضای مجازی.
25
89421
3282
احساس می‌کردم که تمام احساسات من
در فضای سایبری ناپدید می‌شوند.
01:44
I was homesickغم و اندوه, I was lonelyتنهایی,
and on some daysروزها I was actuallyدر واقع cryingگریان,
26
92703
5155
من دلتنگ خانه بودم، تنها بودم،
و بعضی روز‌ها واقعا گریه می‌کردم،
01:49
but all I had to communicateبرقراری ارتباط
these emotionsاحساسات was this.
27
97858
4928
ولی تنها راه ابراز احساساتم
این شکلک بود.
01:54
(Laughterخنده)
28
102786
2020
(خنده‌ی حضار)
01:56
Today'sامروزه technologyتکنولوژی
has lots of I.Q., but no E.Q.;
29
104806
4974
تکنولوژیِ امروز، بهره‌ی هوشی بالایی دارد
ولی بهره‌ی احساسی ندارد؛
02:01
lots of cognitiveشناختی intelligenceهوش,
but no emotionalعاطفی intelligenceهوش.
30
109780
3176
هوشِ شناختیِ فراوانی دارد،
ولی هوش احساسی ندارد.
02:04
So that got me thinkingفكر كردن,
31
112956
2197
این مرا به فکر فرو برد،
02:07
what if our technologyتکنولوژی
could senseاحساس our emotionsاحساسات?
32
115153
3624
اگر تکنولوژی می‌توانست
احساسات ما را بفهمد، چه می‌شد؟
02:10
What if our devicesدستگاه ها could senseاحساس
how we feltنمد and reactedواکنش نشان داد accordinglyبر این اساس,
33
118777
4076
چه می‌شد اگر وسایل ما می‌توانستند
احساست ما را بفهمند و با توجه به آن‌ها واکنش نشان‌دهند،
02:14
just the way an emotionallyعاطفی
intelligentباهوش - هوشمند friendدوست would?
34
122853
3013
مثل هر یک از دوستان ما که هوش احساسی دارد
و واکنش نشان می‌دهد؟
02:18
Those questionsسوالات led me and my teamتیم
35
126666
3564
این سؤالات، من و تیمم را
02:22
to createايجاد كردن technologiesفن آوری ها that can readخواندن
and respondپاسخ دادن to our emotionsاحساسات,
36
130230
4377
به ساخت تکنولوژی‌هایی که بتوانند احساساتِ
ما را بخوانند و به آن‌ پاسخ بدهند سوق داد،
02:26
and our startingراه افتادن pointنقطه was the humanانسان faceصورت.
37
134607
3090
و نقطه‌ی شروع ما چهره‌ی انسان‌ها بود.
02:30
So our humanانسان faceصورت happensاتفاق می افتد to be
one of the mostاکثر powerfulقدرتمند channelsکانال ها
38
138577
3173
چهره‌ی انسان‌، یکی از قوی‌ترین کانال‌هاست
02:33
that we all use to communicateبرقراری ارتباط
socialاجتماعی and emotionalعاطفی statesایالت ها,
39
141750
4016
که همه‌ی ما از آن استفاده می‌کنیم، تا
حالت‌های اجتماعی و احساسی را ابراز کنیم،
02:37
everything from enjoymentلذت بردن, surpriseتعجب,
40
145766
3010
همه‌چیز، شوق و شگفتی‌ِمان،
02:40
empathyیکدلی and curiosityکنجکاوی.
41
148776
4203
هم‌دلی و کنجکاویمان.
02:44
In emotionهیجانی scienceعلوم پایه, we call eachهر یک
facialچهره muscleماهیچه movementجنبش an actionعمل unitواحد.
42
152979
4928
در دانش احساسات، ما به هر حرکت عضلات صورت
یک واحد حرکت می‌گوییم.
02:49
So for exampleمثال, actionعمل unitواحد 12,
43
157907
2925
در نتیجه، برای مثال، حرکتِ واحدِ ۱۲،
02:52
it's not a Hollywoodهالیوود blockbusterفیلمبرداری,
44
160832
2038
یک فیلم پرفروش هالیوودی نیست،
02:54
it is actuallyدر واقع a lipلب cornerگوشه pullکشیدن,
whichکه is the mainاصلی componentجزء of a smileلبخند.
45
162870
3442
بلکه در حقیقت، بالا رفتن گوشه‌ی لب است،
که یک جز‌ٔ اصلی لب‌خند است.
02:58
Try it everybodyهمه. Let's get
some smilesلبخند می زند going on.
46
166312
2988
همه امتحانش کنید. بیایید
چندین لبخند داشته‌باشیم.
03:01
Anotherیکی دیگر exampleمثال is actionعمل unitواحد 4.
It's the browسوزش furrowجاروبرقی.
47
169300
2654
مثال دیگر، حرکتِ واحدِ ۴ است،
که حرکتِ چروک انداختن ابرو است.
03:03
It's when you drawقرعه کشی your eyebrowsابروها togetherبا یکدیگر
48
171954
2238
زمانی که شما ابرو‌هایتان را درهم می‌‌کشید
03:06
and you createايجاد كردن all
these texturesبافت and wrinklesچین و چروک.
49
174192
2267
و همه‌ی این الگو‌ها و چین‌ها را می‌سازید.
03:08
We don't like them, but it's
a strongقوی indicatorشاخص of a negativeمنفی emotionهیجانی.
50
176459
4295
ما اخم را دوست نداریم، ولی این حرکت
نشانگری قوی برای احساسات منفی است.
03:12
So we have about 45 of these actionعمل unitsواحد ها,
51
180754
2206
ما حدود ۴۵ واحد حرکتی داریم،
03:14
and they combineترکیب کردن to expressبیان
hundredsصدها of emotionsاحساسات.
52
182960
3390
و همه‌ی آن‌ها با هم ترکیب می‌شوند
تا صد‌ها احساس را ابراز و بیان کنند.
03:18
Teachingدرس دادن a computerکامپیوتر to readخواندن
these facialچهره emotionsاحساسات is hardسخت,
53
186350
3901
آموزش خواندن احساسات چهره
به یک کامپیوتر سخت است،
03:22
because these actionعمل unitsواحد ها,
they can be fastسریع, they're subtleنامحسوس,
54
190251
2972
زیرا این واحد‌های حرکتی می‌توانند
سریع، دقیق، و ماهرانه باشند.
03:25
and they combineترکیب کردن in manyبسیاری differentناهمسان waysراه ها.
55
193223
2554
و به شکل‌های مختلف با هم ترکیب شوند.
03:27
So take, for exampleمثال,
the smileلبخند and the smirkعجله کن.
56
195777
3738
برای مثال، لبخند و پوزخند زدن را
در نظر بگیرید.
03:31
They look somewhatتاحدی similarمشابه,
but they mean very differentناهمسان things.
57
199515
3753
آن‌ها از جهاتی، شبیه به هم هستند،
ولی معانی کاملا متفاوتی دارند.
03:35
(Laughterخنده)
58
203268
1718
(خنده‌ی حضار)
03:36
So the smileلبخند is positiveمثبت,
59
204986
3004
لبخند مثبت است،
03:39
a smirkعجله کن is oftenغالبا negativeمنفی.
60
207990
1270
و پوزخند معمولاً منفی‌.
03:41
Sometimesگاهی a smirkعجله کن
can make you becomeتبدیل شدن به famousمشهور.
61
209260
3876
بعضی اوقات، یک پوزخند
می‌تواند شما را معروف کند.
03:45
But seriouslyبه طور جدی, it's importantمهم
for a computerکامپیوتر to be ableتوانایی
62
213136
2824
ولی جداً، برای یک کامپیوتر
مهم است که بتواند
03:47
to tell the differenceتفاوت
betweenبین the two expressionsاصطلاحات.
63
215960
2855
دو حالت متفاوت را
از هم تشخیص دهد.
03:50
So how do we do that?
64
218815
1812
حال، ما این کار را چگونه
انجام می‌دهیم؟
03:52
We give our algorithmsالگوریتم ها
65
220627
1787
ما به الگوریتم‌هایمان
03:54
tensده ها of thousandsهزاران نفر of examplesمثال ها
of people we know to be smilingخندان,
66
222414
4110
ده‌ها مثال از صد‌ها مثالی که
مردم در آن‌ها می‌خندند را می‌دهیم،
03:58
from differentناهمسان ethnicitiesقومیت ها, agesسنین, gendersجنس ها,
67
226524
3065
از فرهنگ‌ها، سنین، و جنسیت‌های متفاوت،
04:01
and we do the sameیکسان for smirkssmirks.
68
229589
2811
و همین کار را برای پوزخند‌ها
انجام می‌دهیم.
04:04
And then, usingاستفاده كردن deepعمیق learningیادگیری,
69
232400
1554
و سپس، با کمک یادگیری عمیق،‌
04:05
the algorithmالگوریتم looksبه نظر می رسد for all these
texturesبافت and wrinklesچین و چروک
70
233954
2856
الگوریتمْ به همه‌ی این الگو‌ها
و چین‌و‌چروک‌ها
04:08
and shapeشکل changesتغییرات on our faceصورت,
71
236810
2580
و تغییرات قالبِ چهره‌مان نگاه می‌کند،
04:11
and basicallyاساسا learnsیاد میگیرد that all smilesلبخند می زند
have commonمشترک characteristicsمشخصات,
72
239390
3202
و به طور اساسی یاد می‌گیرد که
همه‌ی لبخند‌ها ویژگی‌های مشابهی دارند
04:14
all smirkssmirks have subtlyزیرکانه
differentناهمسان characteristicsمشخصات.
73
242592
3181
و همه‌ی پوزخند‌ها، ویژگی‌های ماهرانه‌،
اما متفاوتی دارند.
04:17
And the nextبعد time it seesمی بیند a newجدید faceصورت,
74
245773
2368
و دفعه‌ی بعد که
یک چهره‌ی جدید را می‌بیند،
04:20
it essentiallyاساسا learnsیاد میگیرد that
75
248141
2299
ضرورتاً می‌فهمد
04:22
this faceصورت has the sameیکسان
characteristicsمشخصات of a smileلبخند,
76
250440
3033
که این چهره، ویژگی‌های یک لبخند را دارد،
04:25
and it saysمی گوید, "Ahaآه, I recognizeتشخیص this.
This is a smileلبخند expressionاصطلاح."
77
253473
4278
و می‌گوید: «آها، من این را تشخیص می‌دهم.
این جلوه‌ی یک لبخند است.»
04:30
So the bestبهترین way to demonstrateنشان دادن
how this technologyتکنولوژی worksآثار
78
258381
2800
پس بهترین راه برای نشان‌دادن
چگونگی عمل‌کرد این تکنولوژی
04:33
is to try a liveزنده demoنسخه ی نمایشی,
79
261181
2136
اجرای یک نمایش زنده است،
04:35
so I need a volunteerداوطلب,
preferablyترجیحا somebodyکسی with a faceصورت.
80
263317
3913
پس من یک داوطلب می‌خواهم،
ترجیحاً فردی با یک صورت.
04:39
(Laughterخنده)
81
267230
2334
(خنده‌ی حضار)
04:41
Cloe'sکلوئه going to be our volunteerداوطلب todayامروز.
82
269564
2771
کلوی داوطلب امروز ما خواهد بود.
04:45
So over the pastگذشته fiveپنج yearsسالها, we'veما هستیم movedنقل مکان کرد
from beingبودن a researchپژوهش projectپروژه at MITMIT
83
273325
4458
در پنج سالِ گذشته، ما از یک
پروژه‌ی تحقیقاتی در MIT،
04:49
to a companyشرکت,
84
277783
1156
به یک شرکت تبدیل شدیم،
04:50
where my teamتیم has workedکار کرد really hardسخت
to make this technologyتکنولوژی work,
85
278939
3192
جایی که تیم من، به سختی کار کرده‌است
تا این تکنولوژی کار کند،
04:54
as we like to say, in the wildوحشی.
86
282131
2409
که چیزی است که می‌خواهیم
در واقعیت بگوییم تا در تئوری.
04:56
And we'veما هستیم alsoهمچنین shrunkکاهش یافته است it so that
the coreهسته emotionهیجانی engineموتور
87
284540
2670
هم‌چنین ما، آن را کوچک کرده‌ایم
تا هسته‌ی موتور احساسات
04:59
worksآثار on any mobileسیار deviceدستگاه
with a cameraدوربین, like this iPadاپل.
88
287210
3320
روی هر دستگاه موبایلِ مجهز به دوربین،
مانند این آی‌پد، کار کند.
05:02
So let's give this a try.
89
290530
2786
پس بیایید امتحانش کنیم.
05:06
As you can see, the algorithmالگوریتم
has essentiallyاساسا foundپیدا شد Cloe'sکلوئه faceصورت,
90
294756
3924
همان‌طور که می‌توانید مشاهده‌کنید،
الگوریتم صورت کلوی را یافته‌ است،
05:10
so it's this whiteسفید boundingمحدود کردن boxجعبه,
91
298680
1692
پس این جعبه‌ی سفید
کادر صورت را نشان می‌دهد،
05:12
and it's trackingردیابی the mainاصلی
featureویژگی pointsنکته ها on her faceصورت,
92
300372
2571
که دارد خصوصیات اصلی صورتش را
دنبال می‌کند؛
05:14
so her eyebrowsابروها, her eyesچشم ها,
her mouthدهان and her noseبینی.
93
302943
2856
ابرو‌هایش، چشمانش، دهانش، و دماغش.
05:17
The questionسوال is,
can it recognizeتشخیص her expressionاصطلاح?
94
305799
2987
سؤال این است که
آیا می‌تواند احساساتش را نیز شناسایی کند؟
05:20
So we're going to testتست the machineدستگاه.
95
308786
1671
پس ما دستگاه را تست می‌کنیم.
05:22
So first of all, give me your pokerپوکر faceصورت.
Yepبله, awesomeعالی. (Laughterخنده)
96
310457
4186
اول از همه، صورت بدون احساست را
به من نشان بده. بله، عالی است! (خنده‌ی حضار)
05:26
And then as she smilesلبخند می زند,
this is a genuineاصل smileلبخند, it's great.
97
314643
2813
حالا او می‌خندد،
این یک خنده‌ی خالص است، عالی است.
05:29
So you can see the greenسبز barبار
go up as she smilesلبخند می زند.
98
317456
2300
می‌توانید ببینید که نوار سبز
با خندیدن او بزرگ می‌شود.
05:31
Now that was a bigبزرگ smileلبخند.
99
319756
1222
این یک خنده‌ی بزرگ بود.
05:32
Can you try a subtleنامحسوس smileلبخند
to see if the computerکامپیوتر can recognizeتشخیص?
100
320978
3043
می‌توانی کمی ملایم بخندی تا ببینیم
کامپیوتر می‌تواند آن را شناسایی کند؟
05:36
It does recognizeتشخیص subtleنامحسوس smilesلبخند می زند as well.
101
324021
2331
بله، می‌تواند خنده‌ی ماهرانه را هم
به همین ترتیب شناسایی کند.
05:38
We'veما هستیم workedکار کرد really hardسخت
to make that happenبه وقوع پیوستن.
102
326352
2125
ما واقعا سخت کار کرده‌ایم
تا این کار را انجام دهیم.
05:40
And then eyebrowابرو raisedبالا بردن,
indicatorشاخص of surpriseتعجب.
103
328477
2962
و بعد، بالا رفتن ابرو‌ها،
که نشان‌دهنده‌ی شگفتی است.
05:43
Browمروارید furrowجاروبرقی, whichکه is
an indicatorشاخص of confusionگیجی.
104
331439
4249
چین‌خوردگی پیشانی،
نشان‌دهنده‌ی گیجی است.
05:47
Frownاخم. Yes, perfectکامل.
105
335688
4007
رو ترش کُن. بله، عالی است.
05:51
So these are all the differentناهمسان
actionعمل unitsواحد ها. There's manyبسیاری more of them.
106
339695
3493
پس این‌‌ها همه‌ی واحد‌هایِ حرکتیِ‌ متفاوت
هستند. چندین حرکت دیگر نیز وجود دارد.
05:55
This is just a slimmed-downضعیف demoنسخه ی نمایشی.
107
343188
2032
این یک نمایش کوچک‌شده است.
05:57
But we call eachهر یک readingخواندن
an emotionهیجانی dataداده ها pointنقطه,
108
345220
3148
ما به هر خواندن، یک
نقطه‌ی داده‌ی احساسات می‌گوییم.
06:00
and then they can fireآتش togetherبا یکدیگر
to portrayتصویر کشیدن differentناهمسان emotionsاحساسات.
109
348368
2969
و این نقاط می‌توانند با هم ترکیب شوند
تا نشان‌دهنده‌ی احساسات متفاوت باشند.
06:03
So on the right sideسمت of the demoنسخه ی نمایشی --
look like you're happyخوشحال.
110
351337
4653
پس در سمتِ راستِ نمونه‌ی نمایشی--
نشان بده که خوشحالی.
06:07
So that's joyشادی. Joyشادی firesآتش سوزی up.
111
355990
1454
این شوق است.
شوق زیاد می‌شود.
06:09
And then give me a disgustنفرت faceصورت.
112
357444
1927
و حالا به من یک صورت منزجر نشان بده.
06:11
Try to rememberیاد آوردن what it was like
when Zaynزین left One Directionجهت.
113
359371
4272
احساست را، زمانی که زِین، گروهِ
وان‌دایرِکشن را ترک کرد، به خاطر بیاور.
06:15
(Laughterخنده)
114
363643
1510
(خنده‌ی حضار)
06:17
Yeah, wrinkleچین و چروک your noseبینی. Awesomeعالی.
115
365153
4342
بله، دماغت را چین بده. عالی است.
06:21
And the valencevalence is actuallyدر واقع quiteکاملا
negativeمنفی, so you mustباید have been a bigبزرگ fanپنکه.
116
369495
3731
و نشان‌گر ظرفیت تا حدودی منفی شد،
پس حتما یک طرفدار واقعی هستی.
06:25
So valencevalence is how positiveمثبت
or negativeمنفی an experienceتجربه is,
117
373226
2700
معیارِ ظرفیت، مثبت یا منفی بودنِ تجربه را
نشان می‌دهد،
06:27
and engagementنامزدی is how
expressiveرسا she is as well.
118
375926
2786
و معیارِ درگیری نشان‌دهنده‌ی تأثیری است
که حالت صورت فرد خواهد گذاشت.
06:30
So imagineتصور کن if Cloeکلوچه had accessدسترسی به
to this real-timeبه موقع emotionهیجانی streamجریان,
119
378712
3414
پس زمانی را تصور کنید که کلوی
به این رشته‌ی احساسات بی‌درنگ دسترسی داشت،
06:34
and she could shareاشتراک گذاری it
with anybodyهر شخصی she wanted to.
120
382126
2809
و می‌توانست آن را با هر کسی که می‌خواهد
در میان بگذارد.
06:36
Thank you.
121
384935
2923
متشکرم.
06:39
(Applauseتشویق و تمجید)
122
387858
4621
(تشویق حضار)
06:45
So, so farدور, we have amassedجمع شده
12 billionبیلیون of these emotionهیجانی dataداده ها pointsنکته ها.
123
393749
5270
تابه‌حال، ما ۱۲ میلیارد از این نقاطِ
احساسی را جمع‌آوری کرده‌ایم.
06:51
It's the largestبزرگترین emotionهیجانی
databaseبانک اطلاعاتی in the worldجهان.
124
399019
2611
این مجموعه، بزرگ‌ترین پایگاه‌داده‌ی
احساسات در دنیاست.
06:53
We'veما هستیم collectedجمع آوری شده it
from 2.9 millionمیلیون faceصورت videosفیلم های,
125
401630
2963
آن را از ۲/۹ میلیون ویدیوی چهره
جمع‌آوری کرده‌ایم،
06:56
people who have agreedتوافق کرد
to shareاشتراک گذاری theirخودشان emotionsاحساسات with us,
126
404593
2600
که شرکت‌کنندگان با در اختیار گذاشتن
احساساتشان موافقت کرده‌اند،
06:59
and from 75 countriesکشورها around the worldجهان.
127
407193
3205
و از ۷۵ کشور در سراسر جهان
شرکت کرده‌اند.
07:02
It's growingدر حال رشد everyهرکدام day.
128
410398
1715
این مجموعه،
هر روز رو به رشد است.
07:04
It blowsضربات my mindذهن away
129
412603
2067
مغزم منفجر می‌شود،
07:06
that we can now quantifyمقدار سنجی something
as personalشخصی as our emotionsاحساسات,
130
414670
3195
زمانی که فکر می‌کنم که ما می‌توانیم
چیزی خصوصی مانند احساسات را
07:09
and we can do it at this scaleمقیاس.
131
417865
2235
تا این حد، اندازه بگیریم.
07:12
So what have we learnedیاد گرفتم to dateتاریخ?
132
420100
2177
تا به حال چه آموخته‌ایم؟
07:15
Genderجنسيت.
133
423057
2331
جنسیت.
07:17
Our dataداده ها confirmsتایید می کند something
that you mightممکن suspectمشکوک.
134
425388
3646
داده‌های ما، چیز‌هایی که ممکن است
در آن‌ها شک داشته باشید را، تأیید می‌کنند.
07:21
Womenزنان are more expressiveرسا than menمردان.
135
429034
1857
خانم‌ها از آقایان واضح‌تر
ابراز احساسات می‌کنند.
07:22
Not only do they smileلبخند more,
theirخودشان smilesلبخند می زند last longerطولانی تر,
136
430891
2683
نه تنها بیشتر لبخند می‌زنند،
بلکه لبخند‌هایشان با دوام‌تر است.
07:25
and we can now really quantifyمقدار سنجی
what it is that menمردان and womenزنان
137
433574
2904
و ما می‌توانیم ارزیابی کنیم، ‌
که زنان و مردان به چه چیز‌هایی
07:28
respondپاسخ دادن to differentlyمتفاوت است.
138
436478
2136
واکنش‌های متفاوتی نشان می‌دهند.
07:30
Let's do cultureفرهنگ: So in the Unitedیونایتد Statesایالت ها,
139
438614
2290
بیایید فرهنگ را بررسی کنیم:
در ایالات متحده‌،
07:32
womenزنان are 40 percentدرصد
more expressiveرسا than menمردان,
140
440904
3204
زنان ۴۰ درصد بیشتر از مردان
در بیان احساسات خود گویا هستند،
07:36
but curiouslyکنجکاو, we don't see any differenceتفاوت
in the U.K. betweenبین menمردان and womenزنان.
141
444108
3645
ولی به شکل عجیبی، هیچ تفاوتی بین زنان و
مردان در انگلستان، مشاهده نمی‌شود.
07:39
(Laughterخنده)
142
447753
2506
(خنده‌ی حضار)
07:43
Ageسن: People who are 50 yearsسالها and olderمسن تر
143
451296
4027
سن: کسانی که ۵۰ سال یا بیشتر
سن دارند،
07:47
are 25 percentدرصد more emotiveاحساسی
than youngerجوانتر people.
144
455323
3436
۲۵ درصد بیشتر از افراد جوان‌تر
احساساتی هستند.
07:51
Womenزنان in theirخودشان 20s smileلبخند a lot more
than menمردان the sameیکسان ageسن,
145
459899
3852
زنان در دهه‌ی بیست‌سالگیشان، بسیار بیشتر
از مردان با سن مشابه لبخند می‌زنند.
07:55
perhapsشاید a necessityضرورت for datingدوستیابی.
146
463751
3839
شاید این یکی از الزامات معاشرت است.
07:59
But perhapsشاید what surprisedغافلگیر شدن us
the mostاکثر about this dataداده ها
147
467590
2617
اما شاید آن‌چه از بیشتر درباره‌ی این
داده‌ها شگفت‌زده‌مان کرد
08:02
is that we happenبه وقوع پیوستن
to be expressiveرسا all the time,
148
470207
3203
این بود که ما در تمام مدت در حال
ابرازِ احساساتیم،
08:05
even when we are sittingنشسته
in frontجلوی of our devicesدستگاه ها aloneتنها,
149
473410
2833
حتی زمانی که به تنهایی در مقابل دستگاهمان
نشسته‌ایم،
08:08
and it's not just when we're watchingتماشا کردن
catگربه videosفیلم های on Facebookفیس بوک.
150
476243
3274
و نه تنها زمانی که داریم ویدیوی یک گربه
را در فیس‌بوک می‌بینیم، بلکه همیشه.
08:12
We are expressiveرسا when we're emailingایمیل کردن,
textingپیام کوتاه, shoppingخريد كردن onlineآنلاین,
151
480217
3010
ما هنگام ای‌میل زدن،پیامک زدن،
خرید آنلاین،
08:15
or even doing our taxesمالیات.
152
483227
2300
یا حتی پرداخت مالیات،
در حال ابراز احساساتیم.
08:17
Where is this dataداده ها used todayامروز?
153
485527
2392
امروزه، این داده‌ها
در کجا استفاده می‌شود؟
08:19
In understandingدرك كردن how we engageمشغول کردن with mediaرسانه ها,
154
487919
2763
در فهم این که ما چگونه با رسانه‌ها
در ارتباطیم،
08:22
so understandingدرك كردن viralityویروسی
and votingرای دادن behaviorرفتار;
155
490682
2484
در فهم الگو‌های اشتراک‌گذاریِ ویدیو‌ها
و رأی دادن؛
08:25
and alsoهمچنین empoweringتوانمندسازی
or emotion-enablingاحساسات فعال technologyتکنولوژی,
156
493166
2740
و همچنین قدرت دادن یا
احساسی کردن تکنولوژی،
08:27
and I want to shareاشتراک گذاری some examplesمثال ها
that are especiallyبه خصوص closeبستن to my heartقلب.
157
495906
4621
می‌خواهم چند مثال با شما در میان بگذارم
که قلبم را در‌هم می‌فشارند.
08:33
Emotion-enabledاحساسی فعال wearableپوشیدنی glassesعینک
can help individualsاشخاص حقیقی
158
501197
3068
عینک‌های هوشمند از نظر احساسات
می‌توانند به افرادی که
08:36
who are visuallyبصری impairedضعیف
readخواندن the facesچهره ها of othersدیگران,
159
504265
3228
از نظر بینایی مشکل دارند، در فهمِ احساساتِ
دیگران، یاری برسانند،
08:39
and it can help individualsاشخاص حقیقی
on the autismاوتیسم spectrumطیف interpretتفسیر emotionهیجانی,
160
507493
4187
و به افراد مبتلا به اوتیسم نیز در قالبِ
مترجم احساسات کمک کنند،
08:43
something that they really struggleتقلا with.
161
511680
2778
مشکلی که واقعاً این افراد دارند با آن
دست و پنجه نرم می‌کنند.
08:47
In educationتحصیلات, imagineتصور کن
if your learningیادگیری appsبرنامه ها
162
515918
2859
در آموزش: اگر شما در حال یادگیری هستید،
اپلیکیشن‌ها
08:50
senseاحساس that you're confusedسردرگم and slowآرام down,
163
518777
2810
سردرگمی شما را احساس می‌کنند
و سرعت‌شان کم می‌شود.
08:53
or that you're boredخسته, so it's spedsped up,
164
521587
1857
یا اگر حوصله‌تان سر رفته
سرعت‌شان بالا می‌رود،
08:55
just like a great teacherمعلم
would in a classroomکلاس درس.
165
523444
2969
مانند یک معلم عالی در کلاس درس.
08:59
What if your wristwatchساعت مچی trackedردیابی شده your moodحالت,
166
527043
2601
چه می‌شد اگر ساعت مچی شما
احساساتتان را درک می‌کرد،
09:01
or your carماشین sensedاحساس کردم that you're tiredخسته شدم,
167
529644
2693
یا ماشین‌تان می‌فهمید که شما خسته هستید،
09:04
or perhapsشاید your fridgeیخچال
knowsمی داند that you're stressedتاکید کرد,
168
532337
2548
یا یخچال‌تان می‌فهمید که شما مضطرب هستید،
09:06
so it auto-locksخودکار قفل to preventجلوگیری کردن you
from bingeنوشیدنی eatingغذا خوردن. (Laughterخنده)
169
534885
6066
و به‌طور خودکار بسته می‌شد تا
از پرخوری شما جلوگیری کند. (خنده‌ی حضار)
09:12
I would like that, yeah.
170
540951
2717
من این را دوست دارم، بله.
09:15
What if, when I was in Cambridgeکمبریج,
171
543668
1927
چه می‌شد اگر زمانی که من در کمبریج بودم،
09:17
I had accessدسترسی به to my real-timeبه موقع
emotionهیجانی streamجریان,
172
545595
2313
به رشته‌ی احساسات بی‌درنگم دسترسی داشتم،
09:19
and I could shareاشتراک گذاری that with my familyخانواده
back home in a very naturalطبیعی است way,
173
547908
3529
و می‌توانستم آن را با خانواده‌ام در خانه
به صورت طبیعی در میان بگذارم،
09:23
just like I would'veمی خواهم if we were all
in the sameیکسان roomاتاق togetherبا یکدیگر?
174
551437
3971
همان‌طور که انگار
با آن‌ها در یک اتاق هستم؟
09:27
I think fiveپنج yearsسالها down the lineخط,
175
555408
3142
فکر می‌کنم که ۵ سال دیگر از الان،
09:30
all our devicesدستگاه ها are going
to have an emotionهیجانی chipتراشه,
176
558550
2337
همه‌ی وسایل ما یک تراشه‌ی احساسات
خواهند داشت،
09:32
and we won'tنخواهد بود rememberیاد آوردن what it was like
when we couldn'tنمی توانستم just frownاخم at our deviceدستگاه
177
560887
4064
و ما دیگر زمانی را به‌یاد نمی‌آوریم
که نمی‌توانستیم به وسیله‌مان اخم کنیم،
09:36
and our deviceدستگاه would say, "Hmmهام,
you didn't like that, did you?"
178
564951
4249
و وسیله‌مان به ما می‌گوید: «هممم،
این را دوست نداشتی، نه؟»
09:41
Our biggestبزرگترین challengeچالش is that there are
so manyبسیاری applicationsبرنامه های کاربردی of this technologyتکنولوژی,
179
569200
3761
بزرگ‌ترین چالش ما
کاربرد‌های زیاد این تکنولوژی است.
09:44
my teamتیم and I realizeتحقق بخشیدن that we can't
buildساختن them all ourselvesخودمان,
180
572961
2903
من و تیمم به این نتیجه رسیدیم که نمی‌توانیم
همه‌ی اپلیکیشن‌ها را خودمان بسازیم،
09:47
so we'veما هستیم madeساخته شده this technologyتکنولوژی availableدر دسترس است
so that other developersتوسعه دهندگان
181
575864
3496
پس این تکنولوژی را در دسترس قرار دادیم
تا سایر توسعه‌دهندگان
09:51
can get buildingساختمان and get creativeخلاقانه.
182
579360
2114
بتوانند این برنامه‌ها را بسازند
و خلاق باشند.
09:53
We recognizeتشخیص that
there are potentialپتانسیل risksخطرات
183
581474
4086
ما متوجه شدیم
که امکان خطر
09:57
and potentialپتانسیل for abuseسو استفاده کردن,
184
585560
2067
و همچنین سؤاستفاده وجود دارد،
09:59
but personallyشخصا, havingداشتن spentصرف شده
manyبسیاری yearsسالها doing this,
185
587627
2949
ولی به‌شخصه، بعد از
چندین سال انجام این کار،
10:02
I believe that the benefitsمنافع to humanityبشریت
186
590576
2972
باور دارم که این تکنولوژی مزایایی برای
انسانیت دارد
10:05
from havingداشتن emotionallyعاطفی
intelligentباهوش - هوشمند technologyتکنولوژی
187
593548
2275
و داشتن تکنولوژی هوشمند احساسی
10:07
farدور outweighسنگین تر بودن از the potentialپتانسیل for misuseسوء استفاده.
188
595823
3576
ارزشمندتر امکان سؤاستفاده است.
10:11
And I inviteدعوت you all to be
partبخشی of the conversationگفتگو.
189
599399
2531
من شما را دعوت می‌کنم
که بخشی از این گفت‌و‌گو شوید.
10:13
The more people who know
about this technologyتکنولوژی,
190
601930
2554
این که افراد بیشتری درباره‌ی
این تکنولوژی بدانند،
10:16
the more we can all have a voiceصدای
in how it's beingبودن used.
191
604484
3177
کمک می‌کند تا بیشتر بتوانیم بگوییم که
چگونه از آن استفاده می‌شود.
10:21
So as more and more
of our livesزندگی می کند becomeتبدیل شدن به digitalدیجیتال,
192
609081
4574
همان‌طور که زندگی‌مان
بیشتر و بیشتر دیجیتالی می‌شود،
10:25
we are fightingدعوا کردن a losingاز دست دادن battleنبرد
tryingتلاش کن to curbمحدود کردن our usageاستفاده of devicesدستگاه ها
193
613655
3498
در یک جنگ شکست خورده مبارزه می‌کنیم
تا از استفاده از وسایل در زندگی‌مان کم کنیم
10:29
in orderسفارش to reclaimاحیای our emotionsاحساسات.
194
617153
2229
به این منظور که احساساتمان را بازگردانیم.
10:32
So what I'm tryingتلاش کن to do insteadبجای
is to bringآوردن emotionsاحساسات into our technologyتکنولوژی
195
620622
3914
چیزی که من در عوض برایش تلاش می‌کنم این
است که احساسات را به درون تکنولوژی بیاورم
10:36
and make our technologiesفن آوری ها more responsiveپاسخگو.
196
624536
2229
و کاری کنم که تکنولوژی‌هایمان پاسخ‌گوتر باشد.
10:38
So I want those devicesدستگاه ها
that have separatedجدا از هم us
197
626765
2670
پس می‌خواهم وسایلی که ما را
از هم جدا کرده‌اند،
10:41
to bringآوردن us back togetherبا یکدیگر.
198
629435
2462
دوباره ما را به هم بازگردانند.
10:43
And by humanizingانسانی technologyتکنولوژی,
we have this goldenطلایی opportunityفرصت
199
631897
4588
با انسانی کردن تکنولوژی،
این فرصت طلایی را داریم
10:48
to reimagineدوباره امتحان کنید how we
connectاتصال with machinesماشین آلات,
200
636485
3297
که دوباره درباره‌ی ارتباطمان
با ماشین‌ها فکر کنیم،
10:51
and thereforeاز این رو, how we, as humanانسان beingsموجودات,
201
639782
4481
و در نهایت، این که چگونه ما،
به عنوان انسان‌ها،
10:56
connectاتصال with one anotherیکی دیگر.
202
644263
1904
با یکدیگر ارتباط برقرار می‌کنیم.
10:58
Thank you.
203
646167
2160
متشکرم.
11:00
(Applauseتشویق و تمجید)
204
648327
3313
(تشویق حضار)
Translated by Kimia Kiani
Reviewed by Leila Ataei

▲Back to top

ABOUT THE SPEAKER
Rana el Kaliouby - Computer scientist
What if a computer could recognize your facial expression, and react to how you feel? Rana el Kaliouby sees big possibilities in making technology emotionally aware.

Why you should listen

Rana el Kaliouby, chief science officer and co-founder of Affectiva, an MIT Media Lab spin-off, is on a mission to bring emotion intelligence to our digital experiences. She leads the company's emotion analytics team, which is responsible for developing emotion-sensing algorithms and mining the world's largest emotion data database. So far, they've collected 12 billion emotion data points from 2.9 million face videos from volunteers in 75 countries. The company’s platform is used by many Fortune Global 100 companies to measure consumer engagement, and is pioneering emotion-enabled digital apps for enterprise, entertainment, video communication and online education.

Entrepreneur magazine called el Kaliouby one of “The 7 Most Powerful Women To Watch in 2014,” and the MIT Technology Review included her in their list of the “Top 35 Innovators Under 35.”

More profile about the speaker
Rana el Kaliouby | Speaker | TED.com