ABOUT THE SPEAKER
Rana el Kaliouby - Computer scientist
What if a computer could recognize your facial expression, and react to how you feel? Rana el Kaliouby sees big possibilities in making technology emotionally aware.

Why you should listen

Rana el Kaliouby, chief science officer and co-founder of Affectiva, an MIT Media Lab spin-off, is on a mission to bring emotion intelligence to our digital experiences. She leads the company's emotion analytics team, which is responsible for developing emotion-sensing algorithms and mining the world's largest emotion data database. So far, they've collected 12 billion emotion data points from 2.9 million face videos from volunteers in 75 countries. The company’s platform is used by many Fortune Global 100 companies to measure consumer engagement, and is pioneering emotion-enabled digital apps for enterprise, entertainment, video communication and online education.

Entrepreneur magazine called el Kaliouby one of “The 7 Most Powerful Women To Watch in 2014,” and the MIT Technology Review included her in their list of the “Top 35 Innovators Under 35.”

More profile about the speaker
Rana el Kaliouby | Speaker | TED.com
TEDWomen 2015

Rana el Kaliouby: This app knows how you feel -- from the look on your face

Рана ель Калюбі: Цей додаток знає про ваші почуття - з виразу вашого обличчя

Filmed:
1,613,290 views

Наші емоції впливають на кожен аспект нашого життя - те, як ми вчимося, як спілкуємося, як приймаємо рішення. Проте вони відсутні у нашому цифровому світі. Пристрої та додатки, з якими ми працюємо, не знають про наші відчуття. Науковець Рана ель Калюбі хоче це змінити. Вона представляє нову технологію, котра зчитує вираз обличчя і поєднує його з емоціями. Цей "пристрій емоцій" має багато застосувань, стверджує вона, і може змінити не лише наше спілкування з машинами, а й також один з одним.
- Computer scientist
What if a computer could recognize your facial expression, and react to how you feel? Rana el Kaliouby sees big possibilities in making technology emotionally aware. Full bio

Double-click the English transcript below to play the video.

00:12
Our emotionsемоції influenceвплив
everyкожен aspectаспект of our livesживе,
0
556
4017
Наші емоції впливають на кожен аспект
нашого життя,
00:16
from our healthздоров'я and how we learnвчитися,
to how we do businessбізнес and make decisionsрішення,
1
4573
3576
від здоров'я і навчання, до того, як ми
ведемо справи і приймаємо рішення,
00:20
bigвеликий onesті, хто and smallмаленький.
2
8149
1773
великі чи малі.
00:22
Our emotionsемоції alsoтакож influenceвплив
how we connectпідключити with one anotherінший.
3
10672
3490
Наші емоції також впливають на те,
як ми налагоджуємо контакти з іншими.
00:27
We'veМи ' VE evolvedрозвинувся to liveжити
in a worldсвіт like this,
4
15132
3976
Ми звикли жити
в такому світі,
00:31
but insteadзамість цього, we're livingживий
more and more of our livesживе like this --
5
19108
4319
але незважаючи на це,
наше життя стає все більше таким --
00:35
this is the textтекст messageповідомлення
from my daughterдочка last night --
6
23427
3134
це вчорашнє повідомлення
від моєї доньки --
00:38
in a worldсвіт that's devoidпозбавлений of emotionемоція.
7
26561
2740
у світі, що позбавлений емоцій.
00:41
So I'm on a missionмісія to changeзмінити that.
8
29301
1951
Тому моє завдання - змінити це.
00:43
I want to bringпринести emotionsемоції
back into our digitalцифровий experiencesдосвід.
9
31252
4091
Я хочу повернути емоції
у наші цифрові комунікації.
00:48
I startedпочався on this pathшлях 15 yearsроків agoтому назад.
10
36223
3077
На цей шлях я стала 15 років тому.
00:51
I was a computerкомп'ютер scientistвчений in EgyptЄгипет,
11
39300
2066
Я була програмістом в Єгипті,
00:53
and I had just gottenотримав acceptedприйнято to
a PhРН.D. programпрограма at CambridgeКембридж UniversityУніверситет.
12
41366
4505
і мене якраз зарахували на докторську
програму в Кембриджському університеті.
00:57
So I did something quiteцілком unusualнезвичайний
13
45871
2113
Я зробила щось незвичне
00:59
for a youngмолодий newlywedнаречена MuslimМусульманська EgyptianЄгипетський wifeдружина:
14
47984
4225
як для молодої, щойно одруженої
єгипетської жінки-мусульманки:
01:05
With the supportпідтримка of my husbandчоловік,
who had to stayзалишитися in EgyptЄгипет,
15
53599
2999
завдяки підтримці мого чоловіка,
який залишився в Єгипті,
01:08
I packedупакований my bagsсумки and I movedпереїхав to EnglandАнглія.
16
56598
3018
я спакувала речі і переїхала до Англії.
01:11
At CambridgeКембридж, thousandsтисячі of milesмилі
away from home,
17
59616
3228
В Кембриджі, за тисячі миль від дому,
01:14
I realizedусвідомлено I was spendingвитрати
more hoursгодин with my laptopноутбук
18
62844
3413
я усвідомила, що проводжу більше годин
за комп'ютером,
01:18
than I did with any other humanлюдина.
19
66257
2229
ніж спілкуючись з іншими людьми.
01:20
YetЩе despiteне дивлячись this intimacyблизькість, my laptopноутбук
had absolutelyабсолютно no ideaідея how I was feelingпочуття.
20
68486
4853
Проте, незважаючи на цю близькість, мій
комп'ютер не знав, як я почуваюся.
01:25
It had no ideaідея if I was happyщасливий,
21
73339
3211
Він не знав, чи я щаслива,
01:28
havingмаючи a badпоганий day, or stressedпідкреслив, confusedплутати,
22
76550
2988
чи в мене поганий день, чи я стресована,
розгублена,
01:31
and so that got frustratingрозчарування.
23
79538
2922
і це було розчаруванням.
01:35
Even worseгірше, as I communicatedповідомили
onlineонлайн with my familyсім'я back home,
24
83600
5231
Навіть гірше: коли я розмовляла зі своїми,
01:41
I feltвідчував that all my emotionsемоції
disappearedзник in cyberspaceкіберпростір.
25
89421
3282
то відчула, що всі емоції
зникають в кіберпросторі.
01:44
I was homesickСумував, I was lonelyсамотній,
and on some daysдні I was actuallyнасправді cryingплакати,
26
92703
5155
Я сумувала за домом, була одинокою,
і інколи навіть плакала,
01:49
but all I had to communicateспілкуватися
these emotionsемоції was this.
27
97858
4928
але все, що я могла висловити,
було ось це.
01:54
(LaughterСміх)
28
102786
2020
(Сміх)
01:56
Today'sСьогодні technologyтехнологія
has lots of I.Q., but no E.Q.;
29
104806
4974
Технології сьогодення мають багато IQ,
але не мають емоційної якості.
02:01
lots of cognitiveпізнавальний intelligenceрозвідка,
but no emotionalемоційний intelligenceрозвідка.
30
109780
3176
Багато пізнавального інтелекту
та відсутність емоційного інтелекту.
02:04
So that got me thinkingмислення,
31
112956
2197
Це змусило мене задуматися,
02:07
what if our technologyтехнологія
could senseсенс our emotionsемоції?
32
115153
3624
а що, якщо технології
зможуть відчувати наші емоції?
02:10
What if our devicesпристрої could senseсенс
how we feltвідчував and reactedвідреагували accordinglyвідповідно,
33
118777
4076
А що, якщо наші пристрої зможуть відчути,
як ми почуваємося і відповідно відреагувати,
02:14
just the way an emotionallyемоційно
intelligentрозумний friendдруг would?
34
122853
3013
так, як емоційно розвинений друг?
02:18
Those questionsпитання led me and my teamкоманда
35
126666
3564
Ці питання привели мене і мою команду
02:22
to createстворити technologiesтехнології that can readчитати
and respondвідповісти to our emotionsемоції,
36
130230
4377
до створення технологій, що можуть читати
і відповідати на наші емоції,
02:26
and our startingпочинаючи pointточка was the humanлюдина faceобличчя.
37
134607
3090
і нашою стартовою точкою
було обличчя людини.
02:30
So our humanлюдина faceобличчя happensбуває to be
one of the mostнайбільше powerfulпотужний channelsканали
38
138577
3173
Наше обличчя є одним з найпотужніших
каналів,
02:33
that we all use to communicateспілкуватися
socialсоціальний and emotionalемоційний statesдержави,
39
141750
4016
який ми використовуємо, щоб висловити
соціальний та емоційний стан,
02:37
everything from enjoymentнасолода, surpriseздивування,
40
145766
3010
все, починаючи з веселощів, здивування,
02:40
empathyспівпереживання and curiosityцікавість.
41
148776
4203
співчуття і допитливості.
02:44
In emotionемоція scienceнаука, we call eachкожен
facialДогляд за шкірою обличчя muscleм'язи movementрух an actionдія unitодиниця.
42
152979
4928
В науці емоцій, кожен порух м'язів обличчя
ми називаємо одиницею поведінки.
02:49
So for exampleприклад, actionдія unitодиниця 12,
43
157907
2925
Наприклад, одиниця поведінки 12,
02:52
it's not a HollywoodГоллівуд blockbusterблокбастер,
44
160832
2038
це не голлівудський блокбастер,
02:54
it is actuallyнасправді a lipгуби cornerкут pullтягнути,
whichкотрий is the mainосновний componentкомпонент of a smileусмішка.
45
162870
3442
це, власне, розширення кутиків губ,
що є основним елементом усмішки.
02:58
Try it everybodyкожен. Let's get
some smilesпосміхається going on.
46
166312
2988
Спробуйте всі.
Давайте посміхнемося.
03:01
AnotherІнший exampleприклад is actionдія unitодиниця 4.
It's the browчоло furrowборозна.
47
169300
2654
Інший приклад - одиниця поведінки 4,
зморшка на лобі.
03:03
It's when you drawмалювати your eyebrowsброви togetherразом
48
171954
2238
Це коли ви зводите брови разом
03:06
and you createстворити all
these texturesтекстури and wrinklesзморшки.
49
174192
2267
і утворюються всі ці нерівності і зморшки.
03:08
We don't like them, but it's
a strongсильний indicatorіндикатор of a negativeнегативний emotionемоція.
50
176459
4295
Ми не любимо їх, але це очевидна ознака
негативної емоції.
03:12
So we have about 45 of these actionдія unitsодиниць,
51
180754
2206
У нас близько 45 таких одиниць поведінки,
03:14
and they combineкомбінувати to expressвиразити
hundredsсотні of emotionsемоції.
52
182960
3390
і вони, в поєднанні, можуть виразити
сотні емоцій.
03:18
TeachingВикладання a computerкомп'ютер to readчитати
these facialДогляд за шкірою обличчя emotionsемоції is hardважко,
53
186350
3901
Навчити комп'ютер зчитувати емоції обличчя
є досить важко,
03:22
because these actionдія unitsодиниць,
they can be fastшвидко, they're subtleвитончений,
54
190251
2972
оскільки ці одиниці поведінки
можуть бути швидкими, ледь помітними,
03:25
and they combineкомбінувати in manyбагато хто differentінший waysшляхи.
55
193223
2554
і вони поєднуються в різний спосіб.
03:27
So take, for exampleприклад,
the smileусмішка and the smirkусмішку.
56
195777
3738
Наприклад, подивимося на посмішку та
самовдоволену посмішку.
03:31
They look somewhatдещо similarподібний,
but they mean very differentінший things.
57
199515
3753
Вони виглядають дещо однаково,
але означають зовсім різне.
03:35
(LaughterСміх)
58
203268
1718
(Сміх)
03:36
So the smileусмішка is positiveпозитивний,
59
204986
3004
Посмішка є позитивною,
03:39
a smirkусмішку is oftenчасто negativeнегативний.
60
207990
1270
а самовдоволена посмішка
зазвичай негативна.
03:41
SometimesІноді a smirkусмішку
can make you becomeстати famousзнаменитий.
61
209260
3876
Іноді самовдоволена посмішка може вас
зробити відомим.
03:45
But seriouslyсерйозно, it's importantважливо
for a computerкомп'ютер to be ableздатний
62
213136
2824
Але, насправді, важливо,
щоб комп'ютер міг
03:47
to tell the differenceрізниця
betweenміж the two expressionsвирази.
63
215960
2855
розрізнити ці два вирази.
03:50
So how do we do that?
64
218815
1812
Отже, як ми це робимо?
03:52
We give our algorithmsалгоритми
65
220627
1787
У нас є алгоритми
03:54
tensдесятки of thousandsтисячі of examplesприклади
of people we know to be smilingпосміхається,
66
222414
4110
десятків тисяч прикладів людей,
які посміхаються,
03:58
from differentінший ethnicitiesетнічні речі, agesстоліття, gendersстатей,
67
226524
3065
з різних етнічних груп, різного віку
та статей,
04:01
and we do the sameтой же for smirksпосміхається.
68
229589
2811
і такі ж приклади ми маємо
для самовдоволених посмішок.
04:04
And then, usingвикористовуючи deepглибоко learningнавчання,
69
232400
1554
Поглиблено вивчаючи
04:05
the algorithmалгоритм looksвиглядає for all these
texturesтекстури and wrinklesзморшки
70
233954
2856
алгоритм шукає всі ці
нерівності і зморшки,
04:08
and shapeформа changesзміни on our faceобличчя,
71
236810
2580
і зміни обрисів на нашому обличчі,
04:11
and basicallyв основному learnsвчиться that all smilesпосміхається
have commonзагальний characteristicsхарактеристики,
72
239390
3202
і досліджує, що посмішки мають
спільні риси,
04:14
all smirksпосміхається have subtlyтонко
differentінший characteristicsхарактеристики.
73
242592
3181
а самовдоволені посмішки мають
інші риси.
04:17
And the nextдалі time it seesбачить a newновий faceобличчя,
74
245773
2368
Наступного разу, коли він бачить
нове обличчя,
04:20
it essentiallyпо суті learnsвчиться that
75
248141
2299
він вивчає,
04:22
this faceобличчя has the sameтой же
characteristicsхарактеристики of a smileусмішка,
76
250440
3033
що це обличчя має характеристики посмішки,
04:25
and it saysкаже, "AhaАга, I recognizeрозпізнати this.
This is a smileусмішка expressionвираз."
77
253473
4278
і каже: "Ага. Я це розумію.
Це - усмішка."
04:30
So the bestнайкраще way to demonstrateпродемонструвати
how this technologyтехнологія worksпрацює
78
258381
2800
Щоб найкраще продемонструвати,
як працює ця технологія,
04:33
is to try a liveжити demoдемо,
79
261181
2136
зробимо це наживо.
04:35
so I need a volunteerволонтер,
preferablyбажано somebodyхтось with a faceобличчя.
80
263317
3913
Мені потрібен волонтер,
бажано з обличчям.
04:39
(LaughterСміх)
81
267230
2334
(Сміх)
04:41
Cloe'sХлоя going to be our volunteerволонтер todayсьогодні.
82
269564
2771
Хлоя буде нашим добровольцем.
04:45
So over the pastминуле fiveп'ять yearsроків, we'veми маємо movedпереїхав
from beingбуття a researchдослідження projectпроект at MITMIT
83
273325
4458
За останні 5 років ми переросли
з проекту в Массачусетському інституті
04:49
to a companyкомпанія,
84
277783
1156
в компанію,
04:50
where my teamкоманда has workedпрацював really hardважко
to make this technologyтехнологія work,
85
278939
3192
в котрій моя команда дуже старалася,
щоби ця технологія запрацювала,
04:54
as we like to say, in the wildдикий.
86
282131
2409
як ми кажемо, в диких умовах.
04:56
And we'veми маємо alsoтакож shrunkзменшили it so that
the coreядро emotionемоція engineдвигун
87
284540
2670
Ми також зменшили її, щоб
ядро машини емоцій
04:59
worksпрацює on any mobileмобільний deviceпристрій
with a cameraкамера, like this iPadiPad.
88
287210
3320
працювало на мобільних пристроях
з камерами, таких як iPad.
05:02
So let's give this a try.
89
290530
2786
Давайте спробуємо.
05:06
As you can see, the algorithmалгоритм
has essentiallyпо суті foundзнайдено Cloe'sХлоя faceобличчя,
90
294756
3924
Бачите, алгоритм знайшов
обличчя Хлої,
05:10
so it's this whiteбілий boundingрамка boxкоробка,
91
298680
1692
це ця біла рамка,
05:12
and it's trackingвідстеження the mainосновний
featureособливість pointsокуляри on her faceобличчя,
92
300372
2571
і слідкує за основними рисами її обличчя,
05:14
so her eyebrowsброви, her eyesочі,
her mouthрот and her noseнос.
93
302943
2856
за бровами, очима,
ротом та носом.
05:17
The questionпитання is,
can it recognizeрозпізнати her expressionвираз?
94
305799
2987
Питання: чи розрізнить він
її вираз обличчя?
05:20
So we're going to testтест the machineмашина.
95
308786
1671
Протестуємо цю машину.
05:22
So first of all, give me your pokerпокер faceобличчя.
YepУгу, awesomeчудово. (LaughterСміх)
96
310457
4186
Перш за все, покажи мені
"кам'яне обличчя". Так, чудово. (Сміх)
05:26
And then as she smilesпосміхається,
this is a genuineсправжня smileусмішка, it's great.
97
314643
2813
Тепер, коли вона посміхається,
це справжня усмішка, чудово.
05:29
So you can see the greenзелений barбар
go up as she smilesпосміхається.
98
317456
2300
Бачите, як зелене кільце піднімається,
коли вона посміхається.
05:31
Now that was a bigвеликий smileусмішка.
99
319756
1222
Це була широка посмішка.
05:32
Can you try a subtleвитончений smileусмішка
to see if the computerкомп'ютер can recognizeрозпізнати?
100
320978
3043
Можеш злегка посміхнутись, щоб
побачити, чи комп'ютер зрозуміє?
05:36
It does recognizeрозпізнати subtleвитончений smilesпосміхається as well.
101
324021
2331
Він розрізняє малопомітні усмішки також.
05:38
We'veМи ' VE workedпрацював really hardважко
to make that happenстатися.
102
326352
2125
Ми тяжко працювали,
щоб це вийшло.
05:40
And then eyebrowбрів raisedпіднятий,
indicatorіндикатор of surpriseздивування.
103
328477
2962
Піднята брова,
індикатор подиву.
05:43
BrowЧоло furrowборозна, whichкотрий is
an indicatorіндикатор of confusionплутанина.
104
331439
4249
Глибока зморшка між бровами -
індикатор збентеження.
05:47
FrownХмуритися. Yes, perfectдосконалий.
105
335688
4007
Насуплення. Ідеально.
05:51
So these are all the differentінший
actionдія unitsодиниць. There's manyбагато хто more of them.
106
339695
3493
Це все різні одиниці поведінки.
Їх є значно більше.
05:55
This is just a slimmed-downполегшений demoдемо.
107
343188
2032
Це лише скорочене демо.
05:57
But we call eachкожен readingчитання
an emotionемоція dataдані pointточка,
108
345220
3148
Кожне впізнання емоцій ми називаємо
емоційними даними,
06:00
and then they can fireвогонь togetherразом
to portrayзобразити differentінший emotionsемоції.
109
348368
2969
і вони можуть, поєднуючись,
відображати різні емоції.
06:03
So on the right sideсторона of the demoдемо --
look like you're happyщасливий.
110
351337
4653
В правій частині демо --
виглядає, що ти щаслива.
06:07
So that's joyрадість. JoyРадість firesпожежі up.
111
355990
1454
Отже, це - щастя.
Щастя підсвічується.
06:09
And then give me a disgustвідраза faceобличчя.
112
357444
1927
Зараз спробуй показати огиду.
06:11
Try to rememberзгадаймо what it was like
when ZaynZayn left One DirectionНапрямок.
113
359371
4272
Пригадай, як це - коли Зайн вийшов
з групи One Direction.
06:15
(LaughterСміх)
114
363643
1510
(Сміх)
06:17
Yeah, wrinkleпроти зморшок your noseнос. AwesomeСупер.
115
365153
4342
Так, наморщи носа. Чудово.
06:21
And the valenceВаланс is actuallyнасправді quiteцілком
negativeнегативний, so you mustповинен have been a bigвеликий fanвентилятор.
116
369495
3731
Результат доволі негативний,
ти, мабуть, їхня велика шанувальниця.
06:25
So valenceВаланс is how positiveпозитивний
or negativeнегативний an experienceдосвід is,
117
373226
2700
Валентність показує, наскільки
позитивним чи негативним є досвід,
06:27
and engagementвзаємодія is how
expressiveвиразні she is as well.
118
375926
2786
а вмикання кольорів, наскільки
єкспресивною вона є.
06:30
So imagineуявіть собі if CloeХлоя had accessдоступ
to this real-timeреальний час emotionемоція streamпотік,
119
378712
3414
Уявімо, якби Хлоя мала доступ
до емоційного потоку онлайн,
06:34
and she could shareподілитися it
with anybodyніхто she wanted to.
120
382126
2809
вона могла б поділитися,
з ким хотіла.
06:36
Thank you.
121
384935
2923
Дякую.
06:39
(ApplauseОплески)
122
387858
4621
(Оплески)
06:45
So, so farдалеко, we have amassedнакопичив
12 billionмільярд of these emotionемоція dataдані pointsокуляри.
123
393749
5270
Зараз ми маємо 12 мільярдів
таких емоційних даних.
06:51
It's the largestнайбільший emotionемоція
databaseбаза даних in the worldсвіт.
124
399019
2611
Це найбільша емоційна база у всьому світі.
06:53
We'veМи ' VE collectedзібрані it
from 2.9 millionмільйон faceобличчя videosвідеоролики,
125
401630
2963
Ми зібрали її з 2,9 мільйонів відео,
06:56
people who have agreedпогодився
to shareподілитися theirїх emotionsемоції with us,
126
404593
2600
від людей, які погодилися
розділити свої емоції з нами,
06:59
and from 75 countriesкраїн around the worldсвіт.
127
407193
3205
із 75 різних країн світу.
07:02
It's growingзростає everyкожен day.
128
410398
1715
Вона збільшується щодня.
07:04
It blowsудари my mindрозум away
129
412603
2067
Це захоплююче,
07:06
that we can now quantifyкількісно визначити something
as personalособистий as our emotionsемоції,
130
414670
3195
як ми можемо підрахувати щось
таке особисте як емоції,
07:09
and we can do it at this scaleмасштаб.
131
417865
2235
і можемо це зробити за допомогою шкали.
07:12
So what have we learnedнавчився to dateдата?
132
420100
2177
Що ми враховуємо?
07:15
GenderСтать.
133
423057
2331
Стать.
07:17
Our dataдані confirmsпідтверджує something
that you mightможе suspectпідозрюваний.
134
425388
3646
Наші дані підтверджують те,
що ви підозрюєте.
07:21
WomenЖінки are more expressiveвиразні than menчоловіки.
135
429034
1857
Жінки більш експресивні, ніж чоловіки.
07:22
Not only do they smileусмішка more,
theirїх smilesпосміхається last longerдовше,
136
430891
2683
Вони не лише посміхаються частіше,
їхня посмішка триваліша,
07:25
and we can now really quantifyкількісно визначити
what it is that menчоловіки and womenжінки
137
433574
2904
і ми можемо справді підрахувати,
на що жінки і чоловіки
07:28
respondвідповісти to differentlyінакше.
138
436478
2136
реагують по-різному.
07:30
Let's do cultureкультура: So in the UnitedЮнайтед StatesШтати,
139
438614
2290
Розглянемо культурний аспект: у США,
07:32
womenжінки are 40 percentвідсоток
more expressiveвиразні than menчоловіки,
140
440904
3204
жінки на 40% експресивніші за чоловіків,
07:36
but curiouslyцікаво, we don't see any differenceрізниця
in the U.K. betweenміж menчоловіки and womenжінки.
141
444108
3645
але цікавіше, що в Англії жодної різниці
між чоловіками і жінками.
07:39
(LaughterСміх)
142
447753
2506
(Сміх)
07:43
AgeВік: People who are 50 yearsроків and olderстарше
143
451296
4027
ВІк: люди, котрим 50 і вище
07:47
are 25 percentвідсоток more emotiveемоційно
than youngerмолодший people.
144
455323
3436
на 25% емоційніші за молодших віком.
07:51
WomenЖінки in theirїх 20s smileусмішка a lot more
than menчоловіки the sameтой же ageвік,
145
459899
3852
ЖІнки у свої 20 посміхаються більше,
ніж чоловіки того ж віку,
07:55
perhapsможе бути a necessityнеобхідність for datingзнайомство.
146
463751
3839
мабуть, просто необхідність
для побачень.
07:59
But perhapsможе бути what surprisedздивований us
the mostнайбільше about this dataдані
147
467590
2617
Але найбільше нас здивувало,
08:02
is that we happenстатися
to be expressiveвиразні all the time,
148
470207
3203
що ми виражаємо емоції постійно,
08:05
even when we are sittingсидячи
in frontфронт of our devicesпристрої aloneпоодинці,
149
473410
2833
навіть тоді, коли ми наодинці
зі своїми пристроями,
08:08
and it's not just when we're watchingдивитися
catкот videosвідеоролики on FacebookFacebook.
150
476243
3274
і це не лише тоді, коли ми довимося відео
про котів на Facebook.
08:12
We are expressiveвиразні when we're emailingпо електронній пошті,
textingтекстові повідомлення, shoppingшопінг onlineонлайн,
151
480217
3010
Ми виявляємо емоції, коли пишемо мейли,
смс чи робимо покупки онлайн,
08:15
or even doing our taxesподатки.
152
483227
2300
навіть, коли маємо справу з податками.
08:17
Where is this dataдані used todayсьогодні?
153
485527
2392
Де можливо застосувати ці дані сьогодні?
08:19
In understandingрозуміння how we engageзайматися with mediaЗМІ,
154
487919
2763
Для розуміння того,
як ми пов'язуємо себе з медіа,
08:22
so understandingрозуміння viralityvirality
and votingголосування behaviorповедінка;
155
490682
2484
розуміння поширення веб-контенту
і поведінки вибору,
08:25
and alsoтакож empoweringрозширення можливостей
or emotion-enablingУвімкнення емоцій technologyтехнологія,
156
493166
2740
а також, щоб розуміти могутню
чи емоційно адаптовану технологію.
08:27
and I want to shareподілитися some examplesприклади
that are especiallyособливо closeзакрити to my heartсерце.
157
495906
4621
Хочу показати вам кілька прикладів,
які особливо близькі для мене.
08:33
Emotion-enabledЕмоції включений wearableносяться glassesокуляри
can help individualsособистості
158
501197
3068
Емоційно адапотовані окуляри можуть
допомогти тим,
08:36
who are visuallyвізуально impairedпорушено
readчитати the facesобличчя of othersінші,
159
504265
3228
хто погано бачить,
читати обличчя інших,
08:39
and it can help individualsособистості
on the autismаутизм spectrumспектр interpretінтерпретувати emotionемоція,
160
507493
4187
і також допоможе аутистам
зрозуміти емоції,
08:43
something that they really struggleборотьба with.
161
511680
2778
те, з чим їм дійсно важко розібратися.
08:47
In educationосвіта, imagineуявіть собі
if your learningнавчання appsдодатки
162
515918
2859
Щодо освіти, то уявіть, якби
ваші додатки для навчання
08:50
senseсенс that you're confusedплутати and slowповільний down,
163
518777
2810
відчували, що ви збентежені
і сповільнювалися при цьому.
08:53
or that you're boredнудно, so it's spedприскорили up,
164
521587
1857
Або відчули, що вам нудно,
і пришвидшувалися,
08:55
just like a great teacherвчитель
would in a classroomкласна кімната.
165
523444
2969
так само, як хороший вчитель
зробив би у класі.
08:59
What if your wristwatchГодинники наручні trackedвідстежувати your moodнастрій,
166
527043
2601
Якби ваш годинник відслідковував
ваш настрій,
09:01
or your carмашина sensedвідчував that you're tiredвтомлений,
167
529644
2693
чи ваша машина відчула, що ви втомлені,
09:04
or perhapsможе бути your fridgeхолодильник
knowsзнає that you're stressedпідкреслив,
168
532337
2548
чи ваш холодильник був в курсі,
що ви переживаєте стрес,
09:06
so it auto-locksАвто замки to preventзапобігти you
from bingeзапою eatingїсти. (LaughterСміх)
169
534885
6066
і автоматично закривався, щоб
не дозволити вам переїдати. (Сміх)
09:12
I would like that, yeah.
170
540951
2717
Мені б таке сподобалося.
09:15
What if, when I was in CambridgeКембридж,
171
543668
1927
Якби тоді, коли я була у Кембриджі,
09:17
I had accessдоступ to my real-timeреальний час
emotionемоція streamпотік,
172
545595
2313
я мала доступ до емоційного потоку
онлайн,
09:19
and I could shareподілитися that with my familyсім'я
back home in a very naturalприродний way,
173
547908
3529
і могла б поділитися всім зі своєю сім'єю
вдома у звичний спосіб,
09:23
just like I would'veб вже if we were all
in the sameтой же roomкімната togetherразом?
174
551437
3971
так, наче б ми сиділи всі разом
в одній кімнаті?
09:27
I think fiveп'ять yearsроків down the lineлінія,
175
555408
3142
Гадаю, що за п'ять років,
09:30
all our devicesпристрої are going
to have an emotionемоція chipчіп,
176
558550
2337
всі наші пристрої матимуть емоційний чіп,
09:32
and we won'tне буде rememberзгадаймо what it was like
when we couldn'tне міг just frownхмуритися at our deviceпристрій
177
560887
4064
і ми вже не пам'ятатимемо часи, коли
не можна було насупитися до пристрою
09:36
and our deviceпристрій would say, "HmmХм,
you didn't like that, did you?"
178
564951
4249
і він нам відповів би: "Гмм,
тобі це не подобається, чи не так?"
09:41
Our biggestнайбільший challengeвиклик is that there are
so manyбагато хто applicationsзаявки of this technologyтехнологія,
179
569200
3761
Найбільшою трудністю є те, що ця
технологія має багато додатків.
09:44
my teamкоманда and I realizeусвідомити that we can't
buildбудувати them all ourselvesми самі,
180
572961
2903
Ми з командою усвідомили,
що не зможемо створити її самі,
09:47
so we'veми маємо madeзроблений this technologyтехнологія availableдоступний
so that other developersрозробники
181
575864
3496
тому ми зробили так, щоб ця технологія стала
доступною для інших розробників
09:51
can get buildingбудівля and get creativeкреативний.
182
579360
2114
і вони могли працювати,
і бути креативними.
09:53
We recognizeрозпізнати that
there are potentialпотенціал risksризики
183
581474
4086
Ми також усвідомлюємо, що існують
потенційні ризики
09:57
and potentialпотенціал for abuseзловживання,
184
585560
2067
і зловживання,
09:59
but personallyособисто, havingмаючи spentвитрачений
manyбагато хто yearsроків doing this,
185
587627
2949
але я, особисто пропрацюваваши
багато років над цим,
10:02
I believe that the benefitsвигоди to humanityлюдство
186
590576
2972
вірю, що користь для суспільства
10:05
from havingмаючи emotionallyемоційно
intelligentрозумний technologyтехнологія
187
593548
2275
від емоційно спроможних технологій
10:07
farдалеко outweighпереважати the potentialпотенціал for misuseзловживання.
188
595823
3576
значно переважатиме можливе
їх зловживання.
10:11
And I inviteзапросити you all to be
partчастина of the conversationрозмова.
189
599399
2531
Запрошую вас усіх приєднатися
до діалогу.
10:13
The more people who know
about this technologyтехнологія,
190
601930
2554
Чим більшій кількості людей
відомо про цю технологію,
10:16
the more we can all have a voiceголос
in how it's beingбуття used.
191
604484
3177
тим більше ми знатимемо,
як її використовувати.
10:21
So as more and more
of our livesживе becomeстати digitalцифровий,
192
609081
4574
Так як наше життя
стає все більш цифровим,
10:25
we are fightingбійки a losingпрограє battleбитва
tryingнамагаюся to curbузбіччя our usageвикористання of devicesпристрої
193
613655
3498
ми залучені в битву, яку програємо, намагаючись
обмежити використання нами пристроїв,
10:29
in orderзамовлення to reclaimповернути our emotionsемоції.
194
617153
2229
щоби повернути наші емоції.
10:32
So what I'm tryingнамагаюся to do insteadзамість цього
is to bringпринести emotionsемоції into our technologyтехнологія
195
620622
3914
Тож я намагаюся натомість
внести емоції в наші технології
10:36
and make our technologiesтехнології more responsiveчуйний.
196
624536
2229
і зробити їх більш чутливими.
10:38
So I want those devicesпристрої
that have separatedвідокремлений us
197
626765
2670
Мені б хотілося, щоб ці пристрої,
які нас роз'єднують,
10:41
to bringпринести us back togetherразом.
198
629435
2462
поєднали нас знову.
10:43
And by humanizingгуманізації technologyтехнологія,
we have this goldenзолотий opportunityможливість
199
631897
4588
Гуманізуючи технології,
ми отримуємо надзвичайну можливість
10:48
to reimagineРекомендовані універсальні how we
connectпідключити with machinesмашини,
200
636485
3297
переосмислити те, як ми з'єднуємося
з машинами,
10:51
and thereforeотже, how we, as humanлюдина beingsістоти,
201
639782
4481
і, відповідно, як ми, люди,
10:56
connectпідключити with one anotherінший.
202
644263
1904
спілкуємося один з одним.
10:58
Thank you.
203
646167
2160
Дякую.
11:00
(ApplauseОплески)
204
648327
3313
(Оплески)
Translated by Olga Makhnyk
Reviewed by Khrystyna Romashko

▲Back to top

ABOUT THE SPEAKER
Rana el Kaliouby - Computer scientist
What if a computer could recognize your facial expression, and react to how you feel? Rana el Kaliouby sees big possibilities in making technology emotionally aware.

Why you should listen

Rana el Kaliouby, chief science officer and co-founder of Affectiva, an MIT Media Lab spin-off, is on a mission to bring emotion intelligence to our digital experiences. She leads the company's emotion analytics team, which is responsible for developing emotion-sensing algorithms and mining the world's largest emotion data database. So far, they've collected 12 billion emotion data points from 2.9 million face videos from volunteers in 75 countries. The company’s platform is used by many Fortune Global 100 companies to measure consumer engagement, and is pioneering emotion-enabled digital apps for enterprise, entertainment, video communication and online education.

Entrepreneur magazine called el Kaliouby one of “The 7 Most Powerful Women To Watch in 2014,” and the MIT Technology Review included her in their list of the “Top 35 Innovators Under 35.”

More profile about the speaker
Rana el Kaliouby | Speaker | TED.com