ABOUT THE SPEAKER
Deb Roy - Cognitive scientist
Deb Roy studies how children learn language, and designs machines that learn to communicate in human-like ways. On sabbatical from MIT Media Lab, he's working with the AI company Bluefin Labs.

Why you should listen

Deb Roy directs the Cognitive Machines group at the MIT Media Lab, where he studies how children learn language, and designs machines that learn to communicate in human-like ways. To enable this work, he has pioneered new data-driven methods for analyzing and modeling human linguistic and social behavior. He has authored numerous scientific papers on artificial intelligence, cognitive modeling, human-machine interaction, data mining, and information visualization.

Deb Roy was the co-founder and serves as CEO of Bluefin Labs, a venture-backed technology company. Built upon deep machine learning principles developed in his research over the past 15 years, Bluefin has created a technology platform that analyzes social media commentary to measure real-time audience response to TV ads and shows.

Follow Deb Roy on Twitter>

Roy adds some relevant papers:

Deb Roy. (2009). New Horizons in the Study of Child Language Acquisition. Proceedings of Interspeech 2009. Brighton, England. bit.ly/fSP4Qh

Brandon C. Roy, Michael C. Frank and Deb Roy. (2009). Exploring word learning in a high-density longitudinal corpus. Proceedings of the 31st Annual Meeting of the Cognitive Science Society. Amsterdam, Netherlands. bit.ly/e1qxej

Plenty more papers on our research including technology and methodology can be found here, together with other research from my lab at MIT: bit.ly/h3paSQ

The work that I mentioned on relationships between television content and the social graph is being done at Bluefin Labs (www.bluefinlabs.com). Details of this work have not been published. The social structures we are finding (and that I highlighted in my TED talk) are indeed new. The social media communication channels that are leading to their formation did not even exist a few years ago, and Bluefin's technology platform for discovering these kinds of structures is the first of its kind. We'll certainly have more to say about all this as we continue to dig into this fascinating new kind of data, and as new social structures continue to evolve!

More profile about the speaker
Deb Roy | Speaker | TED.com
TED2011

Deb Roy: The birth of a word

데브 로이: 단어의 탄생

Filmed:
2,809,941 views

MIT 연구원인 데브 로이는 그의 갓난 아들이 어떻게 언어를 배우는지 이해하고 싶었습니다. -- 그래서 그는 그의 집안을 비디오카메라로 연결하여 거의 모든 아들의 삶을 담고, 그런 다음 "가아아아" 가 서서히 "워터"로 변해가는 과정을 지켜보기 위해 90,000시간의 홈비디오를 분석하였습니다. 우리가 언어를 배우는 방법에 대한 고도로 함축된 대용량데이터의 연구가 놀랍습니다.
- Cognitive scientist
Deb Roy studies how children learn language, and designs machines that learn to communicate in human-like ways. On sabbatical from MIT Media Lab, he's working with the AI company Bluefin Labs. Full bio

Double-click the English transcript below to play the video.

00:15
Imagine상상해 보라. if you could record기록 your life --
0
0
4000
만약 여러분의 삶을 기록 가능하다고 상상해 보십시오 --
00:19
everything you said, everything you did,
1
4000
3000
말하는 모든 것, 행동하는 모든 것들이
00:22
available유효한 in a perfect완전한 memory기억 store저장 at your fingertips손가락 끝,
2
7000
3000
여러분 손끝의 완벽한 저장장치 안에 있다면,
00:25
so you could go back
3
10000
2000
여러분들은 과거로 돌아가서
00:27
and find memorable기억에 남는 moments순간들 and relive되 살리다 them,
4
12000
3000
기억할 만 한 순간들을 찾아서 다시 체험할 수도 있고,
00:30
or sift체로 치다 through...을 통하여 traces흔적 of time
5
15000
3000
또는 시간의 궤적을 샅샅히 살펴봐서
00:33
and discover발견하다 patterns패턴들 in your own개인적인 life
6
18000
2000
이전에는 찾지 못하고 흘려보냈던
00:35
that previously이전에 had gone지나간 undiscovered발견되지 않은.
7
20000
3000
여러분 자신의 삶 속의 패턴을 발견할 수도 있습니다.
00:38
Well that's exactly정확하게 the journey여행
8
23000
2000
음 그건 정확히 저희 가족들이
00:40
that my family가족 began시작되었다
9
25000
2000
오년 반 전에 시작한
00:42
five다섯 and a half절반 years연령 ago...전에.
10
27000
2000
여행입니다.
00:44
This is my wife아내 and collaborator협력자, Rupal루팔.
11
29000
3000
여기는 제 아내이자 조력자인, 루팔 입니다.
00:47
And on this day, at this moment순간,
12
32000
2000
그리고 이 날, 이 순간에,
00:49
we walked걸었다 into the house with our first child어린이,
13
34000
2000
우리는 우리 첫 아기, 우리 예쁜 사내아이와
00:51
our beautiful아름다운 baby아가 boy소년.
14
36000
2000
집안으로 걸어들어갔습니다.
00:53
And we walked걸었다 into a house
15
38000
3000
매우 특별한 홈 비디오 녹화장비를 가지고
00:56
with a very special특별한 home video비디오 recording녹음 system체계.
16
41000
4000
집 안으로 들어갔지요.
01:07
(Video비디오) Man: Okay.
17
52000
2000
(영상) 남자: 좋아.
01:10
Deb Roy로이: This moment순간
18
55000
1000
데브 로이: 이 순간
01:11
and thousands수천 of other moments순간들 special특별한 for us
19
56000
3000
그리고 우리에게 특별한 수천번의 다른 순간들이
01:14
were captured포착 된 in our home
20
59000
2000
저희 집에서 녹화되었는데
01:16
because in every...마다 room in the house,
21
61000
2000
이 집의 모든 방 안에,
01:18
if you looked보았다 up, you'd당신은 see a camera카메라 and a microphone마이크로폰,
22
63000
3000
위를 올려다보시면, 카메라와 마이크를 보실 수 있고,
01:21
and if you looked보았다 down,
23
66000
2000
아래를 내려다보면,
01:23
you'd당신은 get this bird's-eye새의 눈 view전망 of the room.
24
68000
2000
그 방의 부감풍경을 볼 수 있습니다.
01:25
Here's여기에 our living생활 room,
25
70000
3000
여기는 저희 거실이구요,
01:28
the baby아가 bedroom침실,
26
73000
3000
아기 침실,
01:31
kitchen부엌, dining식사 room
27
76000
2000
주방, 식당
01:33
and the rest휴식 of the house.
28
78000
2000
그리고 나머지 집안입니다.
01:35
And all of these fed먹이는 into a disc디스크 array정렬
29
80000
3000
그리고 이 모든 것들을 연속 녹화를 위해
01:38
that was designed디자인 된 for a continuous마디 없는 capture포착.
30
83000
3000
특별히 제작된 디스크 장치들로 공급합니다.
01:41
So here we are flying나는 through...을 통하여 a day in our home
31
86000
3000
자 이제 저희 집의 하루로 날아가는데요
01:44
as we move움직임 from sunlit햇볕에 쬐 인 morning아침
32
89000
3000
해가 밝은 아침부터
01:47
through...을 통하여 incandescent백열 evening저녁
33
92000
2000
불켜진 저녁을 거쳐
01:49
and, finally마침내, lights out for the day.
34
94000
3000
결국 불을 끄는 때 까지 이동 해보겠습니다.
01:53
Over the course코스 of three years연령,
35
98000
3000
삼년이라는 과정 동안,
01:56
we recorded기록 된 eight여덟 to 10 hours시간 a day,
36
101000
2000
하루에 8-10 시간 동안 녹화를 했는데,
01:58
amassing축적 roughly대충 a quarter-million4 분의 1 만 hours시간
37
103000
3000
다중트랙 음향과 영상으로
02:01
of multi-track멀티 트랙 audio오디오 and video비디오.
38
106000
3000
대략 25만 시간 정도를 모았습니다.
02:04
So you're looking at a piece조각 of what is by far멀리
39
109000
2000
따라서 여러분께서는 사상 최대 규모의
02:06
the largest가장 큰 home video비디오 collection수집 ever made만든.
40
111000
2000
홈비디오 모음집을 보고 계시는 겁니다.
02:08
(Laughter웃음)
41
113000
3000
(웃음)
02:11
And what this data데이터 represents대표하다
42
116000
2000
그리고 개인적으로 저희 가족을 위해서
02:13
for our family가족 at a personal개인적인 level수평,
43
118000
4000
이 데이터가 어떻게 보여지든지,
02:17
the impact충격 has already이미 been immense거대한,
44
122000
2000
그 영향은 이미 헤아릴 수 없을 정도로 크고,
02:19
and we're still learning배우기 its value.
45
124000
3000
저희는 여전히 그 가치에 대해 배우고 있는 중입니다.
02:22
Countless셀 수 없는 moments순간들
46
127000
2000
셀 수 없는 순간들이,
02:24
of unsolicited자발적인 natural자연스러운 moments순간들, not posed제기 된 moments순간들,
47
129000
3000
원치 않던 자연스러운 순간들, 포즈를 잡지 않은 순간들이
02:27
are captured포착 된 there,
48
132000
2000
거기 담겨 있습니다.
02:29
and we're starting출발 to learn배우다 how to discover발견하다 them and find them.
49
134000
3000
그리고 어떻게 그들을 발견하고 찾아내는지에 대해 배워보려 합니다.
02:32
But there's also또한 a scientific과학적 reason이유 that drove운전했다 this project계획,
50
137000
3000
하지만 이 프로젝트를 운영하는 또다른 과학적인 이유가 있는데,
02:35
which어느 was to use this natural자연스러운 longitudinal세로의 data데이터
51
140000
4000
그것은 아이가 언어를 배우는 과정에 대해 이해하기 위해
02:39
to understand알다 the process방법
52
144000
2000
이 자연 대용량 데이터를
02:41
of how a child어린이 learns배우다 language언어 --
53
146000
2000
이용하는 것입니다. --
02:43
that child어린이 being존재 my son아들.
54
148000
2000
그 아이가 제 아들이구요.
02:45
And so with many많은 privacy은둔 provisions식량 put in place장소
55
150000
4000
따라서 이 데이터에 녹화된 모든 사람들을 보호하기 위한
02:49
to protect보호 everyone각자 모두 who was recorded기록 된 in the data데이터,
56
154000
3000
많은 개인정보 보호 규정을 두고,
02:52
we made만든 elements집단 of the data데이터 available유효한
57
157000
3000
우리는 데이터 요소들을 MIT에 있는
02:55
to my trusted신뢰할 수있는 research연구 team at MITMIT
58
160000
3000
제가 믿을만한 연구팀에 두고 나서
02:58
so we could start스타트 teasing놀리는 apart떨어져서 patterns패턴들
59
163000
3000
언어 습득에 있어 사회 환경이 주는 영향에 대한
03:01
in this massive거대한 data데이터 set세트,
60
166000
3000
이해에 대해 시도하는,
03:04
trying견딜 수 없는 to understand알다 the influence영향 of social사회적인 environments환경
61
169000
3000
이 거대한 데이터 덩어리 안에서 패턴을 추출해내는 작업을
03:07
on language언어 acquisition취득.
62
172000
2000
시작할 수 있었습니다.
03:09
So we're looking here
63
174000
2000
여기서 우리가 가장 처음
03:11
at one of the first things we started시작한 to do.
64
176000
2000
시작하려는 걸 보고 있습니다.
03:13
This is my wife아내 and I cooking조리 breakfast아침 식사 in the kitchen부엌,
65
178000
4000
여긴 제 아내고, 주방에서 아침을 만들고 있죠.
03:17
and as we move움직임 through...을 통하여 space공간 and through...을 통하여 time,
66
182000
3000
우리가 주방에서의 매우 일상적인 패턴,
03:20
a very everyday매일 pattern무늬 of life in the kitchen부엌.
67
185000
3000
공간과 시간을 통해 움직입니다.
03:23
In order주문 to convert변하게 하다
68
188000
2000
이 불투명한, 9만 시간의 영상을,
03:25
this opaque불투명체, 90,000 hours시간 of video비디오
69
190000
3000
우리가 분석을 시작할 수 있는
03:28
into something that we could start스타트 to see,
70
193000
2000
어떤 것으로 변환 시키기 위해
03:30
we use motion운동 analysis분석 to pull손잡이 out,
71
195000
2000
우리는 공간-시간 벌레 라고 불리는
03:32
as we move움직임 through...을 통하여 space공간 and through...을 통하여 time,
72
197000
2000
영상 분석 장치를 이용했는데,
03:34
what we call space-time시공간 worms회충.
73
199000
3000
시간과 공간을 통한 우리의 움직임을 끌어내줍니다.
03:37
And this has become지다 part부품 of our toolkit툴킷
74
202000
3000
그리고 이건 데이터 속의 어떤 활동을
03:40
for being존재 able할 수 있는 to look and see
75
205000
3000
우리가 살펴볼 수 있도록 해주는
03:43
where the activities활동들 are in the data데이터,
76
208000
2000
도구가 되었는데요,
03:45
and with it, trace자취 the pattern무늬 of, in particular특별한,
77
210000
3000
그걸 이용해서, 패턴을 추적하는데, 특히,
03:48
where my son아들 moved움직이는 throughout전역 the home,
78
213000
2000
제 아들이 집안에서 움직이는 장소인데,
03:50
so that we could focus초점 our transcription전사 efforts노력,
79
215000
3000
그로 하여금 우리는 제 아들 주변 환경에서 일어나는
03:53
all of the speech연설 environment환경 around my son아들 --
80
218000
3000
모든 말들을 받아쓰는데에 집중할 수 있었습니다.
03:56
all of the words that he heard들었던 from myself자기, my wife아내, our nanny여자 이름,
81
221000
3000
저나 제 아내, 유모로부터 아기가 듣게 되는 모든 말들,
03:59
and over time, the words he began시작되었다 to produce생기게 하다.
82
224000
3000
그리고 전 시간을 통틀어 그가 만들어내기 시작한 모든 말들을 말이죠.
04:02
So with that technology과학 기술 and that data데이터
83
227000
3000
그래서 그 기술과 그 데이터 그리고
04:05
and the ability능력 to, with machine기계 assistance보조,
84
230000
2000
그 기계적 도움의 능력을 통해,
04:07
transcribe고쳐 쓰다 speech연설,
85
232000
2000
말하는 것을 받아 적고,
04:09
we've우리는 now transcribed전사 된
86
234000
2000
이제는 무려
04:11
well over seven일곱 million백만 words of our home transcripts성적 증명서.
87
236000
3000
저희 집 대사집의 단어 수가 7백만 단어가 넘게 받아적혔습니다.
04:14
And with that, let me take you now
88
239000
2000
그리고 그걸 가지고, 여러분들을 데이터 속으로 가는
04:16
for a first tour근무 기간 into the data데이터.
89
241000
3000
최초의 여행으로 모시겠습니다.
04:19
So you've all, I'm sure,
90
244000
2000
여러분들은 아마, 분명히,
04:21
seen time-lapse저속 videos비디오
91
246000
2000
꽃이 피어오르는 장면을 보여주는
04:23
where a flower will blossom as you accelerate가속하다 time.
92
248000
3000
고속 영상을 보신 적이 있으실겁니다.
04:26
I'd like you to now experience경험
93
251000
2000
저는 여러분들께 말의 형식이
04:28
the blossoming꽃이 만발한 of a speech연설 form형태.
94
253000
2000
피어오르는 것을 경험하게 해 드리겠습니다.
04:30
My son아들, soon after his first birthday생일,
95
255000
2000
제아들이, 첫 돌이 갓 지나서,
04:32
would say "gaga어리석은" to mean water.
96
257000
3000
물 이라는 뜻으로 "가가" 라고 말 합니다.
04:35
And over the course코스 of the next다음 것 half-year반년,
97
260000
3000
그리고 그로부터 반년의 시간이 흐른 뒤에,
04:38
he slowly천천히 learned배운 to approximate근접한
98
263000
2000
서서히 정확하게 어른들 같이 "워터" 라고
04:40
the proper적절한 adult성인 form형태, "water."
99
265000
3000
말하는 방법을 배웁니다.
04:43
So we're going to cruise크루즈 through...을 통하여 half절반 a year
100
268000
2000
자 이제 우리 반년 동안의 시간을 40초 안에
04:45
in about 40 seconds.
101
270000
2000
여행 해 보겠습니다.
04:47
No video비디오 here,
102
272000
2000
영상은 없으니,
04:49
so you can focus초점 on the sound소리, the acoustics음향학,
103
274000
3000
새로운 종류의 궤적의 음성, 음향에
04:52
of a new새로운 kind종류 of trajectory사선:
104
277000
2000
집중 해 주세요.
04:54
gaga어리석은 to water.
105
279000
2000
가가 에서 워터로.
04:56
(Audio오디오) Baby아가: Gagagagagaga가가가가 가가
106
281000
12000
(음성) 아기: 가가가가가가
05:08
Gaga어리석은 gaga어리석은 gaga어리석은
107
293000
4000
가가 가가 가가
05:12
guga구가 guga구가 guga구가
108
297000
5000
구가 구가 구가
05:17
wada와다 gaga어리석은 gaga어리석은 guga구가 gaga어리석은
109
302000
5000
와다 가가 가가 구가 가가
05:22
wader걸어 건너는 사람 guga구가 guga구가
110
307000
4000
와덜 구가 구가
05:26
water water water
111
311000
3000
워터 워터 워터
05:29
water water water
112
314000
6000
워터 워터 워터
05:35
water water
113
320000
4000
워터 워터
05:39
water.
114
324000
2000
워터.
05:41
DRDR: He sure nailed못 박힌 it, didn't he.
115
326000
2000
데브 로이: 녀석이 제대로 해냈습니다. 그렇죠?
05:43
(Applause박수 갈채)
116
328000
7000
(박수)
05:50
So he didn't just learn배우다 water.
117
335000
2000
그는 워터 만 배운 게 아닙니다.
05:52
Over the course코스 of the 24 months개월,
118
337000
2000
24개월의 과정을 넘어,
05:54
the first two years연령 that we really focused초점을 맞춘 on,
119
339000
3000
처음의 2년에, 저희가 정말로 집중했던건
05:57
this is a map지도 of every...마다 word워드 he learned배운 in chronological연대기의 order주문.
120
342000
4000
그 애가 배운 모든 단어들을 시간 순서대로 만든 지도입니다.
06:01
And because we have full완전한 transcripts성적 증명서,
121
346000
3000
그리고 우리는 전체의 대화집을 가지고 있었기에,
06:04
we've우리는 identified확인 된 each마다 of the 503 words
122
349000
2000
그 아이의 두번째 생일 덕에 만드는 것을 배운
06:06
that he learned배운 to produce생기게 하다 by his second둘째 birthday생일.
123
351000
2000
503개의 각 단어들을 구분해냈습니다.
06:08
He was an early이른 talker연설자.
124
353000
2000
그는 말이 빨리 트였죠.
06:10
And so we started시작한 to analyze분석하다 why.
125
355000
3000
우리는 왜 그런 건지 분석을 시작했습니다.
06:13
Why were certain어떤 words born타고난 before others다른 사람?
126
358000
3000
왜 어떤 단어들은 다른 것들 보다 먼저 태어나는 걸까요?
06:16
This is one of the first results결과들
127
361000
2000
이것은 우리들을 정말 놀라게 했던,
06:18
that came왔다 out of our study연구 a little over a year ago...전에
128
363000
2000
일년 전 쯤의 연구에서 나온 결과들 중
06:20
that really surprised놀란 us.
129
365000
2000
하나입니다.
06:22
The way to interpret새기다 this apparently분명히 simple단순한 graph그래프
130
367000
3000
간단해보이는 이 그래프를 해석하는 방법은
06:25
is, on the vertical수직선 is an indication표시
131
370000
2000
이 수직 부분에 있는데요
06:27
of how complex복잡한 caregiver간병인 utterances발언 are
132
372000
3000
보호자가 말하는 문장의 길이를 기준으로
06:30
based기반 on the length길이 of utterances발언.
133
375000
2000
그 말이 얼마나 복잡한지를 알려줍니다.
06:32
And the [horizontal수평의] axis중심선 is time.
134
377000
3000
세로축은 시간이구요.
06:35
And all of the data데이터,
135
380000
2000
그리고 이 모든 데이터가
06:37
we aligned정렬 된 based기반 on the following수행원 idea생각:
136
382000
3000
다음 아이디어를 기준으로 정렬되었는데요:
06:40
Every마다 time my son아들 would learn배우다 a word워드,
137
385000
3000
아들이 단어 하나를 배울 때 마다,
06:43
we would trace자취 back and look at all of the language언어 he heard들었던
138
388000
3000
아이가 들은 모든 언어들 중에 그 단어가 포함된 걸
06:46
that contained포함 된 that word워드.
139
391000
2000
역추적할 수 있게 되어 있습니다.
06:48
And we would plot음모 the relative상대적인 length길이 of the utterances발언.
140
393000
4000
문장의 길이와의 연관관계에 대해서도 에측 가능하구요.
06:52
And what we found녹이다 was this curious이상한 phenomena현상,
141
397000
3000
우리가 발견한 이 신기한 현상은,
06:55
that caregiver간병인 speech연설 would systematically체계적으로 dip담그다 to a minimum최저한의,
142
400000
3000
보호자의 말이 체계적으로 최소화되면서,
06:58
making만들기 language언어 as simple단순한 as possible가능한,
143
403000
3000
언어를 가능한 한 단순하게 만들고,
07:01
and then slowly천천히 ascend오르다 back up in complexity복잡성.
144
406000
3000
그렇게 되면서 다른 한편으론 복잡성은 서서히 증가합니다.
07:04
And the amazing놀랄 만한 thing was
145
409000
2000
놀라운 점은
07:06
that bounce되튐, that dip담그다,
146
411000
2000
그 반동, 그 최소화가,
07:08
lined안을 댄 up almost거의 precisely정확하게
147
413000
2000
모든 단어가 만들어질 때
07:10
with when each마다 word워드 was born타고난 --
148
415000
2000
언제나 꼭 따라다닙니다 --
07:12
word워드 after word워드, systematically체계적으로.
149
417000
2000
단어 단어마다, 체계적으로요.
07:14
So it appears등장하다 that all three primary행성 caregivers간병인 --
150
419000
2000
그래서 주로 아이를 보는 저희 셋 --
07:16
myself자기, my wife아내 and our nanny여자 이름 --
151
421000
3000
저, 제 아내 그리고 유모는 --
07:19
were systematically체계적으로 and, I would think, subconsciously무의식적으로
152
424000
3000
체계적으로 그리고, 제생각엔 아마, 무의식적으로
07:22
restructuring구조 조정 our language언어
153
427000
2000
우리가 하는 말을 재구성을 했는데
07:24
to meet만나다 him at the birth출생 of a word워드
154
429000
3000
아이가 말을 만드는 순간에 다다르게 하고
07:27
and bring가져오다 him gently부드럽게 into more complex복잡한 language언어.
155
432000
4000
좀 더 복잡한 언어에 들어갈 수 있도록 하기 위함이었습니다.
07:31
And the implications의미 of this -- there are many많은,
156
436000
2000
또 이것이 함축하는 것은 많이 있죠,
07:33
but one I just want to point포인트 out,
157
438000
2000
하지만 제가 한가지 지적하고 싶은것은,
07:35
is that there must절대로 필요한 것 be amazing놀랄 만한 feedback피드백 loops루프.
158
440000
3000
정말 훌륭한 피드백 고리가 있어야한다는 것입니다.
07:38
Of course코스, my son아들 is learning배우기
159
443000
2000
물론, 제 아들은
07:40
from his linguistic언어학의 environment환경,
160
445000
2000
그의 언어적 환경에서 배우고 있었지만,
07:42
but the environment환경 is learning배우기 from him.
161
447000
3000
그 환경도 그에게서 배우고 있었습니다.
07:45
That environment환경, people, are in these tight단단한 feedback피드백 loops루프
162
450000
3000
그 환경, 사람들은 이 빽빽한 피드백 고리안에 있고
07:48
and creating창조 a kind종류 of scaffolding발판
163
453000
2000
지금까지는 알아차려지 않았던
07:50
that has not been noticed알아 차 렸던 until...까지 now.
164
455000
3000
징검다리와 같은 것을 만들고 있었습니다.
07:54
But that's looking at the speech연설 context문맥.
165
459000
2000
하지만 그것은 그 말이 되어지는 상황을 보고 있었습니다.
07:56
What about the visual시각적 인 context문맥?
166
461000
2000
시각적인 상황은 어떨까요?
07:58
We're not looking at --
167
463000
2000
우리는 우리 집을
08:00
think of this as a dollhouse인형 집 cutaway장면 전환 of our house.
168
465000
2000
인형의 집을 잘라만든것으로서 생각한것이 아니었습니다.
08:02
We've우리는 taken취한 those circular회보 fish-eye물고기 눈 lens렌즈 cameras카메라,
169
467000
3000
우리는 그 원형적인 물고기-눈의 렌즈 카메라를 택했고
08:05
and we've우리는 done끝난 some optical광학 correction보정,
170
470000
2000
약간의 시각적인 교정을 했고
08:07
and then we can bring가져오다 it into three-dimensional입체의 life.
171
472000
4000
그 다음에는 우리는 삼차원적인 시각의 인생으로 데려올 수 있었습니다.
08:11
So welcome환영 to my home.
172
476000
2000
자 우리가정에 오신것을 환영합니다.
08:13
This is a moment순간,
173
478000
2000
이것은 한 순간입니다.
08:15
one moment순간 captured포착 된 across건너서 multiple배수 cameras카메라.
174
480000
3000
여러대의 카메라를 가지고 한 순간을 포착한 것이지요.
08:18
The reason이유 we did this is to create몹시 떠들어 대다 the ultimate최고의 memory기억 machine기계,
175
483000
3000
우리가 이것을 한 이유는 궁극적인 기억장비를 창조하려는 것입니다,
08:21
where you can go back and interactively대화식으로 fly파리 around
176
486000
3000
여러분은 과거로 돌아가서 상호작용하도록 주변을 날아다니고
08:24
and then breathe숨을 쉬다 video-life비디오 - 라이프 into this system체계.
177
489000
3000
그 다음에는 이 조직 안으로 비디오의 생명을 숨쉽니다.
08:27
What I'm going to do
178
492000
2000
이제 제가 하려하는 것은
08:29
is give you an accelerated가속 된 view전망 of 30 minutes의사록,
179
494000
3000
30분의 비디오를 가속시킨 장면입니다.
08:32
again, of just life in the living생활 room.
180
497000
2000
다시 말하지만, 그것은 거실의 생활입니다.
08:34
That's me and my son아들 on the floor바닥.
181
499000
3000
저것은 저이고 제 아들은 마루에 있습니다.
08:37
And there's video비디오 analytics해석학
182
502000
2000
저것은 비디오
08:39
that are tracking추적 our movements동정.
183
504000
2000
우리의 움직임은 추적하고 있는 것이지요.
08:41
My son아들 is leaving퇴거 red빨간 ink잉크. I am leaving퇴거 green녹색 ink잉크.
184
506000
3000
저의 아들이 빨간 잉크를 남기고 있고, 저는 녹색의 잉크를 남기고 있습니다.
08:44
We're now on the couch침상,
185
509000
2000
우리가 이제는 소파에 있습니다,
08:46
looking out through...을 통하여 the window창문 at cars자동차 passing통과 by.
186
511000
3000
창밖으로 차가 지나가는 것을 바라보고 있지요.
08:49
And finally마침내, my son아들 playing연주하다 in a walking보행 toy장난감 by himself그 자신.
187
514000
3000
또 마지막으로, 제 아들이 스스로 걷는 장난감안에서 놀고 있지요.
08:52
Now we freeze얼다 the action동작, 30 minutes의사록,
188
517000
3000
자 우리는 30분의 그 움직임을 동결시킵니다,
08:55
we turn회전 time into the vertical수직선 axis중심선,
189
520000
2000
그 시간을 수직의 축 안으로 바꾸고
08:57
and we open열다 up for a view전망
190
522000
2000
우리가 방금 남겨놓았던 상호작용의 흔적들을
08:59
of these interaction상호 작용 traces흔적 we've우리는 just left behind뒤에.
191
524000
3000
새로운 화면으로 엽니다.
09:02
And we see these amazing놀랄 만한 structures구조 --
192
527000
3000
또 우리는 이 훌륭한 구조들을--
09:05
these little knots매듭 of two colors그림 물감 of thread
193
530000
3000
이 작은 두가지 색깔의 실로된 작은 매듭으로 보는데
09:08
we call "social사회적인 hot뜨거운 spots반점."
194
533000
2000
우리는 그것을 사회적인 핫스팟이라고 하지요.
09:10
The spiral나선 thread
195
535000
2000
나선형의 실은
09:12
we call a "solo독주 hot뜨거운 spot자리."
196
537000
2000
우리가 솔로 핫 스팟이라고 부르지요.
09:14
And we think that these affect감정 the way language언어 is learned배운.
197
539000
3000
또 우리가 생각하기로는 이것들이 언어가 습득되는 방법에 영향을 끼칩니다.
09:17
What we'd우리는 like to do
198
542000
2000
우리가 하기를 좋아하는 것은
09:19
is start스타트 understanding이해
199
544000
2000
이 패턴들사이의
09:21
the interaction상호 작용 between중에서 these patterns패턴들
200
546000
2000
상호작용과
09:23
and the language언어 that my son아들 is exposed드러난 to
201
548000
2000
제 아들이 노출당했던 그 언어사이에
09:25
to see if we can predict예측하다
202
550000
2000
만약 우리가 단어들이 들렸을때의 구조가
09:27
how the structure구조 of when words are heard들었던
203
552000
2000
단어들이 습득되는것에 영향을 미치는지
09:29
affects영향을 미치다 when they're learned배운 --
204
554000
2000
예측할 수 있을지를 관찰하는것을 이해하기 시작하는 것입니다.
09:31
so in other words, the relationship관계
205
556000
2000
그래서 달리 말하자면, 단어들과
09:33
between중에서 words and what they're about in the world세계.
206
558000
4000
그것들이 세계에서 어떤 역할을 하는지 사이의 관계이지요.
09:37
So here's여기에 how we're approaching접근하는 this.
207
562000
2000
자 여기에 우리가 이것에 접근하는 방법이 있습니다.
09:39
In this video비디오,
208
564000
2000
여기 비디오에서는,
09:41
again, my son아들 is being존재 traced추적 한 out.
209
566000
2000
다시금, 제 아들의 윤곽이 잡히고 있습니다.
09:43
He's leaving퇴거 red빨간 ink잉크 behind뒤에.
210
568000
2000
그는 빨간 잉크를 남기고 있습니다.
09:45
And there's our nanny여자 이름 by the door.
211
570000
2000
또 저기에 우리의 유모가 문옆에 있군요.
09:47
(Video비디오) Nanny여자 이름: You want water? (Baby아가: Aaaa아아아.)
212
572000
3000
(비디오) 유모: 물좀 줄까? (아기: 아아아)
09:50
Nanny여자 이름: All right. (Baby아가: Aaaa아아아.)
213
575000
3000
유모: 좋아 (아기: 아아아)
09:53
DRDR: She offers제안 water,
214
578000
2000
로이: 그녀가 물을 권합니다
09:55
and off go the two worms회충
215
580000
2000
또 물을 가지러 부엌으로 가서
09:57
over to the kitchen부엌 to get water.
216
582000
2000
두마리의 벌레를 가지러 갑니다.
09:59
And what we've우리는 done끝난 is use the word워드 "water"
217
584000
2000
우리가 한것은 그 활동의 약간의 순간을 잡기 위해서,
10:01
to tag꼬리표 that moment순간, that bit비트 of activity활동.
218
586000
2000
그 단어 "물"을 이용한 것입니다.
10:03
And now we take the power of data데이터
219
588000
2000
자 이제 우리는 그 데이타의 힘을 취해서
10:05
and take every...마다 time my son아들
220
590000
3000
저의 아들이 매번
10:08
ever heard들었던 the word워드 water
221
593000
2000
물이라는 단어를 들을때마다
10:10
and the context문맥 he saw it in,
222
595000
2000
또 그아이가 그것이 말해지는 상황을 보았을때,
10:12
and we use it to penetrate침투하다 through...을 통하여 the video비디오
223
597000
3000
또 우리가 그 비디오를 통해 관통하도록 이용해서
10:15
and find every...마다 activity활동 trace자취
224
600000
3000
물의 상황과 함께 발생하는
10:18
that co-occurred동시 발생의 with an instance of water.
225
603000
3000
모든 활동을 추적해 찾습니다.
10:21
And what this data데이터 leaves이파리 in its wake일어나 다
226
606000
2000
또 그 깨어남에 데이타가 남기는 것은
10:23
is a landscape경치.
227
608000
2000
풍경입니다.
10:25
We call these wordscapes단어 스케이프.
228
610000
2000
우리는 이것을 언어풍경 이라고 부르죠.
10:27
This is the wordscape단어장 for the word워드 water,
229
612000
2000
이것은 물이라는 단어풍경입니다,
10:29
and you can see most가장 of the action동작 is in the kitchen부엌.
230
614000
2000
분은 대부분의 활동이 부엌에서 이루어지고 있다는 것을 볼 수 있습니다.
10:31
That's where those big peaks봉우리 are over to the left.
231
616000
3000
저것은 그 높은 봉우리들이 왼쪽으로 넘어간 것입니다.
10:34
And just for contrast대조, we can do this with any word워드.
232
619000
3000
대조적으로 보자면, 우리는 것을 어떤 단어로도 할 수 있습니다.
10:37
We can take the word워드 "bye안녕"
233
622000
2000
"바이"라는 말을 택할 수 있지요
10:39
as in "good bye안녕."
234
624000
2000
"잘가" 라는 말에서처럼요.
10:41
And we're now zoomed확대 in over the entrance입구 to the house.
235
626000
2000
우리는 이제 집의 입구위에서 확대를 시켰습니다.
10:43
And we look, and we find, as you would expect배고 있다,
236
628000
3000
그래서 여러분들이 기대하시는 것처럼
10:46
a contrast대조 in the landscape경치
237
631000
2000
그 풍경에서 대조를
10:48
where the word워드 "bye안녕" occurs발생하다 much more in a structured구조화 된 way.
238
633000
3000
단어 "바이" 가 더욱더 구조적으로 발생하는 곳에서 대조를 관찰해서 찾았지요.
10:51
So we're using~을 사용하여 these structures구조
239
636000
2000
그래서 우리는 이 구조들을 이용하여
10:53
to start스타트 predicting예측하는
240
638000
2000
언어 습득의 순서를
10:55
the order주문 of language언어 acquisition취득,
241
640000
3000
예측하는 것을 시작했고
10:58
and that's ongoing전진 work now.
242
643000
2000
그게 지금 벌어지고 있는 것입니다.
11:00
In my lab, which어느 we're peering피어링 into now, at MITMIT --
243
645000
3000
이제는 엠아이티와 결연하고 있는 저의 연구소에는
11:03
this is at the media미디어 lab.
244
648000
2000
이것이 그 미디아 연구소에서 찍은것입니다.
11:05
This has become지다 my favorite특히 잘하는 way
245
650000
2000
이것은 제가 가장 선호하는 방법이 되었습니다.
11:07
of videographing비디오 촬영 just about any space공간.
246
652000
2000
어떤 장소이든지를 비디오촬영하는것에 대해 말이죠.
11:09
Three of the key people in this project계획,
247
654000
2000
이 프로젝트에는 세명의 중요한 사람이 있습니다.
11:11
Philip필립 DeCampDeCamp, RonyRony Kubat쿠밧 and Brandon브랜든 Roy로이 are pictured그려진 here.
248
656000
3000
필립 티켐프, 로니 쿠바트 와 브랜든 로이의 사진이 여기 있습니다.
11:14
Philip필립 has been a close닫기 collaborator협력자
249
659000
2000
필립은 여러분이 보시는 모든 시각화의
11:16
on all the visualizations시각화 you're seeing.
250
661000
2000
친밀한 합작자입니다.
11:18
And Michael남자 이름 Fleischman플라이 슈만
251
663000
3000
마이클 플레이쉬멘은
11:21
was another다른 PhPh.D. student학생 in my lab
252
666000
2000
저의 연구실의 다른 박사과정 학생이였는데
11:23
who worked일한 with me on this home video비디오 analysis분석,
253
668000
3000
그는 저와 함께 이 가정 비디오 분석작업을 했고
11:26
and he made만든 the following수행원 observation관측:
254
671000
3000
그는 다음의 관찰을 했습니다:
11:29
that "just the way that we're analyzing분석하는
255
674000
2000
우리가
11:31
how language언어 connects연결하다 to events사건
256
676000
3000
언어가 어떤식으로 언어의 평범한 기반을 제공하는
11:34
which어느 provide~을 제공하다 common공유지 ground바닥 for language언어,
257
679000
2000
사건들에 연결을 시키는지 분석하는 방법은
11:36
that same같은 idea생각 we can take out of your home, Deb,
258
681000
4000
우리가 여러분의 집, 뎁을 택하흔 것과 같은 아이디어이고,
11:40
and we can apply대다 it to the world세계 of public공공의 media미디어."
259
685000
3000
또 우리는 것을 세계의 공중 미디어에 적용할 수 있습니다."
11:43
And so our effort노력 took~했다 an unexpected예기치 않은 turn회전.
260
688000
3000
그래서 우리의 노력은 기대하지 않은 전환을 했습니다.
11:46
Think of mass질량 media미디어
261
691000
2000
매스 미디어를 생각해 보세요
11:48
as providing제공하는 common공유지 ground바닥
262
693000
2000
평범한 기반을 제공하는것 같고
11:50
and you have the recipe레시피
263
695000
2000
이 아이디어를 전혀 새로운 장소로
11:52
for taking취득 this idea생각 to a whole완전한 new새로운 place장소.
264
697000
3000
옮길 수 있도록 하는 재료를 여러분은 가지고 계십니다.
11:55
We've우리는 started시작한 analyzing분석하는 television텔레비전 content함유량
265
700000
3000
우리는 똑 같은 원리를 이용하여
11:58
using~을 사용하여 the same같은 principles원칙들 --
266
703000
2000
텔레비젼의 내용을 분석하기 시작했습니다
12:00
analyzing분석하는 event행사 structure구조 of a TVTV signal신호 --
267
705000
3000
쇼의 에피소드들과
12:03
episodes에피소드 of shows,
268
708000
2000
광고와
12:05
commercials광고,
269
710000
2000
사건의 구조를 만드는 모든 요소들을
12:07
all of the components구성 요소들 that make up the event행사 structure구조.
270
712000
3000
티비 시그널의 사건구조를 분석하는 것이지요.
12:10
And we're now, with satellite위성 dishes그릇, pulling당기는 and analyzing분석하는
271
715000
3000
우리는 이제 인공위성 접시를 가지고, 끌어당기고 분석하여
12:13
a good part부품 of all the TVTV being존재 watched보았다 in the United유나이티드 States.
272
718000
3000
시청이 되고 있는 많은 부분의 텔레비젼을 끌어 당겨서 분석하고 있습니다.
12:16
And you don't have to now go and instrument악기 living생활 rooms with microphones마이크
273
721000
3000
그래서 여러분은 이제 사람들의 대화를 듣기 위해
12:19
to get people's사람들의 conversations대화,
274
724000
2000
마이크와 장비를 가지고 거실로 가실 필요가 없습니다.
12:21
you just tune곡조 into publicly공개적으로 available유효한 social사회적인 media미디어 feeds피드.
275
726000
3000
여러분은 단지 공적으로 이용가능한 소셜 미디어 피드에 채널을 맞추면 됩니다.
12:24
So we're pulling당기는 in
276
729000
2000
그래서 우리는 한달에
12:26
about three billion십억 comments의견 a month,
277
731000
2000
3 조의 논평을 끌어들이고 있습니다.
12:28
and then the magic마법 happens일이.
278
733000
2000
그 다음에는 마술이 벌어집니다.
12:30
You have the event행사 structure구조,
279
735000
2000
여러분은 이벤트의 구조를 가지게 되는데
12:32
the common공유지 ground바닥 that the words are about,
280
737000
2000
그것은 그 단어에 관한
12:34
coming오는 out of the television텔레비전 feeds피드;
281
739000
3000
텔레비젼 피드에서 나오는 평범한 기반에서 나오는 것이죠;
12:37
you've got the conversations대화
282
742000
2000
여러분은 그 주제들에 관한
12:39
that are about those topics주제;
283
744000
2000
대화를 대하게 되죠;
12:41
and through...을 통하여 semantic의미 론적 analysis분석 --
284
746000
3000
또 상황 분석을 통해서
12:44
and this is actually사실은 real레알 data데이터 you're looking at
285
749000
2000
이것은 실제로 우리의 데이타 프로세싱에서
12:46
from our data데이터 processing가공 --
286
751000
2000
여러분이 보고 계시는 건데요,
12:48
each마다 yellow노랑 line is showing전시 a link링크 being존재 made만든
287
753000
3000
각 노란 선은 야생에서의 논평과
12:51
between중에서 a comment논평 in the wild야생
288
756000
3000
텔레비젼의 시그널에서 나오는
12:54
and a piece조각 of event행사 structure구조 coming오는 out of the television텔레비전 signal신호.
289
759000
3000
이벤트 구조의 조각사이에서 만들어지는 선을 보여주고 있습니다.
12:57
And the same같은 idea생각 now
290
762000
2000
그래서 이제 바로 그 똑같은 아이디어가
12:59
can be built세워짐 up.
291
764000
2000
세워질 수 있지요.
13:01
And we get this wordscape단어장,
292
766000
2000
그래서 우리는 이 단어풍경을 얻게 되는데,
13:03
except now words are not assembled조립 된 in my living생활 room.
293
768000
3000
이제 단어들이 저의 거실에서 조합되지 않는다는 사실만 다르죠.
13:06
Instead대신, the context문맥, the common공유지 ground바닥 activities활동들,
294
771000
4000
대신, 그 상황과, 그 평범한 기반의 활동들은
13:10
are the content함유량 on television텔레비전 that's driving운전 the conversations대화.
295
775000
3000
그 대화를 이끌어가는 텔레비젼의 내용입니다.
13:13
And what we're seeing here, these skyscrapers고층 빌딩 now,
296
778000
3000
그래서 우리가 여기서 보는것인, 이 초고층 빌딩은
13:16
are commentary해설
297
781000
2000
텔레비젼의 내용에 연결된
13:18
that are linked링크 된 to content함유량 on television텔레비전.
298
783000
2000
논평입니다.
13:20
Same같은 concept개념,
299
785000
2000
같은 내용이지만,
13:22
but looking at communication통신 dynamics역학
300
787000
2000
매우다른 영역에서
13:24
in a very different다른 sphere구체.
301
789000
2000
커뮤니케이션의 역동성을 보고 있는것이지요.
13:26
And so fundamentally근본적으로, rather차라리 than, for example,
302
791000
2000
또한 기본적으로,
13:28
measuring자질 content함유량 based기반 on how many많은 people are watching보고있다,
303
793000
3000
얼마나 많은 사람들이 보고있는지를 내용을 기반으로 측정하는 것보다는
13:31
this gives주는 us the basic기본 data데이터
304
796000
2000
이것은 내용의 접촉의 자산을 조사하기 위한
13:33
for looking at engagement약혼 properties속성들 of content함유량.
305
798000
3000
기본적인 데이타를 우리에게 제공합니다.
13:36
And just like we can look at feedback피드백 cycles주기
306
801000
3000
그래서 우리가 가족내의 피드백의 순환과
13:39
and dynamics역학 in a family가족,
307
804000
3000
동력을 조사할 수 있는것처럼
13:42
we can now open열다 up the same같은 concepts개념들
308
807000
3000
우리는 이제 그 똑같은 개념을 개봉하여
13:45
and look at much larger더 큰 groups여러 떼 of people.
309
810000
3000
보다 더 큰 규모의 집단을 조사할 수 있습니다.
13:48
This is a subset부분 집합 of data데이터 from our database데이터 베이스 --
310
813000
3000
이것은 우리의 단지 수백만중에서 오십만의 데이타베이스에서
13:51
just 50,000 out of several수개 million백만 --
311
816000
3000
나온 부분집합의 하나인데--
13:54
and the social사회적인 graph그래프 that connects연결하다 them
312
819000
2000
그 소셜 그래프는 공적으로 이용가능한 정보들을 통해서
13:56
through...을 통하여 publicly공개적으로 available유효한 sources원천.
313
821000
3000
그것들을 연결시키는 것입니다.
13:59
And if you put them on one plain평원,
314
824000
2000
만약 여러분이 그 데이타를 하나의 축에 올리면,
14:01
a second둘째 plain평원 is where the content함유량 lives.
315
826000
3000
두번째 축이 그 내용이 살아나는 곳이죠.
14:04
So we have the programs프로그램들
316
829000
3000
그래서 우리는 그 프로그램과
14:07
and the sporting스포츠 events사건
317
832000
2000
스포츠 이벤트와
14:09
and the commercials광고,
318
834000
2000
광고를 가지고 있어서,
14:11
and all of the link링크 structures구조 that tie넥타이 them together함께
319
836000
2000
그것들을 함께 연결시키는 그 링크 조직이
14:13
make a content함유량 graph그래프.
320
838000
2000
내용의 그래프를 만듭니다.
14:15
And then the important중대한 third제삼 dimension치수.
321
840000
4000
그 다음에는 중요한 세번째의 영역입니다.
14:19
Each마다 of the links모래밭 that you're seeing rendered렌더링 된 here
322
844000
2000
여러분이 여기서 보고 계시는 링크들의 각각은
14:21
is an actual실제의 connection연결 made만든
323
846000
2000
누군가 말한 무엇인가와
14:23
between중에서 something someone어떤 사람 said
324
848000
3000
부분적인 내용을
14:26
and a piece조각 of content함유량.
325
851000
2000
실제로 연결해서 만든 것입니다.
14:28
And there are, again, now tens수십 of millions수백만 of these links모래밭
326
853000
3000
또 거기에는 우리에게 그 소셜 그래프의 연결적인 티슈와
14:31
that give us the connective연결어 tissue조직 of social사회적인 graphs그래프
327
856000
3000
그것들이 어떻게 그 내용과 연결하는지를 제공하는
14:34
and how they relate말하다 to content함유량.
328
859000
3000
이러한 수천만 수백만의 링크들이 있습니다.
14:37
And we can now start스타트 to probe조사 the structure구조
329
862000
2000
또 우리는 이제 상호교환하는 방법으로
14:39
in interesting재미있는 ways.
330
864000
2000
그 조직을 탐사할 수 있습니다.
14:41
So if we, for example, trace자취 the path통로
331
866000
3000
그래서 만약 우리가, 예를 들어,
14:44
of one piece조각 of content함유량
332
869000
2000
누군가가 그것에 관한 논평을 하기 위해 움직이는
14:46
that drives드라이브 someone어떤 사람 to comment논평 on it,
333
871000
2000
부분적인 내용의 길의 흔적을 쫒아가면,
14:48
and then we follow따르다 where that comment논평 goes간다,
334
873000
3000
그 다음은 우리가 그 논평이 옮겨가는 곳으로 따라가고,
14:51
and then look at the entire완전한 social사회적인 graph그래프 that becomes된다 activated활성화 된
335
876000
3000
그다음에는 전체의 소셜 그래프가 샐행되는것을 조사하고
14:54
and then trace자취 back to see the relationship관계
336
879000
3000
그다음에는 그 소셜 그래프와 내용사이의
14:57
between중에서 that social사회적인 graph그래프 and content함유량,
337
882000
2000
매우 흥미로운 구조가 되는것이 가시화되는것의
14:59
a very interesting재미있는 structure구조 becomes된다 visible명백한.
338
884000
2000
흔적을 다시 되짚어 볼 수 있습니다.
15:01
We call this a co-viewing공동 관람 clique도당,
339
886000
2000
우리는 이것을 동시감상의 임상이라고,
15:03
a virtual가상의 living생활 room if you will.
340
888000
3000
원하신다면 가상의 거실이라고 부릅니다.
15:06
And there are fascinating매혹적인 dynamics역학 at play놀이.
341
891000
2000
여기엔 놀이에 매혹적인 역학이 있습니다.
15:08
It's not one way.
342
893000
2000
그것은 한가지 방법이 아닙니다.
15:10
A piece조각 of content함유량, an event행사, causes원인 someone어떤 사람 to talk.
343
895000
3000
부분적인 내용인 이벤트가 누군가가 말을 하도록 하게 합니다.
15:13
They talk to other people.
344
898000
2000
그들은 다른사람들에게 이야기 합니다.
15:15
That drives드라이브 tune-in튜닝 behavior행동 back into mass질량 media미디어,
345
900000
3000
그것이 매스 미디어로 돌아가게 하는 행동에 초점을 맞추도록 움직이고
15:18
and you have these cycles주기
346
903000
2000
여러분은 그 전체적인 행동을 움직이는
15:20
that drive드라이브 the overall사무용 겉옷 behavior행동.
347
905000
2000
이러한 순환을 하도록 움직입니다.
15:22
Another다른 example -- very different다른 --
348
907000
2000
아주 다른 한가지 다른 예는
15:24
another다른 actual실제의 person사람 in our database데이터 베이스 --
349
909000
3000
우리의 데이타베이스에 있는 실제인물인데
15:27
and we're finding발견 at least가장 작은 hundreds수백, if not thousands수천, of these.
350
912000
3000
우리는 이런것을 수천만이 아니라면 적어도 수백만을 발견합니다.
15:30
We've우리는 given주어진 this person사람 a name이름.
351
915000
2000
우리는 이 사람에게 이름을 주었습니다.
15:32
This is a pro-amateur프로 아마추어, or pro-am프로암 media미디어 critic비평가
352
917000
3000
이 사람은 프로 아마추어이거나 미디아 비평가인데
15:35
who has this high높은 fan-out팬 아웃 rate.
353
920000
3000
그는 높은 전개의 비율을 가지고 있습니다.
15:38
So a lot of people are following수행원 this person사람 -- very influential힘 있는 --
354
923000
3000
그래서 많은 사람들이 이사람을 따르고 있습니다--아주 영향력있고--
15:41
and they have a propensity경향 to talk about what's on TVTV.
355
926000
2000
그들은 티비에 무엇이 방영되고 있는지에 관해 이야기를 하는 경향이 있습니다.
15:43
So this person사람 is a key link링크
356
928000
3000
그래서 이사람은 매스 미디아와 소셜미디아를 연결하는
15:46
in connecting연결 mass질량 media미디어 and social사회적인 media미디어 together함께.
357
931000
3000
중요한 연결고리입니다.
15:49
One last example from this data데이터:
358
934000
3000
마지막 한가지 예는 이 데이타에서 나온것입니다:
15:52
Sometimes때때로 it's actually사실은 a piece조각 of content함유량 that is special특별한.
359
937000
3000
때때로는 그것은 실제로 부분적인 내용이 특별합니다.
15:55
So if we go and look at this piece조각 of content함유량,
360
940000
4000
그래서 만약 우리가 가서 이 부분적인 내용을,
15:59
President대통령 Obama's오바마 대통령 State상태 of the Union노동 조합 address주소
361
944000
3000
단지 몇주전에 있었던
16:02
from just a few조금 weeks ago...전에,
362
947000
2000
오바마 대통령의 통일 국가의 연설을 보고
16:04
and look at what we find in this same같은 data데이터 set세트,
363
949000
3000
이 같은 데이타 세트에서
16:07
at the same같은 scale규모,
364
952000
3000
같은 규모로 우리가 찾는것을 조사한다면,
16:10
the engagement약혼 properties속성들 of this piece조각 of content함유량
365
955000
2000
이 부분적인 내용의 참여 자산은
16:12
are truly진실로 remarkable주목할 만한.
366
957000
2000
정말 괄목할만한 것입니다.
16:14
A nation민족 exploding폭발하는 in conversation대화
367
959000
2000
전체 국가가 대화하는것에 폭발합니다
16:16
in real레알 time
368
961000
2000
실제시간에서
16:18
in response응답 to what's on the broadcast방송.
369
963000
3000
무엇이 방영되고있는지에 대한 반응에 대해서요.
16:21
And of course코스, through...을 통하여 all of these lines윤곽
370
966000
2000
그리고 물론, 이 모든 대사들을 통해서
16:23
are flowing흐르는 unstructured구조되지 않은 language언어.
371
968000
2000
조직되지 않은 언어가 흘러들고 있습니다.
16:25
We can X-ray엑스레이
372
970000
2000
우리는 엑스레이를 찍어서
16:27
and get a real-time실시간 pulse펄스 of a nation민족,
373
972000
2000
전제 국가의 실제시간의 진맥을
16:29
real-time실시간 sense감각
374
974000
2000
실제시간의 감각으로
16:31
of the social사회적인 reactions반응들 in the different다른 circuits회로들 in the social사회적인 graph그래프
375
976000
3000
내용에 의해 작동되고 있는중인
16:34
being존재 activated활성화 된 by content함유량.
376
979000
3000
소셜 그래프에있는 다른 순환내의 소셜 반작용을 말이죠.
16:37
So, to summarize요약하다, the idea생각 is this:
377
982000
3000
그래서, 요약하자면, 아이디어는 이렇습니다:
16:40
As our world세계 becomes된다 increasingly더욱 더 instrumented계측 된
378
985000
3000
우리의 세계가 점차적으로 도구화되고
16:43
and we have the capabilities능력
379
988000
2000
우리에게는
16:45
to collect수집 and connect잇다 the dots도트
380
990000
2000
사람들이 말하는 것과
16:47
between중에서 what people are saying속담
381
992000
2000
그들이 그렇게 말하는 상황들 사이의
16:49
and the context문맥 they're saying속담 it in,
382
994000
2000
지점들을 수집하고 연결하는 능력이 있고,
16:51
what's emerging떠오르는 is an ability능력
383
996000
2000
드러나고 있는것은
16:53
to see new새로운 social사회적인 structures구조 and dynamics역학
384
998000
3000
그 이전에는 보여지지 않았던
16:56
that have previously이전에 not been seen.
385
1001000
2000
새로운 사회 구조와 동력을 보는 능력입니다.
16:58
It's like building건물 a microscope현미경 or telescope망원경
386
1003000
2000
그것은 마치 현미경이나 망원경과
17:00
and revealing드러내는 new새로운 structures구조
387
1005000
2000
커뮤니케이션 주변의 우리자신의 행동에 관해서
17:02
about our own개인적인 behavior행동 around communication통신.
388
1007000
3000
새로운 구조를 드래내어 구축하고 있는것과 같습니다.
17:05
And I think the implications의미 here are profound깊은,
389
1010000
3000
그래서 제 생각에 이것이 함축하는 바는 심오한 것입니다,
17:08
whether인지 어떤지 it's for science과학,
390
1013000
2000
그게 과학에 관한것이든지,
17:10
for commerce상업, for government정부,
391
1015000
2000
상업을 위한것이든지, 정부를 위한 것이든지,
17:12
or perhaps혹시 most가장 of all,
392
1017000
2000
또는 아마 가장 중요하게,
17:14
for us as individuals개인.
393
1019000
3000
우리 개인들을 위한것이든지요.
17:17
And so just to return반환 to my son아들,
394
1022000
3000
그래서 제 아들에게로 다시 돌아가자면,
17:20
when I was preparing준비중 인 this talk, he was looking over my shoulder어깨,
395
1025000
3000
제가 이 이야기를 준비하고 있었을 때, 그는 제 어깨너머를 보고 있었고,
17:23
and I showed보여 주었다 him the clips클립 I was going to show보여 주다 to you today오늘,
396
1028000
2000
저는 오늘 여러분들에게 보여주려는 영상을 보여주었고,
17:25
and I asked물었다 him for permission허가 -- granted부여 된.
397
1030000
3000
제가 그에게 허락을 구했습니다--승낙을 하더군요.
17:28
And then I went갔다 on to reflect비추다,
398
1033000
2000
그리고 난 다음에 회상을 했습니다,
17:30
"Isn't it amazing놀랄 만한,
399
1035000
3000
"그건 정말 굉장하지 않아,
17:33
this entire완전한 database데이터 베이스, all these recordings녹음,
400
1038000
3000
이 데이타베이스 전체, 이 모든 레코딩들,
17:36
I'm going to hand off to you and to your sister여자 형제" --
401
1041000
2000
나는 너와 너의 여동생에게 건네줄 작정이야,"
17:38
who arrived도착한 two years연령 later후에 --
402
1043000
3000
그애는 2 년후에 태어났지요.
17:41
"and you guys are going to be able할 수 있는 to go back and re-experience재 경험 moments순간들
403
1046000
3000
"그래서 너희들은 과거로 돌아가서 너희들이 생물학적인 기억으로는
17:44
that you could never, with your biological생물학의 memory기억,
404
1049000
3000
절대로 기억하지 못할 순간들을 재 경험할 수 있을거야,
17:47
possibly혹시 remember생각해 내다 the way you can now?"
405
1052000
2000
네가 아마도 지금 기억할 수 있는 그런 식으로 말이야."
17:49
And he was quiet조용한 for a moment순간.
406
1054000
2000
그애는 잠깐 조용히 있었습니다.
17:51
And I thought, "What am I thinking생각?
407
1056000
2000
그래서 제가 생각하기를, "내가 무슨 생각을 하고 있는거야?
17:53
He's five다섯 years연령 old늙은. He's not going to understand알다 this."
408
1058000
2000
그애는 다섯살이야. 이것을 이해할 수 없을거야."
17:55
And just as I was having that thought, he looked보았다 up at me and said,
409
1060000
3000
제가 바로 그 생각을 하고 있을때, 그애가 저를 바라보며 말하기를,
17:58
"So that when I grow자라다 up,
410
1063000
2000
"그래서 그게 내가 자라났을때,
18:00
I can show보여 주다 this to my kids아이들?"
411
1065000
2000
이것을 내 아이들에게 보여줄 수 있어요?
18:02
And I thought, "Wow와우, this is powerful강한 stuff물건."
412
1067000
3000
그래서 제가 생각하기를, "와, 이것은 정말 파워가 센거네."
18:05
So I want to leave휴가 you
413
1070000
2000
그래서 저는 여러분들에게
18:07
with one last memorable기억에 남는 moment순간
414
1072000
2000
저희 가족의 가장 기억할 만한
18:09
from our family가족.
415
1074000
3000
마지막 순간을 남겨드리려 합니다.
18:12
This is the first time our son아들
416
1077000
2000
이것은 우리의 아들이
18:14
took~했다 more than two steps걸음 at once일단 --
417
1079000
2000
한번에 두발자국을 떼는것을
18:16
captured포착 된 on film필름.
418
1081000
2000
것을 담은 영상입니다.
18:18
And I really want you to focus초점 on something
419
1083000
3000
또 저는 정말 제가 여러분을 보심에 따라
18:21
as I take you through...을 통하여.
420
1086000
2000
여러분께서 뭔가에 집중하기를 바랍니다.
18:23
It's a cluttered어수선한 environment환경; it's natural자연스러운 life.
421
1088000
2000
그것은 뒤죽박죽이 된 환경입니다; 그것은 자연적인 인생입니다.
18:25
My mother's어머니의 in the kitchen부엌, cooking조리,
422
1090000
2000
저의 어머니가 요리를 하며 부엌에,
18:27
and, of all places장소들, in the hallway현관,
423
1092000
2000
복도에, 다른 모든 장소들에 있는데
18:29
I realize깨닫다 he's about to do it, about to take more than two steps걸음.
424
1094000
3000
제가 제 아들이 그것을 할 거라는 것을, 두발자국 이상을 떼어놓을거라는 것을 발견합니다.
18:32
And so you hear듣다 me encouraging격려의 him,
425
1097000
2000
여러분은 제가 제 아들을 격려하는 것을 들을 수 있습니다
18:34
realizing실현 what's happening사고,
426
1099000
2000
무엇이 일어나는지를 깨달으면서요
18:36
and then the magic마법 happens일이.
427
1101000
2000
그 다음에 그 마술이 벌어집니다.
18:38
Listen very carefully면밀히.
428
1103000
2000
주의깊게 들으세요.
18:40
About three steps걸음 in,
429
1105000
2000
약 세발자국을 떼었을때,
18:42
he realizes실현하다 something magic마법 is happening사고,
430
1107000
2000
제 아들은 뭔가 마술적인 것이 일어난다는 것을 깨닫습니다.
18:44
and the most가장 amazing놀랄 만한 feedback피드백 loop고리 of all kicks in,
431
1109000
3000
또 모든것에 박차를 가하는 가장 훌륭한 피드백에
18:47
and he takes a breath in,
432
1112000
2000
제 아들은 숨을 들이쉬고는
18:49
and he whispers속삭이다 "wow와우"
433
1114000
2000
그는 "와" 라고 속삭이고
18:51
and instinctively본능적으로 I echo에코 back the same같은.
434
1116000
4000
본능적으로 저는 똑같은것을 반향시킵니다.
18:56
And so let's fly파리 back in time
435
1121000
3000
그러니 그 기억할 만한 순간에
18:59
to that memorable기억에 남는 moment순간.
436
1124000
2000
제시간으로 날아갑시다.
19:05
(Video비디오) DRDR: Hey.
437
1130000
2000
(비디오) 디알: 여기봐
19:07
Come here.
438
1132000
2000
이리와
19:09
Can you do it?
439
1134000
3000
그렇게 할 수 있겠어?
19:13
Oh, boy소년.
440
1138000
2000
오, 보이.
19:15
Can you do it?
441
1140000
3000
그렇게 할 수 있겠어?
19:18
Baby아가: Yeah.
442
1143000
2000
아기: 예
19:20
DRDR: Ma엄마, he's walking보행.
443
1145000
3000
로이: 엄마, 제 아들이 걸어요.
19:24
(Laughter웃음)
444
1149000
2000
(웃음)
19:26
(Applause박수 갈채)
445
1151000
2000
(박수)
19:28
DRDR: Thank you.
446
1153000
2000
로이: 감사합니다.
19:30
(Applause박수 갈채)
447
1155000
15000
(박수)
Translated by Jeong-Lan Kinser
Reviewed by Bianca Lee

▲Back to top

ABOUT THE SPEAKER
Deb Roy - Cognitive scientist
Deb Roy studies how children learn language, and designs machines that learn to communicate in human-like ways. On sabbatical from MIT Media Lab, he's working with the AI company Bluefin Labs.

Why you should listen

Deb Roy directs the Cognitive Machines group at the MIT Media Lab, where he studies how children learn language, and designs machines that learn to communicate in human-like ways. To enable this work, he has pioneered new data-driven methods for analyzing and modeling human linguistic and social behavior. He has authored numerous scientific papers on artificial intelligence, cognitive modeling, human-machine interaction, data mining, and information visualization.

Deb Roy was the co-founder and serves as CEO of Bluefin Labs, a venture-backed technology company. Built upon deep machine learning principles developed in his research over the past 15 years, Bluefin has created a technology platform that analyzes social media commentary to measure real-time audience response to TV ads and shows.

Follow Deb Roy on Twitter>

Roy adds some relevant papers:

Deb Roy. (2009). New Horizons in the Study of Child Language Acquisition. Proceedings of Interspeech 2009. Brighton, England. bit.ly/fSP4Qh

Brandon C. Roy, Michael C. Frank and Deb Roy. (2009). Exploring word learning in a high-density longitudinal corpus. Proceedings of the 31st Annual Meeting of the Cognitive Science Society. Amsterdam, Netherlands. bit.ly/e1qxej

Plenty more papers on our research including technology and methodology can be found here, together with other research from my lab at MIT: bit.ly/h3paSQ

The work that I mentioned on relationships between television content and the social graph is being done at Bluefin Labs (www.bluefinlabs.com). Details of this work have not been published. The social structures we are finding (and that I highlighted in my TED talk) are indeed new. The social media communication channels that are leading to their formation did not even exist a few years ago, and Bluefin's technology platform for discovering these kinds of structures is the first of its kind. We'll certainly have more to say about all this as we continue to dig into this fascinating new kind of data, and as new social structures continue to evolve!

More profile about the speaker
Deb Roy | Speaker | TED.com