ABOUT THE SPEAKER
Pranav Mistry - Director of research, Samsung Research America
As an MIT grad student, Pranav Mistry invented SixthSense, a wearable device that enables new interactions between the real world and the world of data.

Why you should listen

When Pranav Mistry was a PhD student in the Fluid Interfaces Group at MIT's Media Lab, he worked with lab director Pattie Maes to create some of the most entertaining and thought-provoking interfaces the world had ever seen. And not just computer interfaces, mind you -- these are ways to help the digital and the actual worlds interface. Imagine: intelligent sticky notes, Quickies, that can be searched and can send reminders; a pen that draws in 3D; and TaPuMa, a tangible public map that can act as Google of physical world. And of course the legendary SixthSense, which is now open sourced

Before his studies at MIT, he worked with Microsoft as a UX researcher; he's a graduate of IIT. Now, as director of research at Samsung Research America, Mistry heads the Think Tank Team, an interdisciplinary group of researchers that hunts for new ways to mix digital informational with real-world interactions. As an example, Mistry launched the company's smartwatch, the Galaxy Gear, in 2013.

More profile about the speaker
Pranav Mistry | Speaker | TED.com
TEDIndia 2009

Pranav Mistry: The thrilling potential of SixthSense technology

プラナフ・ミストリー :次なる可能性を秘めたSixthSenseテクノロジー

Filmed:
18,689,186 views

TEDIndiaでプラナフ・ミストリーが、SixthSenseデバイスの詳細をはじめ、パラダイムシフトを起こす新しい紙のノートPCなど、日常生活とデータの世界の交流を可能にするツールの数々を見せてくれます。ステージ上でのQ&Aでは、SixthSenseの可能性をすべての人が手にできるよう、ソフトウェアをオープンソースにする予定であると語っています。
- Director of research, Samsung Research America
As an MIT grad student, Pranav Mistry invented SixthSense, a wearable device that enables new interactions between the real world and the world of data. Full bio

Double-click the English transcript below to play the video.

00:15
We grew成長しました up
0
0
2000
私たちは
00:17
interacting相互作用する with the physical物理的 objectsオブジェクト around us.
1
2000
3000
身の回りのモノに触れて育ってきました
00:20
There are an enormous巨大な number of them
2
5000
2000
私たちが日常生活で使うモノは
00:22
that we use everyすべて day.
3
7000
2000
ものすごく沢山あります
00:24
Unlikeとは異なり most最も of our computing計算 devicesデバイス,
4
9000
3000
コンピュータ機器の多くとは違い
00:27
these objectsオブジェクト are much more fun楽しい to use.
5
12000
3000
日常生活のモノというのは 使うのが楽しいものです
00:30
When you talk about objectsオブジェクト,
6
15000
3000
日常生活のモノについて話題にするとき
00:33
one other thing automatically自動的に comes来る attached添付された to that thing,
7
18000
3000
それに付随してくるものがもう1つあります
00:36
and that is gesturesジェスチャー:
8
21000
2000
ジェスチャーです
00:38
how we manipulate操作する these objectsオブジェクト,
9
23000
2000
それらのモノをどうやって扱うのか
00:40
how we use these objectsオブジェクト in everyday毎日 life.
10
25000
3000
実生活でそれらのモノをどう使うのか
00:43
We use gesturesジェスチャー not only to interact相互作用する with these objectsオブジェクト,
11
28000
3000
ジェスチャーはモノに対してだけ使うわけではありません
00:46
but we alsoまた、 use them to interact相互作用する with each other.
12
31000
2000
人に対しても使います
00:48
A gestureジェスチャー of "Namasteナマステ!", maybe, to respect尊敬 someone誰か,
13
33000
3000
「ナマステ!」のジェスチャーは 誰かに敬意を示すときにします
00:51
or maybe --
14
36000
1000
インドの子供なら
00:52
in Indiaインド I don't need to teach教える a kidキッド that this means手段
15
37000
2000
これはクリケットの「4ラン」だと
00:54
"four4つの runs走る" in cricketクリケット.
16
39000
2000
教えられなくとも知っています
00:56
It comes来る as a part of our everyday毎日 learning学習.
17
41000
3000
生活の中で自然に学び取るのです
00:59
So, I am very interested興味がある,
18
44000
2000
私は早い時期に
01:01
from the beginning始まり, that how --
19
46000
2000
興味を持った事があります
01:03
how our knowledge知識
20
48000
2000
「モノやジェスチャーに対する
01:05
about everyday毎日 objectsオブジェクト and gesturesジェスチャー,
21
50000
2000
私たちの知識や
01:07
and how we use these objectsオブジェクト,
22
52000
2000
実生活でモノをどう使うかということが
01:09
can be leveragedレバレッジド to our interactionsインタラクション with the digitalデジタル world世界.
23
54000
3000
デジタル世界をより良くするために役立てられないだろうか?」
01:12
Ratherむしろ than usingを使用して a keyboardキーボード and mouseマウス,
24
57000
3000
キーボードやマウスを使うかわりに
01:15
why can I not use my computerコンピューター
25
60000
3000
日常的なジェスチャーで
01:18
in the same同じ way that I interact相互作用する in the physical物理的 world世界?
26
63000
3000
コンピュータを使うことはできないだろうか?
01:21
So, I started開始した this exploration探査 around eight8 years back,
27
66000
3000
8年ほど前に私はこの探求を始めました
01:24
and it literally文字通り started開始した with a mouseマウス on my desk.
28
69000
3000
そして自分の机の上にあるマウスをまず手に取りました
01:27
Ratherむしろ than usingを使用して it for my computerコンピューター,
29
72000
3000
それでコンピュータを使うというのではなく
01:30
I actually実際に opened開かれた it.
30
75000
3000
中を開けてみたのです
01:33
Most最も of you mightかもしれない be aware承知して that, in those days日々,
31
78000
2000
マウスというのは
01:35
the mouseマウス used to come with a ball inside内部,
32
80000
2000
昔は中にボールが入っていました
01:37
and there were two rollersローラー
33
82000
2000
2つのローラーが
01:39
that actually実際に guideガイド the computerコンピューター where the ball is moving動く,
34
84000
3000
マウスを動かしたときのボールの動きを
01:42
and, accordinglyそれに応じて, where the mouseマウス is moving動く.
35
87000
2000
コンピュータに伝えるようになっています
01:44
So, I was interested興味がある in these two rollersローラー,
36
89000
3000
だから私はこの2つのローラーに興味を持ち
01:47
and I actually実際に wanted more, so I borrowed借りた another別の mouseマウス from a friend友人 --
37
92000
3000
もっと欲しくなって友達からもマウスを借りました
01:50
never returned戻ってきた to him --
38
95000
2000
返すことはありませんでしたが
01:52
and I now had four4つの rollersローラー.
39
97000
2000
これでローラーが4つになりました
01:54
Interestingly興味深いことに, what I did with these rollersローラー is,
40
99000
3000
そのローラーを使って何をやったかというと
01:57
basically基本的に, I took取った them off of these mousesマウス
41
102000
3000
マウスから取り外して
02:00
and then put them in one lineライン.
42
105000
2000
一列に並べ
02:02
It had some strings文字列 and pulleysプーリー and some springsスプリング.
43
107000
3000
紐と滑車とバネをつけたのです
02:05
What I got is basically基本的に a gestureジェスチャー interfaceインタフェース deviceデバイス
44
110000
3000
出来上がったのは ジェスチャーをインターフェイスとする装置で
02:08
that actually実際に acts行為 as a motion-sensingモーションセンシング deviceデバイス
45
113000
4000
モーションセンサの働きをします
02:12
made for two dollarsドル.
46
117000
2000
2ドルでできました
02:14
So, here, whateverなんでも movement移動 I do in my physical物理的 world世界
47
119000
3000
私が実世界でした動きが
02:17
is actually実際に replicated複製された inside内部 the digitalデジタル world世界
48
122000
3000
この小さな装置を通して
02:20
just usingを使用して this small小さい deviceデバイス that I made, around eight8 years back,
49
125000
3000
デジタル世界で再現されます
02:23
in 2000.
50
128000
2000
2000年のことです
02:25
Because I was interested興味がある in integrating統合する these two worlds世界,
51
130000
2000
2つの世界の統合に私は関心があって
02:27
I thought of sticky粘着性の notesノート.
52
132000
2000
次に考えたのは付箋メモです
02:29
I thought, "Why can I not connect接続する
53
134000
3000
普段使っている付箋メモを
02:32
the normal正常 interfaceインタフェース of a physical物理的 sticky粘着性の note注意
54
137000
2000
電子的な付箋メモへの
02:34
to the digitalデジタル world世界?"
55
139000
2000
インタフェースにできないだろうか?
02:36
A messageメッセージ written書かれた on a sticky粘着性の note注意 to my momママ
56
141000
2000
紙に書いたお母さん宛の
02:38
on paper
57
143000
1000
メッセージが
02:39
can come to an SMSSMS,
58
144000
2000
SMSとして届き
02:41
or maybe a meeting会議 reminder思い出させる
59
146000
2000
予定のメモが
02:43
automatically自動的に syncs同期 with my digitalデジタル calendarカレンダー --
60
148000
2000
自動的にデジタルの予定表と同期し
02:45
a to-doやるべきこと listリスト that automatically自動的に syncs同期 with you.
61
150000
3000
TODOリストも自動的に同期するという具合に
02:48
But you can alsoまた、 searchサーチ in the digitalデジタル world世界,
62
153000
3000
そうすると デジタル世界の中で検索することもでき
02:51
or maybe you can write書きます a queryクエリ, saying言って,
63
156000
2000
「スミス先生の住所は?」
02:53
"What is DrDr. Smith'sスミス address住所?"
64
158000
2000
といった問い合わせもできます
02:55
and this small小さい systemシステム actually実際に printsプリント it out --
65
160000
2000
結果は紙に印刷されて出てきます
02:57
so it actually実際に acts行為 like a paper input-output入出力 systemシステム,
66
162000
2000
これは入出力を紙でするシステムで
02:59
just made out of paper.
67
164000
3000
紙だけが外に見えています
03:05
In another別の exploration探査,
68
170000
2000
別な探求として
03:07
I thought of making作る a penペン that can drawドロー in three dimensionsディメンション.
69
172000
3000
私は3次元に書けるペンというのも考えました
03:10
So, I implemented実装された this penペン
70
175000
2000
そのペンがあれば
03:12
that can help designersデザイナー and architects建築家
71
177000
2000
デザイナや建築家が
03:14
not only think in three dimensionsディメンション,
72
179000
2000
3次元で考えるというだけでなく
03:16
but they can actually実際に drawドロー
73
181000
2000
実際に3次元で書くこともでき
03:18
so that it's more intuitive直感的な to use that way.
74
183000
2000
ずっと直感的に使えるはずです
03:20
Then I thought, "Why not make a GoogleGoogle Map地図,
75
185000
2000
Google Mapsを日常生活の中に
03:22
but in the physical物理的 world世界?"
76
187000
2000
引っ張り出せないか? とも思いました
03:24
Ratherむしろ than typingタイピング a keywordキーワード to find something,
77
189000
3000
何かを探すために検索語を打ち込むのではなく
03:27
I put my objectsオブジェクト on top of it.
78
192000
2000
モノをその上に載せるのです
03:29
If I put a boarding搭乗 passパス, it will showショー me where the flightフライト gateゲート is.
79
194000
3000
搭乗チケットを載せれば ゲートへの道順を示してくれ
03:32
A coffeeコーヒー cupカップ will showショー where you can find more coffeeコーヒー,
80
197000
3000
コーヒーカップを置けば コーヒーを買える場所や
03:35
or where you can trashごみ the cupカップ.
81
200000
2000
ゴミ箱の場所を示すという具合です
03:37
So, these were some of the earlier先に explorations探検 I did because
82
202000
3000
どれも私が初期にやった探求です
03:40
the goalゴール was to connect接続する these two worlds世界 seamlesslyシームレスに.
83
205000
3000
私の目的はずっと2つの世界を継ぎ目なく結ぶということでした
03:44
Among all these experiments実験,
84
209000
2000
これらの実験にはどれも
03:46
there was one thing in common一般:
85
211000
2000
1つの共通点があります
03:48
I was trying試す to bring持参する a part of the physical物理的 world世界 to the digitalデジタル world世界.
86
213000
4000
身の回りの世界の一部をデジタル世界に持ってこようとしていることです
03:52
I was taking取る some part of the objectsオブジェクト,
87
217000
3000
モノの一部や
03:55
or any of the intuitiveness直感性 of realリアル life,
88
220000
3000
実生活の直感的な面を
03:58
and bringing持参 them to the digitalデジタル world世界,
89
223000
3000
デジタル世界に持ち込んでいます
04:01
because the goalゴール was to make our computing計算 interfacesインタフェース more intuitive直感的な.
90
226000
3000
コンピュータをもっと直感的に使えるようにしたかったのです
04:04
But then I realized実現した that we humans人間
91
229000
2000
しかし私たちが興味を持っているのは
04:06
are not actually実際に interested興味がある in computing計算.
92
231000
3000
コンピュータ自体ではないということに気がつきました
04:09
What we are interested興味がある in is information情報.
93
234000
3000
私たちに関心があるのは コンピュータの中にある情報です
04:12
We want to know about things.
94
237000
2000
私たちは物事について知りたいと思います
04:14
We want to know about dynamic動的 things going around.
95
239000
2000
どんなことが起こっているのかを知りたいと思います
04:16
So I thought, around last year -- in the beginning始まり of the last year --
96
241000
5000
それで去年の初めくらいから考えるようになりました
04:21
I started開始した thinking考え, "Why can I not take this approachアプローチ in the reverse way?"
97
246000
3000
「このアプローチを逆にすることはできないだろうか?」
04:24
Maybe, "How about I take my digitalデジタル world世界
98
249000
3000
デジタル世界を取り出して
04:27
and paintペイント the physical物理的 world世界 with that digitalデジタル information情報?"
99
252000
5000
日常生活の中に投影してみたらどうだろう?
04:32
Because pixelsピクセル are actually実際に, right now, confined閉じ込められた in these rectangular長方形 devicesデバイス
100
257000
4000
ピクセルデータは このポケットに入る四角い装置の中に
04:36
that fitフィット in our pocketsポケット.
101
261000
2000
収められています
04:38
Why can I not remove除去する this confine閉じ込める
102
263000
3000
日常生活の世界へ
04:41
and take that to my everyday毎日 objectsオブジェクト, everyday毎日 life
103
266000
3000
それを解き放てるなら
04:44
so that I don't need to learn学ぶ the new新しい language言語
104
269000
2000
ピクセルをいじるために
04:46
for interacting相互作用する with those pixelsピクセル?
105
271000
3000
新しい言語を覚える必要もなくなるのでは?
04:50
So, in order注文 to realize実現する this dream,
106
275000
2000
この夢を実現しようと
04:52
I actually実際に thought of puttingパッティング a big-sizeビッグサイズ projectorプロジェクター on my head.
107
277000
3000
私は大きなプロジェクタを実際頭に載せてみました
04:55
I think that's why this is calledと呼ばれる a head-mountedヘッドマウント projectorプロジェクター, isn't it?
108
280000
3000
ヘッドマウントプロジェクタというわけです
04:58
I took取った it very literally文字通り,
109
283000
2000
バイクのヘルメットに
05:00
and took取った my bike自転車 helmetヘルメット,
110
285000
2000
切り込みを入れて
05:02
put a little cutカット over there so that the projectorプロジェクター actually実際に fitsフィット nicelyきれいに.
111
287000
3000
プロジェクタがうまく載るようにしました
05:05
So now, what I can do --
112
290000
2000
そうやって デジタル情報で
05:07
I can augment増強 the world世界 around me with this digitalデジタル information情報.
113
292000
4000
身の回りの現実を拡張できるようになりました
05:11
But later後で,
114
296000
2000
しかし後になって
05:13
I realized実現した that I actually実際に wanted to interact相互作用する with those digitalデジタル pixelsピクセル, alsoまた、.
115
298000
3000
私はそのデジタル情報も操作したいと思うようになりました
05:16
So I put a small小さい cameraカメラ over there,
116
301000
2000
それでデジタルの目として
05:18
that acts行為 as a digitalデジタル eye.
117
303000
2000
小さなカメラを付けました
05:20
Later後で, we moved移動した to a much better,
118
305000
2000
その後 もっと改良して
05:22
consumer-oriented消費者指向の pendantペンダント versionバージョン of that,
119
307000
2000
コンシューマ向けのペンダント型を作りました
05:24
that manyたくさんの of you now know as the SixthSense第六感 deviceデバイス.
120
309000
3000
それがご存じのSixthSenseデバイスです
05:27
But the most最も interesting面白い thing about this particular特に technology技術
121
312000
3000
このテクノロジーが特に興味深いのは
05:30
is that you can carryキャリー your digitalデジタル world世界 with you
122
315000
4000
自分の行くところはどこへでもデジタル世界を
05:34
whereverどこにでも you go.
123
319000
2000
持っていくことができるという点です
05:36
You can start開始 usingを使用して any surface表面, any wall around you,
124
321000
3000
どこか壁を見つけ それを操作面として
05:39
as an interfaceインタフェース.
125
324000
2000
使うことができます
05:41
The cameraカメラ is actually実際に tracking追跡 all your gesturesジェスチャー.
126
326000
3000
カメラがジェスチャーを捉え
05:44
Whateverなんでも you're doing with your hands,
127
329000
2000
様々な身振りを
05:46
it's understanding理解 that gestureジェスチャー.
128
331000
2000
解釈します
05:48
And, actually実際に, if you see, there are some color markersマーカー
129
333000
2000
初期のバージョンでは ご覧のような
05:50
that in the beginning始まり versionバージョン we are usingを使用して with it.
130
335000
3000
カラーマーカーを使っていました
05:53
You can start開始 paintingペインティング on any wall.
131
338000
2000
どこの壁でもかまいません
05:55
You stop by a wall, and start開始 paintingペインティング on that wall.
132
340000
3000
壁の前で立ち止まって投影します
05:58
But we are not only tracking追跡 one finger, here.
133
343000
2000
追跡するのは一本の指だけではありません
06:00
We are giving与える you the freedom自由 of usingを使用して all of bothどちらも of your hands,
134
345000
4000
両手の指がすべて使えます
06:04
so you can actually実際に use bothどちらも of your hands to zoomズーム into or zoomズーム out
135
349000
3000
だから地図を両手でつまんで
06:07
of a map地図 just by pinchingつまむ all presentプレゼント.
136
352000
2000
拡大 縮小ができます
06:09
The cameraカメラ is actually実際に doing --
137
354000
3000
カメラで実際にやっているのは
06:12
just, getting取得 all the imagesイメージ --
138
357000
1000
エッジ認識や
06:13
is doing the edgeエッジ recognition認識 and alsoまた、 the color recognition認識
139
358000
3000
色彩認識そのほか沢山の
06:16
and so manyたくさんの other small小さい algorithmsアルゴリズム are going on inside内部.
140
361000
3000
細かいアルゴリズムによる処理です
06:19
So, technically技術的に, it's a little bitビット complex複合体,
141
364000
2000
技術的には結構複雑なのですが
06:21
but it gives与える you an output出力 whichどの is more intuitive直感的な to use, in some senseセンス.
142
366000
3000
結果としては直感的に使えるものになっています
06:24
But I'm more excited興奮した that you can actually実際に take it outside外側.
143
369000
3000
これの楽しいところは 外に持ち出せるということです
06:27
Ratherむしろ than getting取得 your cameraカメラ out of your pocketポケット,
144
372000
3000
カメラをポケットから取り出すことなく
06:30
you can just do the gestureジェスチャー of taking取る a photo写真
145
375000
3000
ただ写真を撮るジェスチャーをするだけで
06:33
and it takes a photo写真 for you.
146
378000
2000
写真を撮してくれます
06:35
(Applause拍手)
147
380000
4000
(拍手)
06:39
Thank you.
148
384000
1000
どうも
06:41
And later後で I can find a wall, anywhereどこでも,
149
386000
2000
写真を撮ったら どこでも壁を見つけて
06:43
and start開始 browsingブラウジング those photos写真
150
388000
2000
写真を映して見ることができます
06:45
or maybe, "OK, I want to modify変更する this photo写真 a little bitビット
151
390000
2000
「よし この写真にちょっと手を入れて
06:47
and send送信する it as an emailEメール to a friend友人."
152
392000
2000
友達にメールで送ってやろう」
06:49
So, we are looking for an era時代 where
153
394000
3000
私たちはコンピュータの世界と日常の世界が
06:52
computing計算 will actually実際に mergeマージ with the physical物理的 world世界.
154
397000
3000
混じり合う時代を迎えようとしているのです
06:55
And, of courseコース, if you don't have any surface表面,
155
400000
3000
適当な壁がないときには
06:58
you can start開始 usingを使用して your palm手のひら for simple単純 operationsオペレーション.
156
403000
3000
自分の手のひらの上で簡単な操作をすることもできます
07:01
Here, I'm dialingダイヤル a phone電話 number just usingを使用して my handハンド.
157
406000
2000
手のひらでダイヤルしているところです
07:07
The cameraカメラ is actually実際に not only understanding理解 your handハンド movements動き,
158
412000
3000
カメラは手の動きを認識するだけでなく
07:10
but, interestingly興味深いことに,
159
415000
1000
さらには
07:11
is alsoまた、 ableできる to understandわかる what objectsオブジェクト you are holdingホールディング in your handハンド.
160
416000
3000
手に持っているモノを認識することもできます
07:14
What we're doing here is actually実際に --
161
419000
3000
たとえばここでやっているのは
07:17
for example, in this case場合,
162
422000
2000
手に取った本の表紙を
07:19
the book coverカバー is matched一致する
163
424000
2000
何千何万という
07:21
with so manyたくさんの thousands, or maybe millions何百万 of books onlineオンライン,
164
426000
3000
オンラインの情報と照合し
07:24
and checking点検 out whichどの book it is.
165
429000
2000
どの本かを調べています
07:26
Once一度 it has that information情報,
166
431000
1000
どれかわかったら
07:27
it finds見つけた out more reviewsレビュー about that,
167
432000
2000
その本のレビューを表示したり
07:29
or maybe New新しい Yorkヨーク Timesタイムズ has a sound overview概要 on that,
168
434000
3000
ニューヨークタイムズのサイトにある
07:32
so you can actually実際に hear聞く, on a physical物理的 book,
169
437000
2000
音声による解説を引っ張ってきて
07:34
a reviewレビュー as sound.
170
439000
2000
実際の本を手にしながら聞くことができます
07:36
("famous有名な talk at Harvardハーバード University大学 ...")
171
441000
2000
(…ハーバード大学で行われた有名な講演で…)
07:38
This was Obama'sオバマ氏 visit訪問 last week週間 to MITMIT.
172
443000
3000
これはオバマ大統領が先週MITを訪れたときのものです
07:42
("... and particularly特に I want to thank two outstanding傑出した MITMIT ...")
173
447000
4000
(…特にMITの2人の傑出した教授にお礼を言いたい…)
07:46
So, I was seeing見る the liveライブ [videoビデオ] of his talk, outside外側, on just a newspaper新聞.
174
451000
5000
私は彼の講演のライブビデオを 外で新聞の上で見ているわけです
07:51
Your newspaper新聞 will showショー you liveライブ weather天気 information情報
175
456000
3000
あるいはコンピュータを使わずに
07:54
ratherむしろ than having持つ it updated更新しました -- like, you have to checkチェック your computerコンピューター
176
459000
3000
新聞でライブの天気情報を
07:57
in order注文 to do that, right?
177
462000
2000
見ることができます
07:59
(Applause拍手)
178
464000
5000
(拍手)
08:04
When I'm going back, I can just use my boarding搭乗 passパス
179
469000
3000
私が帰るときには 搭乗チケットで
08:07
to checkチェック how much my flightフライト has been delayed遅延,
180
472000
2000
飛行機の遅れを
08:09
because at that particular特に time,
181
474000
2000
確認できます
08:11
I'm not feeling感じ like opening開ける my iPhoneiPhone,
182
476000
2000
iPhoneを取り出して
08:13
and checking点検 out a particular特に iconアイコン.
183
478000
2000
アイコンを叩くまでもありません
08:15
And I think this technology技術 will not only change変化する the way --
184
480000
3000
この技術は…
08:18
yes. (Laughter笑い)
185
483000
1000
ええ (笑)
08:20
It will change変化する the way we interact相互作用する with people, alsoまた、,
186
485000
2000
モノばかりでなく 人との関わり方も
08:22
not only the physical物理的 world世界.
187
487000
2000
変えます
08:24
The fun楽しい part is, I'm going to the Bostonボストン metro地下鉄,
188
489000
3000
お遊びとして ボストンの地下鉄に乗って
08:27
and playing遊ぶ a pongポン gameゲーム inside内部 the train列車
189
492000
3000
電車の床で卓球ゲームを
08:30
on the ground接地, right?
190
495000
2000
することだって出来ます
08:32
(Laughter笑い)
191
497000
1000
(笑)
08:33
And I think the imagination想像力 is the only limit限界
192
498000
2000
このようなテクノロジーが生活に溶け込むとき
08:35
of what you can think of
193
500000
2000
できることを制限するものは
08:37
when this kind種類 of technology技術 mergesマージ with realリアル life.
194
502000
2000
自らの想像力だけです
08:39
But manyたくさんの of you argue主張する, actually実際に, that
195
504000
2000
私たちが扱うのは
08:41
all of our work is not only about physical物理的 objectsオブジェクト.
196
506000
3000
日常生活のモノばかりではないと言う人もいるでしょう
08:44
We actually実際に do lots of accounting会計 and paper editing編集
197
509000
3000
実際 会計とか編集とか
08:47
and all those kinds種類 of things; what about that?
198
512000
2000
いろんなことをします
08:49
And manyたくさんの of you are excited興奮した about the next generation世代 tabletタブレット computersコンピュータ
199
514000
4000
そしてあなた方の多くは 次世代のタブレットPCが市場に登場するのを
08:53
to come out in the market市場.
200
518000
2000
心待ちにしていることでしょう
08:55
So, ratherむしろ than waiting待っている for that,
201
520000
2000
私はそれをただ待っているのではなく
08:57
I actually実際に made my own自分の, just usingを使用して a pieceピース of paper.
202
522000
3000
自分のを紙切れを使って作ることにしました
09:00
So, what I did here is remove除去する the cameraカメラ --
203
525000
2000
私がやったのは
09:02
All the webcamウェブカメラ camerasカメラ have a microphoneマイクロフォン inside内部 the cameraカメラ.
204
527000
4000
Webカメラにはマイクが入っているのですが
09:06
I removed除去された the microphoneマイクロフォン from that,
205
531000
3000
それを取り出して
09:09
and then just pinchedつまらない that --
206
534000
2000
クリップにして
09:11
like I just made a clipクリップ out of the microphoneマイクロフォン --
207
536000
3000
紙に付けられるようにしました
09:14
and clippedクリップされた that to a pieceピース of paper, any paper that you found見つけた around.
208
539000
4000
どんな紙でも使えます
09:18
So now the sound of the touchタッチ
209
543000
3000
そうすると紙にタッチしたときに
09:21
is getting取得 me when exactly正確に I'm touching触れる the paper.
210
546000
3000
タッチ音が出るようにできます
09:24
But the cameraカメラ is actually実際に tracking追跡 where my fingers are moving動く.
211
549000
4000
実際の指の動きはカメラが把握します
09:28
You can of courseコース watch movies映画.
212
553000
3000
もちろん映画だって見ることができます
09:31
("Good afternoon午後. My name is Russellラッセル ...
213
556000
3000
(こんにちは 僕はラッセル
09:34
and I am a Wilderness荒野 Explorer冒険者 in Tribe部族 54.")
214
559000
3000
荒野探検隊 第54隊の隊員です)
09:37
And you can of courseコース play遊びます gamesゲーム.
215
562000
3000
それにゲームも
09:40
(Car engineエンジン)
216
565000
3000
(エンジン音)
09:43
Here, the cameraカメラ is actually実際に understanding理解 how you're holdingホールディング the paper
217
568000
3000
ここでは紙をどう持っているかをカメラが把握して
09:46
and playing遊ぶ a car-racingカーレース gameゲーム.
218
571000
2000
レーシングゲームを操作しています
09:48
(Applause拍手)
219
573000
3000
(拍手)
09:52
Manyたくさんの of you already既に must必須 have thought, OK, you can browseブラウズ.
220
577000
2000
見ることができることについては
09:54
Yeah. Of courseコース you can browseブラウズ to any websitesウェブサイト
221
579000
3000
お分りいただけたと思います
09:57
or you can do all sortsソート of computing計算 on a pieceピース of paper
222
582000
3000
Webサイトやコンピュータ画面を 紙切れの上で見ることができます
10:00
whereverどこにでも you need it.
223
585000
1000
どこにいようと
10:01
So, more interestingly興味深いことに,
224
586000
3000
もっと面白いのは
10:04
I'm interested興味がある in how we can take that in a more dynamic動的 way.
225
589000
3000
これをもっと生きたものにするということです
10:07
When I come back to my desk I can just pinchピンチ that information情報
226
592000
3000
自分の部屋に戻ったとき 情報をつまんで
10:10
back to my desktopデスクトップ
227
595000
2000
パソコンの上に落としてやれば
10:12
so I can use my full-sizeフルサイズ computerコンピューター.
228
597000
3000
続きを大きなパソコンでやることができます
10:15
(Applause拍手)
229
600000
2000
(拍手)
10:17
And why only computersコンピュータ? We can just play遊びます with papers論文.
230
602000
3000
コンピュータだけではありません 紙にもできます
10:20
Paper world世界 is interesting面白い to play遊びます with.
231
605000
3000
紙の世界で遊ぶのはとても面白いです
10:23
Here, I'm taking取る a part of a document資料
232
608000
2000
資料の一部をこちらに取って
10:25
and puttingパッティング over here a second二番 part from a second二番 place場所 --
233
610000
4000
別なところからも何か取ってきて
10:29
and I'm actually実際に modifying変更する the information情報
234
614000
3000
情報をその場で
10:32
that I have over there.
235
617000
2000
修正できます
10:34
Yeah. And I say, "OK, this looks外見 niceいい,
236
619000
3000
「よし いい感じにできたぞ
10:37
let me print印刷する it out, that thing."
237
622000
2000
印刷しよう」
10:39
So I now have a print-outプリントアウト of that thing, and now --
238
624000
2000
そうして印刷します
10:41
the workflowワークフロー is more intuitive直感的な the way we used to do it
239
626000
3000
このような 20年くらい前に
10:44
maybe 20 years back,
240
629000
3000
やっていたやり方のほうが
10:47
ratherむしろ than now switchingスイッチング betweenの間に these two worlds世界.
241
632000
3000
2つの世界の間で行き来する現在のやり方より直感的です
10:50
So, as a last thought,
242
635000
3000
最後になりますが
10:53
I think that integrating統合する information情報 to everyday毎日 objectsオブジェクト
243
638000
3000
身の回りのモノに情報を統合することで
10:56
will not only help us to get rid除去する of the digitalデジタル divide分ける,
244
641000
5000
これら2つの世界の溝を埋め
11:01
the gapギャップ betweenの間に these two worlds世界,
245
646000
2000
デジタルデバイドをなくせるだけでなく
11:03
but will alsoまた、 help us, in some way,
246
648000
2000
もっと身の回りの世界と繋がり
11:05
to stay滞在 human人間,
247
650000
2000
もっと人間らしく
11:07
to be more connected接続された to our physical物理的 world世界.
248
652000
3000
生きられるようになると思います
11:13
And it will actually実際に help us not end終わり up beingであること machines機械
249
658000
3000
そして私たちは機械の一部みたいに
11:16
sitting座っている in frontフロント of other machines機械.
250
661000
2000
ならずにいられるでしょう
11:18
That's all. Thank you.
251
663000
3000
以上です
11:21
(Applause拍手)
252
666000
14000
(スタンディングオベーション)
11:35
Thank you.
253
680000
1000
どうもありがとうございます
11:36
(Applause拍手)
254
681000
3000
(拍手)
11:39
Chrisクリス Andersonアンダーソン: So, Pranavプラナフ,
255
684000
1000
プラナフ
11:40
first of all, you're a genius天才.
256
685000
3000
はっきり言って 君は天才だよ
11:43
This is incredible信じられない, really.
257
688000
3000
本当にすごいよ
11:46
What are you doing with this? Is there a company会社 beingであること planned計画された?
258
691000
3000
これをどうするつもり? 会社を作る予定はあるの?
11:49
Or is this research研究 forever永遠に, or what?
259
694000
2000
それともずっと研究を続けていくの?
11:51
Pranavプラナフ MistryMistry: So, there are lots of companies企業 --
260
696000
2000
実際メディアラボのスポンサーの中には
11:53
actually実際に sponsorスポンサー companies企業 of Mediaメディア Labラボ --
261
698000
1000
この技術を
11:54
interested興味がある in taking取る this ahead前方に in one or another別の way.
262
699000
3000
どう発展させるかに関心を持つ企業がたくさんあります
11:57
Companies会社 like mobileモバイル phone電話 operators演算子
263
702000
2000
たとえば携帯電話会社は
11:59
want to take this in a different異なる way than the NGOsNGO in Indiaインド,
264
704000
3000
インドのNGOとは違ったことを求めています
12:02
[who] are thinking考え, "Why can we only have 'Sixth'Sixth Sense'センス '?
265
707000
3000
「どうして'Sixth Sense' (第六感)しかないの?
12:05
We should have a 'Fifth'五番目 Sense'センス ' for missing-sense不足感 people
266
710000
2000
障害者のための'Fifth Sense'(第五感)が
12:07
who cannotできない speak話す.
267
712000
1000
あってしかるべきだ
12:08
This technology技術 can be used for them to speak話す out in a different異なる way
268
713000
3000
この技術を使えば 彼らが別な仕方で
12:11
with maybe a speakerスピーカー systemシステム."
269
716000
1000
話せるようにできる」
12:12
CACA: What are your own自分の plans予定? Are you staying滞在 at MITMIT,
270
717000
3000
君自身の計画は? MITにずっといるの?
12:15
or are you going to do something with this?
271
720000
1000
これで何かするの?
12:16
PMPM: I'm trying試す to make this more available利用可能な to people
272
721000
2000
これをより多くの人が利用できるようにして
12:18
so that anyone誰でも can develop開発する their彼らの own自分の SixthSense第六感 deviceデバイス,
273
723000
3000
誰でもSixthSenseデバイスを開発できるようにしたいと思っています
12:21
because the hardwareハードウェア is actually実際に not that hardハード to manufacture製造
274
726000
5000
これのハードウェアを作るのは
12:26
or hardハード to make your own自分の.
275
731000
2000
そんなに難しくはありません
12:28
We will provide提供する all the open開いた sourceソース softwareソフトウェア for them,
276
733000
2000
このソフトウェアはオープンソースにする予定です
12:30
maybe starting起動 next month.
277
735000
2000
たぶん来月あたりから公開します
12:32
CACA: Open開いた sourceソース? Wowワオ.
278
737000
2000
そいつはすごい ワオ
12:34
(Applause拍手)
279
739000
5000
(喝采)
12:39
CACA: Are you going to come back to Indiaインド with some of this, at some pointポイント?
280
744000
3000
いつかインドに戻ってこようと思っているの?
12:42
PMPM: Yeah. Yes, yes, of courseコース.
281
747000
2000
ええ もちろん
12:44
CACA: What are your plans予定? MITMIT?
282
749000
2000
どういう計画?
12:46
Indiaインド? How are you going to splitスプリット your time going forward前進?
283
751000
2000
MITとインドで 時間をどう切り分けるつもり?
12:48
PMPM: There is a lot of energyエネルギー here. Lots of learning学習.
284
753000
3000
ここには多くのエネルギーがあり 学びがあります
12:51
All of this work that you have seen見た is all about
285
756000
2000
ご覧いただいたものは
12:53
my learning学習 in Indiaインド.
286
758000
2000
私がインドで学んだことを元にしています
12:55
And now, if you see, it's more about the cost-effectiveness費用対効果:
287
760000
3000
そしてコスト効率に目を向けるなら
12:58
this systemシステム costsコスト you $300
288
763000
2000
このシステムは300ドルです
13:00
compared比較した to the $20,000 surface表面 tablesテーブル, or anything like that.
289
765000
3000
テーブル型PCみたいなものは2万ドルもします
13:03
Or maybe even the $2 mouseマウス gestureジェスチャー systemシステム
290
768000
3000
あるいはあの2ドルで作ったマウスジェスチャーシステムは
13:06
at that time was costing原価計算 around $5,000?
291
771000
3000
同じようなものが 当時は5千ドルくらいしました
13:09
So, we actually実際に -- I showed示した that, at a conference会議, to
292
774000
4000
あるカンファレンスで座長の
13:13
President大統領 Abdulアブドゥル Kalamカラーム, at that time,
293
778000
2000
アブドゥル カラムに見せたら
13:15
and then he said, "OK, we should use this in BhabhaBhabha Atomic原子 Research研究 Centreセンター
294
780000
3000
こう言ってくれました「バーバー原子力研究センターでも
13:18
for some use of that."
295
783000
2000
ぜひこれを使わなきゃ」
13:20
So I'm excited興奮した about how I can bring持参する the technology技術 to the masses大衆
296
785000
3000
私はテクノロジーを研究室に閉じ込めておくのではなく
13:23
ratherむしろ than just keeping維持 that technology技術 in the lab研究室 environment環境.
297
788000
3000
たくさんの人に届けるということにワクワクします
13:26
(Applause拍手)
298
791000
4000
(拍手)
13:30
CACA: Basedベース on the people we've私たちは seen見た at TEDTED,
299
795000
3000
TEDで会った人の意見を聞くと
13:33
I would say you're truly真に one of the two or three
300
798000
1000
君は現在の世界で
13:34
bestベスト inventors発明者 in the world世界 right now.
301
799000
2000
最高の発明家の1人だと思う
13:36
It's an honor名誉 to have you at TEDTED.
302
801000
2000
君をTEDに迎えられてとても光栄に思います
13:38
Thank you so much.
303
803000
2000
どうもありがとう
13:40
That's fantastic素晴らしい.
304
805000
1000
実に素晴らしい
13:41
(Applause拍手)
305
806000
4000
(スタンディングオベーション)
Translated by Yasushi Aoki
Reviewed by Tatsuma Nagano

▲Back to top

ABOUT THE SPEAKER
Pranav Mistry - Director of research, Samsung Research America
As an MIT grad student, Pranav Mistry invented SixthSense, a wearable device that enables new interactions between the real world and the world of data.

Why you should listen

When Pranav Mistry was a PhD student in the Fluid Interfaces Group at MIT's Media Lab, he worked with lab director Pattie Maes to create some of the most entertaining and thought-provoking interfaces the world had ever seen. And not just computer interfaces, mind you -- these are ways to help the digital and the actual worlds interface. Imagine: intelligent sticky notes, Quickies, that can be searched and can send reminders; a pen that draws in 3D; and TaPuMa, a tangible public map that can act as Google of physical world. And of course the legendary SixthSense, which is now open sourced

Before his studies at MIT, he worked with Microsoft as a UX researcher; he's a graduate of IIT. Now, as director of research at Samsung Research America, Mistry heads the Think Tank Team, an interdisciplinary group of researchers that hunts for new ways to mix digital informational with real-world interactions. As an example, Mistry launched the company's smartwatch, the Galaxy Gear, in 2013.

More profile about the speaker
Pranav Mistry | Speaker | TED.com