ABOUT THE SPEAKER
Max Tegmark - Scientist, author
Max Tegmark is driven by curiosity, both about how our universe works and about how we can use the science and technology we discover to help humanity flourish rather than flounder.

Why you should listen

Max Tegmark is an MIT professor who loves thinking about life's big questions. He's written two popular books, Our Mathematical Universe: My Quest for the Ultimate Nature of Reality and the recently published Life 3.0: Being Human in the Age of Artificial Intelligenceas well as more than 200 nerdy technical papers on topics from cosmology to AI.

He writes: "In my spare time, I'm president of the Future of Life Institute, which aims to ensure that we develop not only technology but also the wisdom required to use it beneficially."

More profile about the speaker
Max Tegmark | Speaker | TED.com
TED2018

Max Tegmark: How to get empowered, not overpowered, by AI

マックス・テグマーク: AIに圧倒されるのではなく、AIから力を得る方法

Filmed:
1,409,007 views

多くのAI研究者は、数十年以内にあらゆるタスクや職業でAIが人間の能力を超えると予測しています。それにより人間の知能の制約を受けず、物理法則だけが制約となる未来が到来すると言うのです。MITの物理学者でありAIの研究者であるマックス・テグマークは現実のチャンスや脅威を、誤った通念と区別し、AIを人類にとって最悪ではなく最高の存在にするために、今我々がとるべき具体的な段階を説明します。
- Scientist, author
Max Tegmark is driven by curiosity, both about how our universe works and about how we can use the science and technology we discover to help humanity flourish rather than flounder. Full bio

Double-click the English transcript below to play the video.

00:12
After 13.8 billion years
of cosmic宇宙 history歴史,
0
760
4416
宇宙の誕生後 138億年もの時を経て
00:17
our universe宇宙 has woken目覚めた up
1
5200
2096
私たちの世界は覚醒し
00:19
and become〜になる aware承知して of itself自体.
2
7320
1520
自らを認識しました
00:21
From a small小さい blue planet惑星,
3
9480
1936
小さな青い惑星から
00:23
tiny小さな, conscious意識的な parts部品 of our universe宇宙
have begun始まった gazing凝視する out into the cosmos宇宙
4
11440
4136
この世界のごく小さな領域の
意識あるものが 望遠鏡を使って
00:27
with telescopes望遠鏡,
5
15600
1376
この宇宙を見つめ始め
00:29
discovering発見する something humbling謙虚な.
6
17000
1480
自らの矮小さを発見しました
00:31
We've私たちは discovered発見された that our universe宇宙
is vastly大いに granderより壮大な
7
19320
2896
この世界は 私たちの先祖が
想像していたものより
00:34
than our ancestors祖先 imagined想像した
8
22240
1336
遥かに壮大であることと
00:35
and that life seems思われる to be an almostほぼ
imperceptiblyいつの間にか small小さい perturbation摂動
9
23600
4256
生命は感知できない程度の影響しか及ぼさず
それ以外は死んだも同然の
00:39
on an otherwiseさもないと deadデッド universe宇宙.
10
27880
1720
静的な世界であると発見したのです
00:42
But we've私たちは alsoまた、 discovered発見された
something inspiring感動的な,
11
30320
3016
しかし 刺激的なことも発見しました
00:45
whichどの is that the technology技術
we're developing現像 has the potential潜在的な
12
33360
2976
私たちが開発している技術が
今までにないほどに
00:48
to help life flourish繁栄する like never before,
13
36360
2856
生命の繁栄を手助けをする
可能性を秘めていることです
00:51
not just for centuries世紀
but for billions何十億 of years,
14
39240
3096
それは 何百年に限らず
何十億年と続き
00:54
and not just on earth地球 but throughout全体を通して
much of this amazing素晴らしい cosmos宇宙.
15
42360
4120
地球上だけではなく
この素晴らしい宇宙の大域に及ぶ繁栄なのです
00:59
I think of the earliest早い life as "Life 1.0"
16
47680
3336
私は一番最初の生命を
「ライフ 1.0」と考えます
01:03
because it was really dumbダム,
17
51040
1376
バクテリアのように馬鹿で
01:04
like bacteria細菌, unableできない to learn学ぶ
anything during its lifetime一生.
18
52440
4296
一生の間 何も学ぶことができません
01:08
I think of us humans人間 as "Life 2.0"
because we can learn学ぶ,
19
56760
3376
人類は「ライフ 2.0」と考えます
私たちは学習できるからです
01:12
whichどの we in nerdyナーディー, geekオタク speak話す,
20
60160
1496
それは オタクっぽく言えば
01:13
mightかもしれない think of as installingインストールする
new新しい softwareソフトウェア into our brains頭脳,
21
61680
3216
言語や技能といった
新しいソフトウェアを
01:16
like languages言語 and jobジョブ skillsスキル.
22
64920
2120
脳にインストールすることです
01:19
"Life 3.0," whichどの can design設計 not only
its softwareソフトウェア but alsoまた、 its hardwareハードウェア
23
67680
4296
「ライフ 3.0」は ソフトウェアだけでなく
ハードウェアも設計できます
01:24
of courseコース doesn't exist存在する yetまだ.
24
72000
1656
もちろんまだ存在していません
01:25
But perhapsおそらく our technology技術
has already既に made us "Life 2.1,"
25
73680
3776
しかし おそらく私たちは
人工膝関節 ペースメーカーや
01:29
with our artificial人工的な knees,
pacemakersペースメーカー and cochlear蝸牛 implantsインプラント.
26
77480
4336
人口内耳といった技術によって
既に「ライフ2.1」になっているのでしょう
01:33
So let's take a closerクローザー look
at our relationship関係 with technology技術, OK?
27
81840
3880
では 私たちと技術の関係性を
もっと詳しく見てみましょう
01:38
As an example,
28
86800
1216
例えば
01:40
the Apolloアポロ 11 moon missionミッション
was bothどちらも successful成功した and inspiring感動的な,
29
88040
5296
アポロ11号による月への飛行計画は
成功しただけでなく刺激的でもありました
01:45
showing表示 that when we humans人間
use technology技術 wisely賢く,
30
93360
3016
この計画が示したことは
人類が賢明なやり方で技術を使えば
01:48
we can accomplish達成する things
that our ancestors祖先 could only dream of.
31
96400
3936
私たちの先祖がただ夢見ただけのことを
成し遂げられるということです
01:52
But there's an even more inspiring感動的な journey
32
100360
2976
しかし これよりさらに
刺激的な宇宙旅行があります
01:55
propelled推進された by something
more powerful強力な than rocketロケット enginesエンジン,
33
103360
2680
ロケットエンジンより強力な
推進力を得て
01:59
where the passengers乗客
aren'tない just three astronauts宇宙飛行士
34
107200
2336
乗客は3人の宇宙飛行士にとどまらず
02:01
but all of humanity人類.
35
109560
1776
全人類なのです
02:03
Let's talk about our collective集団
journey into the future未来
36
111360
2936
人工知能を伴い 私たちが集団となって
未来に旅することについて
02:06
with artificial人工的な intelligenceインテリジェンス.
37
114320
2000
お話ししましょう
02:08
My friend友人 JaanJaan Tallinnタリン likes好きな人 to pointポイント out
that just as with rocketryロケット,
38
116960
4536
私の友人 ヤーン・タリンが好む議論ですが
ロケットの話と似ていて
02:13
it's not enough十分な to make
our technology技術 powerful強力な.
39
121520
3160
技術が単に強力になれば
良いというものではなく
02:17
We alsoまた、 have to figure数字 out,
if we're going to be really ambitious意欲的な,
40
125560
3175
もし本当に野心的になろうとするなら
02:20
how to steer操縦する it
41
128759
1416
操縦の仕方と
02:22
and where we want to go with it.
42
130199
1681
どこへ向かうべきかも
理解しないといけません
02:24
So let's talk about all three
for artificial人工的な intelligenceインテリジェンス:
43
132880
2840
ではこの3つの要素を
人工知能についても議論しましょう
02:28
the powerパワー, the steering操舵
and the destination.
44
136440
3056
推進力 操縦と目的地です
02:31
Let's start開始 with the powerパワー.
45
139520
1286
推進力から話しましょう
02:33
I define定義する intelligenceインテリジェンス very inclusively包括的 --
46
141600
3096
私は 知能をかなり広く
定義しています
02:36
simply単に as our ability能力
to accomplish達成する complex複合体 goalsゴール,
47
144720
4336
単に 複雑な目標を
達成する能力という定義です
02:41
because I want to include含める bothどちらも
biological生物学的 and artificial人工的な intelligenceインテリジェンス.
48
149080
3816
何故なら 生物が備える知能と
人工知能の両方を含めたいからです
02:44
And I want to avoid避ける
the silly愚かな carbon-chauvinism炭素盲目的愛国主義 ideaアイディア
49
152920
4016
肉でできていてはじめて
知的になりうるという
02:48
that you can only be smartスマート
if you're made of meatお肉.
50
156960
2360
有機物至上主義のような
馬鹿げた考え方を避けたいのです
02:52
It's really amazing素晴らしい how the powerパワー
of AIAI has grown成長した recently最近.
51
160880
4176
最近のAI技術の発展には驚かされます
02:57
Just think about it.
52
165080
1256
考えてみてください
02:58
Not long ago, robotsロボット couldn'tできなかった walk歩く.
53
166360
3200
少し前まで ロボットは歩けませんでした
03:03
Now, they can do backflipsバックフ リップ.
54
171040
1720
今では バク転ができるのです
03:06
Not long ago,
55
174080
1816
少し前まで
03:07
we didn't have self-driving自己運転 cars.
56
175920
1760
自動運転車はありませんでした
03:10
Now, we have self-flying自律飛行 rocketsロケット.
57
178920
2480
今では自動飛行するロケットがあります
03:15
Not long ago,
58
183960
1416
少し前まで
03:17
AIAI couldn'tできなかった do face recognition認識.
59
185400
2616
AIは顔認証ができませんでした
03:20
Now, AIAI can generate生成する fake faces
60
188040
2976
今では 偽の顔を生成し
03:23
and simulateシミュレートする your face
saying言って stuffもの that you never said.
61
191040
4160
あなたが話す言葉を勝手に作り出し
その時の表情までシミュレーションできます
03:28
Not long ago,
62
196400
1576
少し前まで
03:30
AIAI couldn'tできなかった beatビート us at the gameゲーム of Go.
63
198000
1880
AIは囲碁で私たちに勝てませんでしたが
03:32
Then, GoogleGoogle DeepMind'sディープマインド AlphaZeroAlphaZero AIAI
took取った 3,000 years of human人間 Go gamesゲーム
64
200400
5096
Google DeepMindのAlphaZero AIは
3千年に渡る 人間による
03:37
and Go wisdom知恵,
65
205520
1256
囲碁の対局と戦略について
03:38
ignored無視された it all and becameなりました the world's世界の bestベスト
playerプレーヤー by just playing遊ぶ againstに対して itself自体.
66
206800
4976
その成果を参照せず AI内部の対戦だけで
世界最強のプレイヤーになりました
03:43
And the most最も impressive印象的な feat偉業 here
wasn'tなかった that it crushed破砕されました human人間 gamersゲーマー,
67
211800
3696
そして最も印象的な出来事は
人間の棋士を倒したことではなく
03:47
but that it crushed破砕されました human人間 AIAI researchers研究者
68
215520
2576
何十年もの間 ゲームをプレーするソフトを
03:50
who had spent過ごした decades数十年
handcrafting手作り game-playingゲームプレイ softwareソフトウェア.
69
218120
3680
自分の手で開発してきた
AI研究者たちを圧倒したことです
03:54
And AlphaZeroAlphaZero crushed破砕されました human人間 AIAI researchers研究者
not just in Go but even at chessチェス,
70
222200
4656
そして AlphaZeroは囲碁だけでなく
1950年以来 AI研究者が取り組んできた
03:58
whichどの we have been workingワーキング on since以来 1950.
71
226880
2480
チェスでも圧倒しました
04:02
So all this amazing素晴らしい recent最近 progress進捗 in AIAI
really begs懇願する the question質問:
72
230000
4240
すると AIの近年の驚くべき進歩によって
こんな疑問が生じます
04:07
How far遠い will it go?
73
235280
1560
どこまで進歩するのか?
04:09
I like to think about this question質問
74
237800
1696
私はこの疑問を
04:11
in terms条項 of this abstract抽象
landscape風景 of tasksタスク,
75
239520
2976
タスクで構成された地形として
捉えるのが好きです
04:14
where the elevation標高 representsは表す
how hardハード it is for AIAI to do each task仕事
76
242520
3456
標高で表しているのは
AIが人間並みに作業をする場合の
04:18
at human人間 levelレベル,
77
246000
1216
難易度で
04:19
and the sea levelレベル representsは表す
what AIAI can do today今日.
78
247240
2760
海面は現在のAIができる事を表します
04:23
The sea levelレベル is rising上昇する
as AIAI improves改善する,
79
251120
2056
AIが進歩するに従い
海面は上昇していきます
04:25
so there's a kind種類 of globalグローバル warming温暖化
going on here in the task仕事 landscape風景.
80
253200
3440
このタスクの地形は
地球温暖化に似た状況になっています
04:30
And the obvious明らか takeaway取り除く
is to avoid避ける careersキャリア at the waterfrontウォーターフロント --
81
258040
3335
はっきりしているのは
水際にある職業は避ける事です
04:33
(Laughter笑い)
82
261399
1257
(笑)
04:34
whichどの will soonすぐに be
automated自動化 and disrupted混乱した.
83
262680
2856
間も無く自動化され消滅しますから
04:37
But there's a much
biggerより大きい question質問 as well.
84
265560
2976
しかし もっと大きな疑問もあります
04:40
How high高い will the water end終わり up rising上昇する?
85
268560
1810
水面はどこまで上昇するのか?
04:43
Will it eventually最終的に rise上昇
to flood洪水 everything,
86
271440
3200
あらゆるタスクで
人間の知能レベルに追いつき
04:47
matchingマッチング human人間 intelligenceインテリジェンス at all tasksタスク.
87
275840
2496
大地を完全に水没させるのでしょうか
04:50
This is the definition定義
of artificial人工的な general一般 intelligenceインテリジェンス --
88
278360
3736
これが汎用人工知能—
04:54
AGIヨウ化銀,
89
282120
1296
AGIの定義です
04:55
whichどの has been the holy聖なる grailグレイル
of AIAI research研究 since以来 its inception開始.
90
283440
3080
これは AI研究が始まって以来の
究極の目標となっています
04:59
By this definition定義, people who say,
91
287000
1776
この定義によると
05:00
"Ahああ, there will always be jobsジョブ
that humans人間 can do better than machines機械,"
92
288800
3416
「機械より 人間の方が上手くできる仕事は
無くならない」と言う人は
05:04
are simply単に saying言って
that we'll私たちは never get AGIヨウ化銀.
93
292240
2920
AGIは実現不可能と
言っているのに過ぎないのです
05:07
Sure, we mightかもしれない still choose選択する
to have some human人間 jobsジョブ
94
295680
3576
確かに AGIができても
人間は仕事を選んだり
05:11
or to give humans人間 income所得
and purpose目的 with our jobsジョブ,
95
299280
3096
仕事から給料ややりがいを
得られるかもしれませんが
05:14
but AGIヨウ化銀 will in any case場合
transform変換する life as we know it
96
302400
3736
皆さんがお分かりのとおり
いずれにしろ AGIは生活を変化させ
05:18
with humans人間 no longerより長いです beingであること
the most最も intelligentインテリジェントな.
97
306160
2736
人間はもはや最も知的な存在とは
いえなくなることでしょう
05:20
Now, if the water levelレベル does reachリーチ AGIヨウ化銀,
98
308920
3696
では もし水面が AGI まで到達すれば
05:24
then furtherさらに AIAI progress進捗 will be driven駆動される
mainly主に not by humans人間 but by AIAI,
99
312640
5296
その先のAIの進歩は 主に人間ではなく
AIによって進められます
05:29
whichどの means手段 that there's a possibility可能性
100
317960
1856
ということは
05:31
that furtherさらに AIAI progress進捗
could be way fasterもっと早く
101
319840
2336
その先のAIの進歩は
05:34
than the typical典型的な human人間 research研究
and development開発 timescaleタイムスケール of years,
102
322200
3376
通常何年もかかる人間による研究や開発より
かなり速くなる可能性があります
05:37
raising募集 the controversial議論の余地のある possibility可能性
of an intelligenceインテリジェンス explosion爆発
103
325600
4016
したがって 議論を呼ぶ「知能の爆発」が
起こる可能性が高まります
05:41
where recursively再帰的に self-improving自己改善 AIAI
104
329640
2296
再帰的に自己改善するAIによって
05:43
rapidly急速に leaves human人間
intelligenceインテリジェンス far遠い behind後ろに,
105
331960
3416
人間の知能がはるか後方に取り残され
05:47
creating作成 what's known既知の
as superintelligenceスーパーインテリジェンス.
106
335400
2440
「超知能」というものが造られるのです
05:51
Alright大丈夫, reality現実 checkチェック:
107
339800
2280
では 現実に起こり得るか
検討してみましょう
05:55
Are we going to get AGIヨウ化銀 any time soonすぐに?
108
343120
2440
AGIはすぐにでも作られるのでしょうか?
05:58
Some famous有名な AIAI researchers研究者,
like Rodneyロドニー Brooksブルックス,
109
346360
2696
ロドニー・ブルックスのような
有名なAI研究者は
06:01
think it won't〜されません happen起こる
for hundreds数百 of years.
110
349080
2496
数百年以内には起こらないと言います
06:03
But othersその他, like GoogleGoogle DeepMindDeepMind
founder創業者 Demisデミス HassabisHassabis,
111
351600
3896
しかし Google DeepMind の創立者
デミス・ハサビスといった人たちは
06:07
are more optimistic楽観的
112
355520
1256
もっと楽観的で
06:08
and are workingワーキング to try to make
it happen起こる much soonerより早く.
113
356800
2576
AGIをできるだけ早く
作るために努力しています
06:11
And recent最近 surveysアンケート have shown示された
that most最も AIAI researchers研究者
114
359400
3296
そして 最近の調査によると
ほとんどのAI研究者は
06:14
actually実際に shareシェア Demis'sDemis optimism楽観,
115
362720
2856
デミスの様に楽観的で
06:17
expecting期待している that we will
get AGIヨウ化銀 within以内 decades数十年,
116
365600
3080
AGIは数十年以内に作れると予測しています
06:21
so within以内 the lifetime一生 of manyたくさんの of us,
117
369640
2256
つまり 私たちがまだ
生きているうちにできるのです
06:23
whichどの begs懇願する the question質問 -- and then what?
118
371920
1960
ここで疑問が生じます―
その後どうなるのか?
06:27
What do we want the role役割 of humans人間 to be
119
375040
2216
機械が私たちより
何でも安く上手にできるなら
06:29
if machines機械 can do everything better
and cheaper安い than us?
120
377280
2680
人間はどんな役割を担えばよいのでしょう?
06:35
The way I see it, we face a choice選択.
121
383000
2000
私たちは選択を迫られると思います
06:38
One optionオプション is to be complacent満足している.
122
386000
1576
1つ目は満足することです
06:39
We can say, "Oh, let's just buildビルドする machines機械
that can do everything we can do
123
387600
3776
「じゃあ 私たちができる事なら
何でもできる機械を作って
06:43
and not worry心配 about the consequences結果.
124
391400
1816
その後のことは心配しないでいい
06:45
Come on, if we buildビルドする technology技術
that makes作る all humans人間 obsolete時代遅れの,
125
393240
3256
ほら 人間を時代遅れの立場に置く
技術を開発したところで
06:48
what could possiblyおそらく go wrong違う?"
126
396520
2096
何も問題ないだろう?」と言うのです
06:50
(Laughter笑い)
127
398640
1656
(笑)
06:52
But I think that would be
embarrassingly恥ずかしい lameラメ.
128
400320
2760
しかし それは極めてまずいと思います
06:56
I think we should be more ambitious意欲的な --
in the spirit精神 of TEDTED.
129
404080
3496
私は TEDの様に もっと野心的で
あるべきだと思います
06:59
Let's envision想像 a truly真に inspiring感動的な
high-techハイテク future未来
130
407600
3496
真に心を打つハイテクな未来を想像し
07:03
and try to steer操縦する towards方向 it.
131
411120
1400
そちらへと向けて操縦してみましょう
07:05
This bringsもたらす us to the second二番 part
of our rocketロケット metaphor隠喩: the steering操舵.
132
413720
3536
ここから ロケットのたとえの第2部
「操縦」へと話を移します
07:09
We're making作る AIAI more powerful強力な,
133
417280
1896
どんどん強力なAIが
作られていきますが
07:11
but how can we steer操縦する towards方向 a future未来
134
419200
3816
AIが人類をまごつかせるのではなく
AIが人類の繁栄に役立つような
07:15
where AIAI helps助けて humanity人類 flourish繁栄する
ratherむしろ than flounderヒラメ?
135
423040
3080
そんな未来に向かうには
どう操縦すればよいのでしょうか?
07:18
To help with this,
136
426760
1256
その問題解決のために
07:20
I cofounded共謀した the Future未来 of Life Institute研究所.
137
428040
1976
Future of Life Instituteを
共同設立しました
07:22
It's a small小さい nonprofit非営利団体 promoting促進する
beneficial有益 technology技術 use,
138
430040
2776
小さな非営利組織で
有益な技術を促進しており
07:24
and our goalゴール is simply単に
for the future未来 of life to exist存在する
139
432840
2736
その目的はシンプルで
生命が存在できて
07:27
and to be as inspiring感動的な as possible可能.
140
435600
2056
できるだけ刺激的な
未来にすることです
07:29
You know, I love technology技術.
141
437680
3176
もちろん 私は技術を愛しています
07:32
Technology技術 is why today今日
is better than the Stone Age年齢.
142
440880
2920
現代が石器時代より良いのは
技術のおかげです
07:36
And I'm optimistic楽観的 that we can create作成する
a really inspiring感動的な high-techハイテク future未来 ...
143
444600
4080
そして真に刺激的なハイテクな未来を
作れると楽観的に考えています
07:41
if -- and this is a big大きい if --
144
449680
1456
もし — 万が一の話ですが —
07:43
if we win勝つ the wisdom知恵 raceレース --
145
451160
2456
もし人類が知恵の競争で勝ったら?
07:45
the raceレース betweenの間に the growing成長する
powerパワー of our technology技術
146
453640
2856
これは 技術が生み出す能力の成長と
07:48
and the growing成長する wisdom知恵
with whichどの we manage管理する it.
147
456520
2200
人類が技術を管理するための
知恵の強化との間の競争です
07:51
But this is going to require要求する
a change変化する of strategy戦略
148
459240
2296
しかし 勝つには戦略を
変えなければいけません
07:53
because our old古い strategy戦略
has been learning学習 from mistakes間違い.
149
461560
3040
古い戦略とは
失敗から学ぶことだからです
07:57
We invented発明された fire火災,
150
465280
1536
私たちは 火を発明し
07:58
screwedねじ込まれた up a bunch of times --
151
466840
1536
幾度も失敗して
08:00
invented発明された the fire火災 extinguisher消火器.
152
468400
1816
消火器を発明したのです
08:02
(Laughter笑い)
153
470240
1336
(笑)
08:03
We invented発明された the car,
screwedねじ込まれた up a bunch of times --
154
471600
2416
私たちは車を発明し
幾度も失敗して
08:06
invented発明された the trafficトラフィック light,
the seatシート beltベルト and the airbagエアバッグ,
155
474040
2667
信号とシートベルトと
エアバッグを発明したのです
08:08
but with more powerful強力な technology技術
like nuclear weapons兵器 and AGIヨウ化銀,
156
476731
3845
一方 核兵器やAGIのように
ずっと強力な技術の場合
08:12
learning学習 from mistakes間違い
is a lousy怠け者 strategy戦略,
157
480600
3376
失敗から学ぶというのは
お粗末な戦略だとは
08:16
don't you think?
158
484000
1216
思いませんか?
08:17
(Laughter笑い)
159
485240
1016
(笑)
08:18
It's much better to be proactive積極的な
ratherむしろ than reactive反応性の;
160
486280
2576
後手の対応より
先手を打つ方が ずっと良いのです
08:20
plan計画 ahead前方に and get things
right the first time
161
488880
2296
事前に計画して一発で成功させるのです
08:23
because that mightかもしれない be
the only time we'll私たちは get.
162
491200
2496
チャンスは一度だけかもしれませんから
08:25
But it is funny面白い because
sometimes時々 people tell me,
163
493720
2336
でも こう言われると変な感じがします
08:28
"Max最大, shhhshhh, don't talk like that.
164
496080
2736
「マックス そんな風に言うなよ
そんなの―
08:30
That's Ludditeラディ scaremongeringデマ."
165
498840
1720
技術革新反対主義者のデマだぜ」と
08:34
But it's not scaremongeringデマ.
166
502040
1536
しかし デマではないのです
08:35
It's what we at MITMIT
call safety安全性 engineeringエンジニアリング.
167
503600
2880
MITではこれを安全工学と
呼んでいます
08:39
Think about it:
168
507200
1216
考えてみてください
08:40
before NASANASA launched打ち上げ
the Apolloアポロ 11 missionミッション,
169
508440
2216
NASAがアポロ11号を打ち上げる前
08:42
they systematically体系的に thought throughを通して
everything that could go wrong違う
170
510680
3136
彼らは 起こり得るトラブルを
全て 系統的に検討しました
08:45
when you put people
on top of explosive爆発物 fuel燃料 tanksタンク
171
513840
2376
なにしろ 爆発しやすい燃料タンクの上に
人間を座らせて
08:48
and launch打ち上げ them somewhereどこかで
where no one could help them.
172
516240
2616
誰も助けられない所に向けて
打ち上げるからです
08:50
And there was a lot that could go wrong違う.
173
518880
1936
起こり得るトラブルは
たくさんありました
08:52
Was that scaremongeringデマ?
174
520840
1480
それはデマでしたか?
08:55
No.
175
523159
1217
いいえ
08:56
That's was precisely正確に
the safety安全性 engineeringエンジニアリング
176
524400
2016
それこそが安全工学なのです
08:58
that ensured確実に the success成功 of the missionミッション,
177
526440
1936
飛行の成功を保証したのです
09:00
and that is precisely正確に the strategy戦略
I think we should take with AGIヨウ化銀.
178
528400
4176
私はまさにこの戦略をAGIでも
取るべきだと思います
09:04
Think throughを通して what can go wrong違う
to make sure it goes行く right.
179
532600
4056
成功を保証するために
起こりそうな問題を徹底的に考えるのです
09:08
So in this spirit精神,
we've私たちは organized組織された conferencesカンファレンス,
180
536680
2536
この精神をもって 会議を開きました
09:11
bringing持参 together一緒に leading先導
AIAI researchers研究者 and other thinkers思想家
181
539240
2816
一流のAI研究者や
その他の思想家と共に
09:14
to discuss話し合います how to grow成長する this wisdom知恵
we need to keep AIAI beneficial有益.
182
542080
3736
AIが有益であり続けるために必要な
知恵を身に付ける方法を議論しました
09:17
Our last conference会議
was in Asilomarアシロマ, Californiaカリフォルニア last year
183
545840
3296
前回の会議はカリフォルニアの
アシロマで昨年開催され
09:21
and produced生産された this listリスト of 23 principles原則
184
549160
3056
23ヶ条の原則を作成しました
09:24
whichどの have since以来 been signed署名された
by over 1,000 AIAI researchers研究者
185
552240
2896
これは千人以上のAI研究者と
産業界の主な指導者によって
09:27
and keyキー industry業界 leaders指導者,
186
555160
1296
署名されました
09:28
and I want to tell you
about three of these principles原則.
187
556480
3176
そのうちの3ヶ条についてお話しします
09:31
One is that we should avoid避ける an arms武器 raceレース
and lethal致死 autonomous自律的 weapons兵器.
188
559680
4960
1つ目は軍拡競争と
自律型の殺人兵器を控えることです
09:37
The ideaアイディア here is that any science科学
can be used for new新しい ways方法 of helping助ける people
189
565480
3616
科学は 人を助けるため もしくは
人を傷つけるための
09:41
or new新しい ways方法 of harming害を与える people.
190
569120
1536
新たな方法として使えます
09:42
For example, biology生物学 and chemistry化学
are much more likelyおそらく to be used
191
570680
3936
例えば 生物学と化学は
人を殺す方法としてではなく
09:46
for new新しい medicines or new新しい cures治癒
than for new新しい ways方法 of killing殺す people,
192
574640
4856
新薬や新たな治療法の開発のために
使われる可能性の方がずっと高いです
09:51
because biologists生物学者
and chemists化学者 pushed押された hardハード --
193
579520
2176
なぜなら 生物学者と化学者は
09:53
and successfully正常に --
194
581720
1256
生物兵器と化学兵器の禁止を
09:55
for bans禁止 on biological生物学的
and chemical化学 weapons兵器.
195
583000
2176
強く推進し 成功したからです
09:57
And in the same同じ spirit精神,
196
585200
1256
同じような考えで
09:58
most最も AIAI researchers研究者 want to stigmatize目立たない
and ban禁止 lethal致死 autonomous自律的 weapons兵器.
197
586480
4440
ほとんどのAI研究者は自律型の殺人兵器を
非難し禁止することを望んでいます
10:03
Anotherもう一つ Asilomarアシロマ AIAI principle原理
198
591600
1816
もう一つのアシロマでの原則は
10:05
is that we should mitigate緩和する
AI-fueledAI 燃料 income所得 inequality不平等.
199
593440
3696
AIによって引き起こされる
所得格差を和らげることです
10:09
I think that if we can grow成長する
the economic経済的 pieパイ dramatically劇的に with AIAI
200
597160
4456
もしAIによって経済的な利益が
著しく増えても
10:13
and we still can't figure数字 out
how to divide分ける this pieパイ
201
601640
2456
誰もが豊かになるように
増益分を配分する方法が
10:16
so that everyoneみんな is better off,
202
604120
1576
見つけられなければ
10:17
then shame on us.
203
605720
1256
私たちにとって恥です
10:19
(Applause拍手)
204
607000
4096
(拍手)
10:23
Alright大丈夫, now raise上げる your handハンド
if your computerコンピューター has ever crashedクラッシュした.
205
611120
3600
さて コンピューターが異常終了したことの
ある人は手をあげてください
10:27
(Laughter笑い)
206
615480
1256
(笑)
10:28
Wowワオ, that's a lot of hands.
207
616760
1656
ずいぶん 手が上がりましたね
10:30
Well, then you'llあなたは appreciate感謝する
this principle原理
208
618440
2176
それなら次の原則を
理解していただけるでしょう
10:32
that we should invest投資する much more
in AIAI safety安全性 research研究,
209
620640
3136
AIの安全性の研究に
もっと投資するという原則です
10:35
because as we put AIAI in charge電荷
of even more decisions決定 and infrastructureインフラ,
210
623800
3656
なぜなら AIを意思決定や
インフラへ利用することが増えるにつれ
10:39
we need to figure数字 out how to transform変換する
today's今日の buggyバギー and hackableハッキング computersコンピュータ
211
627480
3616
バグが多く ハッキングされやすい
現在のコンピューターを 信頼度が高く
10:43
into robustロバストな AIAI systemsシステム
that we can really trust信頼,
212
631120
2416
安定に動作するAIに変える方法を
見つける必要があります
10:45
because otherwiseさもないと,
213
633560
1216
そうしなければ
10:46
all this awesome驚くばかり new新しい technology技術
can malfunction故障 and harm us,
214
634800
2816
この素晴らしい新技術は
誤動作を起こして被害を与え
10:49
or get hackedハッキングされた and be turned回した againstに対して us.
215
637640
1976
ハッキングされ
私たちを攻撃するかもしれません
10:51
And this AIAI safety安全性 work
has to include含める work on AIAI value alignmentアライメント,
216
639640
5696
また安全性研究の一環として AIの価値観を
私たちの価値観と一致させる研究が必要です
10:57
because the realリアル threat脅威
from AGIヨウ化銀 isn't malice悪意,
217
645360
2816
AGIの真の脅威は
馬鹿げたハリウッド映画のような
11:00
like in silly愚かな Hollywoodハリウッド movies映画,
218
648200
1656
人間への敵意などではなく
11:01
but competence能力 --
219
649880
1736
その能力にあります
11:03
AGIヨウ化銀 accomplishing達成する goalsゴール
that just aren'tない aligned整列した with ours私たちのもの.
220
651640
3416
私たちの目標に合致しないことを
成し遂げてしまいかねないからです
11:07
For example, when we humans人間 drove運転した
the West西 Africanアフリカ black rhinoライノ extinct絶滅した,
221
655080
4736
例えば 私たち人間が 西アフリカの
クロサイを絶滅させたのは
11:11
we didn't do it because we were a bunch
of evil悪の rhinocerosサイコロ haters憎しみ, did we?
222
659840
3896
私たちはサイを狩る邪悪な
集団だったからではないですよね?
11:15
We did it because
we were smarterスマートな than them
223
663760
2056
私たちは奴らより利口で
11:17
and our goalsゴール weren'tなかった aligned整列した with theirsそれらの.
224
665840
2576
私たちの目的が相手と
一致しなかったからなのです
11:20
But AGIヨウ化銀 is by definition定義 smarterスマートな than us,
225
668440
2656
しかし AGIは 定義上
私たちより利口なので
11:23
so to make sure that we don't put
ourselves自分自身 in the positionポジション of those rhinosサイ
226
671120
3576
私たちをサイの立場に置かないためには
11:26
if we create作成する AGIヨウ化銀,
227
674720
1976
AGIを作る時に
11:28
we need to figure数字 out how
to make machines機械 understandわかる our goalsゴール,
228
676720
4176
機械に私たちの目的を理解させ
11:32
adopt採用 our goalsゴール and retain保持する our goalsゴール.
229
680920
3160
それを採用し 保持させる方法を
見出す必要があります
11:37
And whoseその goalsゴール should these be, anywayとにかく?
230
685320
2856
また これは誰の目的で
あるべきなのでしょうか?
11:40
Whichどの goalsゴール should they be?
231
688200
1896
何を目的とすべきなのでしょうか?
11:42
This bringsもたらす us to the third三番 part
of our rocketロケット metaphor隠喩: the destination.
232
690120
3560
これはロケットのたとえの第3部へと
つながります 目的地です
11:47
We're making作る AIAI more powerful強力な,
233
695160
1856
AIを強化し
11:49
trying試す to figure数字 out how to steer操縦する it,
234
697040
1816
操縦方法を見出そうとしていますが
11:50
but where do we want to go with it?
235
698880
1680
どこに行こうと
しているのでしょうか?
11:53
This is the elephant in the roomルーム
that almostほぼ nobody誰も talks交渉 about --
236
701760
3656
これは ほとんど誰もが話題にすることを
避けている重大な問題です
11:57
not even here at TEDTED --
237
705440
1856
ここTEDにいる人たちでもそうです
11:59
because we're so fixated固定された
on short-term短期 AIAI challenges挑戦.
238
707320
4080
短期的なAIの課題に
掛かり切りだからです
12:04
Look, our species is trying試す to buildビルドする AGIヨウ化銀,
239
712080
4656
さて 人類はAGIを
作ろうとしていて
12:08
motivated意欲的な by curiosity好奇心 and economics経済,
240
716760
3496
それは好奇心と経済的なことが
動機となっていますが
12:12
but what sortソート of future未来 society社会
are we hoping望んでいる for if we succeed成功する?
241
720280
3680
もしAGIが成功したら 私たちは
どんな未来社会を望むのでしょう?
12:16
We did an opinion意見 poll投票 on this recently最近,
242
724680
1936
これについて 意識調査を
最近実施しましたが
12:18
and I was struck打たれた to see
243
726640
1216
私は 多くの人が
12:19
that most最も people actually実際に
want us to buildビルドする superintelligenceスーパーインテリジェンス:
244
727880
2896
「超知能」の創造を望んでいるという
意見に驚きました
12:22
AIAI that's vastly大いに smarterスマートな
than us in all ways方法.
245
730800
3160
あらゆる面において私たちより
遥かに利口な知能を望んでいるのです
12:27
What there was the greatest最大 agreement契約 on
was that we should be ambitious意欲的な
246
735120
3416
最も意見の一致を見た点は
私たちが大志を抱き
12:30
and help life spread普及 into the cosmos宇宙,
247
738560
2016
生命を宇宙へと
拡散させるべきということでした
12:32
but there was much lessもっと少なく agreement契約
about who or what should be in charge電荷.
248
740600
4496
ただ 超知能を管理する主体については
意見が分かれました
12:37
And I was actually実際に quiteかなり amused面白い
249
745120
1736
面白いと思ったのは
12:38
to see that there's some some people
who want it to be just machines機械.
250
746880
3456
機械だけで管理すればよいと
考える人がいた事です
12:42
(Laughter笑い)
251
750360
1696
(笑)
12:44
And there was total合計 disagreement不一致
about what the role役割 of humans人間 should be,
252
752080
3856
その上 人間の役割は何であるべきかに
ついては 最も基本的なレベルにおいても
12:47
even at the most最も basic基本的な levelレベル,
253
755960
1976
全く意見が一致しませんでした
12:49
so let's take a closerクローザー look
at possible可能 futures先物
254
757960
2816
では 私たちが向かって行く可能性のある
12:52
that we mightかもしれない choose選択する
to steer操縦する toward〜に向かって, alright大丈夫?
255
760800
2736
未来を詳しく見てみましょう
12:55
So don't get be wrong違う here.
256
763560
1336
誤解しないでください
12:56
I'm not talking話す about spaceスペース travel旅行,
257
764920
2056
私は宇宙旅行について
語ろうとしているのではなく
12:59
merely単に about humanity's人類
metaphorical比喩的 journey into the future未来.
258
767000
3200
人類の未来への道のりを
比喩的に言っているだけです
13:02
So one optionオプション that some
of my AIAI colleagues同僚 like
259
770920
3496
私のAI研究者仲間がお気に入りの
一つの選択肢は
13:06
is to buildビルドする superintelligenceスーパーインテリジェンス
and keep it under human人間 controlコントロール,
260
774440
3616
超知能を造って
人間の支配下に置くというものです
13:10
like an enslaved奴隷にされた god,
261
778080
1736
まるで奴隷にされた神の様であり
13:11
disconnected切断された from the internetインターネット
262
779840
1576
インターネットへの接続もなく
13:13
and used to create作成する unimaginable想像を絶する
technology技術 and wealth
263
781440
3256
誰であれ それを制御できる人のために
想像すらできない様な技術と富を
13:16
for whoever誰でも controlsコントロール it.
264
784720
1240
創造するために使われます
13:18
But Lord Actonアクトン warned警告された us
265
786800
1456
しかしアクトン卿は
13:20
that powerパワー corrupts腐敗,
and absolute絶対の powerパワー corrupts腐敗 absolutely絶対に,
266
788280
3616
権力は腐敗し 絶対的な権力は
絶対に腐敗すると警告しました
13:23
so you mightかもしれない worry心配 that maybe
we humans人間 just aren'tない smartスマート enough十分な,
267
791920
4056
だから 皆さんは この様なすごい力を
扱える程には人類は利口ではない
13:28
or wise賢い enough十分な ratherむしろ,
268
796000
1536
もしくは十分に賢くはないと
13:29
to handleハンドル this much powerパワー.
269
797560
1240
憂慮されるかもしれません
13:31
Alsoまた、, aside脇に from any
moral道徳 qualms良心の呵責 you mightかもしれない have
270
799640
2536
より優れた知性を
奴隷扱いするのは気がとがめるという
13:34
about enslaving奴隷化 superior優れました minds,
271
802200
2296
道徳的なことはさておき
13:36
you mightかもしれない worry心配 that maybe
the superintelligenceスーパーインテリジェンス could outsmartアウトスマート us,
272
804520
3976
超知能が 想像を超えた方法で
逃げ出し 優位に立つのではと
13:40
breakブレーク out and take over.
273
808520
2240
心配になるかもしれません
13:43
But I alsoまた、 have colleagues同僚
who are fine with AIAI taking取る over
274
811560
3416
しかし 私の同僚には
AIに乗っ取られてもいい
13:47
and even causing原因 human人間 extinction絶滅,
275
815000
2296
さらには人類を絶滅させても
いいと考える人もいます
13:49
as long as we feel the the AIsAI
are our worthy価値がある descendants子孫,
276
817320
3576
それも AIのことを
自分たちの子供のように相応しい子孫と
13:52
like our children子供.
277
820920
1736
思えればの話です
13:54
But how would we know that the AIsAI
have adopted採用 our bestベスト values
278
822680
5616
ただ AIが私たちの価値観を持ったことを
どうしたら確認できるでしょう?
14:00
and aren'tない just unconscious無意識 zombiesゾンビ
trickingトリック us into anthropomorphizing擬人化 them?
279
828320
4376
意識を持たないゾンビなのに
人間らしく見えるだけではないと?
14:04
Alsoまた、, shouldn'tすべきではない those people
who don't want human人間 extinction絶滅
280
832720
2856
それに 人類の絶滅を望まぬ人々にも
発言権が
14:07
have a say in the matter問題, too?
281
835600
1440
あるべきではないでしょうか?
14:10
Now, if you didn't like eitherどちらか
of those two high-techハイテク optionsオプション,
282
838200
3376
さて これらのハイテクな選択肢は
どちらもお望みでないとしても
14:13
it's important重要 to remember思い出す
that low-techローテク is suicide自殺
283
841600
3176
ローテクな選択肢は
宇宙的視野に立てば自殺行為であると
14:16
from a cosmic宇宙 perspective視点,
284
844800
1256
知っておくことは大切です
14:18
because if we don't go far遠い
beyond超えて today's今日の technology技術,
285
846080
2496
なぜなら 現在の技術レベルを
はるかに上回らない限り
14:20
the question質問 isn't whetherかどうか humanity人類
is going to go extinct絶滅した,
286
848600
2816
人類が将来 絶滅するかどうかという
問題ではなく
14:23
merely単に whetherかどうか
we're going to get taken撮影 out
287
851440
2016
技術が進んでいれば回避できるはずの
14:25
by the next killerキラー asteroid小惑星, supervolcano超巨大火山
288
853480
2136
小惑星の衝突や
巨大な火山噴火といった事態で
14:27
or some other problem問題
that better technology技術 could have solved解決した.
289
855640
3096
人類は滅亡するのかという
問題になってしまうからです
14:30
So, how about having持つ
our cakeケーキ and eating食べる it ...
290
858760
3576
それならば 長所を全て
生かしてはどうでしょうか
14:34
with AGIヨウ化銀 that's not enslaved奴隷にされた
291
862360
1840
奴隷化されなくても
14:37
but treats扱う us well because its values
are aligned整列した with ours私たちのもの?
292
865120
3176
私たちと同じ価値観を持ち
人間を大事にするAGIを使うのです
14:40
This is the gist要旨 of what Eliezerエリエゼル Yudkowskyユドコー
has calledと呼ばれる "friendlyフレンドリーな AIAI,"
293
868320
4176
これはエリエゼル・ユドカウスキーが
「友好的なAI」と呼ぶものです
14:44
and if we can do this,
it could be awesome驚くばかり.
294
872520
2680
そして これができれば
素晴らしいことでしょう
14:47
It could not only eliminate排除する negative
experiences経験 like disease疾患, poverty貧困,
295
875840
4816
病気 貧困 犯罪など
苦痛というマイナスの経験を
14:52
crime犯罪 and other suffering苦しみ,
296
880680
1456
無くすことができるだけではなく
14:54
but it could alsoまた、 give us
the freedom自由 to choose選択する
297
882160
2816
様々な 新しいプラスの経験から
選択する自由を
14:57
from a fantastic素晴らしい new新しい diversity多様性
of positiveポジティブ experiences経験 --
298
885000
4056
与えてくれるかもしれません
15:01
basically基本的に making作る us
the mastersマスター of our own自分の destiny運命.
299
889080
3160
そうなれば私たちは
自分の手で運命を決められるのです
15:06
So in summary概要,
300
894280
1376
では まとめます
15:07
our situation状況 with technology技術
is complicated複雑な,
301
895680
3096
技術に関する状況は
複雑ではありますが
15:10
but the big大きい picture画像 is ratherむしろ simple単純.
302
898800
2416
全体像は 単純です
15:13
Most最も AIAI researchers研究者
expect期待する AGIヨウ化銀 within以内 decades数十年,
303
901240
3456
ほとんどのAI研究者はAGIが
数十年以内にできると期待しています
15:16
and if we just bumbleバブル
into this unprepared準備ができていない,
304
904720
3136
そして 準備がないままに
つまづきながら進んで行くと
15:19
it will probably多分 be
the biggest最大 mistake間違い in human人間 history歴史 --
305
907880
3336
おそらく人類史上最大の
間違いとなるでしょう
15:23
let's face it.
306
911240
1416
それは認めるべきです
15:24
It could enable有効にする brutal残忍な,
globalグローバル dictatorship独裁
307
912680
2576
冷酷な 全世界的独裁政権が可能になり
15:27
with unprecedented前例のない inequality不平等,
surveillance監視 and suffering苦しみ,
308
915280
3536
前代未聞の差別 監視社会と
苦しみが産まれ
15:30
and maybe even human人間 extinction絶滅.
309
918840
1976
さらに人類の絶滅さえ
起こるかもしれません
15:32
But if we steer操縦する carefully慎重に,
310
920840
2320
しかし注意深く操縦すれば
15:36
we could end終わり up in a fantastic素晴らしい future未来
where everybody'sみんな better off:
311
924040
3896
誰もが裕福になれる
素晴らしい未来にたどり着くかもしれません
15:39
the poor貧しい are richerより豊かな, the richリッチ are richerより豊かな,
312
927960
2376
貧乏人は金持ちになり
金持ちはさらに金持ちになり
15:42
everybodyみんな is healthy健康
and free無料 to liveライブ out their彼らの dreams.
313
930360
3960
みんなが健康で 夢を追い求めながら
自由に人生を送れることでしょう
15:47
Now, hangハング on.
314
935000
1536
ちょっと考えてください
15:48
Do you folks人々 want the future未来
that's politically政治的に right or left?
315
936560
4576
皆さんは 政治的に右寄りの未来と
左寄りの未来なら どちらがいいですか?
15:53
Do you want the pious信心深い society社会
with strict厳格な moral道徳 rulesルール,
316
941160
2856
厳格な道徳的規則を持つ敬虔な社会と
15:56
or do you an hedonistic快楽主義的な free-for-all万人に無料,
317
944040
1816
快楽主義的で制約のない
15:57
more like Burning燃焼 Man 24/7?
318
945880
2216
毎日がバーニングマンのような社会なら
どちらがいいですか?
16:00
Do you want beautiful綺麗な beachesビーチ,
forests森林 and lakes,
319
948120
2416
綺麗なビーチや森や湖がいいですか?
16:02
or would you prefer好む to rearrange並べ替える
some of those atoms原子 with the computersコンピュータ,
320
950560
3416
それともコンピューターで
原子を少し置き換えた
16:06
enabling可能にする virtualバーチャル experiences経験?
321
954000
1715
バーチャル体験がいいですか?
16:07
With friendlyフレンドリーな AIAI, we could simply単に
buildビルドする all of these societies社会
322
955739
3157
友好的なAIがあれば
どの社会でも作ることができ
16:10
and give people the freedom自由
to choose選択する whichどの one they want to liveライブ in
323
958920
3216
人々にどの社会に住むかの
自由を与えることができます
16:14
because we would no longerより長いです
be limited限られた by our intelligenceインテリジェンス,
324
962160
3096
なぜなら 自分たちの知能に
縛られることはなくなるからです
16:17
merely単に by the laws法律 of physics物理.
325
965280
1456
制約は物理法則だけです
16:18
So the resourcesリソース and spaceスペース
for this would be astronomical天文学的 --
326
966760
4616
ですから このような世界の資源と空間は
天文学的になります
16:23
literally文字通り.
327
971400
1320
文字通りにです
16:25
So here'sここにいる our choice選択.
328
973320
1200
我々は選択しなければなりません
16:27
We can eitherどちらか be complacent満足している
about our future未来,
329
975880
2320
自分の未来に満足し
16:31
taking取る as an article記事 of blindブラインド faith信仰
330
979440
2656
新しいテクノロジーなら何でも
16:34
that any new新しい technology技術
is guaranteed保証付き to be beneficial有益,
331
982120
4016
有益なことが保証されているという
根拠のない信条を持ち
16:38
and just repeat繰り返す that to ourselves自分自身
as a mantraマントラ over and over and over again
332
986160
4136
まるで舵のない船が
衰退に向かって漂流するように
16:42
as we driftドリフト like a rudderlessかじ ship
towards方向 our own自分の obsolescence陳腐化.
333
990320
3680
それを自分の中で
何度も繰り返し唱え続けるのか
16:46
Or we can be ambitious意欲的な --
334
994920
1880
あるいは野心を持って
16:49
thinking考え hardハード about how
to steer操縦する our technology技術
335
997840
2456
技術の操縦方法と目的地を
16:52
and where we want to go with it
336
1000320
1936
真剣に考え
16:54
to create作成する the age年齢 of amazement驚き.
337
1002280
1760
「素晴らしい時代」を築くのか
16:57
We're all here to celebrate祝う
the age年齢 of amazement驚き,
338
1005000
2856
私たちは 「素晴らしい時代」を
祝うためにここにいます
16:59
and I feel that its essenceエッセンス should lie嘘つき
in becoming〜になる not overpowered圧倒された
339
1007880
4440
私は その本質は
技術に圧倒されるのではなく
17:05
but empowered権限を与えられた by our technology技術.
340
1013240
2616
技術から力を得ることだと思います
17:07
Thank you.
341
1015880
1376
ありがとうございました
17:09
(Applause拍手)
342
1017280
3080
(拍手)
Translated by Yumika Amemiya
Reviewed by Tomoyuki Suzuki

▲Back to top

ABOUT THE SPEAKER
Max Tegmark - Scientist, author
Max Tegmark is driven by curiosity, both about how our universe works and about how we can use the science and technology we discover to help humanity flourish rather than flounder.

Why you should listen

Max Tegmark is an MIT professor who loves thinking about life's big questions. He's written two popular books, Our Mathematical Universe: My Quest for the Ultimate Nature of Reality and the recently published Life 3.0: Being Human in the Age of Artificial Intelligenceas well as more than 200 nerdy technical papers on topics from cosmology to AI.

He writes: "In my spare time, I'm president of the Future of Life Institute, which aims to ensure that we develop not only technology but also the wisdom required to use it beneficially."

More profile about the speaker
Max Tegmark | Speaker | TED.com