ABOUT THE SPEAKER
Martin Rees - Astrophysicist
Lord Martin Rees, one of the world's most eminent astronomers, is an emeritus professor of cosmology and astrophysics at the University of Cambridge and the UK's Astronomer Royal. He is one of our key thinkers on the future of humanity in the cosmos.

Why you should listen

Lord Martin Rees has issued a clarion call for humanity. His 2004 book, ominously titled Our Final Hour, catalogues the threats facing the human race in a 21st century dominated by unprecedented and accelerating scientific change. He calls on scientists and nonscientists alike to take steps that will ensure our survival as a species.

One of the world's leading astronomers, Rees is an emeritus professor of cosmology and astrophysics at Cambridge, and UK Astronomer Royal. Author of more than 500 research papers on cosmological topics ranging from black holes to quantum physics to the Big Bang, Rees has received countless awards for his scientific contributions. But equally significant has been his devotion to explaining the complexities of science for a general audience, in books like Before the Beginning and Our Cosmic Habitat.

More profile about the speaker
Martin Rees | Speaker | TED.com
TED2014

Martin Rees: Can we prevent the end of the world?

サー・マーティン・リース: 今世紀 我々は人類の終わりを回避できるか

Filmed:
1,283,785 views

人のいない人類文明終焉後の地球、それはテレビや映画のSF物語のようです。しかし、この驚愕の短いトークの中で、サー・マーティン・リースは、人類の存在を脅かす、考え得る最悪の惨事は何かを考えるよう訴えかけます。自然か、それとも人工的な脅威が人類を抹消してしまうのだろうか、と当事者の人類の一員として私達に問いかけます。
- Astrophysicist
Lord Martin Rees, one of the world's most eminent astronomers, is an emeritus professor of cosmology and astrophysics at the University of Cambridge and the UK's Astronomer Royal. He is one of our key thinkers on the future of humanity in the cosmos. Full bio

Double-click the English transcript below to play the video.

00:12
Ten years ago, I wrote書きました a book whichどの I entitledタイトル
0
485
2222
10年前 私は本を書きました
00:14
"Our Final最後の Century世紀?" Question質問 markマーク.
1
2707
3093
題は『今世紀で人類は終わる?』
と疑問符がついたものでしたが
00:17
My publishers出版社 cutカット out the question質問 markマーク. (Laughter笑い)
2
5800
3577
出版社は疑問符を取りました
(笑)
00:21
The Americanアメリカ人 publishers出版社 changedかわった our titleタイトル
3
9377
1882
アメリカの出版社は
それを
00:23
to "Our Final最後の Hour時間."
4
11259
3909
『人類最後の日』と変えたのです
00:27
Americansアメリカ人 like instantインスタント gratification満足 and the reverse.
5
15168
3492
幸も不幸も待てないという
アメリカ人気質なのでしょうか
00:30
(Laughter笑い)
6
18660
1708
(笑)
00:32
And my themeテーマ was this:
7
20368
1750
今日のテーマは
00:34
Our Earth地球 has existed存在した for 45 million百万 centuries世紀,
8
22118
4166
4,500万世紀もの間
続いて来た地球の
00:38
but this one is special特別
9
26284
2013
今世紀は特別で
00:40
it's the first where one species, ours私たちのもの,
10
28297
3016
人類が その手中に
00:43
has the planet's惑星の future未来 in its hands.
11
31313
2802
地球の未来を
握っているという事です
00:46
Over nearlyほぼ all of Earth's地球の history歴史,
12
34115
1990
地球は その誕生以来
ほぼずっと
00:48
threats脅威 have come from nature自然
13
36105
1936
脅威は
00:50
disease疾患, earthquakes地震, asteroids小惑星 and so forth前進
14
38041
3496
病気、地震、小惑星など
自然からのものでした
00:53
but from now on, the worst最悪 dangers危険 come from us.
15
41537
5672
これからは 最悪の惨事を
もたらすのは人類です
00:59
And it's now not just the nuclear threat脅威;
16
47209
3271
それは何も核だとは限りません
01:02
in our interconnected相互に接続された world世界,
17
50480
1751
相互に繋がるこの世界では
01:04
networkネットワーク breakdowns故障 can cascadeカスケード globally世界的に;
18
52231
3163
ネットワークが断たれると
世界は瞬く間に崩壊し
01:07
air空気 travel旅行 can spread普及 pandemicsパンデミック
worldwide世界的に within以内 days日々;
19
55394
3956
疫病は人々の空の旅により
数日で世界中に広がり
01:11
and socialソーシャル mediaメディア can spread普及 panicパニック and rumor
20
59350
3327
ソーシャルメディアは
パニックと噂を拡げます
01:14
literally文字通り at the speed速度 of light.
21
62677
3217
それも文字通り光速で
01:17
We fretフレット too much about minorマイナー hazardsハザード
22
65894
3225
我々はあまりに些細な問題—
01:21
improbable思いもよらない air空気 crashesクラッシュ, carcinogens発癌物質 in foodフード,
23
69119
4031
起こりそうもない飛行機事故
食物に含まれる発がん性物質
01:25
low低い radiation放射線 doses線量, and so forth前進
24
73150
2226
僅かな放射線などに
動揺し過ぎです
01:27
but we and our political政治的 mastersマスター
25
75376
2825
しかし我々や政治家達は
01:30
are in denial拒否 about catastrophic壊滅的な scenariosシナリオ.
26
78201
4203
壊滅的な筋書きには否定的です
01:34
The worst最悪 have thankfullyありがたいことに not yetまだ happened起こった.
27
82404
3038
最悪のケースは 有り難い事に
まだ起きてはいませんし
01:37
Indeed確かに, they probably多分 won't〜されません.
28
85442
2196
実際 多分起きない
かもしれません
01:39
But if an eventイベント is potentially潜在的 devastating壊滅的な,
29
87638
3185
しかし壊滅的可能性が
ありそうなら
01:42
it's worth価値 paying払う a substantial実質的な premiumプレミアム
30
90823
2868
対策を立てて
01:45
to safeguard保障措置 againstに対して it, even if it's unlikely起こりそうもない,
31
93691
3836
例え ありそうでなくても
予防策に投資する価値は十分あります
01:49
just as we take out fire火災 insurance保険 on our house.
32
97527
4513
家の火災保険に
入っておくようなものです
01:54
And as science科学 offersオファー greater大きい powerパワー and promise約束する,
33
102040
4997
科学の力は大きく
約束してくれるものは多い一方
01:59
the downside欠点 gets取得 scarier恐ろしい too.
34
107037
3866
その否定的側面は空恐ろしく
02:02
We get ever more vulnerable脆弱な.
35
110903
2239
人類はこれまでになく
危険に曝されています
02:05
Within以内 a few少数 decades数十年,
36
113142
1838
この2、30年内に
02:06
millions何百万 will have the capability能力
37
114980
2230
何百万人が
02:09
to misuse悪用 rapidly急速に advancing前進 biotechバイオテクノロジー,
38
117210
3121
急速に進歩しているバイオテク技術を
悪用できるようになるでしょう
02:12
just as they misuse悪用 cybertechサイバーテック today今日.
39
120331
3553
それは今日サイバーテクが
悪用される様なものです
02:15
Freemanフリーマン Dysonダイソン, in a TEDTED Talk,
40
123884
3199
フリーマン・ダイソン氏がTEDで
02:19
foresaw予知 that children子供 will design設計
and create作成する new新しい organisms生物
41
127083
3596
彼の世代が化学実験セットで
遊んだように未来の子どもは
02:22
just as routinely日常的に as his generation世代
playedプレーした with chemistry化学 setsセット.
42
130679
4511
新しい生命体をデザインして
作れるようになると予言しています
02:27
Well, this mayかもしれない be on the science科学 fictionフィクション fringeフリンジ,
43
135190
2528
SFの一端のようですが
02:29
but were even part of his scenarioシナリオ to come about,
44
137718
3183
これは彼のシナリオの
一部でもあり
02:32
our ecology生態学 and even our species
45
140901
2737
地球の生態系や人類は
02:35
would surely確かに not survive生き残ります long unscathed無傷.
46
143638
3989
無傷では生き残れないだろう
というものです
02:39
For instanceインスタンス, there are some eco-extremistsエコ過激派
47
147627
3863
例えば この惑星
大地の神ガイアの為には
02:43
who think that it would be better for the planet惑星,
48
151490
2509
人口は削減されるべきだ
02:45
for Gaiaガイア, if there were far遠い fewer少ない humans人間.
49
153999
3403
と主張するエコ過激派が
02:49
What happens起こる when suchそのような people have mastered習得した
50
157402
2717
2050年までには誰でも
入手できると思われる
02:52
synthetic合成 biology生物学 techniques技術
51
160119
2137
合成生物学の技術を
02:54
that will be widespread広範囲 by 2050?
52
162256
2852
習得したらどうなるでしょう
02:57
And by then, other science科学 fictionフィクション nightmares悪夢
53
165108
3042
それまでに他のSF的悪夢が
03:00
mayかもしれない transition遷移 to reality現実:
54
168150
1710
現実となるかもしれません
03:01
dumbダム robotsロボット going rogue不正,
55
169860
2070
馬鹿なロボットが
勝手な事をし出したり
03:03
or a networkネットワーク that develops発展する a mindマインド of its own自分の
56
171930
2417
自己作動し始めた
ネットワークが
03:06
threatens脅迫する us all.
57
174347
2589
我々を脅かし出すかもしれません
03:08
Well, can we guardガード againstに対して suchそのような risksリスク by regulation規制?
58
176936
3270
そんなリスクから私たちを
法律で守れないでしょうか
03:12
We must必須 surely確かに try, but these enterprises企業
59
180206
2407
確かにやるだけの
価値はありますが
03:14
are so competitive競争する, so globalizedグローバル化された,
60
182613
3529
世界中で競争が激化し
03:18
and so driven駆動される by commercial商業の pressure圧力,
61
186142
1980
商業的圧力に左右されるので
03:20
that anything that can be done完了
will be done完了 somewhereどこかで,
62
188122
3285
法律がどうであれ
可能なことは
03:23
whateverなんでも the regulations規則 say.
63
191407
2036
どこかで実現するでしょう
03:25
It's like the drugドラッグ laws法律 — we try to regulate調整する, but can't.
64
193443
3487
薬取締法みたいなもので
規制しようとしても無駄です
03:28
And the globalグローバル village will have its village idiots馬鹿,
65
196930
3044
地球村には愚かな者がいて
03:31
and they'll彼らは have a globalグローバル range範囲.
66
199974
3496
彼らは 世界で幅を利かせるでしょう
03:35
So as I said in my book,
67
203470
2291
私が本に書きましたように
03:37
we'll私たちは have a bumpy凹凸のある rideライド throughを通して this century世紀.
68
205761
2889
今世紀を乗り越えるのは
たやすい事ではありません
03:40
There mayかもしれない be setbacks後退 to our society社会
69
208650
3490
何度も我々の社会は挫折し
03:44
indeed確かに, a 50 percentパーセント chanceチャンス of a severe厳しい setback後退.
70
212140
4115
実際 大きく挫折してしまう
可能性が半分でしょう
03:48
But are there conceivable考えられる eventsイベント
71
216255
2914
最悪のケース
03:51
that could be even worse悪化する,
72
219169
2161
全人類を抹消する様な
03:53
eventsイベント that could snuff嗅ぎタバコ out all life?
73
221330
3430
出来事があるでしょうか
03:56
When a new新しい particle粒子 acceleratorアクセル came来た onlineオンライン,
74
224760
2926
新しい粒子加速器が
誕生したとき
03:59
some people anxiously心配して asked尋ねた,
75
227686
1789
こう懸念する人がいました
04:01
could it destroy破壊する the Earth地球 or, even worse悪化する,
76
229475
2250
「地球を破壊するか
宇宙構成組織を
04:03
ripRIP apart離れて the fabricファブリック of spaceスペース?
77
231725
2659
バラバラにしてしまうのでは」と
04:06
Well luckily幸運にも, reassurance安心 could be offered提供された.
78
234384
3543
幸運にも そうならないという
証拠があります
04:09
I and othersその他 pointed尖った out that nature自然
79
237927
2044
他の人も指摘するように
04:11
has done完了 the same同じ experiments実験
80
239971
1933
宇宙線が他の原子核と衝突し
04:13
zillions零数 of times already既に,
81
241904
2186
自然は何度も
同じ実験を
04:16
via経由 cosmic宇宙 rayレイ collisions衝突.
82
244090
1765
繰り返してきたからです
04:17
But scientists科学者 should surely確かに be precautionary予防的
83
245855
3054
しかし科学者は
04:20
about experiments実験 that generate生成する conditions条件
84
248909
2580
自然界に前例のない状態を
引き起こす実験には
04:23
withoutなし precedent先例 in the naturalナチュラル world世界.
85
251489
2483
確かに慎重であるべきです
04:25
Biologists生物学者 should avoid避ける release解放
of potentially潜在的 devastating壊滅的な
86
253972
3423
生物学者は 遺伝子操作された
壊滅的影響を与えうる―
病原体を世に放つべきではありません
04:29
genetically遺伝的に modified変更された pathogens病原体.
87
257395
2715
04:32
And by the way, our special特別 aversion嫌悪
88
260110
3517
ところで我々が
実存し得る惨事に対して
04:35
to the riskリスク of truly真に existential存在 disasters災害
89
263627
3461
特に嫌悪するのは
04:39
depends依存する on a philosophical哲学的 and ethical倫理的な question質問,
90
267088
3275
道徳的、哲学的な問いに依るものです
04:42
and it's this:
91
270363
1670
それはこうです
04:44
Consider検討する two scenariosシナリオ.
92
272033
2308
2つの筋書きがあるとします
04:46
Scenarioシナリオ A wipesワイプ out 90 percentパーセント of humanity人類.
93
274341
5236
筋書きAは 人類の90%を一掃する
04:51
Scenarioシナリオ B wipesワイプ out 100 percentパーセント.
94
279577
3896
筋書きBは 人類の100%を一掃する
04:55
How much worse悪化する is B than A?
95
283473
2918
Bの方がAより
どれ程ひどいでしょうか?
04:58
Some would say 10 percentパーセント worse悪化する.
96
286391
3023
Bが10%だけひどいと
言われる方がいるでしょう
05:01
The body countカウント is 10 percentパーセント higher高い.
97
289414
3150
BがAより 死亡率が10%高いのですが
05:04
But I claim請求 that B is incomparably比類なく worse悪化する.
98
292564
2906
Bは 比較にならない程
悪いと私は思います
05:07
As an astronomer天文学者, I can't believe
99
295470
2629
天文学者として
05:10
that humans人間 are the end終わり of the storyストーリー.
100
298099
2467
人類がこの物語の終わりだとは
信じられないのです
05:12
It is five billion years before the sun太陽 flaresフレア up,
101
300566
3323
太陽が赤色巨星となるまでに
後50億年
05:15
and the universe宇宙 mayかもしれない go on forever永遠に,
102
303889
2711
宇宙は永遠に続いて
05:18
so post-human人間後 evolution進化,
103
306600
2292
ポストヒューマンの進化は
05:20
here on Earth地球 and far遠い beyond超えて,
104
308892
2190
地球 そして 宇宙の彼方で
05:23
could be as prolonged長期化した as the Darwinianダーウィニア人 processプロセス
105
311082
2714
我々がここまで来たように
ダーウィン的進化を続け
05:25
that's led to us, and even more wonderful素晴らしい.
106
313796
3281
もっと素晴らしい進化を
辿るかもしれません
05:29
And indeed確かに, future未来 evolution進化
will happen起こる much fasterもっと早く,
107
317077
2664
確かに未来の人類の進化は
05:31
on a technological技術的 timescaleタイムスケール,
108
319741
2199
自然淘汰的ではなく
人工的な時間尺度に於いて
05:33
not a naturalナチュラル selection選択 timescaleタイムスケール.
109
321940
2299
その速度は急速なものでしょう
05:36
So we surely確かに, in view見る of those immense巨大 stakesステークス,
110
324239
4195
この莫大な賭けを考慮して
05:40
shouldn'tすべきではない accept受け入れる even a one in a billion riskリスク
111
328434
3386
これ程の可能性に幕を降ろす
人類滅亡のリスクが
05:43
that human人間 extinction絶滅 would foreclose差し押さえ
112
331820
2229
10億分の1だとしても
05:46
this immense巨大 potential潜在的な.
113
334049
2310
決して それに甘んじるべき
ではないと思います
05:48
Some scenariosシナリオ that have been envisaged構想された
114
336359
1772
予測されたシナリオは
中には確かに
05:50
mayかもしれない indeed確かに be science科学 fictionフィクション,
115
338131
1819
SFの話のようなのが
あるかもしれません
05:51
but othersその他 mayかもしれない be disquietingly不安定な realリアル.
116
339950
3386
しかし不気味に迫真性の
あるものもあります
05:55
It's an important重要 maximマキシム that the unfamiliar未知
117
343336
2874
「知らない事と ありえそうもない事は
同じではない」
05:58
is not the same同じ as the improbable思いもよらない,
118
346210
2697
ということわざ通りです
06:00
and in fact事実, that's why we at Cambridgeケンブリッジ University大学
119
348907
2398
これが 予測されるリスクを
06:03
are setting設定 up a centerセンター to study調査 how to mitigate緩和する
120
351305
3375
軽減する研究をするため
我々がケンブリッジ大学で
06:06
these existential存在 risksリスク.
121
354680
2032
センターを設置している理由です
06:08
It seems思われる it's worthwhile価値がある just for a few少数 people
122
356712
3063
このような惨事に関して
模索するのは
06:11
to think about these potential潜在的な disasters災害.
123
359775
2316
少数の人だけに
価値があるようですが
06:14
And we need all the help we can get from othersその他,
124
362091
3013
我々は皆様からのどんなサポートも
必要としています
06:17
because we are stewardsスチュワード of a precious貴重な
125
365104
2479
なぜならこの広大な宇宙の
06:19
pale淡い blue dotドット in a vast広大 cosmos宇宙,
126
367583
3483
貴重な青い一点の惑星では
06:23
a planet惑星 with 50 million百万 centuries世紀 ahead前方に of it.
127
371066
3378
これから5千万世紀もの間
全人類が乗組員だからです
06:26
And so let's not jeopardize脅かす that future未来.
128
374444
2556
だから未来を
台無しないようにしましょう
06:29
And I'd like to finish仕上げ with a quote見積もり
129
377000
1795
ある引用で終わらせて頂きます
06:30
from a great scientist科学者 calledと呼ばれる Peterピーター Medawarメダワール.
130
378795
3501
偉大なる科学者の
ピーター・メダワーの言葉です
06:34
I quote見積もり, "The bells that toll通行料金 for mankind人類
131
382296
3273
「人類のために鳴るベルは
06:37
are like the bells of Alpine高山 cattle.
132
385569
2644
アルプスの牧牛のベルのように
06:40
They are attached添付された to our own自分の necks,
133
388213
2286
我々の首に掛かっている
06:42
and it must必須 be our fault不具合 if they do not make
134
390499
2675
それが美しく鳴らなければ
06:45
a tunefulチューンフルな and melodiousメロディアス sound."
135
393174
2131
我々の責任である」
06:47
Thank you very much.
136
395305
2267
ありがとうございました
(拍手)
06:49
(Applause拍手)
137
397572
2113
Translated by Reiko O Bovee
Reviewed by Yuko Yoshida

▲Back to top

ABOUT THE SPEAKER
Martin Rees - Astrophysicist
Lord Martin Rees, one of the world's most eminent astronomers, is an emeritus professor of cosmology and astrophysics at the University of Cambridge and the UK's Astronomer Royal. He is one of our key thinkers on the future of humanity in the cosmos.

Why you should listen

Lord Martin Rees has issued a clarion call for humanity. His 2004 book, ominously titled Our Final Hour, catalogues the threats facing the human race in a 21st century dominated by unprecedented and accelerating scientific change. He calls on scientists and nonscientists alike to take steps that will ensure our survival as a species.

One of the world's leading astronomers, Rees is an emeritus professor of cosmology and astrophysics at Cambridge, and UK Astronomer Royal. Author of more than 500 research papers on cosmological topics ranging from black holes to quantum physics to the Big Bang, Rees has received countless awards for his scientific contributions. But equally significant has been his devotion to explaining the complexities of science for a general audience, in books like Before the Beginning and Our Cosmic Habitat.

More profile about the speaker
Martin Rees | Speaker | TED.com