ABOUT THE SPEAKERS
Christiane Amanpour - Journalist
TV news legend Christiane Amanpour is known for her uncompromising approach to reporting and interviewing.

Why you should listen

Christiane Amanpour is CNN's chief international correspondent and anchor of the global a airs program "Amanpour," broadcast from the television network's London bureau. She's covered the most relevant conflicts of the last decades, exposing both the brutality and human cost of war and its geopolitical impacts. From the 1991 Gulf War to the siege of Sarajevo (the city later named her honorary citizen), from the 2003 American-led invasion of Iraq to the trial of Saddam Hussein the following year, Amanpour's fearless and uncompromising approach has made her popular with audiences, and a force to be reckoned with by global influencers.

During the Balkan wars, Amanpour famously broke with the idea of journalism neutrality by calling out human right abuses and saying that "there are some situations one simply cannot be neutral about, because when you are neutral you are an accomplice." Since her interview show "Amanpour" was launched in 2009, she's spoken to leaders and decision makers on the issues affecting the world today while continuing reporting from all over the world, including the 2010 earthquake in Haiti and the 2011 tsunami in Japan.

More profile about the speaker
Christiane Amanpour | Speaker | TED.com
Chris Anderson - TED Curator
After a long career in journalism and publishing, Chris Anderson became the curator of the TED Conference in 2002 and has developed it as a platform for identifying and disseminating ideas worth spreading.

Why you should listen

Chris Anderson is the Curator of TED, a nonprofit devoted to sharing valuable ideas, primarily through the medium of 'TED Talks' -- short talks that are offered free online to a global audience.

Chris was born in a remote village in Pakistan in 1957. He spent his early years in India, Pakistan and Afghanistan, where his parents worked as medical missionaries, and he attended an American school in the Himalayas for his early education. After boarding school in Bath, England, he went on to Oxford University, graduating in 1978 with a degree in philosophy, politics and economics.

Chris then trained as a journalist, working in newspapers and radio, including two years producing a world news service in the Seychelles Islands.

Back in the UK in 1984, Chris was captivated by the personal computer revolution and became an editor at one of the UK's early computer magazines. A year later he founded Future Publishing with a $25,000 bank loan. The new company initially focused on specialist computer publications but eventually expanded into other areas such as cycling, music, video games, technology and design, doubling in size every year for seven years. In 1994, Chris moved to the United States where he built Imagine Media, publisher of Business 2.0 magazine and creator of the popular video game users website IGN. Chris eventually merged Imagine and Future, taking the combined entity public in London in 1999, under the Future name. At its peak, it published 150 magazines and websites and employed 2,000 people.

This success allowed Chris to create a private nonprofit organization, the Sapling Foundation, with the hope of finding new ways to tackle tough global issues through media, technology, entrepreneurship and, most of all, ideas. In 2001, the foundation acquired the TED Conference, then an annual meeting of luminaries in the fields of Technology, Entertainment and Design held in Monterey, California, and Chris left Future to work full time on TED.

He expanded the conference's remit to cover all topics, including science, business and key global issues, while adding a Fellows program, which now has some 300 alumni, and the TED Prize, which grants its recipients "one wish to change the world." The TED stage has become a place for thinkers and doers from all fields to share their ideas and their work, capturing imaginations, sparking conversation and encouraging discovery along the way.

In 2006, TED experimented with posting some of its talks on the Internet. Their viral success encouraged Chris to begin positioning the organization as a global media initiative devoted to 'ideas worth spreading,' part of a new era of information dissemination using the power of online video. In June 2015, the organization posted its 2,000th talk online. The talks are free to view, and they have been translated into more than 100 languages with the help of volunteers from around the world. Viewership has grown to approximately one billion views per year.

Continuing a strategy of 'radical openness,' in 2009 Chris introduced the TEDx initiative, allowing free licenses to local organizers who wished to organize their own TED-like events. More than 8,000 such events have been held, generating an archive of 60,000 TEDx talks. And three years later, the TED-Ed program was launched, offering free educational videos and tools to students and teachers.

More profile about the speaker
Chris Anderson | Speaker | TED.com
TEDGlobal>NYC

Christiane Amanpour: How to seek truth in the era of fake news

크리스티안 아만포: 가짜뉴스의 시대에 진실을 추구하는 법

Filmed:
1,615,954 views

특유의 명료함과 용기로 잘 알려진 세계적 저널리스트 크리스티안 아만포는 지난 30년 동안 역사를 만들어온 정·재계와 문화계의 리더들을 인터뷰하였습니다. TED 큐레이터 크리스 앤덜슨과의 대담에서 아만포는 가짜뉴스, 저널리즘의 객관성, 국제정치의 리더십 공백에 대해 논의하며 TED와 그녀의 지혜를 공유합니다. "진실을 추구하고 과학, 실증적 증거와 사실을 이해하는 세계 시민으로서 우리 함께 이 문제에 관여하지 않으면, 우리는 정처없이 헤매다가 잠재적 재앙을 맞을지도 모릅니다."라고 아만포는 말합니다.
- Journalist
TV news legend Christiane Amanpour is known for her uncompromising approach to reporting and interviewing. Full bio - TED Curator
After a long career in journalism and publishing, Chris Anderson became the curator of the TED Conference in 2002 and has developed it as a platform for identifying and disseminating ideas worth spreading. Full bio

Double-click the English transcript below to play the video.

00:12
ChisChis Anderson앤더슨: Christiane크리스티안,
great to have you here.
0
931
2337
크리스 앤덜슨: 크리스티안,
와 주셔서 감사합니다.
당신은 놀라운 관점을 제시해왔어요.
00:15
So you've had this amazing놀랄 만한 viewpoint견해,
1
3292
1843
00:17
and perhaps혹시 it's fair공정한 to say
that in the last few조금 years연령,
2
5159
3060
최근 몇년동안
우려스러운 상황이 전개됐습니다.
00:20
there have been some alarming놀라운
developments개발 that you're seeing.
3
8243
3753
00:24
What's alarmed놀란 you most가장?
4
12020
1564
무엇이 당신을 가장 불안하게 하나요?
00:25
Christiane크리스티안 AmanpourAmanpour: Well, just listening청취
to the earlier일찍이 speakers연설자,
5
13608
3192
크리스티안 아만포: 앞서 발표하신
연사들의 강연에서,
전달하고자 내용을
머릿 속에 그릴 수 있었어요.
00:28
I can frame it
in what they've그들은 been saying속담:
6
16824
2472
00:31
climate기후 change변화, for instance --
cities도시들, the threat위협 to our environment환경
7
19320
3422
예를 들어 기후변화,
환경과 삶에 위협이 되는
00:34
and our lives.
8
22766
1260
도시들.
00:36
It basically원래 also또한 boils종기가있다 down to
understanding이해 the truth진실
9
24440
3894
모든 문제의 핵심은
진실을 이해하고
00:40
and to be able할 수 있는 to get to the truth진실
of what we're talking말하는 about
10
28358
3011
진실에 가까이 다가가는 데 있어요.
그래야만 진정한 문제 해결이 가능합니다.
00:43
in order주문 to really be able할 수 있는 to solve풀다 it.
11
31393
2092
00:45
So if 99.9 percent퍼센트
of the science과학 on climate기후
12
33509
3927
기후와 관련된 99.9%의 증거가
00:49
is empirical경험적, scientific과학적 evidence증거,
13
37460
3057
실증적이고 과학적이지만,
00:52
but it's competing경쟁하는 almost거의 equally같이
with a handful of deniers부인,
14
40541
4895
소수의 거부자와
동등하게 경쟁하는 상황이라면,
00:57
that is not the truth진실;
15
45460
1227
그것은 진실이 아닙니다.
00:58
that is the epitome발췌 of fake모조품 news뉴스.
16
46711
2498
이것이 바로 가짜 뉴스의 전형입니다.
01:01
And so for me, the last few조금 years연령 --
certainly확실히 this last year --
17
49233
5102
최근 몇 년 동안, 특히 작년을 통해
확고하게 가짜뉴스의 개념을
01:06
has crystallized결정화 된 the notion개념 of fake모조품 news뉴스
in a way that's truly진실로 alarming놀라운
18
54359
4260
정리할 수 있었어요. 가짜뉴스는
매우 우려되는 수준으로
01:10
and not just some slogan슬로건
to be thrown던진 around.
19
58643
2659
단순한 슬로건과는 차원이 다릅니다.
01:13
Because when you can't distinguish드러내다
between중에서 the truth진실 and fake모조품 news뉴스,
20
61326
3811
진실과 가짜뉴스를
구분할 수 없게 되면,
현재 직면한 중대한 문제를 해결하는데
01:17
you have a very much more
difficult어려운 time trying견딜 수 없는 to solve풀다
21
65161
3891
01:21
some of the great issues문제 that we face얼굴.
22
69076
2451
더 큰 어려움이 따르기 때문입니다.
01:24
CA캘리포니아 주: Well, you've been involved뒤얽힌
in this question문제 of,
23
72512
3421
크리스: 네, 당신은 그동안
01:27
what is balance밸런스, what is truth진실,
what is impartiality불편 부당,
24
75957
2912
보도 균형, 진실, 공평함에 관한 질문에
01:30
for a long time.
25
78893
1255
오랫동안 관여해오셨는데요.
01:32
You were on the front lines윤곽
reporting보고 the Balkan발칸 Wars전쟁 25 years연령 ago...전에.
26
80172
5870
25년 전 발칸 전쟁 당시
최전선에 계셨고요.
01:38
And back then, you famously뛰어나게 said,
27
86066
3412
그 당시,유명한 말을 남기셨죠.
01:41
by calling부름 out human인간의 right abuses남용,
28
89502
2621
인권 침해를 고발하며
이런 말을 남겼어요.
01:44
you said, "Look, there are some situations상황
one simply간단히 cannot~ 할 수 없다. be neutral중립국 about,
29
92147
4329
"도저히 중립적일 수 없는
상황들이 존재한다.
01:48
because when you're neutral중립국,
30
96500
1380
중립적인 태도가
01:49
you are an accomplice공범자."
31
97904
1887
당신을 공범자로 만들기 때문입니다."
01:53
So, do you feel that today's오늘의 journalists언론인
aren't있지 않다. heeding주의 that advice조언
32
101243
4897
오늘날 언론인들이
보도 균형에 관한 이 충고에
01:58
about balance밸런스?
33
106164
1472
귀 기울이지 않는다고 느끼시나요?
01:59
CA캘리포니아 주: Well, look, I think for journalists언론인,
objectivity객관성 is the golden황금의 rule규칙.
34
107660
4106
크리스티안: 기자에게
객관성은 황금률입니다.
02:03
But I think sometimes때때로 we don't understand알다
what objectivity객관성 means방법.
35
111790
4416
그러나 객관성의 의미를
제대로 파악하지 못할 때가 있죠.
02:08
And I actually사실은 learned배운 this very,
very young어린 in my career직업,
36
116230
2994
저는 그 의미를
발칸 전쟁을 보도했던
02:11
which어느 was during...동안 the Balkan발칸 Wars전쟁.
37
119248
1572
기자 생활 초기에 배웠습니다.
02:12
I was young어린 then.
38
120844
1216
저는 그때 젊었어요.
02:14
It was about 25 years연령 ago...전에.
39
122084
2539
거의 25년 전이니까요.
02:16
And what we faced직면 한 was the wholesale모조리
violation위반, not just of human인간의 rights진상,
40
124647
5781
인권 침해뿐만 아니라,
인종 청소와 집단 학살 등
02:22
but all the way to ethnic민족의
cleansing클렌징 and genocide대량 학살,
41
130452
2979
대대적인 위법이 자행되고 있었습니다.
02:25
and that has been adjudicated판결 된
in the highest제일 높은 war전쟁 crimes범죄 court법정
42
133455
4006
세계 최고 전범 재판에서도 판결 내린
02:29
in the world세계.
43
137485
1164
위법사항이었습니다.
02:30
So, we know what we were seeing.
44
138673
1653
직접 우리 눈으로 마주한 상황을
02:32
Trying견딜 수 없는 to tell the world세계
what we were seeing
45
140350
2537
세계에 알리려고 했습니다.
02:34
brought가져온 us accusations비난 of bias바이어스,
46
142911
2775
그러나 한쪽의 편을 들어
02:37
of siding측선 with one side측면,
47
145710
1889
전체를 보지 못하는
02:39
of not seeing the whole완전한 side측면,
48
147623
1862
편향된 보도라는 비난이 돌아왔습니다.
02:41
and just, you know,
trying견딜 수 없는 to tell one story이야기.
49
149509
2297
한쪽의 이야기만 전한다는 비난이요.
02:43
I particularly특별히 and personally몸소
was accused고발 당한 of siding측선 with,
50
151830
4307
특히 제가 편향적이라는
비난을 샀습니다.
02:48
for instance, the citizens시민 of Sarajevo사라예보 --
51
156161
1982
사라예보 시민의
편만 든다는 식이었죠.
02:50
"siding측선 with the Muslims무슬림,"
52
158167
1427
"무슬림을 두둔한다"
02:51
because they were the minority소수
who were being존재 attacked공격받은
53
159618
3052
그들이 분쟁지역에서
02:54
by Christians기독교인 on the Serb세르비아 사람 side측면
54
162694
3738
세르비아 기독교인들에게 공격받은
02:58
in this area지역.
55
166456
1719
소수집단이었기 때문이었어요.
03:00
And it worried걱정 me.
56
168199
1342
그리고 걱정이 들더군요.
03:01
It worried걱정 me that I was being존재
accused고발 당한 of this.
57
169565
2191
이런 비난의 대상이 되어
걱정스러웠죠.
03:03
I thought maybe I was wrong잘못된,
58
171780
1342
어쩌면 내 판단이 틀렸고,
03:05
maybe I'd forgotten잊혀진 what objectivity객관성 was.
59
173146
2348
객관성을 잊은 것은 아닌지 생각했어요.
03:07
But then I started시작한 to understand알다
that what people wanted
60
175518
3007
그러나 곧 깨닫게 되었죠.
이 문제에 손대고 싶지 않았던 거였어요.
03:10
was actually사실은 not to do anything --
61
178549
1798
03:12
not to step단계 in,
62
180371
1417
개입하지 않고,
03:13
not to change변화 the situation상태,
63
181812
1570
상황을 바꾸고 싶어하지 않았어요.
03:15
not to find a solution해결책.
64
183406
1449
해결책을 찾고 싶어하지 않았어요.
03:16
And so, their그들의 fake모조품 news뉴스 at that time,
65
184879
2353
당시의 가짜뉴스와
03:19
their그들의 lie거짓말 at that time --
66
187256
1382
거짓말은 이런 양상이었습니다.
03:20
including포함 our government's정부의,
our democratically민주적으로 elected선출 된 government's정부의,
67
188662
3530
인권의 원칙과 가치에 따라
민주적으로 선출한
03:24
with values and principles원칙들
of human인간의 rights진상 --
68
192216
2272
우리 정부마저도 거짓말을 했습니다.
03:26
their그들의 lie거짓말 was to say
that all sides양쪽 are equally같이 guilty저지른,
69
194512
3507
수백 년에 걸친 인종 혐오로
발생한 이 분쟁으로
03:30
that this has been centuries세기
of ethnic민족의 hatred증오,
70
198043
2793
양측에 동등하게 책임이
있다고 거짓말했죠.
03:32
whereas이므로 we knew알고 있었다 that wasn't아니었다. true참된,
71
200860
1882
사실이 아니었어요.
03:34
that one side측면 had decided결정적인 to kill죽이다,
slaughter학살 and ethnically인종적으로 cleanse씻어 깨끗이 하다
72
202766
3647
사실은 한쪽이 다른 쪽을
죽이기로 결심하고
학살과 인종 청소를 자행했습니다.
03:38
another다른 side측면.
73
206437
1157
따라서 제게 객관성이란,
03:39
So that is where, for me,
74
207618
1496
03:41
I understood이해 된 that objectivity객관성 means방법
giving주는 all sides양쪽 an equal같은 hearing듣기
75
209138
5306
모두의 이야기를 동등하게 듣고
03:46
and talking말하는 to all sides양쪽,
76
214468
2105
모두와 대화를 나누는 것이지,
03:48
but not treating치료 all sides양쪽 equally같이,
77
216597
3622
모두를 동등하게 대우하거나
03:52
not creating창조 a forced강요된 moral사기 equivalence등가
or a factual사실의 equivalence등가.
78
220243
4788
강요된 도덕적, 사실적 등가성을
적용하는 것이 아닙니다.
03:57
And when you come up against반대
that crisis위기 point포인트
79
225055
4479
국제인권법상 심각한 위법이 발생하였고
04:01
in situations상황 of grave violations위반
of international국제 노동자 동맹 and humanitarian인도 주의적 law,
80
229558
5671
당신이 최악의 국면에 마주했을 때,
04:07
if you don't understand알다
what you're seeing,
81
235253
2342
직면한 상황을 이해하지 못하고
04:09
if you don't understand알다 the truth진실
82
237619
2160
진실을 보지 못하여
04:11
and if you get trapped덫을 놓은
in the fake모조품 news뉴스 paradigm어형 변화표,
83
239803
3513
가짜뉴스의 패러다임에 갇혀버린다면,
04:15
then you are an accomplice공범자.
84
243340
1590
그때 당신은 공범이 됩니다.
04:17
And I refuse폐물 to be
an accomplice공범자 to genocide대량 학살.
85
245658
2997
저는 집단 학살의 공범이길 거부합니다.
04:20
(Applause박수 갈채)
86
248679
3283
(박수)
04:26
CHCH: So there have always been
these propaganda선전 battles전투,
87
254402
2778
크리스: 선전(propaganda) 싸움은 늘 존재했습니다.
04:29
and you were courageous용기 있는 in taking취득
the stand you took~했다 back then.
88
257204
4026
당신은 그 때 용감하게 증인대에 섰었죠.
04:33
Today오늘, there's a whole완전한 new새로운 way, though그래도,
89
261652
3727
오늘날, 이 싸움은 완전히 새로운 양상이 되고 있습니다.
04:37
in which어느 news뉴스 seems~ 같다 to be becoming어울리는 fake모조품.
90
265403
2204
뉴스가 가짜가 되어가는 듯 보입니다.
04:39
How would you characterize특징 짓다 that?
91
267631
1634
이를 어떻게 보시나요?
04:41
CA캘리포니아 주: Well, look -- I am really alarmed놀란.
92
269289
2084
크리스티안: 매우 우려하고 있어요.
04:43
And everywhere어디에나 I look,
93
271397
2202
가짜뉴스는 사방에 있어요.
04:45
you know, we're buffeted뷔페 by it.
94
273623
1837
우리를 뒤흔들고 있습니다.
04:47
Obviously명백하게, when the leader리더
of the free비어 있는 world세계,
95
275484
2202
자유 세계의 리더이자
04:49
when the most가장 powerful강한 person사람
in the entire완전한 world세계,
96
277710
2473
전 세계에서 가장 영향력이 있는
04:52
which어느 is the president대통령
of the United유나이티드 States --
97
280207
2246
미국의 대통령이 있습니다.
04:54
this is the most가장 important중대한, most가장 powerful강한
country국가 in the whole완전한 world세계,
98
282477
4819
미국 대통령은 경제, 군사,
정치, 모든 면에서
04:59
economically경제적으로, militarily군사적으로, politically정치상
in every...마다 which어느 way --
99
287320
4240
세계에서 가장 중요하고
영향력 있는 인물입니다.
05:04
and it seeks추구하다 to, obviously명백하게, promote승진시키다
its values and power around the world세계.
100
292415
5017
대통령은 가치와 권위를 높이려하죠.
05:09
So we journalists언론인,
who only seek목표물 탐색 the truth진실 --
101
297456
3976
그리고 진실을 좇는 언론인이 있습니다.
05:13
I mean, that is our mission사명 --
102
301456
1521
언론인의 임무죠.
05:15
we go around the world세계
looking for the truth진실
103
303001
2117
언론인은 국가를 벗어날 수 없는
05:17
in order주문 to be everybody's모두들 eyes and ears,
104
305142
1973
많은 이들의 눈과 귀가 되어,
05:19
people who can't go out
in various여러 parts부분품 of the world세계
105
307139
2519
모두의 건강과 안보를 위해
05:21
to figure그림 out what's going on
about things that are vitally활발히 important중대한
106
309682
3369
매우 중요한 사안을 파악하고,
05:25
to everybody's모두들 health건강 and security보안.
107
313075
1956
진실을 찾아 세계 곳곳을 누빕니다.
05:27
So when you have a major주요한 world세계 leader리더
accusing비난하는 you of fake모조품 news뉴스,
108
315055
6686
그런데 세계 최고의 리더가 언론인을
가짜 뉴스로 규탄한다면,
05:33
it has an exponential기하 급수적 인 ripple리플 effect효과.
109
321765
3843
이는 엄청난 파급효과를 가집니다.
05:37
And what it does is,
it starts시작하다 to chip away
110
325632
4272
언론인의 신뢰도를
05:42
at not just our credibility믿을 수 있음,
111
330472
2888
실추시킬 뿐 아니라,
05:45
but at people's사람들의 minds마음 --
112
333384
2029
사람들의 마음을 서서히 약화시킵니다.
사람들은 언론인을 보며
아마 이런 생각을 하겠죠.
05:48
people who look at us,
and maybe they're thinking생각,
113
336372
2364
"미국 대통령이 저런 말까지 한다면,
05:50
"Well, if the president대통령
of the United유나이티드 States says말한다 that,
114
338760
2669
어쩌면 어딘가에 진실이 있을지도 몰라."
05:53
maybe somewhere어딘가에 there's a truth진실 in there."
115
341453
2135
05:56
CHCH: Presidents대통령 have always
been critical결정적인 of the media미디어 --
116
344148
4184
크리스: 대통령은 항상
미디어에 비판적이었죠.
06:00
CA캘리포니아 주: Not in this way.
117
348356
1601
크리스티안: 이런 식은 아니었습니다.
06:01
CHCH: So, to what extent범위 --
118
349981
1505
크리스: 어떤 정도까지는요.
06:03
(Laughter웃음)
119
351510
1064
(웃음)
06:04
(Applause박수 갈채)
120
352598
3120
(박수)
06:07
CHCH: I mean, someone어떤 사람 a couple years연령 ago...전에
looking at the avalanche눈사태 of information정보
121
355742
6896
크리스: 몇 년 전, 트위터, 페이스북 등을
통해 쏟아지는
06:14
pouring붓는 것 through...을 통하여 Twitter지저귀다
and Facebook페이스 북 and so forth앞으로,
122
362662
3236
정보의 홍수를 본 어떤 사람이
이렇게 말했을 수도 있습니다.
06:17
might have said,
123
365922
1158
06:19
"Look, our democracies민주주의 are healthier더 건강한
than they've그들은 ever been.
124
367104
2841
"민주주의는 과거보다
훨씬 건강해졌어.
06:21
There's more news뉴스 than ever.
125
369969
1521
그 어느 때보다 많은 뉴스가 있어.
06:23
Of course코스 presidents대통령
will say what they'll그들은 할 것이다 say,
126
371514
2211
물론 대통령들은 할 말을 하겠지.
06:25
but everyone각자 모두 else그밖에 can say
what they will say.
127
373749
2233
그래도 이젠 모두가
하고 싶은 말을 할 수 있잖아.
06:28
What's not to like?
How is there an extra특별한 danger위험?"
128
376006
4155
나쁠 게 뭐가 있지?
무슨 더 큰 위험이 있다는 것일까?"
크리스티안: 저도 그 말이
진실이면 좋겠습니다.
06:32
CA캘리포니아 주: So, I wish소원 that was true참된.
129
380185
1542
06:34
I wish소원 that the proliferation분아 증식 of platforms플랫폼
upon...에 which어느 we get our information정보
130
382992
6093
우리가 정보를 입수하는 플랫폼의 확산이
06:41
meant의미심장 한 that there was a proliferation분아 증식
of truth진실 and transparency투명도
131
389109
3878
진실과 투명성, 깊이와 정확성의
확산을 의미하면 좋겠죠.
06:45
and depth깊이 and accuracy정확성.
132
393011
1868
반대의 상황이 발생했다고 생각해요.
06:46
But I think the opposite반대말 has happened일어난.
133
394903
2455
06:49
You know, I'm a little bit비트 of a Luddite러 다이 트,
134
397382
2090
솔직히 제게 러다이트 성향이 있어요.
(Luddite: 신기술반대주의자)
06:51
I will confess불다.
135
399496
1196
인정할게요.
06:53
Even when we started시작한 to talk about
the information정보 superhighway고속도로,
136
401147
3384
아주 오래전,
초고속 정보통신망에 대해
06:56
which어느 was a long time ago...전에,
137
404555
1628
처음 논의가 될 시점,
오래 전인데요.
06:58
before social사회적인 media미디어, Twitter지저귀다
and all the rest휴식 of it,
138
406207
2651
트위터 등의 SNS 출현 전에도
07:00
I was actually사실은 really afraid두려워하는
139
408882
1824
저는 사실 굉장히 두려웠습니다.
07:02
that that would put people
into certain어떤 lanes차선 and tunnels터널
140
410730
4021
인터넷이 사람을 특정 길, 터널로 이끌어
07:06
and have them just focusing집중
on areas지역 of their그들의 own개인적인 interest관심
141
414775
4342
그들에게 큰 그림을 보는 대신,
개인의 관심 분야에만
집중하게 만들까봐요.
07:11
instead대신에 of seeing the broad넓은 picture그림.
142
419141
2333
07:13
And I'm afraid두려워하는 to say
that with algorithms알고리즘, with logarithms대수,
143
421498
4586
유감스럽게도 저는
알고리즘, 로가리즘과 같은
07:18
with whatever도대체 무엇이 the "-ithms-ithms" are
144
426108
1648
온갖 '이즘(ithms)'이
07:19
that direct곧장 us into all these particular특별한
channels채널 of information정보,
145
427780
4266
우리를 특정 정보 채널로
유인한다고 믿어요.
07:24
that seems~ 같다 to be happening사고 right now.
146
432070
1870
그 현상이 지금 일어나고 있어요.
07:25
I mean, people have written
about this phenomenon현상.
147
433964
2544
이 현상에 대해 사람들이 글을 썼어요.
07:28
People have said that yes,
the internet인터넷 came왔다,
148
436532
2198
인터넷이 도래했고,
07:30
its promise약속 was to exponentially기하 급수적으로 explode터지다
our access접속하다 to more democracy민주주의,
149
438754
5743
민주주의에 대한 접근이 폭발적으로
증가할 것으로 생각했다.
07:36
more information정보,
150
444521
1714
더 많은 정보를 얻고,
07:38
less적게 bias바이어스,
151
446259
1892
편견을 덜어주고
07:40
more varied변화 있는 information정보.
152
448175
2389
다양한 정보를 줄 것이라고 믿었다.
07:42
And, in fact, the opposite반대말 has happened일어난.
153
450588
2325
그러나 실제로는 그 반대가 일어났죠.
07:44
And so that, for me,
is incredibly엄청나게 dangerous위험한.
154
452937
4018
제가 보기에
인터넷은 매우 위험합니다.
07:48
And again, when you are the president대통령
of this country국가 and you say things,
155
456979
4515
미국 대통령의 발언은
07:53
it also또한 gives주는 leaders지도자들 in other
undemocratic비민주적인 countries국가 the cover덮개
156
461518
5425
비민주적인 국가의 리더들에게
더 심한 모욕을 줘도 된다는
보장을 줍니다.
08:00
to affront모욕 us even worse보다 나쁜,
157
468009
2306
08:02
and to really whack구타 us --
and their그들의 own개인적인 journalists언론인 --
158
470339
2860
가짜 뉴스를 유포해
자국 언론인들까지
큰 타격을 입게되죠.
08:05
with this bludgeon괴롭히다 of fake모조품 news뉴스.
159
473223
1823
08:08
CHCH: To what extent범위
is what happened일어난, though그래도,
160
476000
2184
크리스: 어떤 면에서는
맞는 말입니다만,
08:10
in part부품, just an unintended의도하지 않은 consequence결과,
161
478208
2066
그러나 의도치 않은 결과로도
볼 수 있는데요.
08:12
that the traditional전통적인
media미디어 that you worked일한 in
162
480298
2802
당신이 몸 담은 전통 미디어는
08:15
had this curation-mediation치유 중재 role역할,
163
483124
2080
큐레이션 및 조정 역할이 있었고
08:17
where certain어떤 norms규범 were observed관측 된,
164
485228
2026
지켜야할 규칙이 있었죠.
08:19
certain어떤 stories이야기 would be rejected거부 된
because they weren't하지 않았다 credible신뢰할 수 있는,
165
487278
3153
신뢰할 수 없는 이야기는 거절했었어요.
08:22
but now that the standard표준
for publication출판 and for amplification확대
166
490455
6499
그러나 현재 기사 작성과 확산의 기준은
08:28
is just interest관심, attention주의,
excitement흥분, click딸깍 하는 소리,
167
496978
3328
흥미, 관심, 재미, 조회수에 달려있죠.
08:32
"Did it get clicked클릭 한 on?"
168
500330
1163
"클릭했나요?"
08:33
"Send보내다 it out there!"
169
501517
1155
"당장 기사를 보내요"
08:34
and that's what's --
is that part부품 of what's caused일으킨 the problem문제?
170
502696
3504
이런 세태가 문제의 원인일까요?
08:38
CA캘리포니아 주: I think it's a big problem문제,
and we saw this in the election선거 of 2016,
171
506224
3595
크리스티안: 심각한 문제에요.
2016 대선에서 경험했죠.
08:41
where the idea생각 of "clickbait클릭 베이트"
was very sexy섹시한 and very attractive매력적인,
172
509843
5107
"낚시기사"가 섹시하고 매력적인
아이디어로 비쳤어요.
08:46
and so all these fake모조품 news뉴스 sites사이트
and fake모조품 news뉴스 items항목
173
514974
4306
가짜뉴스 사이트와
가짜기사 역시
08:51
were not just haphazardly우연히
and by happenstance우연 being존재 put out there,
174
519304
4122
기묘한 우연으로 전파된게 아니었어요.
08:55
there's been a whole완전한 industry산업
in the creation창조 of fake모조품 news뉴스
175
523450
4451
산업전반에 걸쳐
가짜뉴스가 생성되었어요.
동유럽 일부와 어디에서든요.
08:59
in parts부분품 of Eastern동부의 Europe유럽, wherever대체 어디에,
176
527925
2990
09:02
and you know, it's planted심은
in real레알 space공간 and in cyberspace사이버 공간.
177
530939
3260
현실과 사이버공간 모두에 심겨 있죠.
09:06
So I think that, also또한,
178
534223
2359
제 생각하는 문제는,
09:08
the ability능력 of our technology과학 기술
to proliferate번식하다 this stuff물건
179
536606
5121
가짜뉴스를 음속, 광속으로
확산하는 기술발전을
09:13
at the speed속도 of sound소리
or light, just about --
180
541751
3511
09:17
we've우리는 never faced직면 한 that before.
181
545286
1983
우리가 이전에 마주한 적이
없었다는데 있어요.
09:19
And we've우리는 never faced직면 한
such이러한 a massive거대한 amount of information정보
182
547293
4867
이토록 방대한 양의 정보를
직면한 적도 없었습니다.
09:24
which어느 is not curated큐 레이트 된
183
552184
1565
전문가가 선별하지 않았고
진실에 근거하지 않은,
09:25
by those whose누구의 profession직업
leads리드 them to abide머물다 by the truth진실,
184
553773
5296
사실 확인이 빠지고,
09:31
to fact-check사실 확인
185
559093
1202
09:32
and to maintain유지하다 a code암호 of conduct행위
and a code암호 of professional직업적인 ethics윤리학.
186
560319
4834
행동수칙과 직업윤리강령이
결여된 정보들입니다.
09:37
CHCH: Many많은 people here may할 수있다 know
people who work at Facebook페이스 북
187
565177
3343
크리스: 여기 계신분들의 지인 중에
09:40
or Twitter지저귀다 and GoogleGoogle and so on.
188
568544
2324
페이스북, 트위터, 구글의
직원이 있을 수 있어요.
09:42
They all seem보다 like great people
with good intention의향 --
189
570892
3132
좋은 의도를 가진 멋진 사람들같아요.
그렇다고 가정합시다.
09:46
let's assume취하다 that.
190
574048
1380
이 기업들의 리더와 대화하게 된다면,
09:47
If you could speak말하다 with the leaders지도자들
of those companies회사들,
191
575452
3675
무슨 말을 하고 싶나요?
09:51
what would you say to them?
192
579151
1291
09:52
CA캘리포니아 주: Well, you know what --
193
580466
1769
크리스티안: 글쎄요, 저는
09:54
I'm sure they are
incredibly엄청나게 well-intentioned선의의,
194
582259
2344
그들이 훌륭한 의도를
가졌다고 확신해요.
09:56
and they certainly확실히 developed개발 된
an unbelievable믿을 수 없는, game-changing게임을 바꾸는 system체계,
195
584627
5218
판도를 바꿔놓은 놀라운
시스템을 개발했어요.
10:01
where everybody's모두들 connected연결된
on this thing called전화 한 Facebook페이스 북.
196
589869
3211
페이스북을 통해 모두가 연결되었어요.
10:05
And they've그들은 created만들어진 a massive거대한
economy경제 for themselves그들 자신
197
593104
3801
페이스북은 거대한 경제를 낳았고,
10:08
and an amazing놀랄 만한 amount of income수입.
198
596929
2680
엄청난 수익도 올렸습니다.
10:11
I would just say,
199
599633
1180
이렇게 말할 것 같아요.
10:12
"Guys, you know, it's time
to wake일어나 다 up and smell냄새 the coffee커피
200
600837
4234
"여러분, 이제 정신을 차리고
상황을 직시해요.
10:17
and look at what's happening사고
to us right now."
201
605095
2702
지금 무슨 일이 일어나는지 보세요."
10:19
Mark Zuckerberg주커 버그 wants to create몹시 떠들어 대다
a global글로벌 community커뮤니티.
202
607821
2932
마크 저커버그는 글로벌 커뮤니티를
만들고 싶어합니다.
10:22
I want to know: What is that global글로벌
community커뮤니티 going to look like?
203
610777
3219
그 글로벌 커뮤니티가
어떤 모습일지 궁금합니다.
10:26
I want to know where the codes코드들
of conduct행위 actually사실은 are.
204
614020
4067
그 안에 행동수칙은
어디에 있는지 알고 싶어요.
10:30
Mark Zuckerberg주커 버그 said --
205
618111
1825
마크 저커버그가 말했죠.
10:31
and I don't blame비난 him,
he probably아마 believed믿었다 this --
206
619960
2718
그를 비난하는게 아니에요.
10:34
that it was crazy미친 to think
207
622702
2356
러시아나 누구든 상관없이
페이스북에 손을 대고
마음대로 장난치는건
10:37
that the Russians러시아 사람 or anybody아무도 else그밖에
could be tinkering땜질 인 and messing어지럽히는 around
208
625082
4109
미친짓이라고 그는 믿었던 것 같아요.
10:41
with this avenue수단.
209
629215
1243
10:42
And what have we just learned배운
in the last few조금 weeks?
210
630482
2482
그러나 몇 주간 우리가 알게된 것은
무엇인가요?
10:44
That, actually사실은, there has been
a major주요한 problem문제 in that regard관련,
211
632988
2958
심각한 문제가 발생했고,
10:47
and now they're having to investigate파다 it
and figure그림 it out.
212
635970
3118
그들은 진상 파악을 위해 조사 중이죠.
10:51
Yes, they're trying견딜 수 없는 to do
what they can now
213
639112
3279
그들은 가짜뉴스 방지를 위해
10:54
to prevent막다 the rise오르기 of fake모조품 news뉴스,
214
642415
2158
현재 최대한 노력하고 있지만,
10:56
but, you know,
215
644597
1383
사실은
10:58
it went갔다 pretty예쁜 unrestricted제한되지 않은
for a long, long time.
216
646004
5091
꽤 오랫동안 제약이 없었습니다.
11:03
So I guess추측 I would say, you know,
217
651119
1900
저는 이런 말을 하고 싶네요.
11:05
you guys are brilliant훌륭한 at technology과학 기술;
218
653043
2099
당신들은 기술에 뛰어나잖아요.
11:07
let's figure그림 out another다른 algorithm연산.
219
655166
1891
새로운 알고리즘을 찾아봅시다.
11:09
Can we not?
220
657081
1171
가능할까요?
11:10
CHCH: An algorithm연산 that includes포함하다
journalistic신문 잡지 investigation조사 --
221
658276
2887
크리스: 저널리스트적 조사가
포함된 알고리즘이요?
11:13
CA캘리포니아 주: I don't really know how they do it,
but somehow어쩐지, you know --
222
661187
3356
크리스티안: 어떻게 구현할지
모르겠지만요.
11:16
filter필터 out the crap쓰레기!
223
664567
1819
쓰레기를 걸러내는 거요.
11:18
(Laughter웃음)
224
666410
1150
(웃음)
11:19
And not just the unintentional의도하지 않은 --
225
667584
2002
비단 무의식적 실수 외에도
11:21
(Applause박수 갈채)
226
669610
3254
(박수)
11:24
but the deliberate신중한 lies거짓말 that are planted심은
227
672888
2206
수십 년 동안
11:27
by people who've누가 했어? been doing this
as a matter문제 of warfare전쟁
228
675118
4325
전투 수단으로 양산된
11:31
for decades수십 년.
229
679467
1302
고의적 거짓말을 걸러내야합니다.
11:32
The Soviets소비에트, the Russians러시아 사람 --
230
680793
1933
구소련, 러시아인들은
11:34
they are the masters주인 of war전쟁
by other means방법, of hybrid잡종 warfare전쟁.
231
682750
5244
다른 수단에 의한 전쟁,
하이브리드 전투의 전문가입니다.
11:40
And this is a --
232
688618
1444
그들이 결심한 방식입니다.
11:42
this is what they've그들은 decided결정적인 to do.
233
690689
2984
11:45
It worked일한 in the United유나이티드 States,
234
693697
1605
미국에서는 통했고,
11:47
it didn't work in France프랑스,
235
695326
1321
프랑스에서는 통하지 않았습니다.
11:48
it hasn't~하지 않았다. worked일한 in Germany독일.
236
696671
1673
아직 독일에서 통하지 않았어요.
11:50
During동안 the elections선거 there,
where they've그들은 tried시도한 to interfere방해하다,
237
698368
2941
선거 당시 러시아가 개입하려 했지만
11:53
the president대통령 of France프랑스
right now, Emmanuel엠마누엘 Macron,
238
701333
2602
프랑스 에마뉘엘 마크롱 대통령은
11:55
took~했다 a very tough강인한 stand
and confronted마주 친 it head머리 on,
239
703959
2523
강경한 태도로 정면으로 맞섰습니다.
11:58
as did Angela안젤라 Merkel메르켈.
240
706506
1158
앙겔라 메르켈도 그랬고요.
11:59
CHCH: There's some hope기대 to be had
from some of this, isn't there?
241
707688
2985
크리스: 이런 사례를 통해
희망을 확인할 수 있나요?
12:02
That the world세계 learns배우다.
242
710697
1151
세상이 교훈을 얻은거죠.
12:03
We get fooled어리석은 once일단,
243
711872
1318
우리는 한번 속았고,
12:05
maybe we get fooled어리석은 again,
244
713214
1332
어쩌면 두번 속을지도 모르지만,
12:06
but maybe not the third제삼 time.
245
714570
1455
세 번째에는 속지 않는다고요.
12:08
Is that true참된?
246
716049
1168
그렇지 않나요?
크리스티안: 그러길 바랍니다.
12:09
CA캘리포니아 주: I mean, let's hope기대.
247
717241
1156
그러나 기술이 관여되어 있는 문제라,
12:10
But I think in this regard관련 that so much
of it is also또한 about technology과학 기술,
248
718421
3387
12:13
that the technology과학 기술 has to also또한 be given주어진
some kind종류 of moral사기 compass나침반.
249
721832
3445
기술 자체에 윤리기준을 적용해야합니다.
12:17
I know I'm talking말하는 nonsense무의미한 말,
but you know what I mean.
250
725301
2816
터무니없는 소리지만, 제 뜻 이해하시죠?
12:20
CHCH: We need a filter-the-crap걸레질하다 algorithm연산
with a moral사기 compass나침반 --
251
728141
3708
크리스: 윤리기준을 갖춘 쓰레기 뉴스
여과 알고리즘이 필요한 거네요.
12:23
CA캘리포니아 주: There you go.
252
731873
1157
크리스티안: 바로 그거에요.
12:25
CHCH: I think that's good.
253
733054
1152
크리스: 좋은 생각이군요.
12:26
CA캘리포니아 주: No -- "moral사기 technology과학 기술."
254
734230
1671
크리스티안: 그 보다 "도덕적 기술"이요.
12:27
We all have moral사기 compasses컴퍼스 --
moral사기 technology과학 기술.
255
735925
3106
윤리기준은 모두에게 있어요.
도덕적 기술로 하죠.
12:31
CHCH: I think that's a great challenge도전.
CA캘리포니아 주: You know what I mean.
256
739055
2979
크리스: 어려운 도전과제네요.
크리스티안: 그렇죠.
리더십에 대해 잠깐 말해봅시다.
12:34
CHCH: Talk just a minute about leadership지도.
257
742058
1944
12:36
You've had a chance기회 to speak말하다
with so many많은 people across건너서 the world세계.
258
744026
3136
전 세계 수많은 사람을
만날 기회가 많으시잖아요.
12:39
I think for some of us --
259
747186
1239
많은 분들이,
12:40
I speak말하다 for myself자기,
I don't know if others다른 사람 feel this --
260
748449
2692
다른 분들의 생각은 모르지만,
개인적으로는
12:43
there's kind종류 of been a disappointment실망 of:
261
751165
1996
약간의 실망감이 있어요.
12:45
Where are the leaders지도자들?
262
753185
1859
리더는 어디로 갔을까?
12:47
So many많은 of us have been disappointed실망한 --
263
755068
2314
리더의 부재가
많은 이들에게 실망감을 남깁니다.
12:49
Aung아웅 San Suu스투 Kyi카이,
what's happened일어난 recently요새,
264
757406
2016
최근 아웅산 수치의 경우도 그랬어요.
12:51
it's like, "No! Another다른 one
bites물기 the dust먼지."
265
759446
2085
"안돼! 또 한명이 실패했군"
12:53
You know, it's heartbreaking가슴 아픈.
266
761555
1599
가슴 아픈 일이에요.
12:55
(Laughter웃음)
267
763178
1235
(웃음)
12:56
Who have you met만난
268
764437
2021
당신이 만난 사람 중,
12:58
who you have been
impressed깊은 인상 by, inspired영감을 얻은 by?
269
766482
2870
인상 깊고 감명 받았던 리더가 있나요?
13:01
CA캘리포니아 주: Well, you talk about
the world세계 in crisis위기,
270
769376
2504
크리스티안: 위기를 맞은 세계를
말씀하신다면
13:03
which어느 is absolutely전혀 true참된,
271
771904
1354
전적으로 위기가 맞아요.
13:05
and those of us who spend보내 our whole완전한 lives
immersed잠긴 in this crisis위기 --
272
773282
4487
위기 속에서 삶을 살아왔죠.
13:09
I mean, we're all on the verge가장자리
of a nervous강한 breakdown고장.
273
777793
2993
우리 모두 신경쇠약 직전까지 왔어요.
13:12
So it's pretty예쁜 stressful스트레스가 많은 right now.
274
780810
2676
스트레스가 상당한 시기에요.
13:15
And you're right --
275
783510
1159
당신의 말에 동의해요.
13:16
there is this perceived감지 된 and actual실제의
vacuum진공 of leadership지도,
276
784693
3110
지금 모두가 느낄 수 있는
리더십의 공백이 있습니다.
13:19
and it's not me saying속담 it,
I ask청하다 all these --
277
787827
2850
저만의 의견이 아니라,
모든 인터뷰이에게
13:22
whoever누구나 I'm talking말하는 to,
I ask청하다 about leadership지도.
278
790701
2453
리더십에 대해 질문하면
같은 답을 해요.
13:25
I was speaking말하기 to the outgoing나가는
president대통령 of Liberia라이베리아 today오늘,
279
793178
4510
오늘 퇴임을 앞둔 라이베리아 대통령과
대화를 했어요.
13:29
[Ellen엘렌 Johnson존슨 Sirleaf서 리프,]
280
797712
1810
[엘렌 존슨 설리프]
13:31
who --
281
799546
1154
그분은
13:32
(Applause박수 갈채)
282
800724
2215
(박수)
13:34
in three weeks'주 ' time,
283
802963
1542
3주 후,
13:36
will be one of the very rare드문
heads머리 of an African아프리카 사람 country국가
284
804529
3944
아프리카 국가 중 보기 드물게,
13:40
who actually사실은 abides준수하다 by the constitution헌법
285
808497
2178
헌법에 의거하여 정해진 임기를 마치고
퇴임을 하게 됩니다.
13:42
and gives주는 up power
after her prescribed처방 된 term기간.
286
810699
3612
13:46
She has said she wants
to do that as a lesson교훈.
287
814335
3857
퇴임하여 교훈을 남기고 싶다고 하셨죠.
13:50
But when I asked물었다 her about leadership지도,
288
818216
2032
그녀에게 리더십을 질문하며
13:52
and I gave a quick-fire빠른 발사 round일주
of certain어떤 names이름,
289
820272
2683
속사포로 몇몇 이름을 거론했어요.
13:54
I presented제시된 her with the name이름
of the new새로운 French프랑스 국민 president대통령,
290
822979
2977
프랑스 새 대통령도 거론했어요.
13:57
Emmanuel엠마누엘 Macron.
291
825980
1433
에마뉘엘 마크롱.
13:59
And she said --
292
827437
1336
"이 사람은 어떻게 생각하세요?"
제가 물었죠.
14:00
I said, "So what do you think
when I say his name이름?"
293
828797
2506
14:03
And she said,
294
831327
1273
그녀는
14:05
"Shaping형성 up potentially잠재적으로 to be
295
833578
2325
"현재의 리더십 공백을 채울 수 있는
14:07
a leader리더 to fill가득 따르다 our current흐름
leadership지도 vacuum진공."
296
835927
4066
리더로 성장해가고 있는 중"
14:12
I thought that was really interesting재미있는.
297
840017
1833
굉장히 흥미로웠어요.
어제 공교롭게 그를 인터뷰했어요.
14:13
Yesterday어제, I happened일어난 to have
an interview회견 with him.
298
841874
2456
자랑스럽게 말하고 싶은데요.
14:16
I'm very proud교만한 to say,
299
844354
1158
그의 첫 국제 인터뷰였어요.
훌륭했어요. 바로 어제요.
14:17
I got his first international국제 노동자 동맹 interview회견.
It was great. It was yesterday어제.
300
845536
3419
굉장히 인상 깊었어요.
14:20
And I was really impressed깊은 인상.
301
848979
1292
공개 토론회에서
말해도 되는지 모르겠지만,
14:22
I don't know whether인지 어떤지 I should be
saying속담 that in an open열다 forum법정,
302
850295
2928
정말 인상 깊었어요.
14:25
but I was really impressed깊은 인상.
303
853247
1455
14:26
(Laughter웃음)
304
854726
1218
(웃음)
첫 인터뷰라 그랬을 수도 있겠죠.
14:28
And it could be just because
it was his first interview회견,
305
856867
2675
그렇지만 제가 질문을 던지니,
14:31
but -- I asked물었다 questions질문들,
and you know what?
306
859566
2095
14:33
He answered대답했다 them!
307
861685
1208
모두 대답을 하더군요!
14:34
(Laughter웃음)
308
862917
1933
(웃음)
14:36
(Applause박수 갈채)
309
864874
3269
(박수)
14:40
There was no spin회전,
310
868167
1593
돌려 말하지 않았고,
14:41
there was no wiggle뒤흔들다 and waggle흔들기,
311
869784
2391
흔들림이 없었어요
14:44
there was no spend-five-minutes-지출 - 5 분 ​​-
to-come-back-to-the-point~에 - 다시 -에 - 포인트.
312
872199
2829
5분을 허비하고 쟁점으로
돌아가지도 않았어요.
14:47
I didn't have to keep interrupting방해하는,
313
875052
1668
그의 말을 끊어 갈 필요도 없었어요.
14:48
which어느 I've become지다 rather차라리
renowned유명한 for doing,
314
876744
2083
제 질문에 인터뷰이가 답변하게 하려고,
14:50
because I want people
to answer대답 the question문제.
315
878851
2532
말을 끊기로 유명하잖아요.
14:53
And he answered대답했다 me,
316
881407
2051
그는 대답을 하더군요.
14:55
and it was pretty예쁜 interesting재미있는.
317
883482
2614
굉장히 흥미로웠어요.
14:58
And he said --
318
886120
1431
그가 말했죠.
14:59
CHCH: Tell me what he said.
319
887575
1778
크리스: 그가 무슨 말을 했나요?
15:01
CA캘리포니아 주: No, no, you go ahead앞으로.
320
889377
1220
크리스티안: 먼저 말씀하세요.
15:02
CHCH: You're the interrupter인터럽터,
I'm the listener경청자.
321
890621
2228
크리스: 말씀하세요.
전 듣는 역할이니깐요.
15:04
CA캘리포니아 주: No, no, go ahead앞으로.
322
892873
1158
크리스티안: 아니요, 말씀하세요.
15:06
CHCH: What'd뭐라구? he say?
323
894055
1155
크리스: 그가 무슨 말을 했나요?
15:07
CA캘리포니아 주: OK. You've talked말한 about
nationalism민족주의 and tribalism종족주의 here today오늘.
324
895234
3078
크리스티안: 오늘 민족주의와
신(新)부족주의를 논의하셨죠.
질문했습니다.
"반세계화, 민족주의,포퓰리즘에
15:10
I asked물었다 him, "How did you have the guts끈기
to confront대치하다 the prevailing널리 행해진 winds바람
325
898336
3762
대항할 용기를 어떻게 가지셨어요?
15:14
of anti-globalization반세계화,
nationalism민족주의, populism포퓰리즘
326
902122
4535
15:18
when you can see what happened일어난 in BrexitBrexit,
327
906681
1962
브렉시트가 발생했고,
15:20
when you could see what happened일어난
in the United유나이티드 States
328
908667
2555
미국도 마찬가지였어요.
2017년 초기 유럽 국가 선거에서도
15:23
and what might have happened일어난
in many많은 European유럽 ​​사람 elections선거
329
911246
2595
15:25
at the beginning처음 of 2017?"
330
913865
1717
유사한 흐름이 있었어요."
15:27
And he said,
331
915606
1319
그가 답했습니다.
15:29
"For me, nationalism민족주의 means방법 war전쟁.
332
917597
3274
"저에게 민족주의란 전쟁을 의미합니다.
15:33
We have seen it before,
333
921486
1673
민족주의로 인한 전쟁을 본 적있고,
15:35
we have lived살았던 through...을 통하여 it before
on my continent대륙,
334
923183
2258
유럽 대륙은 이미 전쟁을 겪었습니다.
15:37
and I am very clear명확한 about that."
335
925465
2686
제 생각은 매우 명확합니다."
15:40
So he was not going to,
just for political주재관 expediency편의,
336
928175
3961
그는 정치적 편의만을 위해
15:44
embrace포옹 the, kind종류 of, lowest가장 낮은
common공유지 denominator분모
337
932160
3442
다른 정치 선거에서 포섭된
15:47
that had been embraced받아 들인
in other political주재관 elections선거.
338
935626
4005
대세에 편승하지 않았습니다.
15:51
And he stood서서 against반대 Marine선박 Le Pen,
who is a very dangerous위험한 woman여자.
339
939655
4441
그리고 매우 위험한 여성 정치인,
마린 르 펜에 반대하였어요.
15:56
CHCH: Last question문제 for you, Christiane크리스티안.
340
944928
2032
크리스: 마지막 질문 드릴게요.
16:00
Tell us about ideas아이디어 worth가치 spreading퍼짐.
341
948093
1998
공유할 만한 가치가 있는
아이디어를 말해주세요.
16:02
If you could plant식물 one idea생각
into the minds마음 of everyone각자 모두 here,
342
950115
4647
한 가지 아이디어를
모두의 마음에 심어주고 싶다면,
16:06
what would that be?
343
954786
1197
무엇일까요?
16:08
CA캘리포니아 주: I would say really be careful꼼꼼한
where you get your information정보 from;
344
956007
5114
크리스티안: 정보 원천을 잘 살피라고
말씀드리고 싶어요.
16:13
really take responsibility책임
for what you read독서, listen to and watch;
345
961145
5322
읽고 듣고 보는 정보에 대한
책임감을 가져야해요.
16:18
make sure that you go to the trusted신뢰할 수있는
brands브랜드 to get your main본관 information정보,
346
966491
4887
주요 정보를 신뢰할 수 있는
브랜드에서 얻으세요.
16:23
no matter문제 whether인지 어떤지 you have
a wide넓은, eclectic절충주의의 intake섭취,
347
971402
4689
다방면에 걸쳐 폭넓게 정보를
접한다고 해도,
16:28
really stick스틱 with the brand상표
names이름 that you know,
348
976115
2995
이미 알고 있는 브랜드를 고수하세요.
16:31
because in this world세계 right now,
at this moment순간 right now,
349
979134
3592
지금 이 순간,
오늘날의 세계는
16:34
our crises위기, our challenges도전,
our problems문제들 are so severe심한,
350
982750
4339
심각한 위기와 도전, 문제를
겪고 있습니다.
16:39
that unless~ 않는 한 we are all engaged바쁜
as global글로벌 citizens시민
351
987113
3551
세계 시민으로서,
진실을 추구하고
16:42
who appreciate고맙다 the truth진실,
352
990688
1903
과학, 실증적 증거와 사실을 이해하며
16:44
who understand알다 science과학,
empirical경험적 evidence증거 and facts사리,
353
992615
4345
이 문제에 다함께 관여하지 않으면,
16:48
then we are just simply간단히
going to be wandering방랑 along...을 따라서
354
996984
3499
그저 헤매다가
16:52
to a potential가능성 catastrophe대단원.
355
1000507
1961
잠재적 재앙을 맞을지도 모릅니다.
16:54
So I would say, the truth진실,
356
1002492
1364
'진실'을 먼저 말하고 싶습니다.
16:55
and then I would come back
to Emmanuel엠마누엘 Macron
357
1003880
2256
다시 에마뉘엘 마크롱으로 돌아가
16:58
and talk about love.
358
1006160
1300
사랑에 대해 말하고 싶습니다.
17:00
I would say that there's not
enough충분히 love going around.
359
1008022
4469
충분한 사랑이 부족한 시대지요.
17:04
And I asked물었다 him to tell me about love.
360
1012515
2692
그래서 그에게 사랑에 대해 물었어요.
17:07
I said, "You know, your marriage결혼
is the subject제목 of global글로벌 obsession강박 관념."
361
1015231
3592
"당신의 결혼에 대해
전세계가 집착하고 있어요"
17:10
(Laughter웃음)
362
1018847
1635
(웃음)
17:12
"Can you tell me about love?
363
1020506
1413
"사랑에 대해 말해줄 수 있나요?
17:13
What does it mean to you?"
364
1021943
1314
당신에게 사랑은 무슨 의미인가요?"
17:15
I've never asked물었다 a president대통령
or an elected선출 된 leader리더 about love.
365
1023281
2941
대통령이나 당선인에게 사랑에
대해 물어본 적 없었어요.
시도해보기로 했죠.
17:18
I thought I'd try it.
366
1026246
1158
17:19
And he said -- you know,
he actually사실은 answered대답했다 it.
367
1027428
3915
대답을 했어요
정말요.
17:23
And he said, "I love my wife아내,
she is part부품 of me,
368
1031367
4161
"저는 아내를 사랑합니다.
아내는 저의 일부입니다.
17:27
we've우리는 been together함께 for decades수십 년."
369
1035552
1627
수십년간 함께 해왔어요."
17:29
But here's여기에 where it really counted계수 된,
370
1037203
1685
가장 중요한 말이 남았어요.
17:30
what really stuck붙어있는 with me.
371
1038912
1503
그 말이 뇌리에 박혔어요.
17:32
He said,
372
1040439
1241
그가 말했어요.
17:33
"It is so important중대한 for me
to have somebody어떤 사람 at home
373
1041704
3520
"집에 갔을 때,
저에게 진실을 말해줄
17:37
who tells말하다 me the truth진실."
374
1045248
1899
사람이 있다는 것은
저에게 매우 중요합니다."
17:40
So you see, I brought가져온 it home.
It's all about the truth진실.
375
1048618
2712
이 말을 집으로 가져왔죠.
진실이 관건입니다.
(웃음)
17:43
(Laughter웃음)
376
1051354
1006
크리스: 공유할 만한 가치가 있는
아이디어는 진실과 사랑이네요.
17:44
CHCH: So there you go. Truth진실 and love.
Ideas아이디어 worth가치 spreading퍼짐.
377
1052384
2807
크리스티안 아만포 앵커, 감사합니다.
훌륭했어요.
17:47
Christiane크리스티안 AmanpourAmanpour, thank you
so much. That was great.
378
1055215
2663
17:49
(Applause박수 갈채)
379
1057902
1068
(박수)
17:50
CA캘리포니아 주: Thank you.
CHCH: That was really lovely아름다운.
380
1058994
2334
CA: 감사합니다
CH: 좋은 시간이었어요.
17:53
(Applause박수 갈채)
381
1061352
1215
(박수)
17:54
CA캘리포니아 주: Thank you.
382
1062591
1165
Translated by Kim Sojeong Sue
Reviewed by 정현 이

▲Back to top

ABOUT THE SPEAKERS
Christiane Amanpour - Journalist
TV news legend Christiane Amanpour is known for her uncompromising approach to reporting and interviewing.

Why you should listen

Christiane Amanpour is CNN's chief international correspondent and anchor of the global a airs program "Amanpour," broadcast from the television network's London bureau. She's covered the most relevant conflicts of the last decades, exposing both the brutality and human cost of war and its geopolitical impacts. From the 1991 Gulf War to the siege of Sarajevo (the city later named her honorary citizen), from the 2003 American-led invasion of Iraq to the trial of Saddam Hussein the following year, Amanpour's fearless and uncompromising approach has made her popular with audiences, and a force to be reckoned with by global influencers.

During the Balkan wars, Amanpour famously broke with the idea of journalism neutrality by calling out human right abuses and saying that "there are some situations one simply cannot be neutral about, because when you are neutral you are an accomplice." Since her interview show "Amanpour" was launched in 2009, she's spoken to leaders and decision makers on the issues affecting the world today while continuing reporting from all over the world, including the 2010 earthquake in Haiti and the 2011 tsunami in Japan.

More profile about the speaker
Christiane Amanpour | Speaker | TED.com
Chris Anderson - TED Curator
After a long career in journalism and publishing, Chris Anderson became the curator of the TED Conference in 2002 and has developed it as a platform for identifying and disseminating ideas worth spreading.

Why you should listen

Chris Anderson is the Curator of TED, a nonprofit devoted to sharing valuable ideas, primarily through the medium of 'TED Talks' -- short talks that are offered free online to a global audience.

Chris was born in a remote village in Pakistan in 1957. He spent his early years in India, Pakistan and Afghanistan, where his parents worked as medical missionaries, and he attended an American school in the Himalayas for his early education. After boarding school in Bath, England, he went on to Oxford University, graduating in 1978 with a degree in philosophy, politics and economics.

Chris then trained as a journalist, working in newspapers and radio, including two years producing a world news service in the Seychelles Islands.

Back in the UK in 1984, Chris was captivated by the personal computer revolution and became an editor at one of the UK's early computer magazines. A year later he founded Future Publishing with a $25,000 bank loan. The new company initially focused on specialist computer publications but eventually expanded into other areas such as cycling, music, video games, technology and design, doubling in size every year for seven years. In 1994, Chris moved to the United States where he built Imagine Media, publisher of Business 2.0 magazine and creator of the popular video game users website IGN. Chris eventually merged Imagine and Future, taking the combined entity public in London in 1999, under the Future name. At its peak, it published 150 magazines and websites and employed 2,000 people.

This success allowed Chris to create a private nonprofit organization, the Sapling Foundation, with the hope of finding new ways to tackle tough global issues through media, technology, entrepreneurship and, most of all, ideas. In 2001, the foundation acquired the TED Conference, then an annual meeting of luminaries in the fields of Technology, Entertainment and Design held in Monterey, California, and Chris left Future to work full time on TED.

He expanded the conference's remit to cover all topics, including science, business and key global issues, while adding a Fellows program, which now has some 300 alumni, and the TED Prize, which grants its recipients "one wish to change the world." The TED stage has become a place for thinkers and doers from all fields to share their ideas and their work, capturing imaginations, sparking conversation and encouraging discovery along the way.

In 2006, TED experimented with posting some of its talks on the Internet. Their viral success encouraged Chris to begin positioning the organization as a global media initiative devoted to 'ideas worth spreading,' part of a new era of information dissemination using the power of online video. In June 2015, the organization posted its 2,000th talk online. The talks are free to view, and they have been translated into more than 100 languages with the help of volunteers from around the world. Viewership has grown to approximately one billion views per year.

Continuing a strategy of 'radical openness,' in 2009 Chris introduced the TEDx initiative, allowing free licenses to local organizers who wished to organize their own TED-like events. More than 8,000 such events have been held, generating an archive of 60,000 TEDx talks. And three years later, the TED-Ed program was launched, offering free educational videos and tools to students and teachers.

More profile about the speaker
Chris Anderson | Speaker | TED.com