ABOUT THE SPEAKERS
Jack Dorsey - Entrepreneur, programmer
Jack Dorsey is the CEO of Twitter, CEO & Chairman of Square, and a cofounder of both.

Why you should listen
More profile about the speaker
Jack Dorsey | Speaker | TED.com
Chris Anderson - TED Curator
After a long career in journalism and publishing, Chris Anderson became the curator of the TED Conference in 2002 and has developed it as a platform for identifying and disseminating ideas worth spreading.

Why you should listen

Chris Anderson is the Curator of TED, a nonprofit devoted to sharing valuable ideas, primarily through the medium of 'TED Talks' -- short talks that are offered free online to a global audience.

Chris was born in a remote village in Pakistan in 1957. He spent his early years in India, Pakistan and Afghanistan, where his parents worked as medical missionaries, and he attended an American school in the Himalayas for his early education. After boarding school in Bath, England, he went on to Oxford University, graduating in 1978 with a degree in philosophy, politics and economics.

Chris then trained as a journalist, working in newspapers and radio, including two years producing a world news service in the Seychelles Islands.

Back in the UK in 1984, Chris was captivated by the personal computer revolution and became an editor at one of the UK's early computer magazines. A year later he founded Future Publishing with a $25,000 bank loan. The new company initially focused on specialist computer publications but eventually expanded into other areas such as cycling, music, video games, technology and design, doubling in size every year for seven years. In 1994, Chris moved to the United States where he built Imagine Media, publisher of Business 2.0 magazine and creator of the popular video game users website IGN. Chris eventually merged Imagine and Future, taking the combined entity public in London in 1999, under the Future name. At its peak, it published 150 magazines and websites and employed 2,000 people.

This success allowed Chris to create a private nonprofit organization, the Sapling Foundation, with the hope of finding new ways to tackle tough global issues through media, technology, entrepreneurship and, most of all, ideas. In 2001, the foundation acquired the TED Conference, then an annual meeting of luminaries in the fields of Technology, Entertainment and Design held in Monterey, California, and Chris left Future to work full time on TED.

He expanded the conference's remit to cover all topics, including science, business and key global issues, while adding a Fellows program, which now has some 300 alumni, and the TED Prize, which grants its recipients "one wish to change the world." The TED stage has become a place for thinkers and doers from all fields to share their ideas and their work, capturing imaginations, sparking conversation and encouraging discovery along the way.

In 2006, TED experimented with posting some of its talks on the Internet. Their viral success encouraged Chris to begin positioning the organization as a global media initiative devoted to 'ideas worth spreading,' part of a new era of information dissemination using the power of online video. In June 2015, the organization posted its 2,000th talk online. The talks are free to view, and they have been translated into more than 100 languages with the help of volunteers from around the world. Viewership has grown to approximately one billion views per year.

Continuing a strategy of 'radical openness,' in 2009 Chris introduced the TEDx initiative, allowing free licenses to local organizers who wished to organize their own TED-like events. More than 8,000 such events have been held, generating an archive of 60,000 TEDx talks. And three years later, the TED-Ed program was launched, offering free educational videos and tools to students and teachers.

More profile about the speaker
Chris Anderson | Speaker | TED.com
Whitney Pennington Rodgers - TED Current Affairs Curator
Whitney Pennington Rodgers is an award-winning journalist and media professional.

Why you should listen

Prior to joining TED as current affairs curator, Whitney Pennington Rodgers produced for NBC's primetime news magazine Dateline NBC. She earned a duPont-Columbia award and a News & Documentary Emmy or her contributions to the Dateline NBC hour "The Cosby Accusers Speak" -- an extensive group interview with 27 of the women who accused entertainer Bill Cosby of sexual misconduct.

Pennington Rodgers has worked at NBC's in-house production company Peacock Productions, The Today Show, Nightly News, Rock Center with Brian Williams and New Jersey-centric public affairs shows Caucus: New Jersey and One-on-One with Steve Adubato. Prior to beginning her career in media, she had a short stint as a fourth-grade teacher through the Teach for America program.

Pennington Rodgers received her Bachelor's in journalism and media studies from Rutgers University. She completed her Master's of Journalism at the University of California at Berkeley, where she produced a documentary about recruitment of nonblack students at historically black colleges and universities.

More profile about the speaker
Whitney Pennington Rodgers | Speaker | TED.com
TED2019

Jack Dorsey: How Twitter needs to change

잭 도시(Jack Dorsey): 트위터는 어떻게 바뀌어야 할까요

Filmed:
2,089,470 views

트위터는 구조될 수 있을까요? 광범위한 대화를 통해 TED의 크리스 앤더슨(Chris Anderson)과 휘트니 페닝턴 로저스(Whitney Pennington Rodgers), 트위터 CEO 잭 도시(Jack Dorsey)가 플랫폼의 미래에 대해 논의합니다. 괴롭힘과 중재에 대한 문제를 인식하고, 건강하고 존중할 줄 아는 대화를 장려할 근본적인 변화를 제시합니다. "저희가 정말 사람들이 매일 가치있게 생각하는 무언가를 전달하고 있을까요?" 도시가 묻습니다.
- Entrepreneur, programmer
Jack Dorsey is the CEO of Twitter, CEO & Chairman of Square, and a cofounder of both. Full bio - TED Curator
After a long career in journalism and publishing, Chris Anderson became the curator of the TED Conference in 2002 and has developed it as a platform for identifying and disseminating ideas worth spreading. Full bio - TED Current Affairs Curator
Whitney Pennington Rodgers is an award-winning journalist and media professional. Full bio

Double-click the English transcript below to play the video.

00:13
Chris크리스 Anderson앤더슨:
What worries걱정 you right now?
0
1131
2408
크리스 앤더슨:
지금 걱정하는 건 무엇인가요?
00:15
You've been very open열다
about lots of issues문제 on Twitter지저귀다.
1
3563
2853
트위터에 관한 다양한 이슈를
알고 계실 겁니다
00:18
What would be your top상단 worry걱정
2
6440
2299
현재 상황에서 가장
걱정하는 것은 무엇인가요?
00:20
about where things are right now?
3
8763
2049
00:23
Jack Dorsey도르시: Right now,
the health건강 of the conversation대화.
4
11447
2929
잭 도시: 지금 당장은,
대화의 건전성이요.
00:26
So, our purpose목적 is to serve서브
the public공공의 conversation대화,
5
14400
3660
저희의 목적은 대중의 대화에
기여하는 것이지만
00:30
and we have seen
a number번호 of attacks공격 on it.
6
18084
5056
대화 중 일어나는
많은 공격을 봤습니다.
00:35
We've우리는 seen abuse남용, we've우리는 seen harassment괴롭힘,
7
23164
2425
우리는 욕설도 봤고, 괴롭힘도 봤으며,
00:37
we've우리는 seen manipulation시장 조작,
8
25613
3222
조작도 봤었고,
00:40
automation오토메이션, human인간의 coordination동등,
misinformation오보.
9
28859
4265
자동화나, 인간의 조직화,
또는 허위정보도 있었습니다.
00:46
So these are all dynamics역학
that we were not expecting기대하는
10
34134
4034
모두 저희가 예상치 못했던 상황입니다.
00:50
13 years연령 ago...전에 when we were
starting출발 the company회사.
11
38192
3718
13년 전에 회사를 세웠을 때는
예상치 못했던 것들이죠.
00:53
But we do now see them at scale규모,
12
41934
2664
하지만 이런 문제의 규모가
점점 커졌습니다.
00:56
and what worries걱정 me most가장
is just our ability능력 to address주소 it
13
44622
5278
가장 걱정하는 건
이 문제를 다루는 저희의 능력입니다.
01:01
in a systemic전신의 way that is scalable확장 성있는,
14
49924
3108
확장 가능하고 체계적인 방법이어야 하고
01:05
that has a rigorous엄밀한 understanding이해
of how we're taking취득 action동작,
15
53056
6976
저희가 조치를 취하는 방법을
철저히 이해해야 해요.
01:12
a transparent투명한 understanding이해
of how we're taking취득 action동작
16
60056
3105
즉, 행동을 취하는 방법에 대한
확실한 이해가 필요해요.
01:15
and a rigorous엄밀한 appeals항의 process방법
for when we're wrong잘못된,
17
63185
3101
그리고 저희가 잘못했을 때
확실한 항소 절차가 필요하죠.
01:18
because we will be wrong잘못된.
18
66310
2169
저희는 잘못을
저지를 수밖에 없으니까요.
01:20
Whitney휘트니 PenningtonPennington Rodgers로저스:
I'm really glad기쁜 to hear듣다
19
68503
2397
휘트니 페닝턴 로저스:
그런 걱정을 들으니 정말 기쁘네요.
01:22
that that's something that concerns우려 you,
20
70924
1928
01:24
because I think there's been
a lot written about people
21
72876
2630
왜냐하면 트위터에서 욕설을 듣거나
괴롭힘을 당하는
01:27
who feel they've그들은 been abused학대받는
and harassed괴롭힘을당한 on Twitter지저귀다,
22
75530
2477
사람들에 대한 글이 많았거든요.
01:30
and I think no one more so
than women여자들 and women여자들 of color색깔
23
78031
4102
특히나 여성, 유색인 여성,
01:34
and black검은 women여자들.
24
82157
1170
흑인 여성에게요.
01:35
And there's been data데이터 that's come out --
25
83351
1913
국제 앰네스티에서
01:37
Amnesty특사 International국제 노동자 동맹 put out
a report보고서 a few조금 months개월 ago...전에
26
85288
2909
몇 달 전 발표한 보고서에 따르면
01:40
where they showed보여 주었다 that a subset부분 집합
of active유효한 black검은 female여자 Twitter지저귀다 users사용자
27
88221
4480
흑인 여성 트위터 사용자의 일부가
01:44
were receiving전수, on average평균,
one in 10 of their그들의 tweets트윗
28
92725
3456
트윗할 때마다
평균적으로 10번 중에 1번은
01:48
were some form형태 of harassment괴롭힘.
29
96205
2099
괴롭힘을 당하고 있다고 합니다.
01:50
And so when you think about health건강
for the community커뮤니티 on Twitter지저귀다,
30
98328
3907
건강한 트위터 커뮤니티에 대한
생각을 말씀하실 때
01:54
I'm interested관심있는 to hear듣다,
"health건강 for everyone각자 모두,"
31
102259
4024
"모두를 위한 건강"이라는 말을
흥미롭게 들었습니다.
01:58
but specifically구체적으로: How are you looking
to make Twitter지저귀다 a safe안전한 space공간
32
106307
3125
하지만 구체적으로 어떻게
여성, 유색인종인 여성과
02:01
for that subset부분 집합, for women여자들,
for women여자들 of color색깔 and black검은 women여자들?
33
109456
4164
흑인 여성에게도 안전한 장소로
만들 계획이신가요?
02:05
JDJD: Yeah.
34
113644
1164
잭: 맞아요.
02:06
So it's a pretty예쁜 terrible무서운 situation상태
35
114832
2643
그건 정말 끔찍한 상황이죠.
02:09
when you're coming오는 to a service서비스
36
117499
1619
사람들은 트위터를 이용하면서
02:11
that, ideally이상적으로, you want to learn배우다
something about the world세계,
37
119142
4321
세계에 대해 더 배우는 걸 꿈꿨지만,
02:15
and you spend보내 the majority과반수 of your time
reporting보고 abuse남용, receiving전수 abuse남용,
38
123487
5443
그 시간의 대부분을 욕을 듣거나,
비방 받거나, 괴롭힘을 당하고
02:20
receiving전수 harassment괴롭힘.
39
128954
1804
신고를 하며 보내죠.
02:23
So what we're looking most가장 deeply깊이 at
is just the incentives인센티브
40
131373
6321
그래서 가장 자세히 보려는 것은
플랫폼과 서비스가
02:29
that the platform플랫폼 naturally당연히 provides~을 제공하다
and the service서비스 provides~을 제공하다.
41
137718
3823
자연스럽게 제공하는 장려책입니다.
02:34
Right now, the dynamic동적 of the system체계
makes~을 만든다 it super-easy매우 쉬운 to harass괴롭히다
42
142262
4577
지금 당장은, 괴롬힘이 일어나기
너무 쉬운 시스템이죠.
02:38
and to abuse남용 others다른 사람 through...을 통하여 the service서비스,
43
146863
3664
다른 사람을 비방하는 것도요.
02:42
and unfortunately운수 나쁘게, the majority과반수
of our system체계 in the past과거
44
150551
3262
불행히도, 과거에
저희 시스템의 대부분은
02:45
worked일한 entirely전적으로 based기반 on people
reporting보고 harassment괴롭힘 and abuse남용.
45
153837
5596
온전히 사람들이 비방과 남용을
신고하는 것에만 의지했었죠.
02:51
So about midway중도 last year,
we decided결정적인 that we were going to apply대다
46
159457
5075
그래서 작년 중반에 저희는 그 문제에
02:56
a lot more machine기계 learning배우기,
a lot more deep깊은 learning배우기 to the problem문제,
47
164556
3982
더 많은 기계학습과
딥 러닝을 적용해 보기로 결정했습니다.
03:00
and try to be a lot more proactive사전 행동 적
around where abuse남용 is happening사고,
48
168562
4538
또 어디서 비방이 일어나고 있는지에
대해 사전 대책을 찾으려 했습니다.
03:05
so that we can take the burden부담
off the victim희생자 completely완전히.
49
173124
3960
피해자의 부담을
완전히 덜어버리기 위해서요.
03:09
And we've우리는 made만든 some progress진행 recently요새.
50
177108
2435
그리고 최근에 어느 정도
진전이 있었습니다.
03:11
About 38 percent퍼센트 of abusive남용 tweets트윗
are now proactively적극적으로 identified확인 된
51
179567
6689
기계학습 알고리즘을 통해서
비방 트윗 중 38%를
03:18
by machine기계 learning배우기 algorithms알고리즘
52
186280
1715
사전에 파악할 수 있습니다.
03:20
so that people don't actually사실은
have to report보고서 them.
53
188019
2334
그래서 더 이상
신고할 필요가 없어졌습니다.
03:22
But those that are identified확인 된
are still reviewed검토 된 by humans인간,
54
190377
3305
하지만 그렇게 파악한 트윗들은
여전히 사람이 검토합니다
03:25
so we do not take down content함유량 or accounts계정
without없이 a human인간의 actually사실은 reviewing리뷰 it.
55
193706
5384
사람이 직접 확인하지 않으면
컨텐츠나 계정을 삭제하지 않습니다.
03:31
But that was from zero제로 percent퍼센트
just a year ago...전에.
56
199114
2759
하지만 불과
일 년 전만 해도 0%였죠.
03:33
So that meant의미심장 한, at that zero제로 percent퍼센트,
57
201897
1931
다시 말해, 비율이 0%였을 때는
03:35
every...마다 single단일 person사람 who received받은 abuse남용
had to actually사실은 report보고서 it,
58
203852
3650
비방을 받은 사람이
직접 신고해야만 했고,
03:39
which어느 was a lot of work for them,
a lot of work for us
59
207526
3579
그건 그들에게도 저희에게도
너무 복잡한 일이었습니다.
03:43
and just ultimately궁극적으로 unfair불공정.
60
211129
2018
그리고 정말 부당한 일이었죠.
03:46
The other thing that we're doing
is making만들기 sure that we, as a company회사,
61
214528
3780
또 회사에서 진행 중인 다른 작업으로는
03:50
have representation대표 of all the communities커뮤니티
that we're trying견딜 수 없는 to serve서브.
62
218332
3333
반드시 모든 공동체가
표현할 수 있게 만드는 겁니다.
03:53
We can't build짓다 a business사업
that is successful성공한
63
221689
2159
실제로 저희 장벽 안에서
03:55
unless~ 않는 한 we have a diversity상이
of perspective원근법 inside내부 of our walls
64
223872
3300
이런 문제를 매일 느끼는
다양한 시각이 없다면
03:59
that actually사실은 feel these issues문제
every...마다 single단일 day.
65
227196
3732
저희는 성공적인 비즈니스를
구축할 수 없습니다.
04:02
And that's not just with the team
that's doing the work,
66
230952
3738
단순히 그 작업을 하는 팀뿐만 아니라
04:06
it's also또한 within이내에 our leadership지도 as well.
67
234714
2096
저희 리더십 안에서도
이뤄져야 하는 거죠.
04:08
So we need to continue잇다 to build짓다 empathy감정 이입
for what people are experiencing경험하는
68
236834
5757
그래서 사람들이 경험한 것에
공감대를 형성하고
04:14
and give them better tools도구들 to act행위 on it
69
242615
3316
사람들이 이용할 수 있는
더 나은 도구를 주려는 겁니다.
04:17
and also또한 give our customers고객
a much better and easier더 쉬운 approach접근
70
245955
4252
또 고객이 보고 있는 걸
처리할 수 있는
04:22
to handle핸들 some of the things
that they're seeing.
71
250231
2382
더 쉽고 좋은 접근 방식도
제공해야 합니다.
04:24
So a lot of what we're doing
is around technology과학 기술,
72
252637
3266
대부분의 작업은
기술과 관련된 것이지만
04:27
but we're also또한 looking at
the incentives인센티브 on the service서비스:
73
255927
4308
장려 제도 역시 검토하고 있습니다.
04:32
What does Twitter지저귀다 incentivize인센티브를주는 you to do
when you first open열다 it up?
74
260259
5183
트위터를 처음 켰을 때
무엇을 하도록 유도하나요?
04:37
And in the past과거,
75
265466
1294
예전에는,
04:40
it's incented인센티브 a lot of outrage격분,
it's incented인센티브 a lot of mob폭도 behavior행동,
76
268670
5544
큰 분노를 일으키고
많은 군중 행위를 일으켰으며
04:46
it's incented인센티브 a lot of group그룹 harassment괴롭힘.
77
274238
2459
집단 폭력을 많이 일으켰죠.
04:48
And we have to look a lot deeper더 깊은
at some of the fundamentals기본 사항
78
276721
3648
큰 변화를 일으키기 위해서는
서비스가 하는 일의
04:52
of what the service서비스 is doing
to make the bigger더 큰 shifts교대.
79
280393
2958
기본 원칙을 자세히 살펴봐야 합니다.
04:55
We can make a bunch다발 of small작은 shifts교대
around technology과학 기술, as I just described기술 된,
80
283375
4031
제가 말씀드렸듯이, 기술을 이용해
수많은 작은 변화를 만들 수 있습니다.
04:59
but ultimately궁극적으로, we have to look deeply깊이
at the dynamics역학 in the network회로망 itself그 자체,
81
287430
4386
하지만 궁극적으로는 네트워크 그 자체의
역학관계를 자세히 살펴봐야 합니다.
05:03
and that's what we're doing.
82
291840
1368
그게 저희가 하는 거죠.
05:05
CA캘리포니아 주: But what's your sense감각 --
83
293232
2060
크리스: 그렇다면 어떤...
05:07
what is the kind종류 of thing
that you might be able할 수 있는 to change변화
84
295316
3963
어떤 게 실제로 행동의 근본적인 변화를
05:11
that would actually사실은
fundamentally근본적으로 shift시프트 behavior행동?
85
299303
2749
만들어낼 수 있을까요?
05:15
JDJD: Well, one of the things --
86
303386
1480
잭: 글쎄요, 저희 서비스는
05:16
we started시작한 the service서비스
with this concept개념 of following수행원 an account계정,
87
304890
5340
계정을 팔로우하는 발상과
함께 시작했죠.
05:22
as an example,
88
310254
1725
예를 들면 말이죠.
05:24
and I don't believe that's why
people actually사실은 come to Twitter지저귀다.
89
312003
4349
하지만 사람들이 트위터를 이용하는 건
그것 때문이 아니라고 생각해요.
05:28
I believe Twitter지저귀다 is best베스트
as an interest-based이자 기반 network회로망.
90
316376
4857
흥미 기반의 네트워크로써는
트위터가 최고라고 생각합니다.
05:33
People come with a particular특별한 interest관심.
91
321257
3453
사람들은 특정한 흥미를 가지고 와요.
05:36
They have to do a ton of work
to find and follow따르다 the related관련 accounts계정
92
324734
3487
그들의 흥미와 관련된 계정을 찾고
팔로우하기까지 할 일이 너무 많죠.
05:40
around those interests이해.
93
328245
1405
05:42
What we could do instead대신에
is allow허용하다 you to follow따르다 an interest관심,
94
330217
3397
대신 트위터에선 흥미를 팔로우하고,
05:45
follow따르다 a hashtag해시 태그, follow따르다 a trend경향,
95
333638
2103
해쉬태그, 트렌드를 팔로우하고
05:47
follow따르다 a community커뮤니티,
96
335765
1754
공동체를 팔로우해요.
05:49
which어느 gives주는 us the opportunity기회
to show보여 주다 all of the accounts계정,
97
337543
4637
그러면 특정한 주제와 흥미에 관련된
05:54
all the topics주제, all the moments순간들,
all the hashtags해시 태그
98
342204
3323
모든 계정, 토픽, 모멘트, 해쉬태그를
05:57
that are associated관련 with that
particular특별한 topic이야기 and interest관심,
99
345551
3992
보여줄 기회가 생겨요.
06:01
which어느 really opens열리다 up
the perspective원근법 that you see.
100
349567
4600
보는 시각을 넓혀주는 것이죠.
06:06
But that is a huge거대한 fundamental기본적인 shift시프트
101
354191
2157
하지만 전체적인 네트워크에 집중한
06:08
to bias바이어스 the entire완전한 network회로망
away from just an account계정 bias바이어스
102
356372
3792
단순히 계정에 편향된 게 아니라
주제와 흥미에 기댄
06:12
towards...쪽으로 a topics주제 and interest관심 bias바이어스.
103
360188
2587
거대한 기본 원리의 변화에요.
06:15
CA캘리포니아 주: Because isn't it the case케이스
104
363283
3148
크리스: 하지만 트위터에 그렇게
06:19
that one reason이유 why you have
so much content함유량 on there
105
367375
3541
많은 컨텐츠가 있는 건 결국
06:22
is a result결과 of putting퍼팅 millions수백만
of people around the world세계
106
370940
3591
전 세계의 이용자 수백만 명이
06:26
in this kind종류 of gladiatorial검투사
contest대회 with each마다 other
107
374555
3142
서로 싸움을 벌이고 있기
때문이지 않나요?
06:29
for followers추종자, for attention주의?
108
377721
2090
팔로워와 관심을 얻기 위해서요.
06:31
Like, from the point포인트 of view전망
of people who just read독서 Twitter지저귀다,
109
379835
4117
트위터를 방금 본 사람의
시각에서 봤을 때는요.
06:35
that's not an issue발행물,
110
383976
1155
별로 문제가 아니에요.
06:37
but for the people who actually사실은 create몹시 떠들어 대다 it,
everyone's모두의 out there saying속담,
111
385155
3350
하지만 싸움을 일으키는
사람들은 실제로 이렇게 말해요.
06:40
"You know, I wish소원 I had
a few조금 more 'likes'좋아요',' followers추종자, retweetsretweets."
112
388529
3236
"난 더 많은 '좋아요'와
팔로워, 리트윗을 얻고 싶어" 라고요.
06:43
And so they're constantly끊임없이 experimenting실험적,
113
391789
2148
그래서 더 많이 얻을 방법을
06:45
trying견딜 수 없는 to find the path통로 to do that.
114
393961
1961
계속 시험해보고 찾아내려 하죠.
06:47
And what we've우리는 all discovered발견 된
is that the number번호 one path통로 to do that
115
395946
4126
그리고 관심을 얻을 수 있는
최고의 방법은
06:52
is to be some form형태 of provocative성나게 하는,
116
400096
3406
일부러 도발하고,
06:55
obnoxious불쾌한, eloquently능변으로 obnoxious불쾌한,
117
403526
2980
능란한 말솜씨로
불쾌하게 만드는 거였어요.
06:58
like, eloquent웅변의 insults모욕
are a dream on Twitter지저귀다,
118
406530
3516
트위터에서 설득력 있게 모욕하는 걸
꿈꾸는 사람들이죠.
07:02
where you rapidly빠르게 pile말뚝 up --
119
410070
2603
그렇게 쌓아올리다 보면
07:04
and it becomes된다 this self-fueling자기 연료 주입
process방법 of driving운전 outrage격분.
120
412697
4608
이 분개에 기름을
붓는 꼴이 되는 거죠.
07:09
How do you defuse해산하다 that?
121
417329
2351
이 문제는 어떻게 완화시키나요?
07:12
JDJD: Yeah, I mean, I think you're spot자리 on,
122
420624
2947
잭: 네, 정확히 말씀해주셨어요.
07:15
but that goes간다 back to the incentives인센티브.
123
423595
1886
장려책 이야기로
다시 돌아 가는데요.
07:17
Like, one of the choices선택
we made만든 in the early이른 days was
124
425505
2632
예전에 저희가 했던 선택 중 하나는
07:20
we had this number번호 that showed보여 주었다
how many많은 people follow따르다 you.
125
428161
4701
팔로워 숫자를 보여주는 거였어요.
07:24
We decided결정적인 that number번호
should be big and bold대담한,
126
432886
2959
그 숫자는 크고 굵은 볼드체여야 했고
07:27
and anything that's on the page페이지
that's big and bold대담한 has importance중요성,
127
435869
3740
크고 굵다는 건 중요하다는 뜻이죠.
07:31
and those are the things
that you want to drive드라이브.
128
439633
2278
그럼 그것들을 가지고 싶어지고요.
07:33
Was that the right decision결정 at the time?
129
441935
1907
그게 옳은 결정이었냐고요?
07:35
Probably아마 not.
130
443866
1153
아마 아니겠죠.
07:37
If I had to start스타트 the service서비스 again,
131
445043
1805
만약 이 서비스를 다시 시작한다면
07:38
I would not emphasize강조하다
the follower수행원 count카운트 as much.
132
446872
2398
지금처럼 팔로워 숫자를
강조하진 않을 거예요.
07:41
I would not emphasize강조하다
the "like" count카운트 as much.
133
449294
2295
"좋아요" 수도 이렇게
강조하지 않을 거고요.
07:43
I don't think I would even
create몹시 떠들어 대다 "like" in the first place장소,
134
451613
3120
애초에 "좋아요"를
만들지도 않을 것 같네요.
07:46
because it doesn't actually사실은 push푸시
135
454757
3267
왜냐하면 지금은 그게
07:50
what we believe now
to be the most가장 important중대한 thing,
136
458048
3179
가장 중요한 게 아니라고
생각하기 때문이에요.
07:53
which어느 is healthy건강한 contribution기부
back to the network회로망
137
461251
3039
반대로 네트워크에
건전하게 기여하는 것,
07:56
and conversation대화 to the network회로망,
138
464314
2652
대화에서 네트워크로,
07:58
participation참여 within이내에 conversation대화,
139
466990
2072
대화에 참여하는 것,
08:01
learning배우기 something from the conversation대화.
140
469086
2493
대화를 통해 무언가를
배우는 것이 가장 중요하죠.
08:03
Those are not things
that we thought of 13 years연령 ago...전에,
141
471603
2824
13년 전에는
생각하지 못했던 것들이지만
08:06
and we believe are extremely매우
important중대한 right now.
142
474451
2439
지금은 굉장히
중요하게 여기는 것이에요.
08:08
So we have to look at
how we display디스플레이 the follower수행원 count카운트,
143
476914
3023
그래서 우리가 생각봐야 할 건
어떻게 팔로워 수를 표시하고
08:11
how we display디스플레이 retweet리트위트 count카운트,
144
479961
2365
어떻게 리트윗 수와 "좋아요" 수를
표시할지 입니다.
08:14
how we display디스플레이 "likes좋아하는 사람,"
145
482350
1401
08:15
and just ask청하다 the deep깊은 question문제:
146
483775
2254
그래서 심층적인 질문을 하죠.
08:18
Is this really the number번호
that we want people to drive드라이브 up?
147
486053
3048
우리는 정말 사람들이
이 숫자들을 높이길 원하는 걸까요?
08:21
Is this the thing that,
when you open열다 Twitter지저귀다,
148
489125
2545
트위터를 켰을 때
그 숫자를 보고 이러실 수 있죠.
08:23
you see, "That's the thing
I need to increase증가하다?"
149
491694
2516
"저게 내가 높여야 하는 거야?"
08:26
And I don't believe
that's the case케이스 right now.
150
494234
2144
지금은 전혀 그렇지 않다고 생각해요.
08:28
(Applause박수 갈채)
151
496402
2103
(박수)
08:30
WPRWPR: I think we should look at
some of the tweets트윗
152
498529
2352
휘트니: 현장에 계신 관객 분들이
08:32
that are coming오는
in from the audience청중 as well.
153
500905
2169
올려주신 트윗들도 봐야할 것 같네요.
08:35
CA캘리포니아 주: Let's see what you guys are asking질문.
154
503868
2436
크리스: 어떤 질문을 하셨는지 보죠.
08:38
I mean, this is -- generally일반적으로, one
of the amazing놀랄 만한 things about Twitter지저귀다
155
506328
3294
이런 점이 트위터의 놀라운 점 같아요.
08:41
is how you can use it for crowd군중 wisdom지혜,
156
509646
2294
집단 지성을 활용하는 방식이요.
08:43
you know, that more knowledge지식,
more questions질문들, more points전철기 of view전망
157
511964
4840
생각보다
훨씬 더 많은 지식, 더 많은 질문,
08:48
than you can imagine상상하다,
158
516828
1238
더 넓은 시각을 볼 수 있죠.
08:50
and sometimes때때로, many많은 of them
are really healthy건강한.
159
518090
3689
그리고 대부분이
건강한 내용일 때도 있고요.
08:53
WPRWPR: I think one I saw that
passed통과 된 already이미 quickly빨리 down here,
160
521803
2900
휘트니: 지금 막 지나간 트윗들 중에
이런 질문이 있네요.
08:56
"What's Twitter's트위터 plan계획 to combat전투
foreign외국의 meddling간섭 in the 2020 US election선거?"
161
524717
3524
"트위터는 2020년 미국 대선에 대한
외부 간섭을 어떻게 방지할 계획이죠?"
09:00
I think that's something
that's an issue발행물 we're seeing
162
528265
2571
인터넷에서 일반적으로 볼 수 있는
09:02
on the internet인터넷 in general일반,
163
530860
1901
논쟁거리인 것 같아요.
09:04
that we have a lot of malicious악의 있는
automated자동화 된 activity활동 happening사고.
164
532785
3667
악의를 가진 자동화된 활동도
많이 보게 되죠.
09:08
And on Twitter지저귀다, for example,
in fact, we have some work
165
536476
5373
트위터로 예를 들어보자면요.
09:13
that's come from our friends친구
at Zignal지그날 (주)(지그날) Labs실험실,
166
541873
2758
지그널 연구소에 있는 친구에게
자료를 받았는데
09:16
and maybe we can even see that
to give us an example
167
544655
2656
제가 말씀드리는 내용의 예시를
09:19
of what exactly정확하게 I'm talking말하는 about,
168
547335
1927
볼 수 있을 것 같네요.
09:21
where you have these bots, if you will,
169
549286
3204
트위터 봇이나
09:24
or coordinated조정 된 automated자동화 된
malicious악의 있는 account계정 activity활동,
170
552514
4550
악의를 가진 자동 계정의 활동이
09:29
that is being존재 used to influence영향
things like elections선거.
171
557088
2764
선거 등에 영향을 미치기 위해
사용되고 있습니다.
09:31
And in this example we have
from Zignal지그날 (주)(지그날) which어느 they've그들은 shared공유 된 with us
172
559876
3843
지그널에서 공유한 이 예시는
09:35
using~을 사용하여 the data데이터 that
they have from Twitter지저귀다,
173
563743
2198
트위터의 데이터를 이용한 건데요.
09:37
you actually사실은 see that in this case케이스,
174
565965
2441
이 사례에서도 실제로 나타납니다.
09:40
white화이트 represents대표하다 the humans인간 --
human인간의 accounts계정, each마다 dot is an account계정.
175
568430
4370
각각의 흰색 점은
실제 사람의 계정을 뜻해요
09:44
The pinker분홍색 it is,
176
572824
1359
더 진한 분홍색 점일수록
09:46
the more automated자동화 된 the activity활동 is.
177
574207
1740
자동화된 계정의 활동이죠.
09:47
And you can see how you have
a few조금 humans인간 interacting상호 작용하는 with bots.
178
575971
5970
사람들이 봇들과 얼마나
교류하는지 보이실 겁니다.
09:53
In this case케이스, it's related관련
to the election선거 in Israel이스라엘
179
581965
4419
이 예시는 이스라엘의
선거 데이터인데요.
09:58
and spreading퍼짐 misinformation오보
about Benny베 니 Gantz간츠,
180
586408
2833
베니 간츠에 대한 허위정보를
퍼뜨리고 있습니다.
10:01
and as we know, in the end종료,
that was an election선거
181
589265
2662
아시다시피, 결국 그 선거는
10:03
that Netanyahu네타냐후 won by a slim날씬한 margin여유,
182
591951
3724
간발의 차로 네타냐후가 승리했죠.
10:07
and that may할 수있다 have been
in some case케이스 influenced영향을받은 by this.
183
595699
2842
이것의 영향도 받았을 수도 있습니다.
10:10
And when you think about
that happening사고 on Twitter지저귀다,
184
598565
2615
트위터에서 일어나는 일에 대해
생각해보셨을 때
10:13
what are the things
that you're doing, specifically구체적으로,
185
601204
2456
특히 이런 식으로 잘못된 정보가 퍼져서
10:15
to ensure안전하게 하다 you don't have misinformation오보
like this spreading퍼짐 in this way,
186
603684
3702
사람들과 민주주의에
영향을 미치지 않도록
10:19
influencing영향력있는 people in ways
that could affect감정 democracy민주주의?
187
607410
4181
어떤 일을 하고 있나요?
10:23
JDJD: Just to back up a bit비트,
188
611615
1771
잭: 다시 말씀드리자면,
10:25
we asked물었다 ourselves우리 스스로 a question문제:
189
613410
2975
저희는 스스로에게 질문을 던졌습니다.
10:28
Can we actually사실은 measure법안
the health건강 of a conversation대화,
190
616409
3816
실제로 대화의 건전성을
측정할 수 있을까?
10:32
and what does that mean?
191
620249
1288
그건 무슨 의미가 있을까?
10:33
And in the same같은 way
that you have indicators지시계
192
621561
3382
여러분이 지표를 가지고 계신 것처럼
10:36
and we have indicators지시계 as humans인간
in terms자귀 of are we healthy건강한 or not,
193
624967
3467
인간 역시 건강한지 아닌지를 나타내는
척도를 가지고 있습니다.
10:40
such이러한 as temperature온도,
the flushness플러시 of your face얼굴,
194
628458
4658
체온과 얼굴의 홍조 같은 거죠.
10:45
we believe that we could find
the indicators지시계 of conversational이야기 잘하는 health건강.
195
633140
4560
저희는 대화의 건전성 역시
측정할 수 있다고 믿습니다.
10:49
And we worked일한 with a lab
called전화 한 Cortico코르티코 ()코르티코 at MITMIT
196
637724
3843
MIT의 코르티코 연구실과도
협업하고 있습니다.
10:54
to propose제안하다 four starter기동기 indicators지시계
197
642479
6091
궁극적으로 시스템에서
측정할 수 있다고 믿는
11:00
that we believe we could ultimately궁극적으로
measure법안 on the system체계.
198
648594
3670
네 가지 기본 지표를
제시하기 위해서요.
11:05
And the first one is
what we're calling부름 shared공유 된 attention주의.
199
653249
5604
첫 번째 지표는 공동의 관심사라고
부르는 것인데요.
11:10
It's a measure법안 of how much
of the conversation대화 is attentive친절한
200
658877
3581
같은 주제와 전혀 다른 주제에 대한
대화에 대해서 각각
11:14
on the same같은 topic이야기 versus disparate다른.
201
662482
2630
얼마나 주의를 기울이는지
측정하는 지수입니다.
11:17
The second둘째 one is called전화 한 shared공유 된 reality현실,
202
665739
2783
두 번째는 공유되는 현실이라는
지표인데요.
11:21
and this is what percentage백분율
of the conversation대화
203
669217
2259
이것은 대화의 몇 퍼센트가
11:23
shares주식 the same같은 facts사리 --
204
671500
2005
같은 사실을 공유하는지 나타내요.
11:25
not whether인지 어떤지 those facts사리
are truthful거짓말 안하는 or not,
205
673529
3113
그 사실이 얼마나 믿을만한지가 아니라
11:28
but are we sharing나누는
the same같은 facts사리 as we converse반대?
206
676666
3009
대화할 때 같은 사실을
공유하고 있는지 말이죠.
11:32
The third제삼 is receptivity감수:
207
680235
2353
세 번째는 수용성입니다.
11:34
How much of the conversation대화
is receptive수용성의 or civil예의 바른
208
682612
3959
대화가 얼마나 수용적이고 호의적인지,
11:38
or the inverse, toxic유독 한?
209
686595
2944
또는 정반대이고 유독한지 측정하죠.
11:42
And then the fourth네번째
is variety종류 of perspective원근법.
210
690213
3222
그리고 네 번째는 관점의 다양성입니다.
11:45
So, are we seeing filter필터 bubbles거품
or echo에코 chambers변호사 사무실,
211
693459
3145
필터버블이나 에코챔버 효과를
경험하고 있는 건지,
11:48
or are we actually사실은 getting점점
a variety종류 of opinions의견
212
696628
3057
아니면 실제로 대화에서 다양한 의견을
11:51
within이내에 the conversation대화?
213
699709
1635
보고 있는 건지 측정하죠.
11:53
And implicit절대적인 in all four of these
is the understanding이해 that,
214
701368
4018
그리고 이 네 가지 지표에서
암묵적으로 나타나는 건
11:57
as they increase증가하다, the conversation대화
gets도착 healthier더 건강한 and healthier더 건강한.
215
705410
3390
지표들이 높아질수록
대화도 더 건강해진다는 거죠.
12:00
So our first step단계 is to see
if we can measure법안 these online온라인,
216
708824
4869
그래서 그 첫 걸음은 온라인에서
측정 가능한지 확인하는 것이며,
12:05
which어느 we believe we can.
217
713717
1308
실제로 가능하다고 생각합니다.
12:07
We have the most가장 momentum기세
around receptivity감수.
218
715049
3167
수용성 지표에는
가장 높은 가속도가 붙고 있어요.
12:10
We have a toxicity독성 score점수,
a toxicity독성 model모델, on our system체계
219
718240
4317
유독성 점수와 유독성 모델도
시스템 상에 보유하고 있습니다.
12:14
that can actually사실은 measure법안
whether인지 어떤지 you are likely아마도 to walk산책 away
220
722581
4124
트위터 상에서 대화화던 도중
12:18
from a conversation대화
that you're having on Twitter지저귀다
221
726729
2313
꽤나 높은 수준의
12:21
because you feel it's toxic유독 한,
222
729066
1633
유해함을 느꼈을 때
12:22
with some pretty예쁜 high높은 degree정도.
223
730723
2512
대화에서 떠나버릴지 측정하는 도구죠.
12:26
We're working to measure법안 the rest휴식,
224
734369
2199
다른 것도 측정하기 위해 노력중이며,
12:28
and the next다음 것 step단계 is,
225
736592
1964
해결 방안 구축의
12:30
as we build짓다 up solutions솔루션,
226
738580
3359
다음 단계는,
12:33
to watch how these measurements측정
trend경향 over time
227
741963
3491
이 측정치들이 시간이 지나면서
어떤 추세를 보이는지 확인하고
12:37
and continue잇다 to experiment실험.
228
745478
1873
계속해서 실험해보는 겁니다.
12:39
And our goal is to make sure
that these are balanced균형이 잡힌,
229
747375
4041
저희의 목표는 이 지수들이
균형을 이루는 것입니다.
12:43
because if you increase증가하다 one,
you might decrease감소 another다른.
230
751440
3066
어느 한 지수가 증가하면,
다른 지수는 떨어지기 때문이죠.
12:46
If you increase증가하다 variety종류 of perspective원근법,
231
754530
2147
관점의 다양성이 증가하면
12:48
you might actually사실은 decrease감소
shared공유 된 reality현실.
232
756701
3091
공유 현실 지수는 낮아집니다.
12:51
CA캘리포니아 주: Just picking선발 up on some
of the questions질문들 flooding홍수 in here.
233
759816
4989
크리스: 올라오는 질문들 중에서
골라보죠.
12:56
JDJD: Constant일정한 questioning질문.
234
764829
1271
잭: 계속 질문이 올라오네요.
12:58
CA캘리포니아 주: A lot of people are puzzled어찌할 바를 모르는 why,
235
766996
3620
크리스: 많은 사람들이
13:02
like, how hard단단한 is it to get rid구하다
of Nazis나치 from Twitter지저귀다?
236
770640
4247
트위터 상의 나치를 처리하는 게
얼마나 힘든 건지 궁금해하네요.
13:08
JDJD: (Laughs웃음)
237
776309
1322
잭: (웃음)
13:09
So we have policies정책들
around violent격렬한 extremist극단론자 groups여러 떼,
238
777655
6995
저희도 폭력적인 극단주의자들에 관한
정책이 있습니다.
13:16
and the majority과반수 of our work
and our terms자귀 of service서비스
239
784674
4426
그리고 대부분의 업무와 이용약관은
13:21
works공장 on conduct행위, not content함유량.
240
789124
3729
내용이 아니라 행동에 따라
이루어집니다.
13:24
So we're actually사실은 looking for conduct행위.
241
792877
2551
그래서 실제로 행동을 관찰하죠.
13:27
Conduct수행 being존재 using~을 사용하여 the service서비스
242
795452
3014
반복적으로 또는 단편적으로
13:30
to repeatedly자꾸 or episodically일시적으로
harass괴롭히다 someone어떤 사람,
243
798490
3867
다른 사람을 괴롭히기 위해서
13:34
using~을 사용하여 hateful증오심이 많은 imagery형상
244
802381
2493
KKK단 혹은 나치당원과
관련될 수 있는
13:36
that might be associated관련 with the KKKKKK
245
804898
2106
13:39
or the American미국 사람 Nazi나치 Party파티.
246
807028
3281
혐오스러운 이미지를
사용하는 행동들이요.
13:42
Those are all things
that we act행위 on immediately바로.
247
810333
4156
이런 행동은 저희가
즉시 조치를 취합니다.
13:47
We're in a situation상태 right now
where that term기간 is used fairly loosely느슨하게,
248
815002
5452
지금은 그 용어가 꽤 막연하게
사용되곤 하지만
13:52
and we just cannot~ 할 수 없다. take
any one mention언급하다 of that word워드
249
820478
5313
저희는 그 누구도 그 단어를
다른 사람을 비난하기 위해
13:57
accusing비난하는 someone어떤 사람 else그밖에
250
825815
2117
사용하는 걸 용납할 수 없어요.
13:59
as a factual사실의 indication표시 that they
should be removed제거 된 from the platform플랫폼.
251
827956
3755
그런 사람들이 모두 플랫폼에서
제거되야 한다는 사실에 입각해서요.
14:03
So a lot of our models모델
are based기반 around, number번호 one:
252
831735
2627
그래서 저희의 모델은
이런 수칙에 기반하고 있습니다.
14:06
Is this account계정 associated관련
with a violent격렬한 extremist극단론자 group그룹?
253
834386
3140
첫 번째로, 이 계정이 폭력적인
극단주의자들과 연관되어 있는가?
14:09
And if so, we can take action동작.
254
837550
1983
그렇다면, 조치를 취할 수 있습니다.
14:11
And we have done끝난 so on the KKKKKK
and the American미국 사람 Nazi나치 Party파티 and others다른 사람.
255
839557
3852
실제로도 수많은 KKK단과
미국 나치당원 등을 처리했죠.
14:15
And number번호 two: Are they using~을 사용하여
imagery형상 or conduct행위
256
843433
4183
두 번째는, 마찬가지로 위의 단체와
연관될 수 있는 사진이나 행동을
14:19
that would associate동무 them as such이러한 as well?
257
847640
2372
사용하는지 확인합니다.
14:22
CA캘리포니아 주: How many많은 people do you have
working on content함유량 moderation절도
258
850416
2932
크리스: 그럼 이를 확인하는
사람들은 얼마나 있나요?
14:25
to look at this?
259
853372
1250
14:26
JDJD: It varies변화하다.
260
854646
1496
잭: 때에 따라 다릅니다.
14:28
We want to be flexible융통성 있는 on this,
261
856166
1595
저희는 유연하게 대처하려 해요.
14:29
because we want to make sure
that we're, number번호 one,
262
857785
2646
왜냐하면 첫째로, 단순히
수많은 사람들을 고용하기보다
14:32
building건물 algorithms알고리즘 instead대신에 of just
hiring고용 massive거대한 amounts금액 of people,
263
860455
4424
알고리즘을 만들고 싶었기 때문입니다.
14:36
because we need to make sure
that this is scalable확장 성있는,
264
864903
2824
왜냐하면 이것들을 측정 가능성을
확신하고 싶었고
14:39
and there are no amount of people
that can actually사실은 scale규모 this.
265
867751
3454
또 실제로 이걸 다 측정하려면
너무 많은 사람이 필요하기 때문입니다.
14:43
So this is why we've우리는 done끝난 so much work
around proactive사전 행동 적 detection발각 of abuse남용
266
871229
6629
그래서 실제로 사람이 확인해야만 하는
비방을 사전적으로 탐지하기 위해
14:49
that humans인간 can then review리뷰.
267
877882
1391
많은 노력을 쏟고 있죠.
14:51
We want to have a situation상태
268
879297
2861
저희는 알고리즘이 끊임없이
14:54
where algorithms알고리즘 are constantly끊임없이
scouring쓰레기 every...마다 single단일 tweet짹짹
269
882182
3741
모든 트윗 하나하나를 샅샅이 뒤져서
14:57
and bringing데려 오는 the most가장
interesting재미있는 ones그들 to the top상단
270
885947
2342
가장 흥미로운 것을
제일 위쪽으로 올리면
15:00
so that humans인간 can bring가져오다 their그들의 judgment심판
to whether인지 어떤지 we should take action동작 or not,
271
888313
3902
이용약관에 따라 사람이 직접
조치를 취할지 말지 결정하는
15:04
based기반 on our terms자귀 of service서비스.
272
892239
1524
시스템을 갖고 싶습니다.
15:05
WPRWPR: But there's not an amount
of people that are scalable확장 성있는,
273
893787
2803
휘트니: 실제로 측정할 수 있는
인원은 없다고 하셨지만,
15:08
but how many많은 people do you currently현재 have
monitoring모니터링 these accounts계정,
274
896614
3497
현재 이런 계정들을 모티터링하는
요원들은 얼마나 있나요?
15:12
and how do you figure그림 out what's enough충분히?
275
900135
2546
그리고 어느 정도가 충분한지
어떻게 알죠?
15:14
JDJD: They're completely완전히 flexible융통성 있는.
276
902705
2272
잭: 그건 정말 유동적이에요.
15:17
Sometimes때때로 we associate동무 folks사람들 with spam스팸.
277
905001
2941
어떨 땐 일반적인 사람들을
스팸으로 분류하고
15:19
Sometimes때때로 we associate동무 folks사람들
with abuse남용 and harassment괴롭힘.
278
907966
3845
어떨 땐 평범한 사람을
비방과 괴롭힘으로 분류할 때도 있어요.
15:23
We're going to make sure that
we have flexibility적응성 in our people
279
911835
3062
저희는 직원이 가장 필요한 곳에서
곧바로 일할 수 있게
15:26
so that we can direct곧장 them
at what is most가장 needed필요한.
280
914921
2350
직원들이 융통성을
가질 수 있게 하고 싶어요.
15:29
Sometimes때때로, the elections선거.
281
917295
1204
그게 선거일 수도 있죠.
15:30
We've우리는 had a string of elections선거
in Mexico멕시코, one coming오는 up in India인도,
282
918523
4927
멕시코에서 연이은 선거가 있었고,
인도에서도 곧 선거가 있죠.
15:35
obviously명백하게, the election선거 last year,
the midterm중간 고사 election선거,
283
923474
4447
작년의 선거와 중간 선거도 그렇고요.
15:39
so we just want to be flexible융통성 있는
with our resources자원.
284
927945
2472
그래서 저희의 자원을
유연하게 사용하고 싶어요.
15:42
So when people --
285
930441
2129
그래서 예를 들면,
15:44
just as an example, if you go
to our current흐름 terms자귀 of service서비스
286
932594
6389
지금 저희 이용약관 페이지를
15:51
and you bring가져오다 the page페이지 up,
287
939007
1641
확인해보시면,
15:52
and you're wondering궁금해하는 about abuse남용
and harassment괴롭힘 that you just received받은
288
940672
3682
방금 받은 비방과 괴롭힘이
15:56
and whether인지 어떤지 it was against반대
our terms자귀 of service서비스 to report보고서 it,
289
944378
3634
이용약관을 어겨서 신고해야 하는 건지
궁금해져서 확인해보면
16:00
the first thing you see
when you open열다 that page페이지
290
948036
2559
이용약관 첫 페이지가
16:02
is around intellectual지적인
property재산 protection보호.
291
950619
3088
지적재산권에 관련되었다는 걸
알 수 있습니다.
16:06
You scroll스크롤 down and you get to
abuse남용, harassment괴롭힘
292
954504
5323
스크롤을 내리면 비방과 괴롭힘,
그 외에도 경험할 수 있는 것에 관한
16:11
and everything else그밖에
that you might be experiencing경험하는.
293
959851
2382
이용약관이 나옵니다.
16:14
So I don't know how that happened일어난
over the company's회사의 history역사,
294
962257
3195
이 회사가 어떤 역사를 거쳐서
그렇게 되었는지 모르지만,
16:17
but we put that above위에
the thing that people want
295
965476
4797
사람들이 가장 원하는 정보이자
조치를 취해줬으면 하는 것을
16:24
the most가장 information정보 on
and to actually사실은 act행위 on.
296
972146
3222
가장 위에 올려놓습니다.
16:27
And just our ordering주문 shows the world세계
what we believed믿었다 was important중대한.
297
975392
5241
그 순서는 세상 사람들이
가장 중요하게 생각하는 것들의 순서죠.
16:32
So we're changing작고 보기 흉한 사람 all that.
298
980657
2881
그래서 모두 바꾸려고 노력 중입니다.
16:35
We're ordering주문 it the right way,
299
983562
1563
올바른 순서대로요.
16:37
but we're also또한 simplifying단순화시키는 the rules규칙들
so that they're human-readable인간이 읽을 수있는
300
985149
3451
그와 동시에 언제 약관을 어기고
언제 어기지 않았는지
16:40
so that people can actually사실은
understand알다 themselves그들 자신
301
988624
4067
실제로 이용약관을
이해할 수 있도록
16:44
when something is against반대 our terms자귀
and when something is not.
302
992715
3448
사람들이 알아보기 쉽게
규칙을 단순화하려고 합니다.
16:48
And then we're making만들기 --
303
996187
2161
그리고 다시 말씀드리지만 저희는
16:50
again, our big focus초점 is on removing풀이
the burden부담 of work from the victims피해자.
304
998372
5200
피해자의 짐을 덜어주는 것에
집중하고 있습니다.
16:55
So that means방법 push푸시 more
towards...쪽으로 technology과학 기술,
305
1003596
3734
사람이 직접 일하기보다는
16:59
rather차라리 than humans인간 doing the work --
306
1007354
1873
점점 더 기술에 집중한다는 뜻이죠.
17:01
that means방법 the humans인간 receiving전수 the abuse남용
307
1009251
2413
사람이 직접 비방을 듣고,
17:03
and also또한 the humans인간
having to review리뷰 that work.
308
1011688
3026
사람이 또 검토하는 것에서
벗어나려는 거죠.
17:06
So we want to make sure
309
1014738
1673
그래서 저희는 절대로
17:08
that we're not just encouraging격려의 more work
310
1016435
2841
굉장히 부정적인 내용을 관한 일을
17:11
around something
that's super감독자, super감독자 negative부정,
311
1019300
2629
장려하기 보다는
17:13
and we want to have a good balance밸런스
between중에서 the technology과학 기술
312
1021953
2674
기술과 사람의 창의성 사이에서
17:16
and where humans인간 can actually사실은 be creative창조적 인,
313
1024651
2852
규칙을 판단하는
17:19
which어느 is the judgment심판 of the rules규칙들,
314
1027527
3090
좋은 균형을 가져오려 합니다.
17:22
and not just all the mechanical기계의 stuff물건
of finding발견 and reporting보고 them.
315
1030641
3267
그저 문제 계정을 발견하고 신고하는
메커니즘에 그치지 않을 겁니다.
17:25
So that's how we think about it.
316
1033932
1530
그게 저희의 생각입니다.
17:27
CA캘리포니아 주: I'm curious이상한 to dig파기 in more
about what you said.
317
1035486
2406
크리스: 말씀하신 것에 대해
더 궁금한게 있어요.
17:29
I mean, I love that you said
you are looking for ways
318
1037916
2605
반작용을 보이는 행동을 저지하는
17:32
to re-tweak다시 조정 the fundamental기본적인
design디자인 of the system체계
319
1040545
3462
시스템의 기초적인 디자인을
바꾸는 방법을 찾고 계신다니 기쁩니다.
17:36
to discourage낙심시키다 some of the reactive반응하는
behavior행동, and perhaps혹시 --
320
1044031
4875
17:40
to use Tristan트리스탄 Harris-type해리스식 language언어 --
321
1048930
2705
사람들이 더 성찰할 수 있게 만드는
17:43
engage끌다 people's사람들의 more reflective반사적 인 thinking생각.
322
1051659
4288
트리스탄 해리스씨의 화법처럼요.
17:47
How far멀리 advanced많은 is that?
323
1055971
1854
지금까지 그건 얼마나 발전했죠?
17:49
What would alternatives대안들
to that "like" button단추 be?
324
1057849
4305
"좋아요" 버튼의 대안은 무엇일까요?
17:55
JDJD: Well, first and foremost맨 먼저,
325
1063518
3575
잭: 글쎄요, 첫째로 가장 중요한 건
17:59
my personal개인적인 goal with the service서비스
is that I believe fundamentally근본적으로
326
1067117
5753
서비스의 개인적인 목표는 기본적으로
18:04
that public공공의 conversation대화 is critical결정적인.
327
1072894
2702
대중적인 논의가 중요해지는 거예요.
18:07
There are existential실존 적 problems문제들
facing면함 the world세계
328
1075620
2647
세계가 직면한 실존적 문제에
18:10
that are facing면함 the entire완전한 world세계,
not any one particular특별한 nation-state민족 국가,
329
1078291
4163
전세계의 대중적인 논의는
도움을 줄 수 있습니다.
18:14
that global글로벌 public공공의 conversation대화 benefits은혜.
330
1082478
2649
특정 국가만이 아니라
전세계가 직면한 문제요.
18:17
And that is one of the unique독특한
dynamics역학 of Twitter지저귀다,
331
1085151
2372
그게 트위터가 가진 독특한 원동력이죠.
18:19
that it is completely완전히 open열다,
332
1087547
1814
누구나 참여할 수 있고
18:21
it is completely완전히 public공공의,
333
1089385
1596
충분히 대중적이며,
18:23
it is completely완전히 fluid유동체,
334
1091005
1399
엄청난 유동성을 지녔죠.
18:24
and anyone누군가 can see any other conversation대화
and participate어느 정도 가지다 in it.
335
1092428
4038
누구나 어느 대화든 볼 수 있고
대화에 참여할 수 있어요.
18:28
So there are conversations대화
like climate기후 change변화.
336
1096490
2206
기후 변화에 관한 대화도 있고요.
18:30
There are conversations대화
like the displacement배수량 in the work
337
1098720
2682
인공지능 때문에 발생하는
18:33
through...을 통하여 artificial인공의 intelligence지성.
338
1101426
2000
해고와 관련된 대화도 있죠.
18:35
There are conversations대화
like economic간결한 disparity상이.
339
1103450
3006
경제 격차에 대한 대화도 있습니다.
18:38
No matter문제 what any one nation-state민족 국가 does,
340
1106480
2765
어느 국가가 되었든지,
18:41
they will not be able할 수 있는
to solve풀다 the problem문제 alone혼자.
341
1109269
2421
혼자서 문제를 해결할 수는 없습니다.
18:43
It takes coordination동등 around the world세계,
342
1111714
2643
세계의 협력이 필요하고,
18:46
and that's where I think
Twitter지저귀다 can play놀이 a part부품.
343
1114381
3047
제 생각엔 거기에 트위터가
일조할 수 있다는 겁니다.
18:49
The second둘째 thing is that Twitter지저귀다,
right now, when you go to it,
344
1117452
5642
두 번째로는,
지금 트위터에 들어갔을 때
18:55
you don't necessarily필연적으로 walk산책 away
feeling감각 like you learned배운 something.
345
1123118
3746
꼭 뭔가를 배웠다는 생각을 가지고
떠나진 않죠.
18:58
Some people do.
346
1126888
1276
누군가는 그러겠지만요.
19:00
Some people have
a very, very rich풍부한 network회로망,
347
1128188
3107
어떤 사람은 엄청난 네트워크를 가지고,
19:03
a very rich풍부한 community커뮤니티
that they learn배우다 from every...마다 single단일 day.
348
1131319
3117
다양한 공동체에 속해서 뭔가를
매일 배우기도 하겠죠.
19:06
But it takes a lot of work
and a lot of time to build짓다 up to that.
349
1134460
3691
하지만 그런 네트워크를 만들기 위해선
많은 노력과 시간이 필요합니다.
19:10
So we want to get people
to those topics주제 and those interests이해
350
1138175
3448
그래서 저희는 사람들이
그런 주제와 흥미를
19:13
much, much faster더 빠른
351
1141647
1579
훨씬 더 빠르게 얻어갔으면 좋겠어요.
19:15
and make sure that
they're finding발견 something that,
352
1143250
2566
그리고 사람들이 트위터에서
몇 시간을 있든
19:18
no matter문제 how much time
they spend보내 on Twitter지저귀다 --
353
1146728
2360
그런 주제와 흥미를 찾았으면 좋겠어요.
19:21
and I don't want to maximize최대화하다
the time on Twitter지저귀다,
354
1149112
2358
사람들이 트위터에 머무르는
시간을 최대화하기보다
19:23
I want to maximize최대화하다
what they actually사실은 take away from it
355
1151494
2910
대신 사람들이 뭔가를 얻어가고
19:26
and what they learn배우다 from it, and --
356
1154428
2030
배워가는 걸 최대화했으면 좋겠어요.
19:29
CA캘리포니아 주: Well, do you, though그래도?
357
1157598
1328
크리스: 당신도 그런가요?
19:30
Because that's the core핵심 question문제
that a lot of people want to know.
358
1158950
3244
왜냐하면 많은 사람들이 알고 싶어하는
핵심 질문이거든요.
19:34
Surely확실히, Jack, you're constrained제한된,
to a huge거대한 extent범위,
359
1162218
3638
확실히, 상장기업이기 때문인지
19:37
by the fact that you're a public공공의 company회사,
360
1165880
2007
잭씨는 강요받을 수밖에 없어요.
19:39
you've got investors투자자 pressing누르는 on you,
361
1167911
1774
당신을 압박하는 투자자들이 있고
19:41
the number번호 one way you make your money
is from advertising광고하는 --
362
1169709
3559
돈을 버는 가장 큰 방법은
19:45
that depends의존하다 on user사용자 engagement약혼.
363
1173292
2772
사용자 참여에 의존하는 광고잖아요.
19:48
Are you willing자발적인 to sacrifice희생
user사용자 time, if need be,
364
1176088
4700
사색적인 대화를 장려하기 위해서
19:52
to go for a more reflective반사적 인 conversation대화?
365
1180812
3729
사용자 이용시간을 희생하겠단
말씀이신가요?
19:56
JDJD: Yeah; more relevance관련성 means방법
less적게 time on the service서비스,
366
1184565
3111
잭: 네, 사회적 타당성이 높아지면
서비스 이용시간이 줄겠죠.
19:59
and that's perfectly아주 fine,
367
1187700
1937
정말 그래도 괜찮아요.
20:01
because we want to make sure
that, like, you're coming오는 to Twitter지저귀다,
368
1189661
3099
왜냐하면 트위터를 이용할 때
20:04
and you see something immediately바로
that you learn배우다 from and that you push푸시.
369
1192784
4520
누르는 즉시 뭔가를
배워갔으면 좋겠어요.
20:09
We can still serve서브 an ad광고 against반대 that.
370
1197328
3420
저희는 그래도 광고를
할 수 있으니까요.
20:12
That doesn't mean you need to spend보내
any more time to see more.
371
1200772
2921
더 보기 위해 더 많은 시간을
써야 한다는 의미는 아녜요.
20:15
The second둘째 thing we're looking at --
372
1203717
1733
두 번째로 저희는,
20:17
CA캘리포니아 주: But just -- on that goal,
daily매일 active유효한 usage용법,
373
1205474
2698
크리스: 하지만, 그 목표는,
일일 사용량이 많다고
20:20
if you're measuring자질 that,
that doesn't necessarily필연적으로 mean things
374
1208196
3245
사람들이 그걸 매일 소중하게
여긴다는 뜻은 아니잖아요.
20:23
that people value every...마다 day.
375
1211465
1738
사용량을 측정하신다면 말이죠.
20:25
It may할 수있다 well mean
376
1213227
1161
그건 사람들이
20:26
things that people are drawn그어진 to
like a moth나방 to the flame불꽃, every...마다 day.
377
1214412
3306
나방이 불꽃에 이끌리는 것처럼
매일 끌려가는 거죠.
20:29
We are addicted중독 된, because we see
something that pisses오줌 us off,
378
1217742
3022
중독되었으니까요.
매일 저를 열받게 하는 일을 보면
20:32
so we go in and add더하다 fuel연료 to the fire,
379
1220788
3178
거기에 참여해서 화력을 키우죠.
20:35
and the daily매일 active유효한 usage용법 goes간다 up,
380
1223990
1927
그럼 일일 사용량도 증가하고
20:37
and there's more ad광고 revenue수익 there,
381
1225941
1715
더 많은 광고수익을 얻겠죠.
20:39
but we all get angrier화가 with each마다 other.
382
1227680
2752
저희는 더 화나기만 하고요.
20:42
How do you define밝히다 ...
383
1230456
2509
"일일 사용량"이란 단어를
20:44
"Daily매일 active유효한 usage용법" seems~ 같다 like a really
dangerous위험한 term기간 to be optimizing최적화.
384
1232989
4126
낙관적으로 보기엔
너무 위험한 단어 같네요.
20:49
(Applause박수 갈채)
385
1237139
5057
(박수)
20:54
JDJD: Taken취한 alone혼자, it is,
386
1242220
1268
잭: 그것만 봐도 그렇죠.
20:55
but you didn't let me
finish the other metric미터법의,
387
1243512
2346
측정에 관한 이야기를 마저 하자면
20:57
which어느 is, we're watching보고있다 for conversations대화
388
1245882
3727
저희는 대화 및 연결된 대화를
21:01
and conversation대화 chains쇠사슬.
389
1249633
2129
지켜보고 있습니다.
21:03
So we want to incentivize인센티브를주는
healthy건강한 contribution기부 back to the network회로망,
390
1251786
5076
그래서 저희는 네트워크에
건강한 기여를 할 수 있게끔
21:08
and what we believe that is
is actually사실은 participating참여하는 in conversation대화
391
1256886
4181
장려하고 싶고, 저희는 그 방법이
건강한 대화에 참여하는 거라 생각해요.
21:13
that is healthy건강한,
392
1261091
1197
21:14
as defined한정된 by those four indicators지시계
I articulated관절 모양의 earlier일찍이.
393
1262312
5037
아까 말씀드린
4가지 지표로 정의된 건강한 대화요.
21:19
So you can't just optimize최적화하다
around one metric미터법의.
394
1267373
2657
그래서 한 가지 지표만을
활용할 순 없습니다.
21:22
You have to balance밸런스 and look constantly끊임없이
395
1270054
2752
균형을 맞추고 꾸준히 지켜봐야 하죠.
21:24
at what is actually사실은 going to create몹시 떠들어 대다
a healthy건강한 contribution기부 to the network회로망
396
1272830
4083
어떤 게 실제로 네트워크에
건강한 기여를 하고
21:28
and a healthy건강한 experience경험 for people.
397
1276937
2341
사람들이 건강한 경험을 할지를 말이죠.
21:31
Ultimately궁극적으로, we want to get to a metric미터법의
398
1279302
1866
궁극적으로 저희는 사람들이
21:33
where people can tell us,
"Hey, I learned배운 something from Twitter지저귀다,
399
1281192
3757
"나 트위터에서 뭔가를 배우고
가치있는 걸 가지고 떠나게 됐어"
21:36
and I'm walking보행 away
with something valuable가치 있는."
400
1284973
2167
라고 말하는 측정 기준을 얻고 싶어요.
21:39
That is our goal ultimately궁극적으로 over time,
401
1287164
2043
이게 저희의 장기적이고
궁극적인 목표예요.
21:41
but that's going to take some time.
402
1289231
1809
하지만 시간이 걸리겠죠.
21:43
CA캘리포니아 주: You come over to many많은,
I think to me, as this enigma수수께끼.
403
1291064
5282
크리스: 저에겐 많은 수수께끼로
다가오네요.
21:48
This is possibly혹시 unfair불공정,
but I woke깨우다 up the other night
404
1296370
4396
불공평할 수도 있겠지만
어느 날 밤에 제가 일어나서
21:52
with this picture그림 of how I found녹이다 I was
thinking생각 about you and the situation상태,
405
1300790
3879
제가 당신과 당신의 상황에 대해서
어떻게 생각하는지 그림을 그려보자면
21:56
that we're on this great voyage항해 with you
on this ship called전화 한 the "Twittanic트위타닉 (미국)" --
406
1304693
6903
"트위타닉" 호에 당신과 함께
멋진 여행을 떠나는 그림이 떠올라요.
22:03
(Laughter웃음)
407
1311620
1281
(웃음)
22:04
and there are people on board in steerage조종
408
1312925
4357
3등 선실에는 불평을 토로하는
22:09
who are expressing표현하는 discomfort불쾌,
409
1317306
2203
사람들이 있고,
22:11
and you, unlike같지 않은 many많은 other captains주장,
410
1319533
2543
당신은 다른 선장과는 다르게
22:14
are saying속담, "Well, tell me, talk to me,
listen to me, I want to hear듣다."
411
1322100
3431
"말해봐요. 듣고 있어요.
듣고 싶어요."라고 말하죠.
22:17
And they talk to you, and they say,
"We're worried걱정 about the iceberg빙산 ahead앞으로."
412
1325555
3619
그 사람들이 "앞에 있는 빙하 때문에
걱정돼요."라고 말하면
22:21
And you go, "You know,
that is a powerful강한 point포인트,
413
1329198
2242
당신은 말하죠.
"정말 중요한 이야기네요.
22:23
and our ship, frankly솔직히,
hasn't~하지 않았다. been built세워짐 properly정확히
414
1331464
2430
그런데 저희 배는 솔직히 말하면
22:25
for steering조타 as well as it might."
415
1333918
1669
조종하기 적절하지 않죠"
저희는 말하죠. "뭐라도 좀 해봐요."
22:27
And we say, "Please do something."
416
1335611
1658
22:29
And you go to the bridge다리,
417
1337293
1411
당신은 함교에 올라가고
22:30
and we're waiting기다리는,
418
1338728
2295
저흰 기다리죠.
22:33
and we look, and then you're showing전시
this extraordinary이상한 calm고요한,
419
1341047
4548
저희가 올려다보면
당신은 놀랍도록 평온하게 보이고
22:37
but we're all standing서 있는 outside외부,
saying속담, "Jack, turn회전 the fucking빌어 먹을 wheel바퀴!"
420
1345619
3883
저희는 밖에 서서
"젠장, 키를 돌려요!"라고 소리치죠.
22:41
You know?
421
1349526
1151
안 그런가요?
22:42
(Laughter웃음)
422
1350701
1335
(웃음)
22:44
(Applause박수 갈채)
423
1352060
2381
(박수)
22:46
I mean --
424
1354465
1166
제 말은...
22:47
(Applause박수 갈채)
425
1355655
1734
(박수)
22:49
It's democracy민주주의 at stake말뚝.
426
1357413
4594
민주주의가 위태로운 상태예요.
22:54
It's our culture문화 at stake말뚝.
It's our world세계 at stake말뚝.
427
1362031
2821
저희 문화가 위태롭고,
이 세상이 위태로워요.
22:56
And Twitter지저귀다 is amazing놀랄 만한 and shapes도형 so much.
428
1364876
4706
트위터는 정말 놀랍고
많은 부분을 형성하고 있죠.
23:01
It's not as big as some
of the other platforms플랫폼,
429
1369606
2233
다른 플랫폼만큼 크진 않지만
23:03
but the people of influence영향 use it
to set세트 the agenda비망록,
430
1371863
2804
영향력 있는 사람들이
안건을 제시하는 데 이용해요.
23:06
and it's just hard단단한 to imagine상상하다 a more
important중대한 role역할 in the world세계 than to ...
431
1374691
6787
그보다 더 중요한 역할을 맡는 건
상상하기 힘들죠.
23:13
I mean, you're doing a brilliant훌륭한 job
of listening청취, Jack, and hearing듣기 people,
432
1381502
3784
제 말은, 잭, 당신은 사람들의 말을
들어주는 훌륭한 일을 한다는 거예요.
23:17
but to actually사실은 dial다이얼 up the urgency긴급
and move움직임 on this stuff물건 --
433
1385310
4445
하지만 긴급한 요구에 대해 말하자면,
그 문제로 넘어가려는데
23:21
will you do that?
434
1389779
2201
이런 것도 해주실 건가요?
23:24
JDJD: Yes, and we have been
moving움직이는 substantially대체로.
435
1392750
3815
잭: 네, 저희는 많이 움직이고 있죠.
23:28
I mean, there's been
a few조금 dynamics역학 in Twitter's트위터 history역사.
436
1396589
3225
트위터 역사 상 몇몇
큰 변화가 있었어요.
23:31
One, when I came왔다 back to the company회사,
437
1399838
2083
제가 회사로 돌아왔을 때는
23:35
we were in a pretty예쁜 dire무서운 state상태
in terms자귀 of our future미래,
438
1403477
6256
미래를 생각해보면
꽤 심각한 상황이었죠.
23:41
and not just from how people
were using~을 사용하여 the platform플랫폼,
439
1409757
4634
사람들이 저희 플랫폼을 어떻게
쓰는지 뿐만 아니라
23:46
but from a corporate기업 narrative이야기 as well.
440
1414415
2047
회사 측면에서도 마찬가지였어요.
23:48
So we had to fix고치다
a bunch다발 of the foundation기초,
441
1416486
3204
회사 상황을 호전시키기 위해서
23:51
turn회전 the company회사 around,
442
1419714
1969
많은 토대를 고쳐야만 했습니다.
23:53
go through...을 통하여 two crazy미친 layoffs정리 해고,
443
1421707
3111
두 번의 말도 안 되는 해고도 거쳤죠.
23:56
because we just got too big
for what we were doing,
444
1424842
3793
왜냐하면 저희가 하는 일에 비해
회사가 너무 커졌고
24:00
and we focused초점을 맞춘 all of our energy에너지
445
1428659
2060
모든 에너지를 대중적인 논의에
24:02
on this concept개념 of serving피복재
the public공공의 conversation대화.
446
1430743
3508
기여한다는 것에 집중했거든요.
그 과정에서 많은 노력을 했죠.
24:06
And that took~했다 some work.
447
1434275
1451
24:07
And as we dived다이빙 된 into that,
448
1435750
2608
그 과정에 뛰어들면서
24:10
we realized깨달은 some of the issues문제
with the fundamentals기본 사항.
449
1438382
2992
본질에 관한 몇 가지 쟁점을
깨달았습니다.
24:14
We could do a bunch다발 of superficial피상적 인 things
to address주소 what you're talking말하는 about,
450
1442120
4656
말씀하신 것들을 해결하기 위해선
여러 피상적인 것 할 수 있었지만
24:18
but we need the changes변화들 to last,
451
1446800
1790
지속 가능한 변화가 필요했어요.
24:20
and that means방법 going really, really deep깊은
452
1448614
2459
즉, 정말 깊이 살펴보고
24:23
and paying지불하는 attention주의
to what we started시작한 13 years연령 ago...전에
453
1451097
4350
13년 전에 시작한 것들에
관심을 가지고
24:27
and really questioning질문
454
1455471
2261
진심으로
24:29
how the system체계 works공장
and how the framework뼈대 works공장
455
1457756
2566
어떻게 시스템과 뼈대가 작동하는지,
24:32
and what is needed필요한 for the world세계 today오늘,
456
1460346
3833
또 오늘날 이 세상에 필요한 게
뭔지 질문을 던지는 걸 뜻하죠.
24:36
given주어진 how quickly빨리 everything is moving움직이는
and how people are using~을 사용하여 it.
457
1464203
4024
모든 게 엄청나게 빨리 변하고 사람들이
그걸 어떻게 쓰는지 고려하면서 말이죠.
24:40
So we are working as quickly빨리 as we can,
but quickness민첩 will not get the job done끝난.
458
1468251
6544
그래서 가능한 한 빨리 하려고 하지만
빠르기만 해서는 해결할 수 없습니다.
24:46
It's focus초점, it's prioritization우선 순위,
459
1474819
2611
집중과 우선순위죠.
24:49
it's understanding이해
the fundamentals기본 사항 of the network회로망
460
1477454
2946
네트워크의 본질을 이해하고
24:52
and building건물 a framework뼈대 that scales저울
461
1480424
2842
규모가 변화하는 뼈대를 짓고
24:55
and that is resilient탄력있는 to change변화,
462
1483290
2351
그 뼈대는 변화에도 빠르게 적응하죠.
24:57
and being존재 open열다 about where we are
and being존재 transparent투명한 about where are
463
1485665
5429
신뢰를 계속해서 얻기 위해
우리가 어디에 있는지 받아들이고
25:03
so that we can continue잇다 to earn벌다 trust믿음.
464
1491118
2179
어디에 있는지 솔직해져야 하고요.
25:06
So I'm proud교만한 of all the frameworks프레임 워크
that we've우리는 put in place장소.
465
1494141
3331
저는 제가 배치한
모든 체계가 자랑스러워요.
25:09
I'm proud교만한 of our direction방향.
466
1497496
2888
저희의 방향성도 자랑스럽고요.
25:12
We obviously명백하게 can move움직임 faster더 빠른,
467
1500915
2718
저희는 분명히 더 빠르게
움직일 수 있지만
25:15
but that required필수 just stopping멎는 a bunch다발
of stupid바보 stuff물건 we were doing in the past과거.
468
1503657
4719
그러려면 과거부터 해온
여러 바보같은 일도 멈춰야 해요.
25:21
CA캘리포니아 주: All right.
469
1509067
1164
크리스: 그렇군요.
25:22
Well, I suspect용의자 there are many많은 people here
who, if given주어진 the chance기회,
470
1510255
4067
여기에 기회가 주어진다면
당신이 다루고 있는
25:26
would love to help you
on this change-making변화를 만드는 agenda비망록 you're on,
471
1514346
3989
변화를 만들려는 안건을 기꺼이 도울
사람들이 많을 거예요.
25:30
and I don't know if Whitney휘트니 --
472
1518359
1542
휘트니도 그럴 것 같고요.
25:31
Jack, thank you for coming오는 here
and speaking말하기 so openly공공연히.
473
1519925
2761
잭, 여기까지 와주셔서
솔직하게 말씀해주셔서 감사합니다.
25:34
It took~했다 courage용기.
474
1522710
1527
대단한 용기였어요.
25:36
I really appreciate고맙다 what you said,
and good luck with your mission사명.
475
1524261
3384
말씀해주신 바에 감동했고,
원하시는 목표를 이루시기 바랍니다.
25:39
JDJD: Thank you so much.
Thanks감사 for having me.
476
1527669
2095
잭: 감사합니다.
초대해주셔서 감사합니다.
25:41
(Applause박수 갈채)
477
1529788
3322
(박수)
25:45
Thank you.
478
1533134
1159
감사합니다.
Translated by Soobin Ahn
Reviewed by Eunice Yunjung Nam

▲Back to top

ABOUT THE SPEAKERS
Jack Dorsey - Entrepreneur, programmer
Jack Dorsey is the CEO of Twitter, CEO & Chairman of Square, and a cofounder of both.

Why you should listen
More profile about the speaker
Jack Dorsey | Speaker | TED.com
Chris Anderson - TED Curator
After a long career in journalism and publishing, Chris Anderson became the curator of the TED Conference in 2002 and has developed it as a platform for identifying and disseminating ideas worth spreading.

Why you should listen

Chris Anderson is the Curator of TED, a nonprofit devoted to sharing valuable ideas, primarily through the medium of 'TED Talks' -- short talks that are offered free online to a global audience.

Chris was born in a remote village in Pakistan in 1957. He spent his early years in India, Pakistan and Afghanistan, where his parents worked as medical missionaries, and he attended an American school in the Himalayas for his early education. After boarding school in Bath, England, he went on to Oxford University, graduating in 1978 with a degree in philosophy, politics and economics.

Chris then trained as a journalist, working in newspapers and radio, including two years producing a world news service in the Seychelles Islands.

Back in the UK in 1984, Chris was captivated by the personal computer revolution and became an editor at one of the UK's early computer magazines. A year later he founded Future Publishing with a $25,000 bank loan. The new company initially focused on specialist computer publications but eventually expanded into other areas such as cycling, music, video games, technology and design, doubling in size every year for seven years. In 1994, Chris moved to the United States where he built Imagine Media, publisher of Business 2.0 magazine and creator of the popular video game users website IGN. Chris eventually merged Imagine and Future, taking the combined entity public in London in 1999, under the Future name. At its peak, it published 150 magazines and websites and employed 2,000 people.

This success allowed Chris to create a private nonprofit organization, the Sapling Foundation, with the hope of finding new ways to tackle tough global issues through media, technology, entrepreneurship and, most of all, ideas. In 2001, the foundation acquired the TED Conference, then an annual meeting of luminaries in the fields of Technology, Entertainment and Design held in Monterey, California, and Chris left Future to work full time on TED.

He expanded the conference's remit to cover all topics, including science, business and key global issues, while adding a Fellows program, which now has some 300 alumni, and the TED Prize, which grants its recipients "one wish to change the world." The TED stage has become a place for thinkers and doers from all fields to share their ideas and their work, capturing imaginations, sparking conversation and encouraging discovery along the way.

In 2006, TED experimented with posting some of its talks on the Internet. Their viral success encouraged Chris to begin positioning the organization as a global media initiative devoted to 'ideas worth spreading,' part of a new era of information dissemination using the power of online video. In June 2015, the organization posted its 2,000th talk online. The talks are free to view, and they have been translated into more than 100 languages with the help of volunteers from around the world. Viewership has grown to approximately one billion views per year.

Continuing a strategy of 'radical openness,' in 2009 Chris introduced the TEDx initiative, allowing free licenses to local organizers who wished to organize their own TED-like events. More than 8,000 such events have been held, generating an archive of 60,000 TEDx talks. And three years later, the TED-Ed program was launched, offering free educational videos and tools to students and teachers.

More profile about the speaker
Chris Anderson | Speaker | TED.com
Whitney Pennington Rodgers - TED Current Affairs Curator
Whitney Pennington Rodgers is an award-winning journalist and media professional.

Why you should listen

Prior to joining TED as current affairs curator, Whitney Pennington Rodgers produced for NBC's primetime news magazine Dateline NBC. She earned a duPont-Columbia award and a News & Documentary Emmy or her contributions to the Dateline NBC hour "The Cosby Accusers Speak" -- an extensive group interview with 27 of the women who accused entertainer Bill Cosby of sexual misconduct.

Pennington Rodgers has worked at NBC's in-house production company Peacock Productions, The Today Show, Nightly News, Rock Center with Brian Williams and New Jersey-centric public affairs shows Caucus: New Jersey and One-on-One with Steve Adubato. Prior to beginning her career in media, she had a short stint as a fourth-grade teacher through the Teach for America program.

Pennington Rodgers received her Bachelor's in journalism and media studies from Rutgers University. She completed her Master's of Journalism at the University of California at Berkeley, where she produced a documentary about recruitment of nonblack students at historically black colleges and universities.

More profile about the speaker
Whitney Pennington Rodgers | Speaker | TED.com