ABOUT THE SPEAKERS
Jack Dorsey - Entrepreneur, programmer
Jack Dorsey is the CEO of Twitter, CEO & Chairman of Square, and a cofounder of both.

Why you should listen
More profile about the speaker
Jack Dorsey | Speaker | TED.com
Chris Anderson - TED Curator
After a long career in journalism and publishing, Chris Anderson became the curator of the TED Conference in 2002 and has developed it as a platform for identifying and disseminating ideas worth spreading.

Why you should listen

Chris Anderson is the Curator of TED, a nonprofit devoted to sharing valuable ideas, primarily through the medium of 'TED Talks' -- short talks that are offered free online to a global audience.

Chris was born in a remote village in Pakistan in 1957. He spent his early years in India, Pakistan and Afghanistan, where his parents worked as medical missionaries, and he attended an American school in the Himalayas for his early education. After boarding school in Bath, England, he went on to Oxford University, graduating in 1978 with a degree in philosophy, politics and economics.

Chris then trained as a journalist, working in newspapers and radio, including two years producing a world news service in the Seychelles Islands.

Back in the UK in 1984, Chris was captivated by the personal computer revolution and became an editor at one of the UK's early computer magazines. A year later he founded Future Publishing with a $25,000 bank loan. The new company initially focused on specialist computer publications but eventually expanded into other areas such as cycling, music, video games, technology and design, doubling in size every year for seven years. In 1994, Chris moved to the United States where he built Imagine Media, publisher of Business 2.0 magazine and creator of the popular video game users website IGN. Chris eventually merged Imagine and Future, taking the combined entity public in London in 1999, under the Future name. At its peak, it published 150 magazines and websites and employed 2,000 people.

This success allowed Chris to create a private nonprofit organization, the Sapling Foundation, with the hope of finding new ways to tackle tough global issues through media, technology, entrepreneurship and, most of all, ideas. In 2001, the foundation acquired the TED Conference, then an annual meeting of luminaries in the fields of Technology, Entertainment and Design held in Monterey, California, and Chris left Future to work full time on TED.

He expanded the conference's remit to cover all topics, including science, business and key global issues, while adding a Fellows program, which now has some 300 alumni, and the TED Prize, which grants its recipients "one wish to change the world." The TED stage has become a place for thinkers and doers from all fields to share their ideas and their work, capturing imaginations, sparking conversation and encouraging discovery along the way.

In 2006, TED experimented with posting some of its talks on the Internet. Their viral success encouraged Chris to begin positioning the organization as a global media initiative devoted to 'ideas worth spreading,' part of a new era of information dissemination using the power of online video. In June 2015, the organization posted its 2,000th talk online. The talks are free to view, and they have been translated into more than 100 languages with the help of volunteers from around the world. Viewership has grown to approximately one billion views per year.

Continuing a strategy of 'radical openness,' in 2009 Chris introduced the TEDx initiative, allowing free licenses to local organizers who wished to organize their own TED-like events. More than 8,000 such events have been held, generating an archive of 60,000 TEDx talks. And three years later, the TED-Ed program was launched, offering free educational videos and tools to students and teachers.

More profile about the speaker
Chris Anderson | Speaker | TED.com
Whitney Pennington Rodgers - TED Current Affairs Curator
Whitney Pennington Rodgers is an award-winning journalist and media professional.

Why you should listen

Prior to joining TED as current affairs curator, Whitney Pennington Rodgers produced for NBC's primetime news magazine Dateline NBC. She earned a duPont-Columbia award and a News & Documentary Emmy or her contributions to the Dateline NBC hour "The Cosby Accusers Speak" -- an extensive group interview with 27 of the women who accused entertainer Bill Cosby of sexual misconduct.

Pennington Rodgers has worked at NBC's in-house production company Peacock Productions, The Today Show, Nightly News, Rock Center with Brian Williams and New Jersey-centric public affairs shows Caucus: New Jersey and One-on-One with Steve Adubato. Prior to beginning her career in media, she had a short stint as a fourth-grade teacher through the Teach for America program.

Pennington Rodgers received her Bachelor's in journalism and media studies from Rutgers University. She completed her Master's of Journalism at the University of California at Berkeley, where she produced a documentary about recruitment of nonblack students at historically black colleges and universities.

More profile about the speaker
Whitney Pennington Rodgers | Speaker | TED.com
TED2019

Jack Dorsey: How Twitter needs to change

ジャック・ドーシー: ツイッターが必要としている変革

Filmed:
2,089,470 views

Twitter(ツイッター)を救うことはできるのか? TEDのクリス・アンダーソンとウィットニー・ペニントン・ロジャースとともに多岐にわたる話をする中で、Twitterの最高経営責任者であるジャック・ドーシーが、Twitterの未来について語ります。彼は嫌がらせ行為とその調停というTwitterが抱える問題を認めつつ、健全かつ互いを尊重し合う対話を促すような抜本的な変革を提案します。「Twitterは人々が日々価値を見いだせるようなものを提供できているのだろうか?」とドーシーは自問します。
- Entrepreneur, programmer
Jack Dorsey is the CEO of Twitter, CEO & Chairman of Square, and a cofounder of both. Full bio - TED Curator
After a long career in journalism and publishing, Chris Anderson became the curator of the TED Conference in 2002 and has developed it as a platform for identifying and disseminating ideas worth spreading. Full bio - TED Current Affairs Curator
Whitney Pennington Rodgers is an award-winning journalist and media professional. Full bio

Double-click the English transcript below to play the video.

00:13
Chrisクリス Andersonアンダーソン:
What worries心配 you right now?
0
1131
2408
(クリス・アンダーソン)
どんな懸念がありますか?
00:15
You've been very open開いた
about lots of issues問題 on TwitterTwitter.
1
3563
2853
Twitterの抱える問題について
あなたはオープンに話してますが
00:18
What would be your top worry心配
2
6440
2299
現状に関して
00:20
about where things are right now?
3
8763
2049
1番の懸念は何ですか?
00:23
Jackジャック Dorseyドーシー: Right now,
the health健康 of the conversation会話.
4
11447
2929
(ジャック・ドーシー)
現在は 対話の健全性です
00:26
So, our purpose目的 is to serveサーブ
the publicパブリック conversation会話,
5
14400
3660
私たちの目的は
公共の場での対話に寄与することですが
00:30
and we have seen見た
a number of attacks攻撃 on it.
6
18084
5056
そこでたくさん攻撃を
目にしています
00:35
We've私たちは seen見た abuse乱用, we've私たちは seen見た harassment嫌がらせ,
7
23164
2425
誹謗中傷や嫌がらせ行為
00:37
we've私たちは seen見た manipulation操作,
8
25613
3222
情報操作もあります
00:40
automationオートメーション, human人間 coordination調整,
misinformation誤報.
9
28859
4265
機械によるもの 組織的活動
誤った情報もありました
00:46
So these are all dynamicsダイナミクス
that we were not expecting期待している
10
34134
4034
こうした動きの数々は
13年前に起業したときには
00:50
13 years ago when we were
starting起動 the company会社.
11
38192
3718
予想していなかった事柄です
00:53
But we do now see them at scale規模,
12
41934
2664
しかし それが
規模を増しています
00:56
and what worries心配 me most最も
is just our ability能力 to address住所 it
13
44622
5278
1番の懸念は
我々がそういった問題に対し
01:01
in a systemic全身性の way that is scalableスケーラブルな,
14
49924
3108
大きな規模で体系的に
対処できるかということで
01:05
that has a rigorous厳しい understanding理解
of how we're taking取る actionアクション,
15
53056
6976
取り組みへの深い理解―
01:12
a transparentトランスペアレント understanding理解
of how we're taking取る actionアクション
16
60056
3105
取り組みについての
クリアな理解と
01:15
and a rigorous厳しい appeals上訴 processプロセス
for when we're wrong違う,
17
63185
3101
過ちが起きた際の
厳格な是正手続きが必要です
01:18
because we will be wrong違う.
18
66310
2169
過ちは起きるものですから
01:20
Whitneyホイットニー Penningtonペニントン Rodgersロジャーズ:
I'm really gladうれしい to hear聞く
19
68503
2397
(ウィットニー・ペニントン・ロジャース)
懸念されていると聞けて
01:22
that that's something that concerns心配 you,
20
70924
1928
うれしく思います
01:24
because I think there's been
a lot written書かれた about people
21
72876
2630
これまでに多くの人々が
Twitter で誹謗中傷や
嫌がらせを受けており
01:27
who feel they've彼らは been abused虐待された
and harassed嫌がらせをする on TwitterTwitter,
22
75530
2477
01:30
and I think no one more so
than women女性 and women女性 of color
23
78031
4102
女性や 有色人種の女性
黒人女性は特にそうです
01:34
and black women女性.
24
82157
1170
01:35
And there's been dataデータ that's come out --
25
83351
1913
データにも示されています
01:37
Amnesty恩赦 International国際 put out
a report報告する a few少数 months数ヶ月 ago
26
85288
2909
アムネスティ・インターナショナルの
数か月前の報告では
01:40
where they showed示した that a subsetサブセット
of activeアクティブ black female女性 TwitterTwitter usersユーザー
27
88221
4480
黒人女性の活発なユーザーの一部が
受け取るツイートの
01:44
were receiving受信, on average平均,
one in 10 of their彼らの tweetsつぶやき
28
92725
3456
平均1割が何らかの
ハラスメントだということでした
01:48
were some form of harassment嫌がらせ.
29
96205
2099
01:50
And so when you think about health健康
for the communityコミュニティ on TwitterTwitter,
30
98328
3907
だから Twitter コミュニティの
健全性について—
01:54
I'm interested興味がある to hear聞く,
"health健康 for everyoneみんな,"
31
102259
4024
「すべての人にとっての健全さ」について
伺いたいものですが
01:58
but specifically具体的に: How are you looking
to make TwitterTwitter a safe安全 spaceスペース
32
106307
3125
具体的には 女性や有色人種の女性
黒人女性のグループについて
02:01
for that subsetサブセット, for women女性,
for women女性 of color and black women女性?
33
109456
4164
Twitterをどう安全な場に
変えていくのですか?
02:05
JDJD: Yeah.
34
113644
1164
(ジャック)そうですね
02:06
So it's a prettyかなり terribleひどい situation状況
35
114832
2643
かなりひどい状況ですよね
何かのサービスを利用していて
02:09
when you're coming到来 to a serviceサービス
36
117499
1619
02:11
that, ideally理想的には, you want to learn学ぶ
something about the world世界,
37
119142
4321
理想的には 世界について
何か学びたいのに
02:15
and you spend費やす the majority多数 of your time
reporting報告 abuse乱用, receiving受信 abuse乱用,
38
123487
5443
ほとんどの時間を
誹謗中傷や嫌がらせを受け
その報告に費やしているなんて
02:20
receiving受信 harassment嫌がらせ.
39
128954
1804
02:23
So what we're looking most最も deeply深く at
is just the incentivesインセンティブ
40
131373
6321
今 最も深く掘り下げているのは
プラットフォームとサービスが
02:29
that the platformプラットフォーム naturally当然 provides提供する
and the serviceサービス provides提供する.
41
137718
3823
自然に生み出す
動機そのものについてです
02:34
Right now, the dynamic動的 of the systemシステム
makes作る it super-easy超簡単 to harassハラス
42
142262
4577
現在は サービスを通じて
他者に誹謗中傷をしたり
嫌がらせ行為をしたりするのが
非常に容易なシステムになっています
02:38
and to abuse乱用 othersその他 throughを通して the serviceサービス,
43
146863
3664
02:42
and unfortunately残念ながら, the majority多数
of our systemシステム in the past過去
44
150551
3262
残念ながら
これまでのシステムはもっぱら
02:45
worked働いた entirely完全に basedベース on people
reporting報告 harassment嫌がらせ and abuse乱用.
45
153837
5596
人々が嫌がらせや誹謗中傷を
報告してくれるのに頼っていました
02:51
So about midway途中の last year,
we decided決定しました that we were going to apply適用する
46
159457
5075
なので 昨年の中頃に
もっと機械学習を使おう
02:56
a lot more machine機械 learning学習,
a lot more deep深い learning学習 to the problem問題,
47
164556
3982
この問題に深層学習を
適用しようと決め
03:00
and try to be a lot more proactive積極的な
around where abuse乱用 is happeningハプニング,
48
168562
4538
誹謗中傷が起きる場で
もっと積極的な対策を講じようとしています
03:05
so that we can take the burden重荷
off the victim犠牲者 completely完全に.
49
173124
3960
被害者の負担を
完全になくすのが目的です
03:09
And we've私たちは made some progress進捗 recently最近.
50
177108
2435
最近 進歩も見られました
03:11
About 38 percentパーセント of abusive虐待 tweetsつぶやき
are now proactively積極的に identified特定された
51
179567
6689
約38%の誹謗中傷ツイートが
機械学習アルゴリズムで
自動的に検出されるようになり
03:18
by machine機械 learning学習 algorithmsアルゴリズム
52
186280
1715
03:20
so that people don't actually実際に
have to report報告する them.
53
188019
2334
報告する必要がなくなりました
03:22
But those that are identified特定された
are still reviewed審査 by humans人間,
54
190377
3305
しかし 検出されたものは
人の目で確認しており
03:25
so we do not take down contentコンテンツ or accountsアカウント
withoutなし a human人間 actually実際に reviewingレビュー it.
55
193706
5384
人による確認なしに
内容やアカウントの凍結はしていません
03:31
But that was from zeroゼロ percentパーセント
just a year ago.
56
199114
2759
とはいえ 1年前の0%からは
進歩でしょう
03:33
So that meant意味した, at that zeroゼロ percentパーセント,
57
201897
1931
つまり 0%であったときは
03:35
everyすべて singleシングル person who received受け取った abuse乱用
had to actually実際に report報告する it,
58
203852
3650
誹謗中傷を受けた人が
皆 報告する必要があり
03:39
whichどの was a lot of work for them,
a lot of work for us
59
207526
3579
当事者にとっても
私たちにとっても大きな負担で
03:43
and just ultimately最終的に unfair不公正.
60
211129
2018
非常に不公平だったのです
03:46
The other thing that we're doing
is making作る sure that we, as a company会社,
61
214528
3780
もうひとつの取り組みは
企業として
03:50
have representation表現 of all the communitiesコミュニティ
that we're trying試す to serveサーブ.
62
218332
3333
あらゆるコミュニティが
参画できるよう努めることです
ビジネスを成功に導くには
03:53
We can't buildビルドする a businessビジネス
that is successful成功した
63
221689
2159
03:55
unless限り we have a diversity多様性
of perspective視点 inside内部 of our walls
64
223872
3300
こうした問題を
日々実感している人々の
03:59
that actually実際に feel these issues問題
everyすべて singleシングル day.
65
227196
3732
多様な視点を
内部に持たねばなりません
04:02
And that's not just with the teamチーム
that's doing the work,
66
230952
3738
作業をしているチームだけではなく
04:06
it's alsoまた、 within以内 our leadershipリーダーシップ as well.
67
234714
2096
上層部についても そうです
04:08
So we need to continue持続する to buildビルドする empathy共感
for what people are experiencing経験する
68
236834
5757
人々の経験に対して
共感を高め続ける必要があるし
04:14
and give them better toolsツール to act行為 on it
69
242615
3316
行動を起こすのに役立つツールを
提供する必要があります
04:17
and alsoまた、 give our customers顧客
a much better and easierより簡単に approachアプローチ
70
245955
4252
ユーザーが目にしているものに
もっとうまく容易に対処できる方法を
04:22
to handleハンドル some of the things
that they're seeing見る.
71
250231
2382
提供する必要もあります
04:24
So a lot of what we're doing
is around technology技術,
72
252637
3266
ですから 技術面での取り組みが
多いですが
04:27
but we're alsoまた、 looking at
the incentivesインセンティブ on the serviceサービス:
73
255927
4308
サービスが人々に与える
動機についても考えています
04:32
What does TwitterTwitter incentivizeインセンティブを与える you to do
when you first open開いた it up?
74
260259
5183
Twitter を開いたときに
何をしたいと思わせるのか?
04:37
And in the past過去,
75
265466
1294
過去には
04:40
it's incentedインセンティブ付き a lot of outrage怒り,
it's incentedインセンティブ付き a lot of mob暴徒 behavior動作,
76
268670
5544
怒りや 群衆行動
集団的嫌がらせも
04:46
it's incentedインセンティブ付き a lot of groupグループ harassment嫌がらせ.
77
274238
2459
多く誘発していました
04:48
And we have to look a lot deeperもっと深く
at some of the fundamentals基本
78
276721
3648
大きな変革をするには
サービスが何をしているのか本質的なことを
深く理解する必要があります
04:52
of what the serviceサービス is doing
to make the biggerより大きい shiftsシフト.
79
280393
2958
04:55
We can make a bunch of small小さい shiftsシフト
around technology技術, as I just described記載された,
80
283375
4031
先ほど言った通り 技術面で
小さな変更は多くできますが
04:59
but ultimately最終的に, we have to look deeply深く
at the dynamicsダイナミクス in the networkネットワーク itself自体,
81
287430
4386
最終的には ネットワークそのものの
力学を深く理解する必要があり
それが今取り組んでいることです
05:03
and that's what we're doing.
82
291840
1368
05:05
CACA: But what's your senseセンス --
83
293232
2060
(クリス)ですが 実感としては―
05:07
what is the kind種類 of thing
that you mightかもしれない be ableできる to change変化する
84
295316
3963
実際に人々の行動を
根本的に変えるために
05:11
that would actually実際に
fundamentally根本的に shiftシフト behavior動作?
85
299303
2749
どんなことができると
思いますか?
05:15
JDJD: Well, one of the things --
86
303386
1480
(ジャック)始めた当初は
05:16
we started開始した the serviceサービス
with this concept概念 of following以下 an accountアカウント,
87
304890
5340
このサービスの基本に
「アカウントのフォロー」がありました
05:22
as an example,
88
310254
1725
これは ひとつの例ですが
05:24
and I don't believe that's why
people actually実際に come to TwitterTwitter.
89
312003
4349
でもそれは 人々がTwitterを使う
理由ではないと思うんです
05:28
I believe TwitterTwitter is bestベスト
as an interest-based利子ベース networkネットワーク.
90
316376
4857
Twitter は関心に基づいた
ネットワークとして優れています
05:33
People come with a particular特に interest利子.
91
321257
3453
特定の関心を持って
利用されているんです
05:36
They have to do a tonトン of work
to find and followフォローする the related関連する accountsアカウント
92
324734
3487
今は各自の関心に関係のあるアカウントを
探してフォローして回るのに
05:40
around those interests関心.
93
328245
1405
手間がかかります
05:42
What we could do instead代わりに
is allow許す you to followフォローする an interest利子,
94
330217
3397
そうではなく
関心をフォローしたり
ハッシュタグやトレンドや
コミュニティを
05:45
followフォローする a hashtagハッシュタグ, followフォローする a trend傾向,
95
333638
2103
05:47
followフォローする a communityコミュニティ,
96
335765
1754
フォローするようにするのです
05:49
whichどの gives与える us the opportunity機会
to showショー all of the accountsアカウント,
97
337543
4637
そうすれば特定の話題や関心に
関係するアカウントや
05:54
all the topicsトピック, all the moments瞬間,
all the hashtagsハッシュタグ
98
342204
3323
トピックや「モーメント」や
ハッシュタグなどを
05:57
that are associated関連する with that
particular特に topicトピック and interest利子,
99
345551
3992
すべて表示することが
できるようになり
06:01
whichどの really opens開く up
the perspective視点 that you see.
100
349567
4600
目に入ってくる視野が
大きく広がります
06:06
But that is a huge巨大 fundamental基本的な shiftシフト
101
354191
2157
とはいえ アカウント中心から
06:08
to biasバイアス the entire全体 networkネットワーク
away from just an accountアカウント biasバイアス
102
356372
3792
トピックや関心を中心にするよう
ネットワーク全体を移行するのは
06:12
towards方向 a topicsトピック and interest利子 biasバイアス.
103
360188
2587
大々的で根本的な変更です
06:15
CACA: Because isn't it the case場合
104
363283
3148
(クリス)それほどまでに
06:19
that one reason理由 why you have
so much contentコンテンツ on there
105
367375
3541
コンテンツが
豊富である理由のひとつは
06:22
is a result結果 of puttingパッティング millions何百万
of people around the world世界
106
370940
3591
世界中の何百万人もの人々に
06:26
in this kind種類 of gladiatorial剣闘士
contestコンテスト with each other
107
374555
3142
フォロワーや注目の争奪戦を
させたからではありませんか?
06:29
for followersフォロワー, for attention注意?
108
377721
2090
06:31
Like, from the pointポイント of view見る
of people who just read読む TwitterTwitter,
109
379835
4117
Twitter で情報を得るだけの人には
その変更は
06:35
that's not an issue問題,
110
383976
1155
問題ないでしょうが
06:37
but for the people who actually実際に create作成する it,
everyone's誰もが out there saying言って,
111
385155
3350
コンテンツを生み出す人々は
皆 こう考えていますよね
06:40
"You know, I wish望む I had
a few少数 more 'likes'いいね!,' followersフォロワー, retweetsリトワット."
112
388529
3236
「いいねや フォロワーや
リツイートをもっと増やしたい!」と
06:43
And so they're constantly常に experimenting実験する,
113
391789
2148
彼らは それを実現しようと
06:45
trying試す to find the pathパス to do that.
114
393961
1961
試行錯誤しています
06:47
And what we've私たちは all discovered発見された
is that the number one pathパス to do that
115
395946
4126
そして1番効果的だと
分かったのは
06:52
is to be some form of provocative挑発的な,
116
400096
3406
少し挑発的になったり
06:55
obnoxious嫌な, eloquently雄弁に obnoxious嫌な,
117
403526
2980
不快なことを言い立てたりすることです
06:58
like, eloquent雄弁 insults侮辱
are a dream on TwitterTwitter,
118
406530
3516
声高な侮辱は Twitter で
注目されます
07:02
where you rapidly急速に pileパイル up --
119
410070
2603
すごい速さで反応が来ますから
07:04
and it becomes〜になる this self-fueling自己給油
processプロセス of driving運転 outrage怒り.
120
412697
4608
炎上を自ら招く手法が
できてしまうわけです
07:09
How do you defuse解散する that?
121
417329
2351
それには どう対処しますか?
07:12
JDJD: Yeah, I mean, I think you're spotスポット on,
122
420624
2947
(ジャック)ええ その通りで
07:15
but that goes行く back to the incentivesインセンティブ.
123
423595
1886
それは動機の話に戻ります
07:17
Like, one of the choices選択肢
we made in the early早い days日々 was
124
425505
2632
初期に下した選択のひとつに
07:20
we had this number that showed示した
how manyたくさんの people followフォローする you.
125
428161
4701
フォロワーの数を表示する
というものがあります
07:24
We decided決定しました that number
should be big大きい and bold大胆な,
126
432886
2959
その数字を大きい太字で
表示することにしました
07:27
and anything that's on the pageページ
that's big大きい and bold大胆な has importance重要度,
127
435869
3740
大きく太字で表示されているものは
重要なわけで
07:31
and those are the things
that you want to driveドライブ.
128
439633
2278
もっと上を目指そうとします
07:33
Was that the right decision決定 at the time?
129
441935
1907
当時として正しい判断だったか?
07:35
Probably多分 not.
130
443866
1153
違うかもしれません
07:37
If I had to start開始 the serviceサービス again,
131
445043
1805
サービスを最初から
作り直すなら
07:38
I would not emphasize強調する
the followerフォロワー countカウント as much.
132
446872
2398
フォロワー数は
そこまで強調しないと思います
07:41
I would not emphasize強調する
the "like" countカウント as much.
133
449294
2295
「いいね」の数も強調しません
07:43
I don't think I would even
create作成する "like" in the first place場所,
134
451613
3120
「いいね」をする機能を
そもそも作りませんね
07:46
because it doesn't actually実際に push押す
135
454757
3267
現在 最も重要だと考えていることを
07:50
what we believe now
to be the most最も important重要 thing,
136
458048
3179
後押しはしてくれませんから
07:53
whichどの is healthy健康 contribution貢献
back to the networkネットワーク
137
461251
3039
ネットワークに健全な貢献をしたり
07:56
and conversation会話 to the networkネットワーク,
138
464314
2652
ネットワークに対話をもたらしたり
07:58
participation参加 within以内 conversation会話,
139
466990
2072
対話への参加を促したり
08:01
learning学習 something from the conversation会話.
140
469086
2493
対話から何かを学ぶことには
つながりません
08:03
Those are not things
that we thought of 13 years ago,
141
471603
2824
こうしたことを 13年前には
考えていませんでしたが
08:06
and we believe are extremely極端な
important重要 right now.
142
474451
2439
今は非常に重要だと思っています
08:08
So we have to look at
how we display表示 the followerフォロワー countカウント,
143
476914
3023
ですから フォロワー数を
どう表示するか
08:11
how we display表示 retweetリトワート countカウント,
144
479961
2365
リツイート数や「いいね」を
08:14
how we display表示 "likes好きな人,"
145
482350
1401
どう表示するかを考え
08:15
and just ask尋ねる the deep深い question質問:
146
483775
2254
深く問いかけねばなりません
08:18
Is this really the number
that we want people to driveドライブ up?
147
486053
3048
本当にこの数字を
追求させたいのか?
08:21
Is this the thing that,
when you open開いた TwitterTwitter,
148
489125
2545
Twitter を開いたときに
08:23
you see, "That's the thing
I need to increase増加する?"
149
491694
2516
「この数字を増やそう」と
思わせたいのか?
08:26
And I don't believe
that's the case場合 right now.
150
494234
2144
今は そうではないと思います
08:28
(Applause拍手)
151
496402
2103
(拍手)
08:30
WPRWPR: I think we should look at
some of the tweetsつぶやき
152
498529
2352
(ウィットニー)ここで客席からのツイートも
08:32
that are coming到来
in from the audience聴衆 as well.
153
500905
2169
少し見てみましょうか
08:35
CACA: Let's see what you guys are asking尋ねる.
154
503868
2436
(クリス)皆さんの質問を見ましょう
08:38
I mean, this is -- generally一般的に, one
of the amazing素晴らしい things about TwitterTwitter
155
506328
3294
これは Twitter の
素晴らしい点のひとつですね
08:41
is how you can use it for crowd群集 wisdom知恵,
156
509646
2294
みんなの知恵を借りて
08:43
you know, that more knowledge知識,
more questions質問, more pointsポイント of view見る
157
511964
4840
想像しないほど多くの
知識や問いや視点を活用でき
08:48
than you can imagine想像する,
158
516828
1238
08:50
and sometimes時々, manyたくさんの of them
are really healthy健康.
159
518090
3689
その多くはとても
健全なものです
08:53
WPRWPR: I think one I saw that
passed合格 already既に quickly早く down here,
160
521803
2900
(ウィットニー)今 流れていきましたが
08:56
"What's Twitter'sTwitterの plan計画 to combat戦闘
foreign外国人 meddling干渉 in the 2020 US election選挙?"
161
524717
3524
「2020年の米大統領選挙で
外国の介入にどう対処するのか?」
09:00
I think that's something
that's an issue問題 we're seeing見る
162
528265
2571
インターネットで一般的に
09:02
on the internetインターネット in general一般,
163
530860
1901
多く見られる問題ですね
09:04
that we have a lot of malicious悪意のある
automated自動化 activityアクティビティ happeningハプニング.
164
532785
3667
自動化された悪意ある活動が
多く見られます
09:08
And on TwitterTwitter, for example,
in fact事実, we have some work
165
536476
5373
たとえば Twitter については
Zignal Lab による
調査結果が手元にありますが
09:13
that's come from our friends友達
at Zignalジグナル Labsラボ,
166
541873
2758
09:16
and maybe we can even see that
to give us an example
167
544655
2656
今 お話ししていることの
09:19
of what exactly正確に I'm talking話す about,
168
547335
1927
良い例として見てみましょう
09:21
where you have these botsボット, if you will,
169
549286
3204
「ボット」というか
09:24
or coordinated調整された automated自動化
malicious悪意のある accountアカウント activityアクティビティ,
170
552514
4550
組織的な悪意ある
自動化されたアカウントが
09:29
that is beingであること used to influence影響
things like elections選挙.
171
557088
2764
選挙などを左右するのに
使われたりしています
09:31
And in this example we have
from Zignalジグナル whichどの they've彼らは shared共有 with us
172
559876
3843
Zignal Lab 提供の
こちらの例は
09:35
usingを使用して the dataデータ that
they have from TwitterTwitter,
173
563743
2198
Twitter から抽出した
データを使っていますが
09:37
you actually実際に see that in this case場合,
174
565965
2441
ここから実際に分かるのは—
09:40
white representsは表す the humans人間 --
human人間 accountsアカウント, each dotドット is an accountアカウント.
175
568430
4370
ひとつひとつの点がアカウントで
白が人間のユーザーで
09:44
The pinkerピッカー it is,
176
572824
1359
赤みが強いものほど
09:46
the more automated自動化 the activityアクティビティ is.
177
574207
1740
自動化傾向の強いアカウントです
09:47
And you can see how you have
a few少数 humans人間 interacting相互作用する with botsボット.
178
575971
5970
ボットと関わっている人間のユーザーが
いくらか見られます
09:53
In this case場合, it's related関連する
to the election選挙 in Israelイスラエル
179
581965
4419
このケースは
イスラエルの選挙に関連したもので
09:58
and spreading広がる misinformation誤報
about Bennyベニー Gantzガンツ,
180
586408
2833
ベニー・ガンツに関する
虚偽の情報が広められています
10:01
and as we know, in the end終わり,
that was an election選挙
181
589265
2662
ご存じの通り
最終的に選挙結果は
10:03
that Netanyahuネタニヤフ won勝った by a slimスリム marginマージン,
182
591951
3724
ネタニヤフが僅差で
勝利しましたが
10:07
and that mayかもしれない have been
in some case場合 influenced影響を受け by this.
183
595699
2842
これに影響された部分も
あるかもしれません
10:10
And when you think about
that happeningハプニング on TwitterTwitter,
184
598565
2615
Twitter 上の こうした活動について
10:13
what are the things
that you're doing, specifically具体的に,
185
601204
2456
具体的には 何をされていますか?
10:15
to ensure確実に you don't have misinformation誤報
like this spreading広がる in this way,
186
603684
3702
虚偽の情報がいたずらに広まり
人々に影響して
10:19
influencing影響を及ぼす people in ways方法
that could affect影響を与える democracy民主主義?
187
607410
4181
民主主義を左右しないように
何をしていますか?
10:23
JDJD: Just to back up a bitビット,
188
611615
1771
(ジャック)少し補足しますが
10:25
we asked尋ねた ourselves自分自身 a question質問:
189
613410
2975
私たちも自問しました
10:28
Can we actually実際に measure測定
the health健康 of a conversation会話,
190
616409
3816
実際に対話の健全性を
測ることはできるのか?
それがどういうことなのか?
10:32
and what does that mean?
191
620249
1288
10:33
And in the same同じ way
that you have indicators指標
192
621561
3382
自分が健康かを測る上で
10:36
and we have indicators指標 as humans人間
in terms条項 of are we healthy健康 or not,
193
624967
3467
体温や顔色などの尺度を
10:40
suchそのような as temperature温度,
the flushnessフラッシュネス of your face,
194
628458
4658
人間として持っているのと
同じように
10:45
we believe that we could find
the indicators指標 of conversational会話 health健康.
195
633140
4560
対話の健全性についても
尺度を見いだせると思います
10:49
And we worked働いた with a lab研究室
calledと呼ばれる Cortico皮質 at MITMIT
196
637724
3843
MIT の Cortico という
ラボと共同して
10:54
to propose提案する four4つの starterスターター indicators指標
197
642479
6091
手始めに4つの指標案を出しました
11:00
that we believe we could ultimately最終的に
measure測定 on the systemシステム.
198
648594
3670
最終的には システム上で
測れるものだと思います
11:05
And the first one is
what we're calling呼び出し shared共有 attention注意.
199
653249
5604
1つめは「関心の共有度」です
11:10
It's a measure測定 of how much
of the conversation会話 is attentive注意深い
200
658877
3581
ある対話において
どれほどが同じ話題に
11:14
on the same同じ topicトピック versus disparate異なる.
201
662482
2630
収斂しているかどうかを測ります
11:17
The second二番 one is calledと呼ばれる shared共有 reality現実,
202
665739
2783
2つめは「事実の共有度」です
11:21
and this is what percentageパーセンテージ
of the conversation会話
203
669217
2259
これは ある対話において
同じ事実を
11:23
shares株式 the same同じ facts事実 --
204
671500
2005
共有している割合を測ります
11:25
not whetherかどうか those facts事実
are truthful真実な or not,
205
673529
3113
その事実が真実かどうかではなく
11:28
but are we sharing共有
the same同じ facts事実 as we converse話す?
206
676666
3009
対話において 同じ事実が
共有されているかどうかです
11:32
The third三番 is receptivity感受性:
207
680235
2353
3つめは「受容性」です
11:34
How much of the conversation会話
is receptive受容性の or civil市民
208
682612
3959
ある対話のどれほどが
受容的かつ礼儀にかなったものか
11:38
or the inverseインバース, toxic毒性?
209
686595
2944
あるいは逆に不快なものかを測ります
11:42
And then the fourth第4
is variety品種 of perspective視点.
210
690213
3222
4つめは「視点の多様性」です
11:45
So, are we seeing見る filterフィルタ bubbles
or echoエコー chambers部屋,
211
693459
3145
フィルターバブルや
エコーチェンバー現象が起きているか
11:48
or are we actually実際に getting取得
a variety品種 of opinions意見
212
696628
3057
それとも 対話において
様々な意見が見られるかを測ります
11:51
within以内 the conversation会話?
213
699709
1635
11:53
And implicit暗黙 in all four4つの of these
is the understanding理解 that,
214
701368
4018
この4つに共通するのは
それが大きいほどに
11:57
as they increase増加する, the conversation会話
gets取得 healthierより健康的 and healthierより健康的.
215
705410
3390
対話がより健全なものになる
ということです
12:00
So our first stepステップ is to see
if we can measure測定 these onlineオンライン,
216
708824
4869
第一歩はこれらをその場で
測れるかを試すことですが
12:05
whichどの we believe we can.
217
713717
1308
できると思います
12:07
We have the most最も momentum勢い
around receptivity感受性.
218
715049
3167
「受容性」について
特に力を入れています
12:10
We have a toxicity毒性 scoreスコア,
a toxicity毒性 modelモデル, on our systemシステム
219
718240
4317
不快度のモデルを
システム上に構築していて
12:14
that can actually実際に measure測定
whetherかどうか you are likelyおそらく to walk歩く away
220
722581
4124
不快であるとの理由から
Twitter 上での対話から
12:18
from a conversation会話
that you're having持つ on TwitterTwitter
221
726729
2313
立ち去る可能性を
12:21
because you feel it's toxic毒性,
222
729066
1633
実際に測定できます
12:22
with some prettyかなり high高い degree.
223
730723
2512
かなりの精度です
12:26
We're workingワーキング to measure測定 the rest残り,
224
734369
2199
その他についても取り組んでおり
12:28
and the next stepステップ is,
225
736592
1964
次の段階は
12:30
as we buildビルドする up solutionsソリューション,
226
738580
3359
解決策を講じるとともに
12:33
to watch how these measurements測定値
trend傾向 over time
227
741963
3491
これらの指標が時の経過とともに
どう変化するかを観察し
12:37
and continue持続する to experiment実験.
228
745478
1873
実験を続けることです
12:39
And our goalゴール is to make sure
that these are balancedバランス,
229
747375
4041
目標はこれらをバランスよく
運用することです
12:43
because if you increase増加する one,
you mightかもしれない decrease減少 another別の.
230
751440
3066
どれかを増やすと
他が減少することもあるでしょう
12:46
If you increase増加する variety品種 of perspective視点,
231
754530
2147
「視点の多様性」を上げることで
12:48
you mightかもしれない actually実際に decrease減少
shared共有 reality現実.
232
756701
3091
「事実の共有度」が下がる
かもしれません
12:51
CACA: Just pickingピッキング up on some
of the questions質問 flooding洪水 in here.
233
759816
4989
(クリス)多く寄せられた質問に
言及しますね
12:56
JDJD: Constant定数 questioning質問.
234
764829
1271
(ジャック)質問攻めですね
12:58
CACA: A lot of people are puzzled困惑 why,
235
766996
3620
(クリス)多くの人が
疑問に思っているのは
13:02
like, how hardハード is it to get rid除去する
of Nazisナチス from TwitterTwitter?
236
770640
4247
Twitter からネオナチを駆逐するのが
どれだけ難しいのかということです
13:08
JDJD: (Laughs笑う)
237
776309
1322
(ジャック)(笑)
13:09
So we have policiesポリシー
around violent暴力的な extremist過激主義者 groupsグループ,
238
777655
6995
暴力的な過激派集団に対する
方針があります
13:16
and the majority多数 of our work
and our terms条項 of serviceサービス
239
784674
4426
私たちの仕事や
サービス規約のほとんどは
13:21
works作品 on conduct行動, not contentコンテンツ.
240
789124
3729
コンテンツではなく
行動を対象にしています
13:24
So we're actually実際に looking for conduct行動.
241
792877
2551
ですから 行動に着目しています
13:27
Conduct実施 beingであること usingを使用して the serviceサービス
242
795452
3014
つまり サービスを通じて
13:30
to repeatedly繰り返し or episodicallyエピソード的に
harassハラス someone誰か,
243
798490
3867
繰り返し あるいは散発的に
嫌がらせ行為をしたり
13:34
usingを使用して hateful憎む imageryイメージ
244
802381
2493
KKK やアメリカ・ナチ党に
関連するような―
13:36
that mightかもしれない be associated関連する with the KKKKkk
245
804898
2106
不愉快な画像を使ったり
といったことです
13:39
or the Americanアメリカ人 Naziナチ Partyパーティー.
246
807028
3281
13:42
Those are all things
that we act行為 on immediatelyすぐに.
247
810333
4156
そういったものには
即 対処します
13:47
We're in a situation状況 right now
where that term期間 is used fairlyかなり looselyゆるく,
248
815002
5452
現状では この規約は
緩やかに運用されていて
13:52
and we just cannotできない take
any one mention言及 of that wordワード
249
820478
5313
誰かを責めるのに
そういう言葉を
13:57
accusing非難する someone誰か elseelse
250
825815
2117
ひと言使ったからといって
13:59
as a factual事実 indication表示 that they
should be removed除去された from the platformプラットフォーム.
251
827956
3755
プラットフォームから
除外することはしません
14:03
So a lot of our modelsモデル
are basedベース around, number one:
252
831735
2627
ですから 私たちのモデルが
基づいているのは まず
14:06
Is this accountアカウント associated関連する
with a violent暴力的な extremist過激主義者 groupグループ?
253
834386
3140
暴力的な過激派集団に
関連するアカウントかどうか?
14:09
And if so, we can take actionアクション.
254
837550
1983
そうであれば 対処します
14:11
And we have done完了 so on the KKKKkk
and the Americanアメリカ人 Naziナチ Partyパーティー and othersその他.
255
839557
3852
KKK やアメリカ・ナチ党などについては
すでにそうしています
14:15
And number two: Are they usingを使用して
imageryイメージ or conduct行動
256
843433
4183
2点目としては そういった団体に
関連付けられるような―
14:19
that would associate関連付ける them as suchそのような as well?
257
847640
2372
画像の使用や行動を
しているかどうかです
14:22
CACA: How manyたくさんの people do you have
workingワーキング on contentコンテンツ moderation節度
258
850416
2932
(クリス)コンテンツ・モデレーションには
何人くらい関わっていますか?
14:25
to look at this?
259
853372
1250
14:26
JDJD: It varies不定.
260
854646
1496
(ジャック)色々ですね
14:28
We want to be flexibleフレキシブル on this,
261
856166
1595
フレキシブルにしたいんです
14:29
because we want to make sure
that we're, number one,
262
857785
2646
まず 人員をたくさん
雇い入れるのではなく
14:32
building建物 algorithmsアルゴリズム instead代わりに of just
hiring雇用 massive大規模 amounts金額 of people,
263
860455
4424
アルゴリズムを構築したいと
思っているからです
14:36
because we need to make sure
that this is scalableスケーラブルな,
264
864903
2824
大規模に行えなければ
いけませんし
14:39
and there are no amount of people
that can actually実際に scale規模 this.
265
867751
3454
人海戦術では
追いつきません
14:43
So this is why we've私たちは done完了 so much work
around proactive積極的な detection検出 of abuse乱用
266
871229
6629
ですから 誹謗中傷を自動検出して
人がそれを確認できるよう
14:49
that humans人間 can then reviewレビュー.
267
877882
1391
努力してきました
14:51
We want to have a situation状況
268
879297
2861
望ましい状況は
14:54
where algorithmsアルゴリズム are constantly常に
scouring精練 everyすべて singleシングル tweetつぶやく
269
882182
3741
アルゴリズムに常時
ツイートを精査させて
14:57
and bringing持参 the most最も
interesting面白い onesもの to the top
270
885947
2342
最も注意を引くものを
トップに表示させることで
15:00
so that humans人間 can bring持参する their彼らの judgment判定
to whetherかどうか we should take actionアクション or not,
271
888313
3902
利用規約に基づいて
除去するかどうかを
15:04
basedベース on our terms条項 of serviceサービス.
272
892239
1524
人が判断できるというものです
15:05
WPRWPR: But there's not an amount
of people that are scalableスケーラブルな,
273
893787
2803
(ウィットニー)問題の規模に
人手では対応できないとのことですが
15:08
but how manyたくさんの people do you currently現在 have
monitoringモニタリング these accountsアカウント,
274
896614
3497
アカウントの監視は
現在何人がしているんですか?
15:12
and how do you figure数字 out what's enough十分な?
275
900135
2546
それが十分であるかを
決める方法は何ですか?
15:14
JDJD: They're completely完全に flexibleフレキシブル.
276
902705
2272
(ジャック)まったくフレキシブルです
15:17
Sometimes時々 we associate関連付ける folks人々 with spamスパム.
277
905001
2941
スパムの対処を
してもらうこともありますし
15:19
Sometimes時々 we associate関連付ける folks人々
with abuse乱用 and harassment嫌がらせ.
278
907966
3845
誹謗中傷や嫌がらせ行為に
対処してもらうこともあります
15:23
We're going to make sure that
we have flexibility柔軟性 in our people
279
911835
3062
人員について柔軟性を保つことで
最も必要なことに
従事してもらえます
15:26
so that we can direct直接 them
at what is most最も needed必要な.
280
914921
2350
選挙であることもあります
15:29
Sometimes時々, the elections選挙.
281
917295
1204
15:30
We've私たちは had a string文字列 of elections選挙
in Mexicoメキシコ, one coming到来 up in Indiaインド,
282
918523
4927
メキシコで一連の選挙があり
今度インドでもあります
15:35
obviously明らかに, the election選挙 last year,
the midterm中期 election選挙,
283
923474
4447
もちろん 昨年の
米国中間選挙もありましたね
15:39
so we just want to be flexibleフレキシブル
with our resourcesリソース.
284
927945
2472
だから 人員については
柔軟にしたいと思っています
15:42
So when people --
285
930441
2129
誰かが―
15:44
just as an example, if you go
to our current現在 terms条項 of serviceサービス
286
932594
6389
たとえばですが
現在の利用規約にアクセスし
15:51
and you bring持参する the pageページ up,
287
939007
1641
ページを開いて
15:52
and you're wondering不思議 about abuse乱用
and harassment嫌がらせ that you just received受け取った
288
940672
3682
今受けたばかりの
嫌がらせ行為について
15:56
and whetherかどうか it was againstに対して
our terms条項 of serviceサービス to report報告する it,
289
944378
3634
利用規約に反していると
報告できるかと調べるとします
16:00
the first thing you see
when you open開いた that pageページ
290
948036
2559
ページを開いて
まず目に入るのは
16:02
is around intellectual知的
propertyプロパティ protection保護.
291
950619
3088
知的財産権についてです
16:06
You scrollスクロール down and you get to
abuse乱用, harassment嫌がらせ
292
954504
5323
下にスクロールしていくと
誹謗中傷や嫌がらせ行為など
16:11
and everything elseelse
that you mightかもしれない be experiencing経験する.
293
959851
2382
他の事柄について書かれています
16:14
So I don't know how that happened起こった
over the company's会社の history歴史,
294
962257
3195
うちの企業史で いつそうなったかは
定かではないですが
16:17
but we put that above上の
the thing that people want
295
965476
4797
人々が最も情報を求めていて
行動を望んでいるものよりも上に
16:24
the most最も information情報 on
and to actually実際に act行為 on.
296
972146
3222
そういうのがきています
16:27
And just our ordering注文 showsショー the world世界
what we believed信じる was important重要.
297
975392
5241
その順序自体が 何を重んじているかを
世界に示してしまっています
16:32
So we're changing変化 all that.
298
980657
2881
ですから 変えようと思っています
16:35
We're ordering注文 it the right way,
299
983562
1563
順序をあるべきものに変えて
16:37
but we're alsoまた、 simplifying単純化する the rulesルール
so that they're human-readable人間が読める
300
985149
3451
ルールも簡潔にして
普通に読んで分かるものにします
16:40
so that people can actually実際に
understandわかる themselves自分自身
301
988624
4067
規約違反かどうかを 利用者が
実際に理解できるようにしたいのです
16:44
when something is againstに対して our terms条項
and when something is not.
302
992715
3448
16:48
And then we're making作る --
303
996187
2161
それから取り組んでいるのは―
16:50
again, our big大きい focusフォーカス is on removing除去する
the burden重荷 of work from the victims犠牲者.
304
998372
5200
被害者の負担を取り除くよう
注力するということです
16:55
So that means手段 push押す more
towards方向 technology技術,
305
1003596
3734
もっとテクノロジーの
裁量を増やして
16:59
ratherむしろ than humans人間 doing the work --
306
1007354
1873
人間の作業を減らします
17:01
that means手段 the humans人間 receiving受信 the abuse乱用
307
1009251
2413
誹謗中傷を受けた人の負担も
17:03
and alsoまた、 the humans人間
having持つ to reviewレビュー that work.
308
1011688
3026
検証する人の負担も
減らすということです
17:06
So we want to make sure
309
1014738
1673
努力しているのは
17:08
that we're not just encouraging励ます more work
310
1016435
2841
非常にネガティブなものに対する
17:11
around something
that's superスーパー, superスーパー negative,
311
1019300
2629
対処を進めるだけでなく
17:13
and we want to have a good balanceバランス
betweenの間に the technology技術
312
1021953
2674
テクノロジーと
人間が創造性を発揮できる場の
17:16
and where humans人間 can actually実際に be creative創造的な,
313
1024651
2852
バランスをうまく取るということです
17:19
whichどの is the judgment判定 of the rulesルール,
314
1027527
3090
ただ違反を見つけて報告する
機械的な部分だけでなく
17:22
and not just all the mechanical機械的 stuffもの
of finding所見 and reporting報告 them.
315
1030641
3267
規則に基づいて
判断するという部分でも
17:25
So that's how we think about it.
316
1033932
1530
そう考えています
17:27
CACA: I'm curious好奇心 to dig掘る in more
about what you said.
317
1035486
2406
(クリス)今の発言を
掘り下げたいのですが
17:29
I mean, I love that you said
you are looking for ways方法
318
1037916
2605
システムの基本デザインを
見直すための方法を
17:32
to re-tweak再微調整 the fundamental基本的な
design設計 of the systemシステム
319
1040545
3462
探っているのは
とても良いことだと思います
17:36
to discourage落胆する some of the reactive反応性の
behavior動作, and perhapsおそらく --
320
1044031
4875
反射的な行動を
やめさせたり あるいは―
17:40
to use Tristanトリスタン Harris-typeハリス型 language言語 --
321
1048930
2705
トリスタン・ハリス風に言えば
17:43
engage従事する people's人々の more reflective反射的な thinking考え.
322
1051659
4288
人々の内省的な思考に
訴えるということでしょうか
17:47
How far遠い advanced高度な is that?
323
1055971
1854
それはどこまで進んでいますか?
17:49
What would alternatives代替案
to that "like" buttonボタン be?
324
1057849
4305
「いいね」に代わるものは
何になるのでしょう?
17:55
JDJD: Well, first and foremost一番,
325
1063518
3575
(ジャック)そうですね
まず何よりも
17:59
my personal個人的 goalゴール with the serviceサービス
is that I believe fundamentally根本的に
326
1067117
5753
このサービスについての
個人的な目標であり
私が信じていることは
公共の場での対話の重要性です
18:04
that publicパブリック conversation会話 is criticalクリティカルな.
327
1072894
2702
18:07
There are existential存在 problems問題
facing直面する the world世界
328
1075620
2647
世界が直面している
人間の存在に関わる問題―
18:10
that are facing直面する the entire全体 world世界,
not any one particular特に nation-state国家,
329
1078291
4163
特定の国だけでなく
世界全体が直面している問題には
18:14
that globalグローバル publicパブリック conversation会話 benefits利点.
330
1082478
2649
公共の場での議論に
利するものがあります
18:17
And that is one of the uniqueユニークな
dynamicsダイナミクス of TwitterTwitter,
331
1085151
2372
Twitter 独特の力強さのひとつは
18:19
that it is completely完全に open開いた,
332
1087547
1814
完全にオープンで
18:21
it is completely完全に publicパブリック,
333
1089385
1596
完全に公に開かれていて
18:23
it is completely完全に fluid流体,
334
1091005
1399
完全に流動的なことです
18:24
and anyone誰でも can see any other conversation会話
and participate参加する in it.
335
1092428
4038
誰でも あらゆる対話を目にでき
参加することができます
18:28
So there are conversations会話
like climate気候 change変化する.
336
1096490
2206
気候変動に関する話題もあるでしょう
18:30
There are conversations会話
like the displacement変位 in the work
337
1098720
2682
人工知能によって
労働力が代替されることに関する
18:33
throughを通して artificial人工的な intelligenceインテリジェンス.
338
1101426
2000
話題もあるでしょう
18:35
There are conversations会話
like economic経済的 disparity不一致.
339
1103450
3006
経済格差に関する話題もあります
18:38
No matter問題 what any one nation-state国家 does,
340
1106480
2765
ひとつの国家が何をしようが
18:41
they will not be ableできる
to solve解決する the problem問題 alone単独で.
341
1109269
2421
単独では解決し得ない問題です
18:43
It takes coordination調整 around the world世界,
342
1111714
2643
世界全体での協力が必要ですし
18:46
and that's where I think
TwitterTwitter can play遊びます a part.
343
1114381
3047
Twitter はそれに
役立てると思います
18:49
The second二番 thing is that TwitterTwitter,
right now, when you go to it,
344
1117452
5642
2つめは 現状では
Twitter にアクセスしても
18:55
you don't necessarily必ずしも walk歩く away
feeling感じ like you learned学んだ something.
345
1123118
3746
何かを学んだとは 必ずしも
感じないということです
18:58
Some people do.
346
1126888
1276
学んでいる人もいます
19:00
Some people have
a very, very richリッチ networkネットワーク,
347
1128188
3107
中には 非常に
豊かなネットワークを持っていて
19:03
a very richリッチ communityコミュニティ
that they learn学ぶ from everyすべて singleシングル day.
348
1131319
3117
日々学びを得ている人もいると思います
19:06
But it takes a lot of work
and a lot of time to buildビルドする up to that.
349
1134460
3691
しかし その段階に到達するには
手間も時間もかかります
19:10
So we want to get people
to those topicsトピック and those interests関心
350
1138175
3448
ですから 人々がそういう
トピックや関心事項にもっと早く
19:13
much, much fasterもっと早く
351
1141647
1579
到達できるようにしたいのです
19:15
and make sure that
they're finding所見 something that,
352
1143250
2566
それから 人々が必ず何かを
見付けられるようにしたい
19:18
no matter問題 how much time
they spend費やす on TwitterTwitter --
353
1146728
2360
どれだけの時間を
Twitter 上で過ごすにせよ―
19:21
and I don't want to maximize最大化する
the time on TwitterTwitter,
354
1149112
2358
利用時間を
最大化したいのではなく
そこから得られるもの—
そこから学べるものを
19:23
I want to maximize最大化する
what they actually実際に take away from it
355
1151494
2910
19:26
and what they learn学ぶ from it, and --
356
1154428
2030
最大化したいんです
19:29
CACA: Well, do you, thoughしかし?
357
1157598
1328
(クリス)本当ですか?
19:30
Because that's the coreコア question質問
that a lot of people want to know.
358
1158950
3244
多くの人が聞きたい
核心的な問いはそこなんです
19:34
Surely確かに, Jackジャック, you're constrained拘束された,
to a huge巨大 extentエクステント,
359
1162218
3638
「ジャック いろいろ制約が
あるのは分かる
19:37
by the fact事実 that you're a publicパブリック company会社,
360
1165880
2007
公開企業であるわけだし
19:39
you've got investors投資家 pressing押す on you,
361
1167911
1774
出資者のプレッシャーもあるだろう
19:41
the number one way you make your moneyお金
is from advertising広告 --
362
1169709
3559
最大の収入源は広告であって
19:45
that depends依存する on userユーザー engagementエンゲージメント.
363
1173292
2772
ユーザーの利用度合いに
依存してもいる
19:48
Are you willing喜んで to sacrifice犠牲
userユーザー time, if need be,
364
1176088
4700
本当に 必要とあれば
ユーザーの利用時間を失ってでも
19:52
to go for a more reflective反射的な conversation会話?
365
1180812
3729
内省的な対話を促そうと
考えているのか?」と
19:56
JDJD: Yeah; more relevance関連性 means手段
lessもっと少なく time on the serviceサービス,
366
1184565
3111
(ジャック)関連性を高めると
利用時間が減るというなら
19:59
and that's perfectly完全に fine,
367
1187700
1937
それはそれで構いません
20:01
because we want to make sure
that, like, you're coming到来 to TwitterTwitter,
368
1189661
3099
Twitter を利用したときに
すぐに何かを学べて
20:04
and you see something immediatelyすぐに
that you learn学ぶ from and that you push押す.
369
1192784
4520
追求できるものが
見つかるようにしたいと思いますし
20:09
We can still serveサーブ an ad広告 againstに対して that.
370
1197328
3420
それに広告をつけることはできます
広告を見てもらうために
長くいてもらう必要はありません
20:12
That doesn't mean you need to spend費やす
any more time to see more.
371
1200772
2921
2つめの取り組みは―
20:15
The second二番 thing we're looking at --
372
1203717
1733
(クリス)1日あたりの
利用についてですが
20:17
CACA: But just -- on that goalゴール,
daily毎日 activeアクティブ usage使用法,
373
1205474
2698
20:20
if you're measuring測定する that,
that doesn't necessarily必ずしも mean things
374
1208196
3245
それがそのまま
人々が価値を見いだしている内容の
20:23
that people value everyすべて day.
375
1211465
1738
量であるとは限りません
20:25
It mayかもしれない well mean
376
1213227
1161
おそらくは
20:26
things that people are drawn描かれた to
like a moth to the flame火炎, everyすべて day.
377
1214412
3306
火に集まる蛾のように 引き寄せられただけ
ということもあるでしょう
20:29
We are addicted中毒, because we see
something that pisses小便 us off,
378
1217742
3022
中毒的になって
腹が立つ内容を目にして
20:32
so we go in and add追加する fuel燃料 to the fire火災,
379
1220788
3178
火にさらに油を注ぐことをします
20:35
and the daily毎日 activeアクティブ usage使用法 goes行く up,
380
1223990
1927
すると 1日あたりの利用が増えて
20:37
and there's more ad広告 revenue収入 there,
381
1225941
1715
広告料はもっと入ってきますが
20:39
but we all get angrier怒り with each other.
382
1227680
2752
皆 お互いに対して
もっと腹を立てるばかりです
20:42
How do you define定義する ...
383
1230456
2509
どう定義するんですか?
20:44
"Daily毎日 activeアクティブ usage使用法" seems思われる like a really
dangerous危険な term期間 to be optimizing最適化する.
384
1232989
4126
「1日あたりの利用」は最適化するには
非常に危険なものだと思いますよ
20:49
(Applause拍手)
385
1237139
5057
(拍手)
20:54
JDJD: Taken奪われた alone単独で, it is,
386
1242220
1268
(ジャック)単独では そうです
20:55
but you didn't let me
finish仕上げ the other metricメトリック,
387
1243512
2346
もうひとつの指標について
まだお話ししていません
20:57
whichどの is, we're watching見ている for conversations会話
388
1245882
3727
対話や関連する一連のツイートにも
注目しています
21:01
and conversation会話 chainsチェーン.
389
1249633
2129
21:03
So we want to incentivizeインセンティブを与える
healthy健康 contribution貢献 back to the networkネットワーク,
390
1251786
5076
ネットワークに健全な貢献が
自発的にされるよう促したいんです
21:08
and what we believe that is
is actually実際に participating参加する in conversation会話
391
1256886
4181
それは 先程お話しした
4つの指標で定義されるような
21:13
that is healthy健康,
392
1261091
1197
21:14
as defined定義された by those four4つの indicators指標
I articulated関節式 earlier先に.
393
1262312
5037
健全な対話に参加する
ということだと考えています
21:19
So you can't just optimize最適化する
around one metricメトリック.
394
1267373
2657
1つの指標についてだけ
最適化はできません
21:22
You have to balanceバランス and look constantly常に
395
1270054
2752
バランスを取って
常に見守る必要があります
21:24
at what is actually実際に going to create作成する
a healthy健康 contribution貢献 to the networkネットワーク
396
1272830
4083
ネットワークへの健全な貢献や
健全な体験を生み出すのは何であるかを
21:28
and a healthy健康 experience経験 for people.
397
1276937
2341
21:31
Ultimately最終的に, we want to get to a metricメトリック
398
1279302
1866
最終的には 人々が
21:33
where people can tell us,
"Hey, I learned学んだ something from TwitterTwitter,
399
1281192
3757
「Twitter から何かを学んで
価値のある経験をした」と
21:36
and I'm walking歩く away
with something valuable貴重な."
400
1284973
2167
思えるための指標を
目指しています
21:39
That is our goalゴール ultimately最終的に over time,
401
1287164
2043
それが最終的な目標ですが
21:41
but that's going to take some time.
402
1289231
1809
時間はかかるでしょう
21:43
CACA: You come over to manyたくさんの,
I think to me, as this enigmaエニグマ.
403
1291064
5282
(クリス)多くの人は あなたを
謎めいていると思っていると思います
21:48
This is possiblyおそらく unfair不公正,
but I woke目が覚めた up the other night
404
1296370
4396
ちょっとひどいかもしれませんが
先日夜にふと目覚めて
21:52
with this picture画像 of how I found見つけた I was
thinking考え about you and the situation状況,
405
1300790
3879
あなたを取り巻く状況を
こんな風にイメージしたんです
21:56
that we're on this great voyage航海 with you
on this ship calledと呼ばれる the "Twittanicツイッタニック" --
406
1304693
6903
私たちはあなたと一緒に
客船「ツイッタニック」号に乗っていて―
22:03
(Laughter笑い)
407
1311620
1281
(笑)
22:04
and there are people on boardボード in steerage舵取り
408
1312925
4357
三等船室の乗客たちが
22:09
who are expressing表現する discomfort不快,
409
1317306
2203
不安を表明していると
22:11
and you, unlike違う manyたくさんの other captainsキャプテン,
410
1319533
2543
あなたは 他の船長とは違って
22:14
are saying言って, "Well, tell me, talk to me,
listen to me, I want to hear聞く."
411
1322100
3431
「教えてくれ 話をしよう
君たちの話を聞きたい」と言う
22:17
And they talk to you, and they say,
"We're worried心配している about the iceberg氷山 ahead前方に."
412
1325555
3619
人々が「前方にある氷山が
気がかりなんだ」と告げると
22:21
And you go, "You know,
that is a powerful強力な pointポイント,
413
1329198
2242
あなたは「非常に良い指摘だ
22:23
and our ship, frankly率直に,
hasn't持っていない been built建てられた properly正しく
414
1331464
2430
この船は 正直に言って
うまく操舵できるように
22:25
for steering操舵 as well as it mightかもしれない."
415
1333918
1669
作られてはいない」と言う
22:27
And we say, "Please do something."
416
1335611
1658
「どうにかしてくれ」と言うと
22:29
And you go to the bridgeブリッジ,
417
1337293
1411
あなたは船橋に行くが
22:30
and we're waiting待っている,
418
1338728
2295
みんな やきもきして待っているのに
22:33
and we look, and then you're showing表示
this extraordinary特別な calm落ち着いた,
419
1341047
4548
あなたは やたらに落ちついた様子で
22:37
but we're all standing立っている outside外側,
saying言って, "Jackジャック, turn順番 the fuckingクソ wheelホイール!"
420
1345619
3883
私たちは外から「頼むから
舵を切ってくれ!」と叫んでいる—
22:41
You know?
421
1349526
1151
わかりますか?
22:42
(Laughter笑い)
422
1350701
1335
(笑)
22:44
(Applause拍手)
423
1352060
2381
(拍手)
22:46
I mean --
424
1354465
1166
つまり―
22:47
(Applause拍手)
425
1355655
1734
(拍手)
22:49
It's democracy民主主義 at stakeステーク.
426
1357413
4594
危険にさらされているのは
民主主義であり
22:54
It's our culture文化 at stakeステーク.
It's our world世界 at stakeステーク.
427
1362031
2821
私たちの文化であり 世界なんです
22:56
And TwitterTwitter is amazing素晴らしい and shapes so much.
428
1364876
4706
Twitter は素晴らしいもので
役立ってもいます
23:01
It's not as big大きい as some
of the other platformsプラットフォーム,
429
1369606
2233
他のプラットフォームに比べれば
小さくても
23:03
but the people of influence影響 use it
to setセット the agenda議題,
430
1371863
2804
影響力のある人々が
方向を示すのに使っています
23:06
and it's just hardハード to imagine想像する a more
important重要 role役割 in the world世界 than to ...
431
1374691
6787
これ以上に世界で重要な役割は
ないと思います―
23:13
I mean, you're doing a brilliantブリリアント jobジョブ
of listening聞いている, Jackジャック, and hearing聴覚 people,
432
1381502
3784
あなたは 人々の言葉に
耳を傾けていて素晴らしいけれど―
23:17
but to actually実際に dialダイヤル up the urgency緊急
and move動く on this stuffもの --
433
1385310
4445
実際に緊急性をもって
物事を実行するという重要な役割を
23:21
will you do that?
434
1389779
2201
あなたは実行するんですか?
23:24
JDJD: Yes, and we have been
moving動く substantially実質的に.
435
1392750
3815
(ジャック)ええ 大きな行動を
起こしています
23:28
I mean, there's been
a few少数 dynamicsダイナミクス in Twitter'sTwitterの history歴史.
436
1396589
3225
Twitter の歴史には
いくつか転換点がありました
23:31
One, when I came来た back to the company会社,
437
1399838
2083
私が会社に復帰したとき
23:35
we were in a prettyかなり dire恐ろしい state状態
in terms条項 of our future未来,
438
1403477
6256
将来の見通しは
かなり悲惨なものでした
23:41
and not just from how people
were usingを使用して the platformプラットフォーム,
439
1409757
4634
プラットフォームの
利用のされ方だけでなく
23:46
but from a corporate企業 narrative物語 as well.
440
1414415
2047
企業のあり方としてもです
23:48
So we had to fix修正する
a bunch of the foundation財団,
441
1416486
3204
ですから 企業としての
基礎を修正して
23:51
turn順番 the company会社 around,
442
1419714
1969
方向転換をしました
23:53
go throughを通して two crazy狂った layoffsレイオフ,
443
1421707
3111
2度 大規模なリストラもしました
23:56
because we just got too big大きい
for what we were doing,
444
1424842
3793
企業として大きくなりすぎていたんです
24:00
and we focused集中した all of our energyエネルギー
445
1428659
2060
それから 全エネルギーを
24:02
on this concept概念 of servingサービング
the publicパブリック conversation会話.
446
1430743
3508
公共の場での対話に役立つという
理念に向けました
24:06
And that took取った some work.
447
1434275
1451
努力も必要でした
24:07
And as we divedダイブ into that,
448
1435750
2608
実際に深く取り組んでみて
24:10
we realized実現した some of the issues問題
with the fundamentals基本.
449
1438382
2992
根本的な部分の問題にも
気づきました
24:14
We could do a bunch of superficial面白い things
to address住所 what you're talking話す about,
450
1442120
4656
今 話に出たことに対処するため
表層的なことは色々できても
変化は持続するもので
なければなりません
24:18
but we need the changes変更 to last,
451
1446800
1790
24:20
and that means手段 going really, really deep深い
452
1448614
2459
だからこそ 深く掘り下げて
24:23
and paying払う attention注意
to what we started開始した 13 years ago
453
1451097
4350
13年前に始めたことに
しっかり目を向けて
24:27
and really questioning質問
454
1455471
2261
問いかけなければなりません
24:29
how the systemシステム works作品
and how the frameworkフレームワーク works作品
455
1457756
2566
システムや枠組みが
どう機能しているのか
24:32
and what is needed必要な for the world世界 today今日,
456
1460346
3833
また 物事も利用の仕方も
どんどん変わっていく中で
24:36
given与えられた how quickly早く everything is moving動く
and how people are usingを使用して it.
457
1464203
4024
現在の世界は
何を必要としているのか
24:40
So we are workingワーキング as quickly早く as we can,
but quicknessクイックネス will not get the jobジョブ done完了.
458
1468251
6544
できるだけ迅速に対応していますが
迅速さだけでは成し遂げられません
24:46
It's focusフォーカス, it's prioritization優先順位付け,
459
1474819
2611
重点の置き方や
優先順位も重要ですし
24:49
it's understanding理解
the fundamentals基本 of the networkネットワーク
460
1477454
2946
このネットワークの本質を理解し
24:52
and building建物 a frameworkフレームワーク that scalesスケール
461
1480424
2842
規模の大きさや変化に
柔軟に対応できる枠組みを
24:55
and that is resilient弾力のある to change変化する,
462
1483290
2351
構築しなければなりません
24:57
and beingであること open開いた about where we are
and beingであること transparentトランスペアレント about where are
463
1485665
5429
現状についてオープン
かつ透明性を保って
25:03
so that we can continue持続する to earn獲得する trust信頼.
464
1491118
2179
信頼を得ることも必要です
25:06
So I'm proud誇りに思う of all the frameworksフレームワーク
that we've私たちは put in place場所.
465
1494141
3331
実現にこぎつけた枠組みについては
誇りに思っていますし
25:09
I'm proud誇りに思う of our direction方向.
466
1497496
2888
方向性についても そうです
25:12
We obviously明らかに can move動く fasterもっと早く,
467
1500915
2718
もっと速く前進もできるでしょうが
25:15
but that required必須 just stopping停止する a bunch
of stupid愚か stuffもの we were doing in the past過去.
468
1503657
4719
過去のばかげた過ちの数々を
止めねばなりませんでしたので
25:21
CACA: All right.
469
1509067
1164
(クリス)なるほど
25:22
Well, I suspect容疑者 there are manyたくさんの people here
who, if given与えられた the chanceチャンス,
470
1510255
4067
この場にいる多く人が
機会さえあれば
25:26
would love to help you
on this change-making変更 agenda議題 you're on,
471
1514346
3989
変革へのアジェンダについて
手助けしたいと思っているでしょう
25:30
and I don't know if Whitneyホイットニー --
472
1518359
1542
ウィットニーもそうでしょう
25:31
Jackジャック, thank you for coming到来 here
and speaking話し中 so openly公然と.
473
1519925
2761
ジャック 登壇してオープンに
語ってくれてありがとう
25:34
It took取った courage勇気.
474
1522710
1527
勇気が要ったと思います
25:36
I really appreciate感謝する what you said,
and good luck with your missionミッション.
475
1524261
3384
非常に良いことを言ってくれました
うまくいくことを願っています
25:39
JDJD: Thank you so much.
Thanksありがとう for having持つ me.
476
1527669
2095
(ジャック)ありがとうございました
25:41
(Applause拍手)
477
1529788
3322
(拍手)
25:45
Thank you.
478
1533134
1159
ありがとう
Translated by Moe Shoji
Reviewed by Yasushi Aoki

▲Back to top

ABOUT THE SPEAKERS
Jack Dorsey - Entrepreneur, programmer
Jack Dorsey is the CEO of Twitter, CEO & Chairman of Square, and a cofounder of both.

Why you should listen
More profile about the speaker
Jack Dorsey | Speaker | TED.com
Chris Anderson - TED Curator
After a long career in journalism and publishing, Chris Anderson became the curator of the TED Conference in 2002 and has developed it as a platform for identifying and disseminating ideas worth spreading.

Why you should listen

Chris Anderson is the Curator of TED, a nonprofit devoted to sharing valuable ideas, primarily through the medium of 'TED Talks' -- short talks that are offered free online to a global audience.

Chris was born in a remote village in Pakistan in 1957. He spent his early years in India, Pakistan and Afghanistan, where his parents worked as medical missionaries, and he attended an American school in the Himalayas for his early education. After boarding school in Bath, England, he went on to Oxford University, graduating in 1978 with a degree in philosophy, politics and economics.

Chris then trained as a journalist, working in newspapers and radio, including two years producing a world news service in the Seychelles Islands.

Back in the UK in 1984, Chris was captivated by the personal computer revolution and became an editor at one of the UK's early computer magazines. A year later he founded Future Publishing with a $25,000 bank loan. The new company initially focused on specialist computer publications but eventually expanded into other areas such as cycling, music, video games, technology and design, doubling in size every year for seven years. In 1994, Chris moved to the United States where he built Imagine Media, publisher of Business 2.0 magazine and creator of the popular video game users website IGN. Chris eventually merged Imagine and Future, taking the combined entity public in London in 1999, under the Future name. At its peak, it published 150 magazines and websites and employed 2,000 people.

This success allowed Chris to create a private nonprofit organization, the Sapling Foundation, with the hope of finding new ways to tackle tough global issues through media, technology, entrepreneurship and, most of all, ideas. In 2001, the foundation acquired the TED Conference, then an annual meeting of luminaries in the fields of Technology, Entertainment and Design held in Monterey, California, and Chris left Future to work full time on TED.

He expanded the conference's remit to cover all topics, including science, business and key global issues, while adding a Fellows program, which now has some 300 alumni, and the TED Prize, which grants its recipients "one wish to change the world." The TED stage has become a place for thinkers and doers from all fields to share their ideas and their work, capturing imaginations, sparking conversation and encouraging discovery along the way.

In 2006, TED experimented with posting some of its talks on the Internet. Their viral success encouraged Chris to begin positioning the organization as a global media initiative devoted to 'ideas worth spreading,' part of a new era of information dissemination using the power of online video. In June 2015, the organization posted its 2,000th talk online. The talks are free to view, and they have been translated into more than 100 languages with the help of volunteers from around the world. Viewership has grown to approximately one billion views per year.

Continuing a strategy of 'radical openness,' in 2009 Chris introduced the TEDx initiative, allowing free licenses to local organizers who wished to organize their own TED-like events. More than 8,000 such events have been held, generating an archive of 60,000 TEDx talks. And three years later, the TED-Ed program was launched, offering free educational videos and tools to students and teachers.

More profile about the speaker
Chris Anderson | Speaker | TED.com
Whitney Pennington Rodgers - TED Current Affairs Curator
Whitney Pennington Rodgers is an award-winning journalist and media professional.

Why you should listen

Prior to joining TED as current affairs curator, Whitney Pennington Rodgers produced for NBC's primetime news magazine Dateline NBC. She earned a duPont-Columbia award and a News & Documentary Emmy or her contributions to the Dateline NBC hour "The Cosby Accusers Speak" -- an extensive group interview with 27 of the women who accused entertainer Bill Cosby of sexual misconduct.

Pennington Rodgers has worked at NBC's in-house production company Peacock Productions, The Today Show, Nightly News, Rock Center with Brian Williams and New Jersey-centric public affairs shows Caucus: New Jersey and One-on-One with Steve Adubato. Prior to beginning her career in media, she had a short stint as a fourth-grade teacher through the Teach for America program.

Pennington Rodgers received her Bachelor's in journalism and media studies from Rutgers University. She completed her Master's of Journalism at the University of California at Berkeley, where she produced a documentary about recruitment of nonblack students at historically black colleges and universities.

More profile about the speaker
Whitney Pennington Rodgers | Speaker | TED.com