ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.

Why you should listen

We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.

Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.

Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.

More profile about the speaker
Zeynep Tufekci | Speaker | TED.com
TEDGlobal>NYC

Zeynep Tufekci: We're building a dystopia just to make people click on ads

ジーナップ・トゥフェックチー: ネット広告の仕組みが拓く ディストピアへの道

Filmed:
2,866,905 views

私たちは画面をクリックするたびに、AI(人工知能)によるディストピアを少しずつ作り上げている、と技術・社会学者ジーナップ・トゥフェックチーは言います。この驚くべきトークでトゥフェックチーは、Facebook、Google、Amazonといった企業がユーザーにクリックさせるために利用しているのと同じアルゴリズムが、政治的・社会的な情報へのアクセスを管理するのにも使われていることを詳しく述べています。それでも、機械そのものが真の脅威というわけではありません。私たちが理解しなければならないのは、権力者がどのようにAIを使って人々をコントロールし得るかという事と、それに対抗して私たちに何ができるかということです。
- Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread. Full bio

Double-click the English transcript below to play the video.

00:12
So when people voice音声 fears恐怖
of artificial人工的な intelligenceインテリジェンス,
0
760
3536
人工知能(AI)に対する不安を
口にするとき
00:16
very oftenしばしば, they invoke呼び出す imagesイメージ
of humanoidヒューマノイド robotsロボット run走る amokアモック.
1
4320
3976
人々はたいてい ヒューマノイドの暴走を
イメージしています
00:20
You know? Terminatorターミネーター?
2
8320
1240
『ターミネーター』みたいに
00:22
You know, that mightかもしれない be
something to consider検討する,
3
10400
2336
確かに考えておくべきことかも
しれませんが
00:24
but that's a distant遠い threat脅威.
4
12760
1856
差し迫った脅威というわけでは
ありません
00:26
Or, we fretフレット about digitalデジタル surveillance監視
5
14640
3456
また デジタル技術による
監視への懸念から
00:30
with metaphors隠喩 from the past過去.
6
18120
1776
過去のメタファーを
持ち出したりもします
00:31
"1984," Georgeジョージ Orwell'sオーウェル "1984,"
7
19920
2656
ジョージ・オーウェルの『1984年』が
00:34
it's hittingヒッティング the bestsellerベスト・セラー listsリスト again.
8
22600
2280
またもやベストセラー入りしています
00:37
It's a great book,
9
25960
1416
優れた小説ですが
00:39
but it's not the correct正しい dystopiaディスコピア
for the 21stセント century世紀.
10
27400
3880
21世紀のディストピアを
正しく言い当ててはいません
00:44
What we need to fear恐れ most最も
11
32080
1416
私たちが最も
恐れるべきなのは
00:45
is not what artificial人工的な intelligenceインテリジェンス
will do to us on its own自分の,
12
33520
4776
AIそれ自体が私たちに
何をするかではなく
00:50
but how the people in powerパワー
will use artificial人工的な intelligenceインテリジェンス
13
38320
4736
権力者が私たちをコントロールし
00:55
to controlコントロール us and to manipulate操作する us
14
43080
2816
操るために
00:57
in novel小説, sometimes時々 hidden隠された,
15
45920
3136
目新しく 予想もつかない
巧妙なやり方で
密かにAIを
使うかもしれないことです
01:01
subtle微妙 and unexpected予想外の ways方法.
16
49080
3016
01:04
Much of the technology技術
17
52120
1856
近い将来
01:06
that threatens脅迫する our freedom自由
and our dignity尊厳 in the near-term近い将来 future未来
18
54000
4336
私たちの自由と尊厳を
脅かすテクノロジーの多くは
01:10
is beingであること developed発展した by companies企業
19
58360
1856
私たちのデータと注意を捉え
01:12
in the businessビジネス of capturing捕獲
and selling販売 our dataデータ and our attention注意
20
60240
4936
広告主その他の顧客に
販売している企業によって
01:17
to advertisers広告主 and othersその他:
21
65200
2256
開発されています
01:19
Facebookフェイスブック, GoogleGoogle, Amazonアマゾン,
22
67480
3416
Facebookや Googleや Amazonや
01:22
Alibabaアリババ, TencentTencent.
23
70920
1880
Alibabaや Tencent
01:26
Now, artificial人工的な intelligenceインテリジェンス has started開始した
bolstering強化 their彼らの businessビジネス as well.
24
74040
5496
AIは そうした企業のビジネスを
強化し始めています
01:31
And it mayかもしれない seem思われる
like artificial人工的な intelligenceインテリジェンス
25
79560
2096
ちょっと見には AIも
01:33
is just the next thing after onlineオンライン ads広告.
26
81680
2856
単にネット広告に続く技術だと
思えるかもしれません
01:36
It's not.
27
84560
1216
でも そうではありません
01:37
It's a jumpジャンプ in categoryカテゴリー.
28
85800
2456
カテゴリーが不連続なのです
01:40
It's a whole全体 different異なる world世界,
29
88280
2576
AIはまったく別の世界であり
01:42
and it has great potential潜在的な.
30
90880
2616
大きな力を秘めています
01:45
It could accelerate加速する our understanding理解
of manyたくさんの areasエリア of study調査 and research研究.
31
93520
6920
AIによって 様々な研究分野が
急速に発展する可能性があります
01:53
But to paraphrase言い換え
a famous有名な Hollywoodハリウッド philosopher哲学者,
32
101120
3496
しかし ハリウッドの有名な
論者によると
01:56
"With prodigious驚異的な potential潜在的な
comes来る prodigious驚異的な riskリスク."
33
104640
3640
「途方もない可能性には
途方もないリスクがつきもの」です
02:01
Now let's look at a basic基本的な fact事実
of our digitalデジタル lives人生, onlineオンライン ads広告.
34
109120
3936
デジタルライフの基本的な事実―
オンライン広告に目を向けましょう
02:05
Right? We kind種類 of dismiss却下する them.
35
113080
2896
いいですか?
まあ たいてい無視しますよね
02:08
They seem思われる crude原油, ineffective効果がない.
36
116000
1976
粗雑で 効果もなさそうに見えます
02:10
We've私たちは all had the experience経験
of beingであること followed続く on the webウェブ
37
118000
4256
ウェブで何かを検索したり
読んだりしたら
02:14
by an ad広告 basedベース on something
we searched検索された or read読む.
38
122280
2776
それに応じて働きかけを受けた経験は
誰にでもありますよね
02:17
You know, you look up a pairペア of bootsブーツ
39
125080
1856
たとえば ウェブでブーツを見つけたら
02:18
and for a week週間, those bootsブーツ are following以下
you around everywhereどこにでも you go.
40
126960
3376
それから1週間 どこへ行っても
そのブーツの広告がついて回ります
02:22
Even after you succumb負ける and buy購入 them,
they're still following以下 you around.
41
130360
3656
たとえ根負けして購入したとしても
やっぱりまだ追いかけてくるのです
02:26
We're kind種類 of inured着陸した to that kind種類
of basic基本的な, cheap安いです manipulation操作.
42
134040
3016
こうした 初歩的で安っぽい消費者操作に
私たちは慣れっこになっています
02:29
We rollロール our eyes and we think,
"You know what? These things don't work."
43
137080
3400
「あのさ ぜんぜん効き目ないんだけど」
と呆れてしまいます
02:33
Except例外, onlineオンライン,
44
141720
2096
ただし オンラインでの
02:35
the digitalデジタル technologiesテクノロジー are not just ads広告.
45
143840
3600
デジタルテクノロジーの用途は
広告に限りません
02:40
Now, to understandわかる that,
let's think of a physical物理的 world世界 example.
46
148240
3120
そのことを理解するために
物理的世界の例を考えてみましょう
02:43
You know how, at the checkoutチェックアウト countersカウンター
at supermarketsスーパーマーケット, near近く the cashierレジ,
47
151840
4656
スーパーに行くとレジのそばに
02:48
there's candyキャンディー and gumガム
at the eye levelレベル of kids子供たち?
48
156520
3480
子供の目の高さで
キャンディやガムが置いてありますよね
02:52
That's designed設計 to make them
whine泣き叫ぶ at their彼らの parents
49
160800
3496
あれは親が支払いを
しようとしているときに
02:56
just as the parents
are about to sortソート of checkチェック out.
50
164320
3080
子供がねだるように
仕向けるための手法です
03:00
Now, that's a persuasion説得 architecture建築.
51
168040
2640
「説得アーキテクチャ」の例です
03:03
It's not niceいい, but it kind種類 of works作品.
52
171160
3096
好ましくはないけれど
ともかく機能します
03:06
That's why you see it
in everyすべて supermarketスーパーマーケット.
53
174280
2040
だからこそ どこのスーパーでも
見られるのです
03:08
Now, in the physical物理的 world世界,
54
176720
1696
物理的世界において
03:10
suchそのような persuasion説得 architecturesアーキテクチャ
are kind種類 of limited限られた,
55
178440
2496
こうした説得アーキテクチャは
いくらか制限を受けます
03:12
because you can only put
so manyたくさんの things by the cashierレジ. Right?
56
180960
4816
レジの横に置ける商品の数は
限られているからです そうですね?
03:17
And the candyキャンディー and gumガム,
it's the same同じ for everyoneみんな,
57
185800
4296
そして キャンディやガムは
誰にとっても同じ製品です
03:22
even thoughしかし it mostly主に works作品
58
190120
1456
ただし 一番効果があるのは
03:23
only for people who have
whinyぬいぐるみ little humans人間 beside them.
59
191600
4040
おチビさんを連れている
人に対してだけですけれど
03:29
In the physical物理的 world世界,
we liveライブ with those limitations限界.
60
197160
3920
物理的世界で私たちは
そうした制約とともに生きています
03:34
In the digitalデジタル world世界, thoughしかし,
61
202280
1936
しかし デジタル世界では
03:36
persuasion説得 architecturesアーキテクチャ
can be built建てられた at the scale規模 of billions何十億
62
204240
4320
説得アーキテクチャを
何十億というスケールで構築でき
03:41
and they can targetターゲット, infer推論, understandわかる
63
209840
3856
個人に狙いを定めて 推論し 理解し
03:45
and be deployed展開された at individuals個人
64
213720
2896
投入することが可能で
03:48
one by one
65
216640
1216
1人1人の
03:49
by figuring想像する out your weaknesses弱点,
66
217880
2136
弱点を把握して
03:52
and they can be sent送られた
to everyone's誰もが phone電話 privateプライベート screen画面,
67
220040
5616
その人のスマートフォンの画面に
送信できるため
03:57
so it's not visible目に見える to us.
68
225680
2256
仕組みが目に見えないのです
03:59
And that's different異なる.
69
227960
1256
大きな違いです
04:01
And that's just one of the basic基本的な things
that artificial人工的な intelligenceインテリジェンス can do.
70
229240
3576
これは AIがやってのける基本的な事柄の
たった1つにすぎません
04:04
Now, let's take an example.
71
232840
1336
例を挙げましょう
たとえば ラスベガス行きの航空券を
売りたいとしましょう
04:06
Let's say you want to sell売る
plane飛行機 tickets切符売場 to Vegasベガス. Right?
72
234200
2696
04:08
So in the old古い world世界, you could think
of some demographics人口統計 to targetターゲット
73
236920
3496
以前の世界なら
購入してくれそうな層を
04:12
basedベース on experience経験
and what you can guess推測.
74
240440
2520
経験や想像に基づいて
設定するでしょう
04:15
You mightかもしれない try to advertise広告する to, oh,
75
243560
2816
広告を打つなら
04:18
men男性 betweenの間に the ages年齢 of 25 and 35,
76
246400
2496
25歳から35歳までの男性か
04:20
or people who have
a high高い limit限界 on their彼らの creditクレジット cardカード,
77
248920
3936
クレジットカードの
限度額が大きい人々や
04:24
or retired引退した couplesカップル. Right?
78
252880
1376
リタイアしたカップル向けに
するかもしれません
04:26
That's what you would do in the past過去.
79
254280
1816
これまでならそうしたでしょう
04:28
With big大きい dataデータ and machine機械 learning学習,
80
256120
2896
ビッグデータと機械学習の出現で
04:31
that's not how it works作品 anymoreもう.
81
259040
1524
もうそれは通用しません
04:33
So to imagine想像する that,
82
261320
2176
事態を想像するために
04:35
think of all the dataデータ
that Facebookフェイスブック has on you:
83
263520
3856
Facebookが持っている
あなたの全データを思い浮かべてください
04:39
everyすべて status状態 update更新 you ever typed型付きの,
84
267400
2536
これまでにあなたが入力した
すべての近況アップデート
04:41
everyすべて Messengerメッセンジャー conversation会話,
85
269960
2016
Messengerのすべての会話
04:44
everyすべて place場所 you logged記録された in from,
86
272000
1880
どこからログインしたかという記録
04:48
all your photographs写真
that you uploadedアップロードされた there.
87
276400
3176
アップロードしたすべての写真
04:51
If you start開始 typingタイピング something
and change変化する your mindマインド and delete削除 it,
88
279600
3776
何か打ち込み始めてから
気が変わって削除しても
04:55
Facebookフェイスブック keeps維持する those
and analyzes分析 them, too.
89
283400
3200
Facebookはそれも記録し
分析します
04:59
Increasinglyますます, it tries試行する
to match一致 you with your offlineオフライン dataデータ.
90
287160
3936
オフラインデータとの突き合わせも
どんどん進めています
05:03
It alsoまた、 purchases購入
a lot of dataデータ from dataデータ brokersブローカー.
91
291120
3176
また データブローカーから
大量のデータを購入しています
05:06
It could be everything
from your financial金融 records記録
92
294320
3416
財務記録から
ブラウザの膨大な閲覧履歴まで
05:09
to a good chunkチャンク of your browsingブラウジング history歴史.
93
297760
2120
あらゆるものが含まれます
05:12
Right? In the US,
suchそのような dataデータ is routinely日常的に collected集めました,
94
300360
5416
アメリカではこうしたデータが
日常的に収集され
05:17
collated照合 and sold売った.
95
305800
1960
照合され 販売されています
05:20
In Europeヨーロッパ, they have tougherより厳しい rulesルール.
96
308320
2440
ヨーロッパでは
もっと厳しいルールがあります
05:23
So what happens起こる then is,
97
311680
2200
それで何が起こるかというと
05:26
by churningチャーニング throughを通して all that dataデータ,
these machine-learning機械学習 algorithmsアルゴリズム --
98
314920
4016
「学習アルゴリズム」と呼ばれる
機械学習のアルゴリズムは
05:30
that's why they're calledと呼ばれる
learning学習 algorithmsアルゴリズム --
99
318960
2896
あらゆるデータを
組み合わせることで
05:33
they learn学ぶ to understandわかる
the characteristics特性 of people
100
321880
4096
これまでにラスベガス行きの
航空券を買った人々の特徴を
05:38
who purchased購入した tickets切符売場 to Vegasベガス before.
101
326000
2520
把握するようになります
05:41
When they learn学ぶ this from existing既存の dataデータ,
102
329760
3536
既存データからの学習が進むと
05:45
they alsoまた、 learn学ぶ
how to apply適用する this to new新しい people.
103
333320
3816
それを別の人々に
適用する方法も学びます
05:49
So if they're presented提示された with a new新しい person,
104
337160
3056
つまり 他のユーザーがいたら
05:52
they can classify分類する whetherかどうか that person
is likelyおそらく to buy購入 a ticketチケット to Vegasベガス or not.
105
340240
4640
その人物がラスベガス行き航空券を
購入しそうかどうか分類できるのです
05:57
Fine. You're thinking考え,
an offer提供 to buy購入 tickets切符売場 to Vegasベガス.
106
345720
5456
あなたはラスベガス行き航空券の
広告を見て考えます
06:03
I can ignore無視する that.
107
351200
1456
「無視してもいいな」
06:04
But the problem問題 isn't that.
108
352680
2216
しかし 問題はそこではありません
06:06
The problem問題 is,
109
354920
1576
問題なのは
06:08
we no longerより長いです really understandわかる
how these complex複合体 algorithmsアルゴリズム work.
110
356520
4136
これら複雑なアルゴリズムがどう働いているか
もうよく分からなくなってしまっている事です
06:12
We don't understandわかる
how they're doing this categorization分類.
111
360680
3456
どうやって分類しているのか
私たちには分かりません
06:16
It's giant巨人 matrices行列,
thousands of rows and columns,
112
364160
4416
何千 いや何百万もの
行と列で構成された
06:20
maybe millions何百万 of rows and columns,
113
368600
1960
巨大なマトリクスがあって
06:23
and not the programmersプログラマー
114
371320
2640
プログラマーや 他の誰かが
06:26
and not anybody who looks外見 at it,
115
374760
1680
そのマトリクスを見ても
06:29
even if you have all the dataデータ,
116
377440
1496
たとえ全データを持っていようと
06:30
understands理解する anymoreもう
how exactly正確に it's operatingオペレーティング
117
378960
4616
どう機能しているかを
正確に理解することはできません
06:35
any more than you'dあなたは know
what I was thinking考え right now
118
383600
3776
私の脳の断面を見ても
06:39
if you were shown示された
a crossクロス sectionセクション of my brain.
119
387400
3960
私が何を考えているかは
分からないのと同じです
06:44
It's like we're not programmingプログラミング anymoreもう,
120
392360
2576
もうプログラミングをしている
という次元ではなく
06:46
we're growing成長する intelligenceインテリジェンス
that we don't truly真に understandわかる.
121
394960
4400
人智を超えた知能を
育てているかのようです
06:52
And these things only work
if there's an enormous巨大な amount of dataデータ,
122
400520
3976
こういう仕組みが機能するには
膨大なデータが必要なため
06:56
so they alsoまた、 encourage奨励します
deep深い surveillance監視 on all of us
123
404520
5096
私たち全員を深層まで監視して
07:01
so that the machine機械 learning学習
algorithmsアルゴリズム can work.
124
409640
2336
機械学習アルゴリズムを機能させよう
という力も働きます
07:04
That's why Facebookフェイスブック wants
to collect集める all the dataデータ it can about you.
125
412000
3176
だから Facebookはあなたについて
出来る限りのデータを集めようとします
07:07
The algorithmsアルゴリズム work better.
126
415200
1576
アルゴリズムが上手く機能するように
07:08
So let's push押す that Vegasベガス example a bitビット.
127
416800
2696
ラスベガスの例を
もう少し掘り下げましょう
07:11
What if the systemシステム
that we do not understandわかる
128
419520
3680
もし私たちの理解できない
システムの判断で
07:16
was pickingピッキング up that it's easierより簡単に
to sell売る Vegasベガス tickets切符売場
129
424200
5136
ラスベガス行き航空券を
売りつけやすい相手は
07:21
to people who are bipolarバイポーラ
and about to enter入る the manic躁病 phase段階.
130
429360
3760
双極性障害で躁状態になりかけの人だ
ということになったらどうでしょう
07:25
Suchそのような people tend傾向がある to become〜になる
overspenders溢れる, compulsive強迫的 gamblersギャンブラー.
131
433640
4920
浪費したり ギャンブルにのめり込んだり
しやすい人たちです
07:31
They could do this, and you'dあなたは have no clue手がかり
that's what they were pickingピッキング up on.
132
439280
4456
そんな基準で選び出されたとしても
その事実を知る手がかりがありません
07:35
I gave与えた this example
to a bunch of computerコンピューター scientists科学者 once一度
133
443760
3616
あるとき この例について
コンピュータ科学者たちに尋ねてみたところ
07:39
and afterwardsその後, one of them came来た up to me.
134
447400
2056
そのうちの1人が後で
私のところへ来ました
07:41
He was troubled困った and he said,
"That's why I couldn'tできなかった publish公開する it."
135
449480
3520
苦しげな様子で こう言いました
「だから論文を発表できなかったんです」
07:45
I was like, "Couldn'tできなかった publish公開する what?"
136
453600
1715
「何をですか?」
07:47
He had tried試した to see whetherかどうか you can indeed確かに
figure数字 out the onset開始 of maniaマニア
137
455800
5856
彼が調べようとしていたのは
躁状態になりかけているかどうかを
07:53
from socialソーシャル mediaメディア posts投稿
before clinical臨床的 symptoms症状,
138
461680
3216
症状が現れる前にSNSの投稿で
判断できるかということで
07:56
and it had worked働いた,
139
464920
1776
実際 うまくいきました
07:58
and it had worked働いた very well,
140
466720
2056
非常にうまく
判別できたのですが
08:00
and he had no ideaアイディア how it worked働いた
or what it was pickingピッキング up on.
141
468800
4880
なぜうまくいくのか 何を拾い出しているのか
分かりませんでした
08:06
Now, the problem問題 isn't solved解決した
if he doesn't publish公開する it,
142
474840
4416
でも 論文が発表されなくても
問題は解決していません
08:11
because there are already既に companies企業
143
479280
1896
既にいくつもの企業が
08:13
that are developing現像
this kind種類 of technology技術,
144
481200
2536
この種のテクノロジーを開発していて
08:15
and a lot of the stuffもの
is just off the shelf.
145
483760
2800
簡単に入手できるものが
たくさんあるからです
08:19
This is not very difficult難しい anymoreもう.
146
487240
2576
もう それほど
難しいことではないのです
08:21
Do you ever go on YouTubeYouTube
meaning意味 to watch one videoビデオ
147
489840
3456
動画を1本見ようと思って
YouTubeのサイトへ行き
08:25
and an hour時間 later後で you've watched見た 27?
148
493320
2360
1時間経つと27本も
見ていたという経験は?
08:28
You know how YouTubeYouTube
has this columnカラム on the right
149
496760
2496
YouTubeのページでは
右側の欄に
08:31
that says言う, "Up next"
150
499280
2216
「次の動画」とあって
08:33
and it autoplays自動再生 something?
151
501520
1816
自動再生するのをご存じですね?
08:35
It's an algorithmアルゴリズム
152
503360
1216
アルゴリズムが選び出すのは
08:36
pickingピッキング what it thinks考える
that you mightかもしれない be interested興味がある in
153
504600
3616
あなたが興味を持ちそうだけれど
08:40
and maybe not find on your own自分の.
154
508240
1536
自分では見つけられない可能性があると
判断された動画です
08:41
It's not a human人間 editor編集者.
155
509800
1256
人が判断しているのではなく
08:43
It's what algorithmsアルゴリズム do.
156
511080
1416
アルゴリズムが決めているのです
08:44
It picksピック up on what you have watched見た
and what people like you have watched見た,
157
512520
4736
あなたがこれまでに見たものや
あなたに似た人が見たものを選び出し
08:49
and infers推論 that that must必須 be
what you're interested興味がある in,
158
517280
4216
あなたが何に興味を持っていて
08:53
what you want more of,
159
521520
1255
何をもっと見たがるか推論し
08:54
and just showsショー you more.
160
522799
1336
さらに見せようとするのです
08:56
It sounds like a benign良性
and useful有用 feature特徴,
161
524159
2201
無害で役に立つ機能のように
聞こえますが
08:59
exceptを除いて when it isn't.
162
527280
1200
常にそうとは限りません
09:01
So in 2016, I attended出席した rallies集会
of then-candidate候補者 Donaldドナルド Trumpトランプ
163
529640
6960
2016年に私は 当時大統領候補だった
ドナルド・トランプの集会に行って
09:09
to study調査 as a scholar学者
the movement移動 supportingサポートする him.
164
537840
3336
彼の支持者たちの運動を
研究しました
09:13
I study調査 socialソーシャル movements動き,
so I was studying勉強する it, too.
165
541200
3456
社会運動研究の中で
トランプ支持についても調べたのです
09:16
And then I wanted to write書きます something
about one of his rallies集会,
166
544680
3336
トランプ支持者の集会について
何か書こうと思って
09:20
so I watched見た it a few少数 times on YouTubeYouTube.
167
548040
1960
その様子をYouTubeで何度か見ました
09:23
YouTubeYouTube started開始した recommending推薦する to me
168
551240
3096
YouTubeは白人至上主義者の
動画を私に推奨し
09:26
and autoplaying自動再生 to me
white supremacist超主主義者 videosビデオ
169
554360
4256
自動再生するようになり
09:30
in increasing増加する order注文 of extremism過激主義.
170
558640
2656
どんどん過激なものを
出してくるようになりました
09:33
If I watched見た one,
171
561320
1816
私が1本 視聴すれば
09:35
it servedサービスされた up one even more extreme極端な
172
563160
2976
さらに過激な1本を提示し
09:38
and autoplayed自動再生 that one, too.
173
566160
1424
それも自動再生しました
09:40
If you watch Hillaryヒラリー Clintonクリントン
or Bernieバーニー Sandersサンダーズ contentコンテンツ,
174
568320
4536
ヒラリー・クリントンや
バーニー・サンダースの動画を見れば
09:44
YouTubeYouTube recommendsお勧めする
and autoplays自動再生 conspiracy陰謀 left,
175
572880
4696
YouTubeは左翼の陰謀に関する
動画を推奨して自動再生し
09:49
and it goes行く downhill下り坂 from there.
176
577600
1760
さらにどんどん
ひどくなっていきます
09:52
Well, you mightかもしれない be thinking考え,
this is politics政治, but it's not.
177
580480
3056
それが政治だと思うかもしれませんが
間違いです
09:55
This isn't about politics政治.
178
583560
1256
政治などではありません
09:56
This is just the algorithmアルゴリズム
figuring想像する out human人間 behavior動作.
179
584840
3096
人間の行動を読んでいる
アルゴリズムにすぎないのです
09:59
I once一度 watched見た a videoビデオ
about vegetarianism菜食主義 on YouTubeYouTube
180
587960
4776
あるとき YouTubeで
ベジタリアンについての動画を見たら
10:04
and YouTubeYouTube recommendedお勧め
and autoplayed自動再生 a videoビデオ about beingであること vegan完全な.
181
592760
4936
YouTubeはヴィーガン暮らしの動画を
推奨し 自動再生しました
10:09
It's like you're never
hardcoreハードコア enough十分な for YouTubeYouTube.
182
597720
3016
まるでこちらの覚悟が
足りないとでもいうように
10:12
(Laughter笑い)
183
600760
1576
(笑)
10:14
So what's going on?
184
602360
1560
何が起きているのでしょう?
10:16
Now, YouTube'sYouTubeの algorithmアルゴリズム is proprietary独自の,
185
604520
3536
YouTubeのアルゴリズムは
公開されていませんが
10:20
but here'sここにいる what I think is going on.
186
608080
2360
私はこう考えています
10:23
The algorithmアルゴリズム has figured思った out
187
611360
2096
アルゴリズムが
10:25
that if you can entice誘惑する people
188
613480
3696
人々を誘導して
10:29
into thinking考え that you can
showショー them something more hardcoreハードコア,
189
617200
3736
より過激な画像を見られると
誘惑できれば
10:32
they're more likelyおそらく to stay滞在 on the siteサイト
190
620960
2416
そのサイトから離れにくくなって
10:35
watching見ている videoビデオ after videoビデオ
going down that rabbitウサギ hole
191
623400
4416
次から次へと動画を見続け
10:39
while GoogleGoogle serves奉仕する them ads広告.
192
627840
1680
Googleが表示する広告を
見ながらのめり込むという訳です
10:43
Now, with nobody誰も minding心遣い
the ethics倫理 of the store格納,
193
631760
3120
販売者が倫理的かどうか
今は誰も気にしていないので
10:47
these sitesサイト can profileプロフィール people
194
635720
4240
こうしたサイトが人々を
プロファイリングして
10:53
who are Jewユダヤ人 haters憎しみ,
195
641680
1920
ユダヤ人嫌いの人
10:56
who think that Jewsユダヤ人 are parasites寄生虫
196
644360
2480
ユダヤ人は社会に
寄生していると思っている人
11:00
and who have suchそのような explicit明白な
anti-Semitic反ユダヤ系 contentコンテンツ,
197
648320
4920
あからさまに反ユダヤ主義的な内容を
掲げている人だと分類し
11:06
and let you targetターゲット them with ads広告.
198
654080
2000
広告のターゲットにもできるわけです
11:09
They can alsoまた、 mobilize動員する algorithmsアルゴリズム
199
657200
3536
アルゴリズムはそれだけでなく
11:12
to find for you look-alike似ている audiences観客,
200
660760
3136
自分と似たような人を
探し出すのにも利用でき
11:15
people who do not have suchそのような explicit明白な
anti-Semitic反ユダヤ系 contentコンテンツ on their彼らの profileプロフィール
201
663920
5576
明確に反ユダヤ主義的なことを
プロフィールに書いていなくても
11:21
but who the algorithmアルゴリズム detects検出する
mayかもしれない be susceptible影響を受けやすいです to suchそのような messagesメッセージ,
202
669520
6176
そんなメッセージに影響されやすい人を
アルゴリズムで検知して
11:27
and lets〜する you targetターゲット them with ads広告, too.
203
675720
1920
広告のターゲットにすることも可能です
11:30
Now, this mayかもしれない sound
like an implausible信じ難い example,
204
678680
2736
ありえない話のように
聞こえるかもしれませんが
11:33
but this is realリアル.
205
681440
1320
これは現実です
11:35
ProPublicaプロ公立 investigated調査した this
206
683480
2136
ProPublicaが調査したところ
11:37
and found見つけた that you can indeed確かに
do this on Facebookフェイスブック,
207
685640
3616
実際にFacebook上でも
この機能が利用でき
11:41
and Facebookフェイスブック helpfully有益に
offered提供された up suggestions提案
208
689280
2416
訪問者を増やすための方法を
11:43
on how to broaden広げる that audience聴衆.
209
691720
1600
Facebookが助言までしてくれます
11:46
BuzzFeedボール シューズ tried試した it for GoogleGoogle,
and very quickly早く they found見つけた,
210
694720
3016
BuzzFeedがGoogleで試すと
すぐに分かりました
11:49
yepうん, you can do it on GoogleGoogle, too.
211
697760
1736
そう Googleでも
同じことができるのです
11:51
And it wasn'tなかった even expensive高価な.
212
699520
1696
しかも 費用は
たいしてかかりません
11:53
The ProPublicaプロ公立 reporterレポーター
spent過ごした about 30 dollarsドル
213
701240
4416
ProPublicaの記者は
30ドルほど払って
11:57
to targetターゲット this categoryカテゴリー.
214
705680
2240
ターゲットを絞りました
12:02
So last year, Donaldドナルド Trump'sトランプ
socialソーシャル mediaメディア managerマネージャー disclosed開示された
215
710600
5296
去年 ドナルド・トランプの
SNS担当者が明らかにしたのは
12:07
that they were usingを使用して Facebookフェイスブック darkダーク posts投稿
to demobilize解散する people,
216
715920
5336
Facebookの「ダークポスト」の使い方が
動員の逆を狙ったもので
12:13
not to persuade説得する them,
217
721280
1376
投票勧誘ではなく
12:14
but to convince説得する them not to vote投票 at all.
218
722680
2800
まったく投票しない意思を
固めさせるためだったということです
12:18
And to do that,
they targeted目標 specifically具体的に,
219
726520
3576
そのためにターゲットにしたのは
例えば
12:22
for example, African-Americanアフリカ系アメリカ人 men男性
in keyキー cities都市 like Philadelphiaフィラデルフィア,
220
730120
3896
フィラデルフィアなど 要となる都市の
アフリカ系の男性でした
12:26
and I'm going to read読む
exactly正確に what he said.
221
734040
2456
担当者の言葉を
そのまま読み上げます
12:28
I'm quoting引用.
222
736520
1216
ここからは引用です
12:29
They were usingを使用して "nonpublic非公開 posts投稿
223
737760
3016
陣営が使ったのは 「視聴者を限定できる
12:32
whoseその viewership視聴率 the campaignキャンペーン controlsコントロール
224
740800
2176
公開範囲の指定で
12:35
so that only the people
we want to see it see it.
225
743000
3776
我々が見て欲しい人だけが
それを見るようにした
12:38
We modeledモデル化された this.
226
746800
1216
投稿のねらいはこうだ
12:40
It will dramatically劇的に affect影響を与える her ability能力
to turn順番 these people out."
227
748040
4720
支持者を投票に出かけさせる[ヒラリーの]
力に劇的な影響を及ぼすこと」
12:45
What's in those darkダーク posts投稿?
228
753720
2280
ダークポストには
何が書かれていたのか?
12:48
We have no ideaアイディア.
229
756480
1656
分かりません
12:50
Facebookフェイスブック won't〜されません tell us.
230
758160
1200
Facebookは答えません
12:52
So Facebookフェイスブック alsoまた、 algorithmicallyアルゴリズム的に
arranges手配する the posts投稿
231
760480
4376
Facebookはアルゴリズムによる
投稿の並べ換えを
友達の投稿や あなたがフォローしている
ページでも行っています
12:56
that your friends友達 put on Facebookフェイスブック,
or the pagesページ you followフォローする.
232
764880
3736
13:00
It doesn't showショー you
everything chronologically時系列.
233
768640
2216
全てを時系列で
表示しているのではなく
13:02
It puts置く the order注文 in the way
that the algorithmアルゴリズム thinks考える will entice誘惑する you
234
770880
4816
あなたが興味を持って
サイトに長く留まってくれるだろうと
アルゴリズムが判断した
順序で表示しているのです
13:07
to stay滞在 on the siteサイト longerより長いです.
235
775720
1840
13:11
Now, so this has a lot of consequences結果.
236
779040
3376
このことが様々な影響を
生んでいます
13:14
You mayかもしれない be thinking考え
somebody誰か is snubbingスナビング you on Facebookフェイスブック.
237
782440
3800
誰かがFacebook上で
あなたを無視していると思ったことは?
13:18
The algorithmアルゴリズム mayかもしれない never
be showing表示 your post役職 to them.
238
786800
3256
アルゴリズムがあなたの投稿を
彼らに表示していないのかも
13:22
The algorithmアルゴリズム is prioritizing優先順位付け
some of them and burying埋め込む the othersその他.
239
790080
5960
アルゴリズムは一部の投稿を優先し
他は埋もれさせてしまいます
13:29
Experiments実験 showショー
240
797320
1296
実験で明らかになったのですが
13:30
that what the algorithmアルゴリズム picksピック to showショー you
can affect影響を与える your emotions感情.
241
798640
4520
アルゴリズムが選んで提示するものに
人の感情は影響を受けます
13:36
But that's not all.
242
804600
1200
でも それだけでなく
13:38
It alsoまた、 affects影響を与える political政治的 behavior動作.
243
806280
2360
政治的な行動にも影響が及びます
13:41
So in 2010, in the midterm中期 elections選挙,
244
809360
4656
2010年の中間選挙で
13:46
Facebookフェイスブック did an experiment実験
on 61 million百万 people in the US
245
814040
5896
Facebookは6100万人の
アメリカ人を対象に実験を行い
13:51
that was disclosed開示された after the fact事実.
246
819960
1896
後日そのことを公表しました
13:53
So some people were shown示された,
"Today今日 is election選挙 day,"
247
821880
3416
一部の人に「今日は投票日です」と
13:57
the simplerより単純な one,
248
825320
1376
シンプルなメッセージを示し
13:58
and some people were shown示された
the one with that tiny小さな tweak微調整する
249
826720
3896
他の人には少しだけ
手を加えて
14:02
with those little thumbnailsサムネイル
250
830640
2096
「投票しました」をクリックした友達の
14:04
of your friends友達 who clickedクリックした on "I voted投票された."
251
832760
2840
サムネイル画像も表示したのです
14:09
This simple単純 tweak微調整する.
252
837000
1400
単純な細工です
14:11
OK? So the picturesピクチャー were the only change変化する,
253
839520
4296
いいですか? 違いは写真だけで
14:15
and that post役職 shown示された just once一度
254
843840
3256
たった一度だけの投稿でしたが
14:19
turned回した out an additional追加 340,000 voters有権者
255
847120
6056
研究によると この選挙では
14:25
in that election選挙,
256
853200
1696
投票した人が
14:26
accordingに従って to this research研究
257
854920
1696
34万人増えたことが
14:28
as confirmed確認済み by the voter有権者 rollsロールズ.
258
856640
2520
投票人名簿で確認されました
14:32
A fluke吸虫? No.
259
860920
1656
偶然? いいえ
14:34
Because in 2012,
they repeated繰り返し the same同じ experiment実験.
260
862600
5360
なぜなら2012年にも同じ実験を
しているからです
14:40
And that time,
261
868840
1736
このときは
14:42
that civicシビック messageメッセージ shown示された just once一度
262
870600
3296
公共メッセージを1回出しただけで
14:45
turned回した out an additional追加 270,000 voters有権者.
263
873920
4440
投票者は27万人増えました
14:51
For reference参照, the 2016
US presidential大統領 election選挙
264
879160
5216
参考までに 2016年の
大統領選挙では
14:56
was decided決定しました by about 100,000 votes投票する.
265
884400
3520
約10万票の差で結果が
決まっています
15:01
Now, Facebookフェイスブック can alsoまた、
very easily簡単に infer推論 what your politics政治 are,
266
889360
4736
また あなたが
政治的な内容を書いていなくても
15:06
even if you've never
disclosed開示された them on the siteサイト.
267
894120
2256
Facebookはあなたの政治的信条を
たやすく推論できます
15:08
Right? These algorithmsアルゴリズム
can do that quiteかなり easily簡単に.
268
896400
2520
アルゴリズムを使って
ごく簡単にできるのです
15:11
What if a platformプラットフォーム with that kind種類 of powerパワー
269
899960
3896
そんな力を持つ
プラットフォームが
15:15
decides決定する to turn順番 out supporters支持者
of one candidate候補者 over the other?
270
903880
5040
ある候補を別の候補よりも
支持すると決めたらどうでしょう?
15:21
How would we even know about it?
271
909680
2440
私たちにそれを知る術が
あるでしょうか?
15:25
Now, we started開始した from someplaceどこか
seemingly一見 innocuous無害な --
272
913560
4136
さて ここでは 一見すると
無害そうなこと―
15:29
onlineオンライン adds追加する following以下 us around --
273
917720
2216
私たちを追いかけてくる
オンライン広告からスタートして
15:31
and we've私たちは landed着陸した someplaceどこか elseelse.
274
919960
1840
別の場所に行き着いたわけです
15:35
As a publicパブリック and as citizens市民,
275
923480
2456
国民として 市民として
15:37
we no longerより長いです know
if we're seeing見る the same同じ information情報
276
925960
3416
私たちはもう
同じ情報を見ているのかどうか
15:41
or what anybody elseelse is seeing見る,
277
929400
1480
他の人が何を見ているのか
分かりません
15:43
and withoutなし a common一般 basis基礎 of information情報,
278
931680
2576
情報に共通の基盤がないため
15:46
little by little,
279
934280
1616
少しずつ
15:47
publicパブリック debateディベート is becoming〜になる impossible不可能,
280
935920
3216
国民全体での議論が
不可能になりつつあります
15:51
and we're just at
the beginning始まり stagesステージ of this.
281
939160
2976
これでもまだ
始まったばかりの段階です
15:54
These algorithmsアルゴリズム can quiteかなり easily簡単に infer推論
282
942160
3456
こうしたアルゴリズムは
かなり容易に
15:57
things like your people's人々の ethnicity民族性,
283
945640
3256
あなたの人種や 宗教や 政治的見解や
16:00
religious宗教的 and political政治的 views再生回数,
personality traits形質,
284
948920
2336
人格特性や 知性や 幸福度や
16:03
intelligenceインテリジェンス, happiness幸福,
use of addictive中毒性の substances物質,
285
951280
3376
薬物の使用や 両親の離婚や
16:06
parental separation分離, age年齢 and genders性別,
286
954680
3136
年齢や 性別など 個人的なことを
16:09
just from Facebookフェイスブック likes好きな人.
287
957840
1960
Facebookなどから推察できます
16:13
These algorithmsアルゴリズム can identify識別する protesters抗議者
288
961440
4056
こうしたアルゴリズムを使えば
顔の一部が隠れていても
16:17
even if their彼らの faces
are partially部分的に concealed隠蔽された.
289
965520
2760
抗議活動をしている人が誰かを
特定できます
16:21
These algorithmsアルゴリズム mayかもしれない be ableできる
to detect検出する people's人々の sexual性的 orientationオリエンテーション
290
969720
6616
デートの相手を探すための
プロフィール画像だけからでも
16:28
just from their彼らの datingデート profileプロフィール picturesピクチャー.
291
976360
3200
性的指向を探り当てられる
かもしれません
16:33
Now, these are probabilistic確率的 guesses推測,
292
981560
2616
こうした判断は確率に基づく推定なので
16:36
so they're not going
to be 100 percentパーセント right,
293
984200
2896
100%正しいわけではありません
16:39
but I don't see the powerful強力な resisting抵抗する
the temptation誘惑 to use these technologiesテクノロジー
294
987120
4896
しかし 判断の誤りが
いくらか交じるというだけで
16:44
just because there are
some false positivesポジティブ,
295
992040
2176
権力者がこうしたテクノロジーの使用を
思いとどまるとは考えにくく
16:46
whichどの will of courseコース create作成する
a whole全体 other layer of problems問題.
296
994240
3256
当然ながら 派生的な問題が
山のように生じるでしょう
16:49
Imagine想像する what a state状態 can do
297
997520
2936
国家が市民に関する膨大なデータを
手に入れたら
16:52
with the immense巨大 amount of dataデータ
it has on its citizens市民.
298
1000480
3560
どんなことができるか
想像してみてください
16:56
China中国 is already既に usingを使用して
face detection検出 technology技術
299
1004680
4776
中国は既に顔認識技術を使って
17:01
to identify識別する and arrest逮捕 people.
300
1009480
2880
人物を特定し
逮捕しています
17:05
And here'sここにいる the tragedy悲劇:
301
1013280
2136
何が悲劇的かというと
17:07
we're building建物 this infrastructureインフラ
of surveillance監視 authoritarianism権威主義
302
1015440
5536
私たちが監視による独裁を可能にする
インフラを整備しているのは
17:13
merely単に to get people to clickクリック on ads広告.
303
1021000
2960
ただ 広告をクリックしてもらうためだ
という点です
17:17
And this won't〜されません be
Orwell'sオーウェル authoritarianism権威主義.
304
1025240
2576
オーウェルの描いた独裁の
ようにはなりません
17:19
This isn't "1984."
305
1027839
1897
『1984年』とは違います
17:21
Now, if authoritarianism権威主義
is usingを使用して overt明白な fear恐れ to terrorize恐れる us,
306
1029760
4576
恐怖で公然と人々を
支配するのであれば
17:26
we'll私たちは all be scared怖い, but we'll私たちは know it,
307
1034359
2897
誰もが恐れを抱くにしても
何が起きているかは分かるので
17:29
we'll私たちは hate嫌い it and we'll私たちは resistレジスト it.
308
1037280
2200
私たちはそれを嫌悪し
抵抗するでしょう
17:32
But if the people in powerパワー
are usingを使用して these algorithmsアルゴリズム
309
1040880
4416
しかし 権力者が
こうしたアルゴリズムを使って
17:37
to quietly静かに watch us,
310
1045319
3377
密かに私たちを監視し
17:40
to judge裁判官 us and to nudgeナッジ us,
311
1048720
2080
判別し 突つきまわし
17:43
to predict予測する and identify識別する
the troublemakersトラブルメーカー and the rebels反逆者,
312
1051720
4176
トラブルを起こしそうな
反抗的な者を洗い出してマークし
17:47
to deploy展開する persuasion説得
architecturesアーキテクチャ at scale規模
313
1055920
3896
説得アーキテクチャを
大々的に利用し
17:51
and to manipulate操作する individuals個人 one by one
314
1059840
4136
個人の弱みや脆弱な面を突いて
17:56
usingを使用して their彼らの personal個人的, individual個人
weaknesses弱点 and vulnerabilities脆弱性,
315
1064000
5440
1人ずつ操作しようとするなら―
18:02
and if they're doing it at scale規模
316
1070720
2200
市民の仲間や隣人が
何を目にしているか
18:06
throughを通して our privateプライベート screensスクリーン
317
1074080
1736
私たちが互いに分からないように
18:07
so that we don't even know
318
1075840
1656
個人の画面を通して
18:09
what our fellow仲間 citizens市民
and neighbors隣人 are seeing見る,
319
1077520
2760
大きなスケールで実行するなら
18:13
that authoritarianism権威主義
will envelopエンベロープ us like a spider'sクモの webウェブ
320
1081560
4816
この独裁体制が私たちを
クモの巣のように包み込んでも
18:18
and we mayかもしれない not even know we're in it.
321
1086400
2480
自分がその中にいるとは
夢にも思わないかもしれません
18:22
So Facebook'sFacebookの market市場 capitalization大文字
322
1090440
2936
Facebookの時価総額は
18:25
is approaching接近する halfハーフ a trillion1兆 dollarsドル.
323
1093400
3296
5000億ドルに近づいています
18:28
It's because it works作品 great
as a persuasion説得 architecture建築.
324
1096720
3120
説得アーキテクチャが
絶大な効果を発揮しているからです
18:33
But the structure構造 of that architecture建築
325
1101760
2816
しかし アーキテクチャの構造は
18:36
is the same同じ whetherかどうか you're selling販売 shoes
326
1104600
3216
その広告が靴を売っていようと
18:39
or whetherかどうか you're selling販売 politics政治.
327
1107840
2496
政治信条を売っていようと同じです
18:42
The algorithmsアルゴリズム do not know the difference.
328
1110360
3120
アルゴリズムに
その違いは分かりません
18:46
The same同じ algorithmsアルゴリズム setセット loose緩む upon〜に us
329
1114240
3296
広告にもっと影響されやすくなるよう
18:49
to make us more pliable柔軟な for ads広告
330
1117560
3176
私たちに投げかけられるのと
同じアルゴリズムが
18:52
are alsoまた、 organizing整理する our political政治的,
personal個人的 and socialソーシャル information情報 flows流れ,
331
1120760
6736
政治的 個人的 社会的な
情報の流れも組織している―
18:59
and that's what's got to change変化する.
332
1127520
1840
そこを変えなければなりません
19:02
Now, don't get me wrong違う,
333
1130240
2296
ただし 誤解しないでください
19:04
we use digitalデジタル platformsプラットフォーム
because they provide提供する us with great value.
334
1132560
3680
私たちがデジタル技術を使うのは
大きな価値を提供してくれるからです
19:09
I use Facebookフェイスブック to keep in touchタッチ
with friends友達 and family家族 around the world世界.
335
1137120
3560
私は世界中にいる友人や家族と
繋がるためにFacebookを使っています
19:14
I've written書かれた about how crucial重大な
socialソーシャル mediaメディア is for socialソーシャル movements動き.
336
1142000
5776
また SNSが社会運動にとって
どれほど重要かを文章にしてきました
19:19
I have studied研究した how
these technologiesテクノロジー can be used
337
1147800
3016
こうしたテクノロジーを使って
世界中で検閲を回避する方法も
19:22
to circumvent回避する censorship検閲 around the world世界.
338
1150840
2480
研究してきました
19:27
But it's not that the people who run走る,
you know, Facebookフェイスブック or GoogleGoogle
339
1155280
6416
でも FacebookやGoogleの
経営者たちが
19:33
are maliciously悪意をもって and deliberately故意に trying試す
340
1161720
2696
悪意をもって意図的に
19:36
to make the country
or the world世界 more polarized偏極した
341
1164440
4456
この国や世界の分極化を進め
19:40
and encourage奨励します extremism過激主義.
342
1168920
1680
過激化を後押ししている
わけではありません
19:43
I read読む the manyたくさんの
well-intentioned善意の statementsステートメント
343
1171440
3976
良心的に行動するという彼らの声明を
19:47
that these people put out.
344
1175440
3320
これまでにいくつも読みました
19:51
But it's not the intent意図 or the statementsステートメント
people in technology技術 make that matter問題,
345
1179600
6056
しかし 技術力を持つ人々の
意図や声明ではなく
19:57
it's the structures構造
and businessビジネス modelsモデル they're building建物.
346
1185680
3560
彼らが構築している構造や
ビジネスモデルが問題なのです
20:02
And that's the coreコア of the problem問題.
347
1190360
2096
それが問題の核心です
20:04
Eitherいずれか Facebookフェイスブック is a giant巨人 con
of halfハーフ a trillion1兆 dollarsドル
348
1192480
4720
もしかして Facebookは
5000億ドルの巨大な詐欺であり
20:10
and ads広告 don't work on the siteサイト,
349
1198200
1896
サイト上の広告は効果がなく
20:12
it doesn't work
as a persuasion説得 architecture建築,
350
1200120
2696
説得アーキテクチャとして
無力なのか―
20:14
or its powerパワー of influence影響
is of great concern懸念.
351
1202840
4120
そうでないとしたら その影響力は
重大な懸念を招きます
20:20
It's eitherどちらか one or the other.
352
1208560
1776
真実はそのどちらかです
20:22
It's similar類似 for GoogleGoogle, too.
353
1210360
1600
Googleについても同様です
20:24
So what can we do?
354
1212880
2456
では 私たちは何ができるのか?
20:27
This needsニーズ to change変化する.
355
1215360
1936
現状を変える必要があります
20:29
Now, I can't offer提供 a simple単純 recipeレシピ,
356
1217320
2576
私には 単純な処方箋を
提示できません
20:31
because we need to restructure再構築
357
1219920
2256
今のデジタルテクノロジーのあり方を
20:34
the whole全体 way our
digitalデジタル technology技術 operates動作する.
358
1222200
3016
根底から構築し直す
必要があるからです
20:37
Everything from the way
technology技術 is developed発展した
359
1225240
4096
技術開発の方法から
20:41
to the way the incentivesインセンティブ,
economic経済的 and otherwiseさもないと,
360
1229360
3856
経済面その他の
インセンティブまで
20:45
are built建てられた into the systemシステム.
361
1233240
2280
すべてがシステムに
組み込まれています
20:48
We have to face and try to deal対処 with
362
1236480
3456
私たちが直視し
対処しなければならないのは
20:51
the lack欠如 of transparency透明性
created作成した by the proprietary独自の algorithmsアルゴリズム,
363
1239960
4656
独自非公開アルゴリズムが
もたらす透明性の欠如や
20:56
the structural構造的 challengeチャレンジ
of machine機械 learning's学習の opacity不透明度,
364
1244640
3816
機械学習の不透明さという
構造的な課題や
21:00
all this indiscriminate無差別 dataデータ
that's beingであること collected集めました about us.
365
1248480
3400
個人についての情報が
見境なく収集されていることです
21:05
We have a big大きい task仕事 in frontフロント of us.
366
1253000
2520
私たちは大きな難題に
直面しています
21:08
We have to mobilize動員する our technology技術,
367
1256160
2680
テクノロジーや
21:11
our creativity創造性
368
1259760
1576
創造性や
21:13
and yes, our politics政治
369
1261360
1880
そう 政治力も結集して
21:16
so that we can buildビルドする
artificial人工的な intelligenceインテリジェンス
370
1264240
2656
私たちが作り上げたいのは
21:18
that supportsサポート us in our human人間 goalsゴール
371
1266920
3120
私たちの人間的な目標の追求を
支えてくれるとともに
21:22
but that is alsoまた、 constrained拘束された
by our human人間 values.
372
1270800
3920
人間的な価値によって
制約も受けるようなAIです
21:27
And I understandわかる this won't〜されません be easy簡単.
373
1275600
2160
容易でないことは
分かっています
21:30
We mightかもしれない not even easily簡単に agree同意する
on what those terms条項 mean.
374
1278360
3600
その言葉の定義についてさえ
簡単には合意できないかも
21:34
But if we take seriously真剣に
375
1282920
2400
それでも 私たちがこれほど深く
依存しているシステムが
21:38
how these systemsシステム that we
depend依存する on for so much operate操作する,
376
1286240
5976
どのように働いているかを
真剣に考えるなら
21:44
I don't see how we can postpone遅らせる
this conversation会話 anymoreもう.
377
1292240
4120
この議論をこれ以上
先延ばしにできるとは思えません
21:49
These structures構造
378
1297200
2536
こうした構造が
21:51
are organizing整理する how we function関数
379
1299760
4096
私たちの行動を組織し
21:55
and they're controlling制御する
380
1303880
2296
私たちに何ができ
何ができないかを
21:58
what we can and we cannotできない do.
381
1306200
2616
コントロールしています
22:00
And manyたくさんの of these ad-financed広告ファイナンス platformsプラットフォーム,
382
1308840
2456
広告収入で維持される
こうしたプラットフォームの多くは
22:03
they boast自慢 that they're free無料.
383
1311320
1576
無料で利用できることを
強調しています
22:04
In this contextコンテキスト, it means手段
that we are the product製品 that's beingであること sold売った.
384
1312920
4560
つまり 販売されているのは
私たち自身だということです
22:10
We need a digitalデジタル economy経済
385
1318840
2736
私たちにとって必要な
デジタル経済は
22:13
where our dataデータ and our attention注意
386
1321600
3496
最も高い値段をつけた
独裁者や扇動的な政治家に
22:17
is not for sale販売 to the highest-bidding最高入札
authoritarian権威主義的な or demagogueデマゴーグ.
387
1325120
5080
私たちのデータや注目が
売り渡されないシステムです
22:23
(Applause拍手)
388
1331160
3800
(拍手)
22:30
So to go back to
that Hollywoodハリウッド paraphrase言い換え,
389
1338480
3256
先ほど紹介した
ハリウッドの言葉に話を戻すなら
22:33
we do want the prodigious驚異的な potential潜在的な
390
1341760
3736
AIの途方もない可能性と
デジタルテクノロジーが
22:37
of artificial人工的な intelligenceインテリジェンス
and digitalデジタル technology技術 to blossom,
391
1345520
3200
開花することを
切に望みながらも
22:41
but for that, we must必須 face
this prodigious驚異的な menace脅威,
392
1349400
4936
私たちは 途方もない脅威から
目をそらさず
22:46
open-eyed開眼 and now.
393
1354360
1936
正に今 直視しなければなりません
22:48
Thank you.
394
1356320
1216
ありがとうございました
22:49
(Applause拍手)
395
1357560
4640
(拍手)
Translated by Yoichi Fukuoka
Reviewed by Eriko T.

▲Back to top

ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.

Why you should listen

We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.

Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.

Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.

More profile about the speaker
Zeynep Tufekci | Speaker | TED.com