ABOUT THE SPEAKER
James Bridle - Artist, writer
Working across technologies and disciplines, James Bridle examines technology, knowledge and the end of the future.

Why you should listen

James Bridle is an artist and writer working across technologies and disciplines. His artworks and installations have been exhibited in Europe, North and South America, Asia and Australia, and have been viewed by hundreds of thousands of visitors online. He has been commissioned by organizations including the Victoria & Albert Museum, the Barbican, Artangel, the Oslo Architecture Triennale and the Istanbul Design Biennial, and he has been honored by Ars Electronica, the Japan Media Arts Festival and the Design Museum, London. His writing on literature, culture and networks has appeared in magazines and newspapers including Frieze, Wired, Domus, Cabinet, The Atlantic, the New Statesman and many others, and he has written a regular column for The Observer.

New Dark Age, Bridle's book about technology, knowledge and the end of the future is forthcoming from Verso (UK & US) in 2018. He lectures regularly on radio, at conferences, universities and other events including SXSW, Lift, the Global Art Forum and Re:Publica. He has been a resident at Lighthouse, Brighton, the White Building, London and Eyebeam, New York, and an adjunct professor on the interactive telecommunications program at New York University.

More profile about the speaker
James Bridle | Speaker | TED.com
TED2018

James Bridle: The nightmare videos of children's YouTube -- and what's wrong with the internet today

ジェームズ・ブライドル: 悪夢のような子供向けYouTube動画—今のインターネットのどこが間違っているのか

Filmed:
4,659,225 views

作家で芸術家のジェームズ・ブライドルが、インターネットの暗く奇妙な片隅に光を当てます。そこでは誰とも分からぬ人々がYouTubeを使い、子供の頭を弄んで広告収入を得ています。サプライズ・エッグ開け動画やフィンガー・ファミリーの歌から、人気のアニメキャラが暴力的な状況に置かれるアルゴリズム的に生成されたマッシュアップ動画まであって、幼い心を食い物にし、怯えさせています。それは勢いを増すデータ駆動の世界がどこへ向かっているのかを示しているでしょう。ブライドルは言います。「テクノロジーがあらゆる問題への解決法だと思うのはやめて、問題が実際どういうものか知るためのガイドと考える必要があります。そうすれば問題を適切に捉え、取り組み始めることができるでしょう」
- Artist, writer
Working across technologies and disciplines, James Bridle examines technology, knowledge and the end of the future. Full bio

Double-click the English transcript below to play the video.

00:12
I'm Jamesジェームス.
0
777
1183
私はジェームズ
00:13
I'm a writerライター and artistアーティスト,
1
1984
1686
作家で芸術家で
00:15
and I make work about technology技術.
2
3694
2341
テクノロジーに関する作品を
作っています
世界各地の街中に
00:18
I do things like drawドロー life-size実物大 outlinesアウトライン
of military軍事 drones無人機
3
6454
3911
実物大の軍用ドローンの輪郭を
描いたりしています
00:22
in cityシティ streets通り around the world世界,
4
10389
1828
こういう みんながあまり目にしたり
考えたりすることのないテクノロジーについて
00:24
so that people can start開始 to think
and get their彼らの heads around
5
12241
2950
00:27
these really quiteかなり hard-to-see参照してくださいハード
and hard-to-think-aboutハード-に--考える technologiesテクノロジー.
6
15215
3440
考え 理解してもらえるように
天気予報に基づいて
選挙結果を予測する
00:31
I make things like neuralニューラル networksネットワーク
that predict予測する the results結果 of elections選挙
7
19494
3836
ニューラルネットなんかも
作っていますが
00:35
basedベース on weather天気 reportsレポート,
8
23354
1737
それは こういう
奇妙な新技術に
00:37
because I'm intrigued興味をそそられる about
9
25115
1314
00:38
what the actual実際の possibilities可能性
of these weird奇妙な new新しい technologiesテクノロジー are.
10
26453
3924
本当のところどんな可能性があるかに
興味があるからです
00:43
Last year, I built建てられた
my own自分の self-driving自己運転 car.
11
31405
2426
去年は自分で
自動運転車を作りました
00:45
But because I don't
really trust信頼 technology技術,
12
33855
2526
私は技術というのを
信用していないので
00:48
I alsoまた、 designed設計 a trapトラップ for it.
13
36405
1928
一緒に自動運転車用の
罠も作りました
(笑)
00:50
(Laughter笑い)
14
38777
1086
00:51
And I do these things mostly主に because
I find them completely完全に fascinating魅力的な,
15
39887
4298
私がそういったことをするのは
面白いと思うからですが
00:56
but alsoまた、 because I think
when we talk about technology技術,
16
44209
2602
私達がテクノロジーの
話をするとき
それは概ね
私達自身のことや
00:58
we're largely主に talking話す about ourselves自分自身
17
46835
2619
世界の理解の仕方についてだ
ということもあります
01:01
and the way that we understandわかる the world世界.
18
49478
2299
01:03
So here'sここにいる a storyストーリー about technology技術.
19
51801
2442
ではひとつ テクノロジーの
話をしましょう
01:07
This is a "surprise驚き egg" videoビデオ.
20
55520
2830
これは「サプライズ・エッグ」の動画です
01:10
It's basically基本的に a videoビデオ of someone誰か
opening開ける up loads負荷 of chocolateチョコレート eggs
21
58374
3348
基本的には ただひたすら
チョコの卵を開けて
中にあるオモチャを
見せるというものです
01:13
and showing表示 the toysおもちゃ inside内部 to the viewerビューア.
22
61746
2126
それだけです
7分間ずっとそうしています
01:16
That's it. That's all it does
for sevenセブン long minutes.
23
64461
2649
01:19
And I want you to notice通知
two things about this.
24
67428
3051
ここで2点ほど
注意してほしいことがあります
01:22
First of all, this videoビデオ
has 30 million百万 views再生回数.
25
70503
4074
まず この動画の再生回数が
3千万回だということ
01:26
(Laughter笑い)
26
74601
1275
(笑)
01:28
And the other thing is,
27
76376
1166
もうひとつは
この動画のチャンネルには
630万人の購読者がいることです
01:29
it comes来る from a channelチャネル
that has 6.3 million百万 subscribers加入者,
28
77566
3869
動画の総視聴回数は
80億回にもなりますが
01:33
that has a total合計 of eight8 billion views再生回数,
29
81459
2680
01:36
and it's all just more videosビデオ like this --
30
84163
3106
どれもがこれと
似たような動画です
01:40
30 million百万 people watching見ている a guy
opening開ける up these eggs.
31
88256
3908
3千万の人々が この人物が
卵を開けるのを見ているわけです
すごく変な話に
聞こえるでしょうが
01:44
It sounds prettyかなり weird奇妙な, but if you searchサーチ
for "surprise驚き eggs" on YouTubeYouTube,
32
92188
4481
YouTubeで「サプライズ・エッグ」(surprise eggs)を
検索すると 1千万本あると出ます
01:48
it'llそれはよ tell you there's
10 million百万 of these videosビデオ,
33
96693
3523
これは実際より
少ないと思います
01:52
and I think that's an undercountundercount.
34
100240
1657
01:53
I think there's way, way more of these.
35
101921
1897
それより ずっとたくさん
あるでしょう
01:55
If you keep searching検索, they're endless無限.
36
103842
2242
検索していくと
際限なく出てきます
01:58
There's millions何百万 and millions何百万
of these videosビデオ
37
106108
2159
何百万という動画があり
02:00
in increasinglyますます baroqueバロック combinations組み合わせ
of brandsブランド and materials材料,
38
108291
3454
ブランドや素材の組み合わせが
どんどん奇怪になっていきます
02:03
and there's more and more of them
beingであること uploadedアップロードされた everyすべて singleシングル day.
39
111769
3846
そして新たな動画が
毎日追加されています
02:07
Like, this is a strange奇妙な world世界. Right?
40
115639
3511
まったく奇妙な世界です
問題は こういう動画を見ているのは
大人ではないことです
02:11
But the thing is, it's not adults大人
who are watching見ている these videosビデオ.
41
119174
3383
02:14
It's kids子供たち, small小さい children子供.
42
122581
2921
小さな子供なんです
こういう動画は小さな子供にとって
麻薬みたいなものです
02:17
These videosビデオ are
like crack亀裂 for little kids子供たち.
43
125526
2154
02:19
There's something about the repetition繰り返し,
44
127704
2075
繰り返しに
何かあるらしく
明かされるたびに
小さなドーパミンの刺激があって
02:21
the constant定数 little
dopamineドーパミン hitヒット of the reveal明らかにする,
45
129803
2468
02:24
that completely完全に hooksフック them in.
46
132295
1866
すっかり惹き付けられて
しまうんです
02:26
And little kids子供たち watch these videosビデオ
over and over and over again,
47
134185
4809
小さな子供はこういう動画を
何度も繰り返して再生し
何時間でも見続けます
02:31
and they do it for hours時間
and hours時間 and hours時間.
48
139018
2327
取り上げようと
しようものなら
02:33
And if you try and take
the screen画面 away from them,
49
141369
2356
泣き喚いて
手が付けられません
02:35
they'll彼らは scream悲鳴 and scream悲鳴 and scream悲鳴.
50
143749
1782
信じられないと言うなら—
02:37
If you don't believe me --
51
145555
1262
客席に頷いている方がいますが
02:38
and I've already既に seen見た people
in the audience聴衆 noddingうなずき --
52
146841
2607
小さな子供がいる人に
聞いてみてください
02:41
if you don't believe me, find someone誰か
with small小さい children子供 and ask尋ねる them,
53
149472
3391
サプライズ・エッグの動画を
知っているはずです
02:44
and they'll彼らは know about
the surprise驚き egg videosビデオ.
54
152887
2340
これが出発点です
02:47
So this is where we start開始.
55
155251
2070
2018年現在
02:49
It's 2018, and someone誰か, or lots of people,
56
157345
3642
皆さんにアプリを
チェックし続けさせるために
02:53
are usingを使用して the same同じ mechanism機構 that, like,
Facebookフェイスブック and Instagramインスタグラム are usingを使用して
57
161011
3941
FacebookやInstagramが
使っているのと同じ仕掛けを
02:56
to get you to keep checking点検 that appアプリ,
58
164976
1989
YouTubeに適用して
小さな子供の頭を弄び
02:58
and they're usingを使用して it on YouTubeYouTube
to hackハック the brains頭脳 of very small小さい children子供
59
166989
3985
広告収入を得ようとしている人が
たくさんいるんです
03:02
in returnリターン for advertising広告 revenue収入.
60
170998
1958
少なくとも そうなのだと
思いたいです
03:06
At least少なくとも, I hope希望
that's what they're doing.
61
174346
2001
03:08
I hope希望 that's what they're doing it for,
62
176371
1955
というのも YouTubeで
広告収入を得るためなら
03:10
because there's easierより簡単に ways方法
of making作る ad広告 revenue収入 on YouTubeYouTube.
63
178350
5308
もっと簡単な方法が
ありますから
03:15
You can just make stuffもの up or stealスチール stuffもの.
64
183682
2332
単にでっち上げるか
盗むかすればいいんです
03:18
So if you searchサーチ for really
popular人気 kids'子供たちは、 cartoons漫画
65
186038
2635
「ペッパ・ピッグ」や
「ポー・パトロール」のような
子供に人気の
アニメを検索すると
03:20
like "Peppaペッパ Pig" or "Paw Patrolパトロール,"
66
188697
1654
03:22
you'llあなたは find there's millions何百万 and millions何百万
of these onlineオンライン as well.
67
190375
3147
何百万という動画が
見つかります
そのほとんどは本当の作者が
アップロードしたものではありません
03:25
Of courseコース, most最も of them aren'tない posted投稿された
by the original元の contentコンテンツ creatorsクリエイター.
68
193546
3352
山ほどの雑多なアカウントから
投稿されていて
03:28
They come from loads負荷 and loads負荷
of different異なる randomランダム accountsアカウント,
69
196922
2999
誰がやっているのか
分からないし
03:31
and it's impossible不可能 to know
who'sだれの posting転記 them
70
199945
2240
その動機も分かりません
03:34
or what their彼らの motives動機 mightかもしれない be.
71
202209
1822
03:36
Does that sound kind種類 of familiar身近な?
72
204428
1930
聞いたことのあるような話ですね
03:38
Because it's exactly正確に the same同じ mechanism機構
73
206382
1980
まったく同じことが
03:40
that's happeningハプニング across横断する most最も
of our digitalデジタル servicesサービス,
74
208386
2600
多くのデジタルサービスで
起きていて
03:43
where it's impossible不可能 to know
where this information情報 is coming到来 from.
75
211010
3207
情報がどこから来ているのか
分からないのです
いわば子供のための
フェイクニュースです
03:46
It's basically基本的に fake newsニュース for kids子供たち,
76
214241
1829
03:48
and we're trainingトレーニング them from birth誕生
77
216094
2161
子供達は生まれた時から
出てくる最初のリンクを
その出所を問わずクリックするよう
03:50
to clickクリック on the very first linkリンク
that comes来る along一緒に,
78
218279
2506
03:52
regardless関係なく of what the sourceソース is.
79
220809
1953
慣らされているのです
03:54
That's doesn't seem思われる like
a terriblyひどく good ideaアイディア.
80
222786
2603
あまり良い考えとは
思えませんが
これはまた別の すごく有名な
子供向けYouTube動画です
03:58
Here'sここにいる another別の thing
that's really big大きい on kids'子供たちは、 YouTubeYouTube.
81
226399
2710
04:01
This is calledと呼ばれる the "Finger Family家族 Song."
82
229133
1928
「フィンガー・ファミリーの歌」です
客席からうめきが
聞こえますね
04:03
I just heard聞いた someone誰か groan声援
in the audience聴衆.
83
231085
2018
こちらがオリジナルらしく
04:05
This is the "Finger Family家族 Song."
84
233127
1624
私に見付けられた
最初のものです
04:06
This is the very first one I could find.
85
234775
1930
04:08
It's from 2007, and it only has
200,000 views再生回数,
86
236729
2829
2007年に公開され
視聴回数は20万回
この分野では
微々たるものです
04:11
whichどの is, like, nothing in this gameゲーム.
87
239582
1976
04:13
But it has this insanely辛口 earwormyearwormy tune,
88
241582
2852
耳から離れない音楽が
付いていますが
ここでお聴かせはしません
04:16
whichどの I'm not going to play遊びます to you,
89
244458
1682
頭にこびりついて
離れなくなりますから
04:18
because it will searサーチ itself自体
into your brain
90
246164
2008
04:20
in the same同じ way that
it seared睨んだ itself自体 into mine鉱山,
91
248196
2395
私はそうなったので
皆さんを同じ目に
遭わせようとは思いません
04:22
and I'm not going to do that to you.
92
250615
1770
サプライズ・エッグと同じように
04:24
But like the surprise驚き eggs,
93
252409
1344
04:25
it's got inside内部 kids'子供たちは、 heads
94
253777
2164
子供の頭に入り込んで
中毒にします
04:27
and addicted中毒 them to it.
95
255965
1607
数年のうちに
04:29
So within以内 a few少数 years,
these finger family家族 videosビデオ
96
257596
2531
フィンガー・ファミリーの動画が
至る所に現れ始めました
04:32
start開始 appearing出現する everywhereどこにでも,
97
260151
1303
いろいろ変種があって
外国語版もあれば
04:33
and you get versionsバージョン
in different異なる languages言語
98
261478
2029
04:35
with popular人気 kids'子供たちは、 cartoons漫画 usingを使用して foodフード
99
263531
2121
人気の漫画キャラや
食べ物を使ったものもあり
04:37
or, frankly率直に, usingを使用して whateverなんでも kind種類
of animationアニメーション elements要素
100
265676
2550
その辺にあるアニメの要素を
何でも使っています
04:40
you seem思われる to have lying嘘つき around.
101
268250
2252
04:43
And once一度 again, there are millions何百万
and millions何百万 and millions何百万 of these videosビデオ
102
271002
5197
このような ありとあらゆる
突拍子のない取り合わせの動画が
ネット上に山ほどあるんです
04:48
available利用可能な onlineオンライン in all of these
kind種類 of insane狂人 combinations組み合わせ.
103
276223
3435
そういうものを見始めると
04:51
And the more time
you start開始 to spend費やす with them,
104
279682
2228
だんだん自分の気が狂っているような
感じがしてきます
04:53
the crazierクレイジー and crazierクレイジー
you start開始 to feel that you mightかもしれない be.
105
281934
3694
私がこういうものを
調べ始めたのは
04:57
And that's where I
kind種類 of launched打ち上げ into this,
106
285652
3333
この深い奇妙さの
感覚のためであり
05:01
that feeling感じ of deep深い strangeness奇妙
and deep深い lack欠如 of understanding理解
107
289009
3666
それがどうやって作られているのか
あまりに謎だったからです
05:04
of how this thing was constructed建設された
that seems思われる to be presented提示された around me.
108
292699
4175
これがどこからやってくるのか
知りようがありません
05:08
Because it's impossible不可能 to know
where these things are coming到来 from.
109
296898
3167
いったい誰が作っているのか?
05:12
Like, who is making作る them?
110
300089
1241
プロのアニメーターの作のように
見えるものもあれば
05:13
Some of them appear現れる to be made
of teamsチーム of professional専門家 animatorsアニメーター.
111
301354
3143
ソフトウェアでただランダムに
合成されたように見えるものもあり
05:16
Some of them are just randomly無作為に
assembled組み立てられた by softwareソフトウェア.
112
304521
2882
05:19
Some of them are quiteかなり wholesome-looking健全な探してください。
young若い kids'子供たちは、 entertainersエンターテイナー.
113
307427
4253
すごく健全な歌のお姉さん風の人が
出て来るものもあれば
子供にはまったく近寄らせるべきでないような
人々によるものもあります
05:23
And some of them are from people
114
311704
1552
05:25
who really clearlyはっきりと
shouldn'tすべきではない be around children子供 at all.
115
313280
3007
(笑)
05:28
(Laughter笑い)
116
316311
1615
05:30
And once一度 again, this impossibility不可能
of figuring想像する out who'sだれの making作る this stuffもの --
117
318987
4640
誰が作っているのか
見当が付かないのです
05:35
like, this is a botボット?
118
323651
1156
ボットなのか
05:36
Is this a person? Is this a trollトロール?
119
324831
2647
人間なのか
トロールなのか
そういう違いがもはや
分からないというのは
05:39
What does it mean
that we can't tell the difference
120
327502
2382
05:41
betweenの間に these things anymoreもう?
121
329908
1583
何を意味するのか?
05:43
And again, doesn't that uncertainty不確実性
feel kind種類 of familiar身近な right now?
122
331515
4848
この不確かさには 馴染みのある
感じが しないでしょうか?
05:50
So the mainメイン way people get views再生回数
on their彼らの videosビデオ --
123
338145
2580
動画の視聴者を集める
主なやり方は—
視聴はお金を
意味するわけですが—
05:52
and remember思い出す, views再生回数 mean moneyお金 --
124
340749
1707
05:54
is that they stuffもの the titlesタイトル
of these videosビデオ with these popular人気 terms条項.
125
342480
4742
タイトルに人気の言葉を
入れるというものです
05:59
So you take, like, "surprise驚き eggs"
126
347246
1687
たとえば「サプライズ・エッグ」に
06:00
and then you add追加する
"Paw Patrolパトロール," "Easterイースター egg,"
127
348957
2066
「ポー・パトロール」とか
「イースター・エッグ」とか
何であれ他の人気動画の
06:03
or whateverなんでも these things are,
128
351047
1393
06:04
all of these words言葉 from other
popular人気 videosビデオ into your titleタイトル,
129
352464
2893
キーワードを付け加えるんです
そうしていくと意味のない
言葉の寄せ集めになって
06:07
until〜まで you end終わり up with this kind種類 of
meaningless無意味な mashマッシュ of language言語
130
355381
2968
人間には意味をなさない
ものになりますが
06:10
that doesn't make senseセンス to humans人間 at all.
131
358373
2498
06:12
Because of courseコース it's only really
tiny小さな kids子供たち who are watching見ている your videoビデオ,
132
360895
3546
こういう動画を見るのは
小さな子供なので
どの道関係ありません
06:16
and what the hell地獄 do they know?
133
364465
1827
これらのものの真の視聴者は
ソフトウェア—
06:18
Your realリアル audience聴衆
for this stuffもの is softwareソフトウェア.
134
366316
3007
06:21
It's the algorithmsアルゴリズム.
135
369347
1156
アルゴリズムなんです
06:22
It's the softwareソフトウェア that YouTubeYouTube uses用途
136
370527
1855
動画をおすすめし
人気にしてくれる
06:24
to select選択する whichどの videosビデオ
are like other videosビデオ,
137
372406
2483
似たビデオを選ぶ
YouTubeのプログラムが
06:26
to make them popular人気,
to make them recommendedお勧め.
138
374913
2243
ターゲットなんです
06:29
And that's why you end終わり up with this
kind種類 of completely完全に meaningless無意味な mashマッシュ,
139
377180
3461
そうやってタイトルも内容も
意味のない
混合物の動画が
出来上がります
06:32
bothどちらも of titleタイトル and of contentコンテンツ.
140
380665
2071
でも このアルゴリズム的に
最適化されたシステムの中にも
06:35
But the thing is, you have to remember思い出す,
141
383792
1894
06:37
there really are still people within以内
this algorithmicallyアルゴリズム的に optimized最適化した systemシステム,
142
385710
4478
依然として本物の人間がいることを
忘れてはいけません
06:42
people who are kind種類
of increasinglyますます forced強制された to act行為 out
143
390212
2790
ますます奇抜になっていく
言葉の組み合わせに合わせて
06:45
these increasinglyますます bizarre奇妙な
combinations組み合わせ of words言葉,
144
393026
3066
演じることを強いられる
人々がいます
06:48
like a desperate絶望的な improvisation即興 artistアーティスト
responding応答する to the combined結合された screams悲鳴を上げる
145
396116
5173
無数の幼児が同時に叫ぶ
言葉の組み合わせに
必死になって応じる
即興芸人みたいなものです
06:53
of a million百万 toddlers幼児 at once一度.
146
401313
2203
06:57
There are realリアル people
trappedトラップされた within以内 these systemsシステム,
147
405168
2468
このシステムの中に
囚われている人々がいるんです
06:59
and that's the other deeply深く strange奇妙な thing
about this algorithmicallyアルゴリズム的に driven駆動される culture文化,
148
407660
4055
このアルゴリズム駆動の文化の
奇妙なところは
ただ生き残るために
07:03
because even if you're human人間,
149
411739
1381
人間が機械のように
振る舞うことになる点です
07:05
you have to end終わり up behaving行動する like a machine機械
150
413144
2145
07:07
just to survive生き残ります.
151
415313
1800
そしてまた画面の反対側には
07:09
And alsoまた、, on the other side of the screen画面,
152
417137
2100
07:11
there still are these little kids子供たち
watching見ている this stuffもの,
153
419261
2947
見ている小さな子供達がいて
この奇妙なメカニズムに
心を奪われています
07:14
stuck立ち往生, their彼らの full満員 attention注意 grabbed捕まえた
by these weird奇妙な mechanismsメカニズム.
154
422232
4206
そういう子供達の多くは小さくて
ウェブサイトの使い方も分かりません
07:18
And most最も of these kids子供たち are too small小さい
to even use a websiteウェブサイト.
155
426768
2798
07:21
They're just kind種類 of hammeringハンマー
on the screen画面 with their彼らの little hands.
156
429590
3276
小さな手で
ただ画面を叩くだけです
自動再生機能によって
07:24
And so there's autoplay自動再生,
157
432890
1217
こういう動画が
繰り返し繰り返し
07:26
where it just keeps維持する playing遊ぶ these videosビデオ
over and over and over in a loopループ,
158
434131
3579
何時間も再生され続けます
07:29
endlessly無限に for hours時間 and hours時間 at a time.
159
437734
2059
07:31
And there's so much weirdness奇妙
in the systemシステム now
160
439817
2843
このシステムが
本当に変なのは
自動再生によって すごく奇妙なところへと
連れて行かれることです
07:34
that autoplay自動再生 takes you
to some prettyかなり strange奇妙な places場所.
161
442684
3009
07:37
This is how, within以内 a dozenダース stepsステップ,
162
445717
2488
この例では 数を数える汽車の
かわいい動画から始まって
07:40
you can go from a cute可愛い videoビデオ
of a counting数える train列車
163
448229
3158
10ステップほどで
マスターベーションする
ミッキーマウスに至っています
07:43
to masturbatingマスターベーション Mickeyミッキー Mouseマウス.
164
451411
2442
失敬しました
07:46
Yeah. I'm sorry about that.
165
454529
2288
でも これはもっと酷くなります
07:48
This does get worse悪化する.
166
456841
1700
雑多なキーワードと
07:50
This is what happens起こる
167
458565
1282
07:51
when all of these different異なる keywordsキーワード,
168
459871
3086
断片的な注目と
やけくそのコンテンツ生成を
07:54
all these different異なる pieces作品 of attention注意,
169
462981
2461
ひとまとめにしたときに
起きるのは
07:57
this desperate絶望的な generation世代 of contentコンテンツ,
170
465466
2807
08:00
all comes来る together一緒に into a singleシングル place場所.
171
468297
2582
そういうことなんです
08:03
This is where all those deeply深く weird奇妙な
keywordsキーワード come home to roostねぐら.
172
471871
4472
奇妙なキーワードの
連鎖が導く先です
08:08
You cross-breedクロス品種 the finger family家族 videoビデオ
173
476367
2391
フィンガー・ファミリーの動画に
08:10
with some live-actionライブ アクション superheroスーパーヒーロー stuffもの,
174
478782
2088
特撮ヒーローと
奇妙なトロール的
内輪ネタなんかを加えると
08:12
you add追加する in some weird奇妙な,
trollish立腹し in-jokesジョーク or something,
175
480894
3256
08:16
and suddenly突然, you come
to a very weird奇妙な place場所 indeed確かに.
176
484174
3366
ものすごく変な場所に至ります
08:19
The stuffもの that tends傾向がある to upset動揺 parents
177
487564
2113
子供の親を怒らせるのは
08:21
is the stuffもの that has kind種類 of violent暴力的な
or sexual性的 contentコンテンツ, right?
178
489701
3331
暴力的なものや
性的なものです
08:25
Children's子供の cartoons漫画 getting取得 assaulted暴行された,
179
493056
2822
子供向けアニメのキャラが
襲われ 殺され
08:27
getting取得 killed殺された,
180
495902
2018
子供をただ怯えさせるような
おふざけが展開されます
08:29
weird奇妙な pranksいたずら that actually実際に
genuinely真に terrify恐れる children子供.
181
497944
3343
08:33
What you have is softwareソフトウェア pulling引っ張る in
all of these different異なる influences影響
182
501311
3675
そういったあらゆる刺激的なものを
ソフトウェアが寄せ集めて
08:37
to automatically自動的に generate生成する
kids'子供たちは、 worst最悪 nightmares悪夢.
183
505010
2961
子供にとって最悪の悪夢を
生成しているんです
08:39
And this stuffもの really, really
does affect影響を与える small小さい children子供.
184
507995
2701
そういうものは実際に
子供に影響を与えます
親御さんたちが報告しています
子供が心に傷を負ったとか
08:42
Parents report報告する their彼らの children子供
beingであること traumatized傷ついた,
185
510720
2866
08:45
becoming〜になる afraid恐れ of the darkダーク,
186
513610
1392
暗闇を恐れるようになったとか
08:47
becoming〜になる afraid恐れ of their彼らの favoriteお気に入り
cartoon漫画 characters文字.
187
515026
3050
好きだったアニメキャラを
怖がるようになったと
ここから1つ
学ぶことがあるとしたら
08:50
If you take one thing away from this,
it's that if you have small小さい children子供,
188
518524
3611
小さなお子さんがいるなら
YouTubeには近寄るなということです
08:54
keep them the hell地獄 away from YouTubeYouTube.
189
522159
1996
08:56
(Applause拍手)
190
524743
3949
(拍手)
09:02
But the other thing, the thing
that really gets取得 to me about this,
191
530504
3096
私を悩ませる
もう1つのことは
どうやって こんなことになったのか
私達が分かっていないということです
09:05
is that I'm not sure we even really
understandわかる how we got to this pointポイント.
192
533624
4629
あらゆる影響力
こういう ありとあらゆるものを取り上げ
09:10
We've私たちは taken撮影 all of this influence影響,
all of these things,
193
538951
2931
09:13
and munged解体した文字列 them together一緒に in a way
that no one really intended意図されました.
194
541906
2953
誰も意図しなかったような仕方で
まとめられていますが
それはまた 私達が世界全体を
作っている方法でもあります
09:16
And yetまだ, this is alsoまた、 the way
that we're building建物 the entire全体 world世界.
195
544883
3156
09:20
We're taking取る all of this dataデータ,
196
548063
1773
あらゆるデータ
沢山のまずいデータや
09:21
a lot of it bad悪い dataデータ,
197
549860
1447
09:23
a lot of historical歴史的 dataデータ
full満員 of prejudice偏見,
198
551331
3029
偏見に満ち
最悪の衝動に満ちた
09:26
full満員 of all of our worst最悪
impulsesインパルス of history歴史,
199
554384
2837
歴史的データを集めて
巨大なデータセットを作り
09:29
and we're building建物 that
into huge巨大 dataデータ setsセット
200
557245
2049
自動化しているのです
09:31
and then we're automating自動化する it.
201
559318
1423
09:32
And we're mungingマンジング it together一緒に
into things like creditクレジット reportsレポート,
202
560765
3502
それをまとめて
信用調査や
保険料や
09:36
into insurance保険 premiumsプレミアム,
203
564291
1634
09:37
into things like predictive予測的
policingポリシング systemsシステム,
204
565949
2693
犯罪予測や
量刑基準みたいなことに
使っています
09:40
into sentencing判決 guidelinesガイドライン.
205
568666
1762
09:42
This is the way we're actually実際に
constructing建設 the world世界 today今日
206
570452
2821
今日の世界は
データを使って
実際そのように
作られているのです
09:45
out of this dataデータ.
207
573297
1151
09:46
And I don't know what's worse悪化する,
208
574472
1698
どちらがより悪いことなのか
分かりません
09:48
that we built建てられた a systemシステム
that seems思われる to be entirely完全に optimized最適化した
209
576194
3228
人間の行動の最悪な面に
最適化されたシステムを
09:51
for the absolute絶対の worst最悪 aspects側面
of human人間 behavior動作,
210
579446
2808
意図して作ったのか
09:54
or that we seem思われる
to have done完了 it by accident事故,
211
582278
2425
それとも 何をしているのか
分からずに
偶然そうなってしまったのか—
09:56
withoutなし even realizing実現する
that we were doing it,
212
584727
2207
09:58
because we didn't really understandわかる
the systemsシステム that we were building建物,
213
586958
3382
自分の作っているシステムを
理解しておらず
10:02
and we didn't really understandわかる
how to do anything differently異なって with it.
214
590364
3683
他のやり方が
分からなかったために
それが特にYouTube上で
甚だしく起きているのには
10:06
There's a coupleカップル of things I think
that really seem思われる to be driving運転 this
215
594769
3365
2つの要因があります
10:10
most最も fully完全に on YouTubeYouTube,
216
598158
1189
10:11
and the first of those is advertising広告,
217
599371
1827
ひとつは関心の
収益化である広告で
10:13
whichどの is the monetization収益化 of attention注意
218
601222
2837
10:16
withoutなし any realリアル other variables変数 at work,
219
604083
3136
実質的に他の要因が
働いておらず
10:19
any careお手入れ for the people who are
actually実際に developing現像 this contentコンテンツ,
220
607243
3885
コンテンツを実際に
作っている人への配慮がなく
10:23
the centralization中央集権化 of the powerパワー,
the separation分離 of those things.
221
611152
3636
権力の集中も分離もない
ということです
広告で利益を
得ることについて
10:26
And I think howeverしかしながら you feel
about the use of advertising広告
222
614812
3144
どう思っているにせよ
10:29
to kind種類 of supportサポート stuffもの,
223
617980
1238
オムツを履いた大の大人が
砂の上を転がり回って
10:31
the sight視力 of grown成長した men男性 in diapersおむつ
rolling圧延 around in the sand
224
619242
3067
10:34
in the hope希望 that an algorithmアルゴリズム
that they don't really understandわかる
225
622333
2983
本当には理解していない
アルゴリズムが
お金をくれることを
期待しているという光景は
10:37
will give them moneyお金 for it
226
625340
1315
10:38
suggests提案する that this
probably多分 isn't the thing
227
626679
2037
これが社会や文化の
基盤とすべきものでも
10:40
that we should be basingベース
our society社会 and culture文化 upon〜に,
228
628740
2563
資金を得るべき方法でもないことを
示しているでしょう
10:43
and the way in whichどの
we should be funding資金調達 it.
229
631327
2160
主要なもう1つの要因は
自動化です
10:45
And the other thing that's kind種類 of
the majorメジャー driverドライバ of this is automationオートメーション,
230
633511
3519
やって来たらすぐに
10:49
whichどの is the deployment配備
of all of this technology技術
231
637054
2329
何のチェックもなしに
展開して
10:51
as soonすぐに as it arrives到着,
withoutなし any kind種類 of oversight見落とし,
232
639407
2521
出した後は
手を挙げて言うんです
10:53
and then once一度 it's out there,
233
641952
1412
10:55
kind種類 of throwing投げ up our hands and going,
"Hey, it's not us, it's the technology技術."
234
643388
3843
「俺のせいじゃない
テクノロジーがやったことだ」と
「俺たちは関係ない」
とでも言うように
10:59
Like, "We're not involved関係する in it."
235
647255
1642
11:00
That's not really good enough十分な,
236
648921
1767
それでは不十分です
こういったものはアルゴリズムで
管理されているだけでなく
11:02
because this stuffもの isn't
just algorithmicallyアルゴリズム的に governed支配,
237
650712
2710
11:05
it's alsoまた、 algorithmicallyアルゴリズム的に policed警察.
238
653446
2498
アルゴリズムで検閲も
されているからです
11:07
When YouTubeYouTube first started開始した
to pay支払う attention注意 to this,
239
655968
2848
YouTubeがこういう問題に
注意を向け始めたとき
11:10
the first thing they said
they'd彼らは do about it
240
658840
2087
彼らが言ったのは
もっと良い機械学習
アルゴリズムを用意して
11:12
was that they'd彼らは deploy展開する
better machine機械 learning学習 algorithmsアルゴリズム
241
660951
2695
内容をチェックする
ということでした
11:15
to moderate中程度の the contentコンテンツ.
242
663670
1329
11:17
Well, machine機械 learning学習,
as any expert専門家 in it will tell you,
243
665023
3485
専門家なら
みんな言うでしょうが
機械学習というのは
11:20
is basically基本的に what we've私たちは started開始した to call
244
668532
1896
どういう仕組みで動いているのか
よく分からないソフトウェアのことです
11:22
softwareソフトウェア that we don't really
understandわかる how it works作品.
245
670452
2588
11:25
And I think we have
enough十分な of that already既に.
246
673064
3983
そういうのは
もう十分にあります
何が適切かの判断を
11:29
We shouldn'tすべきではない be leaving去る
this stuffもの up to AIAI to decide決めます
247
677071
3166
AI にまかせておくべき
ではありません
11:32
what's appropriate適切な or not,
248
680261
1251
どんなことが起こるか
分かっていますから
11:33
because we know what happens起こる.
249
681536
1436
11:34
It'llそれは start開始 censoring検閲 other things.
250
682996
1688
他のものも
検閲し始めるでしょう
11:36
It'llそれは start開始 censoring検閲 queer奇妙な contentコンテンツ.
251
684708
1783
奇妙な内容のものを検閲し
11:38
It'llそれは start開始 censoring検閲
legitimate合法的 publicパブリック speechスピーチ.
252
686515
2237
ちゃんとした演説も
検閲し始めるでしょう
11:40
What's allowed許可された in these discourses言説,
253
688776
1925
どんな言論が許されるかは
11:42
it shouldn'tすべきではない be something
that's left up to unaccountable説明できない systemsシステム.
254
690725
3097
無責任なシステムに
まかせておくべき問題ではありません
11:45
It's part of a discussion討論
all of us should be having持つ.
255
693846
2947
私達みんなが
議論すべきことです
しかし代替案もまた
11:48
But I'd leave離れる a reminder思い出させる
256
696817
1308
11:50
that the alternative代替 isn't
very pleasant楽しい, eitherどちらか.
257
698149
2753
あまり芳しいものでないことを
指摘しておきます
11:52
YouTubeYouTube alsoまた、 announced発表 recently最近
258
700926
1535
すべて人間によって
チェックした
11:54
that they're going to release解放
a versionバージョン of their彼らの kids'子供たちは、 appアプリ
259
702485
2767
子供向けのアプリを出すと
最近YouTubeが
アナウンスしました
11:57
that would be entirely完全に
moderatedモデレートされた by humans人間.
260
705276
2407
12:00
Facebookフェイスブック -- Zuckerbergズッカベルク said
much the same同じ thing at Congress会議,
261
708134
3618
Facebookも ザッカーバーグが
議会で同じようなことを
モデレーションについて
聞かれたときに答えました
12:03
when pressed押された about how they
were going to moderate中程度の their彼らの stuffもの.
262
711776
2987
そのための人間を用意すると
12:06
He said they'd彼らは have humans人間 doing it.
263
714787
1747
それが意味するのは
12:08
And what that really means手段 is,
264
716558
1459
そういうものを最初に
目にすることになるのが
12:10
instead代わりに of having持つ toddlers幼児 beingであること
the first person to see this stuffもの,
265
718041
3223
幼児の代わりに
低賃金で不安定な契約社員になり
12:13
you're going to have underpaid未払い,
precarious不安定な contract契約する workers労働者
266
721288
2788
メンタルヘルス面での
支援もなく
12:16
withoutなし proper適切な mental精神的な health健康 supportサポート
267
724100
1726
被害を受けるということです
12:17
beingであること damaged損傷した by it as well.
268
725850
1376
(笑)
12:19
(Laughter笑い)
269
727250
1096
もっとマシなことが
できるはずです
12:20
And I think we can all do
quiteかなり a lot better than that.
270
728370
2601
(拍手)
12:22
(Applause拍手)
271
730995
2499
12:26
The thought, I think, that bringsもたらす those
two things together一緒に, really, for me,
272
734068
4613
この2つのことを
まとめる考えは
エージェンシーだと思います
12:30
is agency代理店.
273
738705
1420
どれだけ本当に
理解しているかということ
12:32
It's like, how much do we really
understandわかる -- by agency代理店, I mean:
274
740149
3157
最善の利益のため どう行動すればいいか
いかに分かっているかということです
12:35
how we know how to act行為
in our own自分の bestベスト interests関心.
275
743330
4390
12:39
Whichどの -- it's almostほぼ impossible不可能 to do
276
747744
1787
こういう あまり理解していない
システムにおいては
12:41
in these systemsシステム that we don't
really fully完全に understandわかる.
277
749555
3485
ほとんど不可能なことです
力の不均衡は
暴力に繋がります
12:45
Inequality不平等 of powerパワー
always leadsリード to violence暴力.
278
753064
3071
12:48
And we can see inside内部 these systemsシステム
279
756159
1685
こういったシステムの中では
12:49
that inequality不平等 of understanding理解
does the same同じ thing.
280
757868
2611
理解の不均衡が
同じ結果を生みます
12:52
If there's one thing that we can do
to start開始 to improve改善する these systemsシステム,
281
760503
3779
こういうシステムを改善するために
できることが1つあるとしたら
12:56
it's to make them more legible読みやすい
to the people who use them,
282
764306
2718
使う人々にもっと分かるものにする
ということです
12:59
so that all of us have
a common一般 understanding理解
283
767048
2196
何が起きているのか
みんな共通の理解を
得られるように
13:01
of what's actually実際に going on here.
284
769268
1851
13:03
The thing, thoughしかし, I think
most最も about these systemsシステム
285
771970
2968
こういったシステムの問題は
前に言いましたように
13:06
is that this isn't, as I hope希望
I've explained説明した, really about YouTubeYouTube.
286
774962
3857
YouTubeに限ったこと
ではありません
あらゆるものに
当てはまります
13:10
It's about everything.
287
778843
1312
13:12
These issues問題 of accountability説明責任 and agency代理店,
288
780179
2444
説明責任やエージェンシー
13:14
of opacity不透明度 and complexity複雑,
289
782647
2225
透明性や複雑さ
13:16
of the violence暴力 and exploitation搾取
that inherently本質的に results結果
290
784896
3177
暴力や搾取といった問題は
力が一部に集中していることの
結果であり
13:20
from the concentration濃度
of powerパワー in a few少数 hands --
291
788097
2794
13:22
these are much, much larger大きい issues問題.
292
790915
2579
それはずっと
大きな問題なのです
13:26
And they're issues問題 not just of YouTubeYouTube
and not just of technology技術 in general一般,
293
794395
3687
YouTubeだけの問題ではないし
テクノロジーだけの問題でもなく
新しい問題でさえありません
13:30
and they're not even new新しい.
294
798106
1265
13:31
They've彼らは been with us for ages年齢.
295
799395
1461
ずっと昔からあったことです
13:32
But we finally最後に built建てられた this systemシステム,
this globalグローバル systemシステム, the internetインターネット,
296
800880
4390
ただ我々がこの世界的なシステム
インターネットを作ったことで
13:37
that's actually実際に showing表示 them to us
in this extraordinary特別な way,
297
805294
3019
極端な形で現れるようになり
否定し得なくなった
というだけです
13:40
making作る them undeniable否定できない.
298
808337
1547
13:41
Technology技術 has this extraordinary特別な capacity容量
299
809908
2820
テクノロジーには
ものすごい力があり
我々の最も甚だしい
隠された欲望や偏見に
13:44
to bothどちらも instantiateインスタンス化します。 and continue持続する
300
812752
3973
13:48
all of our most最も extraordinary特別な,
oftenしばしば hidden隠された desires願望 and biasesバイアス
301
816749
4248
形を与え継続させ
世界に刻みつけているのです
13:53
and encodingエンコーディング them into the world世界,
302
821021
1866
13:54
but it alsoまた、 writes書き込み them down
so that we can see them,
303
822911
3474
しかし書き出されることで
目に見えるようになり
13:58
so that we can't pretendふりをする
they don't exist存在する anymoreもう.
304
826409
3330
もはや存在しないフリは
できなくなりました
14:01
We need to stop thinking考え about technology技術
as a solution溶液 to all of our problems問題,
305
829763
4319
テクノロジーがあらゆる問題への
解決法だと思うのはやめて
問題が実際どういうものか知るための
ガイドと考える必要があります
14:06
but think of it as a guideガイド
to what those problems問題 actually実際に are,
306
834106
3757
14:09
so we can start開始 thinking考え
about them properly正しく
307
837887
2144
そうすれば
問題を適切に捉え
14:12
and start開始 to address住所 them.
308
840055
1766
取り組み始める
ことができるでしょう
14:13
Thank you very much.
309
841845
1335
ありがとうございました
14:15
(Applause拍手)
310
843204
5192
(拍手)
14:21
Thank you.
311
849733
1188
ありがとうございます
14:22
(Applause拍手)
312
850945
2869
(拍手)
(ヘレン・ウォルターズ) ジェームズ
お話をありがとうございました
14:28
Helenヘレン Waltersウォルターズ: Jamesジェームス, thank you
for coming到来 and giving与える us that talk.
313
856839
3178
興味深いですね
14:32
So it's interesting面白い:
314
860041
1189
人類がコンピューターに
支配される映画は
14:33
when you think about the films映画 where
the roboticロボット overlords大将 take over,
315
861254
3495
あなたのお話よりも
華々しいですが
14:36
it's all a bitビット more glamorousグラマラス
than what you're describing記述.
316
864773
3279
そういう映画ではいつも
レジスタンスが立ち上がります
14:40
But I wonderワンダー -- in those films映画,
you have the resistance抵抗 mounting取り付け.
317
868076
3749
この問題に対して立ち上がる
レジスタンスというのは いるのでしょうか?
14:43
Is there a resistance抵抗 mounting取り付け
towards方向 this stuffもの?
318
871849
3216
14:47
Do you see any positiveポジティブ signs兆候,
green shoots芽吹く of resistance抵抗?
319
875089
3796
抵抗が芽生える兆候に
お気づきですか?
(ジェームズ・ブライドル)
直接的な抵抗というのは知りません
14:52
Jamesジェームス Bridle手綱: I don't know
about direct直接 resistance抵抗,
320
880507
2416
これはとても長期にわたる問題で
14:54
because I think this stuffもの
is superスーパー long-term長期.
321
882947
2264
文化の中にすごく深く
入り込んでいます
14:57
I think it's baked焼きました into culture文化
in really deep深い ways方法.
322
885235
2510
友人のエレノア・サイッタが
いつも言っていますが
14:59
A friend友人 of mine鉱山,
Eleanorエレノア SaittaSaitta, always says言う
323
887769
2132
15:01
that any technological技術的 problems問題
of sufficient十分 scale規模 and scope範囲
324
889935
3609
十分大きなスケールと範囲を持つ
テクノロジーの問題は
15:05
are political政治的 problems問題 first of all.
325
893568
2267
何よりもまず政治的問題なのです
15:07
So all of these things we're workingワーキング
to address住所 within以内 this
326
895859
2785
この問題に対処するため
やるべきことは
単により良いテクノロジーを
作るということではなく
15:10
are not going to be addressed対処する
just by building建物 the technology技術 better,
327
898668
3274
そういうテクノロジーを生み出す社会を
変えるということでしょう
15:13
but actually実際に by changing変化 the society社会
that's producing生産する these technologiesテクノロジー.
328
901966
3464
今はまだありません
道はものすごく長いと思います
15:17
So no, right now, I think we've私たちは got
a hell地獄 of a long way to go.
329
905454
3027
しかし言いましたように
15:20
But as I said, I think by unpacking開梱 them,
330
908505
1986
これを紐解き 説明し
すごく率直に話すことで
15:22
by explaining説明する them, by talking話す
about them superスーパー honestly正直,
331
910515
2697
少なくとも そのプロセスを
始めることはできます
15:25
we can actually実際に start開始
to at least少なくとも beginベギン that processプロセス.
332
913236
2505
(ヘレン) 判読可能性や
デジタル・リテラシーに触れたとき
15:27
HWHW: And so when you talk about
legibility読みやすさ and digitalデジタル literacyリテラシー,
333
915765
3562
デジタル・リテラシーの重荷を
ユーザー自身に負わせるというのは
15:31
I find it difficult難しい to imagine想像する
334
919351
1591
15:32
that we need to place場所 the burden重荷
of digitalデジタル literacyリテラシー on usersユーザー themselves自分自身.
335
920966
3680
難しいのではと思いました
15:36
But whoseその responsibility責任
is education教育 in this new新しい world世界?
336
924670
4562
この新しい世界において
教育は誰の責任になるのでしょう?
(ジェームズ) 繰り返しになりますが
責任は私達すべてにかかっています
15:41
JBJB: Again, I think this responsibility責任
is kind種類 of up to all of us,
337
929256
3612
15:44
that everything we do,
everything we buildビルドする, everything we make,
338
932892
2984
私達のすることすべて
私達の作る物すべてが
すべての人の議論による
同意のもと
15:47
needsニーズ to be made
in a consensual合意 discussion討論
339
935900
3692
作られる必要があります
15:51
with everyoneみんな who'sだれの avoiding避ける it;
340
939616
1940
正しいことを
15:53
that we're not building建物 systemsシステム
intended意図されました to trickトリック and surprise驚き people
341
941580
4341
引っかけたり驚くような仕方で
やらせようとするのではなく
15:57
into doing the right thing,
342
945945
2300
みんなが教育の各段階に
関わる必要があります
16:00
but that they're actually実際に involved関係する
in everyすべて stepステップ in educating教育する them,
343
948269
3236
そういうシステムは
教育的なものですから
16:03
because each of these systemsシステム
is educational教育的.
344
951529
2278
そこが この滅入る問題に対し
私が希望を持っているところです
16:05
That's what I'm hopeful希望 about,
about even this really grim恐るべき stuffもの,
345
953831
3102
取り上げて
正しく見ることができるなら
16:08
that if you can take it
and look at it properly正しく,
346
956957
2262
16:11
it's actually実際に in itself自体
a pieceピース of education教育
347
959243
2089
そこに学べるものがあり
複雑なシステムがどのように
出来上がるものか知ることができ
16:13
that allows許す you to start開始 seeing見る
how complex複合体 systemsシステム come together一緒に and work
348
961356
3762
その知識は他の所でも
役立つかもしれません
16:17
and maybe be ableできる to apply適用する
that knowledge知識 elsewhere他の場所 in the world世界.
349
965142
3501
(ヘレン) とても大切な
話題だと思います
16:20
HWHW: Jamesジェームス, it's suchそのような
an important重要 discussion討論,
350
968667
2115
ここにいる人の多くが
積極的に加わってくれるでしょう
16:22
and I know manyたくさんの people here
are really open開いた and prepared準備された to have it,
351
970806
3227
朝一番に素晴らしい話を
ありがとうございました
16:26
so thanksありがとう for starting起動 off our morning.
352
974057
1859
(ジェームズ) こちらこそ
ありがとうございました
16:27
JBJB: Thanksありがとう very much. Cheers乾杯.
353
975940
1400
16:29
(Applause拍手)
354
977364
1651
(拍手)
Translated by Yasushi Aoki
Reviewed by Masako Kigami

▲Back to top

ABOUT THE SPEAKER
James Bridle - Artist, writer
Working across technologies and disciplines, James Bridle examines technology, knowledge and the end of the future.

Why you should listen

James Bridle is an artist and writer working across technologies and disciplines. His artworks and installations have been exhibited in Europe, North and South America, Asia and Australia, and have been viewed by hundreds of thousands of visitors online. He has been commissioned by organizations including the Victoria & Albert Museum, the Barbican, Artangel, the Oslo Architecture Triennale and the Istanbul Design Biennial, and he has been honored by Ars Electronica, the Japan Media Arts Festival and the Design Museum, London. His writing on literature, culture and networks has appeared in magazines and newspapers including Frieze, Wired, Domus, Cabinet, The Atlantic, the New Statesman and many others, and he has written a regular column for The Observer.

New Dark Age, Bridle's book about technology, knowledge and the end of the future is forthcoming from Verso (UK & US) in 2018. He lectures regularly on radio, at conferences, universities and other events including SXSW, Lift, the Global Art Forum and Re:Publica. He has been a resident at Lighthouse, Brighton, the White Building, London and Eyebeam, New York, and an adjunct professor on the interactive telecommunications program at New York University.

More profile about the speaker
James Bridle | Speaker | TED.com