English-Video.net comment policy

The comment field is common to all languages

Let's write comments in your language and use "Google Translate" together

Please refer to informative community guidelines on TED.com

TED2018

James Bridle: The nightmare videos of children's YouTube -- and what's wrong with the internet today

ジェームズ・ブライドル: 悪夢のような子供向けYouTube動画—今のインターネットのどこが間違っているのか

Filmed:
3,737,992 views

作家で芸術家のジェームズ・ブライドルが、インターネットの暗く奇妙な片隅に光を当てます。そこでは誰とも分からぬ人々がYouTubeを使い、子供の頭を弄んで広告収入を得ています。サプライズ・エッグ開け動画やフィンガー・ファミリーの歌から、人気のアニメキャラが暴力的な状況に置かれるアルゴリズム的に生成されたマッシュアップ動画まであって、幼い心を食い物にし、怯えさせています。それは勢いを増すデータ駆動の世界がどこへ向かっているのかを示しているでしょう。ブライドルは言います。「テクノロジーがあらゆる問題への解決法だと思うのはやめて、問題が実際どういうものか知るためのガイドと考える必要があります。そうすれば問題を適切に捉え、取り組み始めることができるでしょう」

- Artist, writer
Working across technologies and disciplines, James Bridle examines technology, knowledge and the end of the future. Full bio

私はジェームズ
00:12
I'm Jamesジェームス.
作家で芸術家で
00:13
I'm a writerライター and artistアーティスト,
テクノロジーに関する作品を
作っています
00:15
and I make work about technology技術.
世界各地の街中に
00:18
I do things like drawドロー life-size実物大 outlinesアウトライン
of military軍事 drones無人機
実物大の軍用ドローンの輪郭を
描いたりしています
00:22
in cityシティ streets通り around the world世界,
こういう みんながあまり目にしたり
考えたりすることのないテクノロジーについて
00:24
so that people can start開始 to think
and get their彼らの heads around
00:27
these really quiteかなり hard-to-see参照してくださいハード
and hard-to-think-aboutハード-に--考える technologiesテクノロジー.
考え 理解してもらえるように
天気予報に基づいて
選挙結果を予測する
00:31
I make things like neuralニューラル networksネットワーク
that predict予測する the results結果 of elections選挙
ニューラルネットなんかも
作っていますが
00:35
basedベース on weather天気 reportsレポート,
それは こういう
奇妙な新技術に
00:37
because I'm intrigued興味をそそられる about
00:38
what the actual実際の possibilities可能性
of these weird奇妙な new新しい technologiesテクノロジー are.
本当のところどんな可能性があるかに
興味があるからです
去年は自分で
自動運転車を作りました
00:43
Last year, I built建てられた
my own自分の self-driving自己運転 car.
私は技術というのを
信用していないので
00:45
But because I don't
really trust信頼 technology技術,
一緒に自動運転車用の
罠も作りました
00:48
I alsoまた、 designed設計 a trapトラップ for it.
(笑)
00:50
(Laughter笑い)
私がそういったことをするのは
面白いと思うからですが
00:51
And I do these things mostly主に because
I find them completely完全に fascinating魅力的な,
私達がテクノロジーの
話をするとき
00:56
but alsoまた、 because I think
when we talk about technology技術,
それは概ね
私達自身のことや
00:58
we're largely主に talking話す about ourselves自分自身
世界の理解の仕方についてだ
ということもあります
01:01
and the way that we understandわかる the world世界.
01:03
So here'sここにいる a storyストーリー about technology技術.
ではひとつ テクノロジーの
話をしましょう
これは「サプライズ・エッグ」の動画です
01:07
This is a "surprise驚き egg" videoビデオ.
基本的には ただひたすら
チョコの卵を開けて
01:10
It's basically基本的に a videoビデオ of someone誰か
opening開ける up loads負荷 of chocolateチョコレート eggs
中にあるオモチャを
見せるというものです
01:13
and showing表示 the toysおもちゃ inside内部 to the viewerビューア.
それだけです
7分間ずっとそうしています
01:16
That's it. That's all it does
for sevenセブン long minutes.
01:19
And I want you to notice通知
two things about this.
ここで2点ほど
注意してほしいことがあります
まず この動画の再生回数が
3千万回だということ
01:22
First of all, this videoビデオ
has 30 million百万 views再生回数.
(笑)
01:26
(Laughter笑い)
もうひとつは
01:28
And the other thing is,
この動画のチャンネルには
630万人の購読者がいることです
01:29
it comes来る from a channelチャネル
that has 6.3 million百万 subscribers加入者,
動画の総視聴回数は
80億回にもなりますが
01:33
that has a total合計 of eight8 billion views再生回数,
01:36
and it's all just more videosビデオ like this --
どれもがこれと
似たような動画です
3千万の人々が この人物が
卵を開けるのを見ているわけです
01:40
30 million百万 people watching見ている a guy
opening開ける up these eggs.
すごく変な話に
聞こえるでしょうが
01:44
It sounds prettyかなり weird奇妙な, but if you searchサーチ
for "surprise驚き eggs" on YouTubeYouTube,
YouTubeで「サプライズ・エッグ」(surprise eggs)を
検索すると 1千万本あると出ます
01:48
it'llそれはよ tell you there's
10 million百万 of these videosビデオ,
これは実際より
少ないと思います
01:52
and I think that's an undercountundercount.
01:53
I think there's way, way more of these.
それより ずっとたくさん
あるでしょう
検索していくと
際限なく出てきます
01:55
If you keep searching検索, they're endless無限.
何百万という動画があり
01:58
There's millions何百万 and millions何百万
of these videosビデオ
ブランドや素材の組み合わせが
どんどん奇怪になっていきます
02:00
in increasinglyますます baroqueバロック combinations組み合わせ
of brandsブランド and materials材料,
02:03
and there's more and more of them
beingであること uploadedアップロードされた everyすべて singleシングル day.
そして新たな動画が
毎日追加されています
まったく奇妙な世界です
02:07
Like, this is a strange奇妙な world世界. Right?
問題は こういう動画を見ているのは
大人ではないことです
02:11
But the thing is, it's not adults大人
who are watching見ている these videosビデオ.
小さな子供なんです
02:14
It's kids子供たち, small小さい children子供.
こういう動画は小さな子供にとって
麻薬みたいなものです
02:17
These videosビデオ are
like crack亀裂 for little kids子供たち.
02:19
There's something about the repetition繰り返し,
繰り返しに
何かあるらしく
明かされるたびに
小さなドーパミンの刺激があって
02:21
the constant定数 little
dopamineドーパミン hitヒット of the reveal明らかにする,
02:24
that completely完全に hooksフック them in.
すっかり惹き付けられて
しまうんです
小さな子供はこういう動画を
何度も繰り返して再生し
02:26
And little kids子供たち watch these videosビデオ
over and over and over again,
何時間でも見続けます
02:31
and they do it for hours時間
and hours時間 and hours時間.
取り上げようと
しようものなら
02:33
And if you try and take
the screen画面 away from them,
泣き喚いて
手が付けられません
02:35
they'll彼らは scream悲鳴 and scream悲鳴 and scream悲鳴.
信じられないと言うなら—
02:37
If you don't believe me --
客席に頷いている方がいますが
02:38
and I've already既に seen見た people
in the audience聴衆 noddingうなずき --
小さな子供がいる人に
聞いてみてください
02:41
if you don't believe me, find someone誰か
with small小さい children子供 and ask尋ねる them,
サプライズ・エッグの動画を
知っているはずです
02:44
and they'll彼らは know about
the surprise驚き egg videosビデオ.
これが出発点です
02:47
So this is where we start開始.
2018年現在
02:49
It's 2018, and someone誰か, or lots of people,
皆さんにアプリを
チェックし続けさせるために
02:53
are usingを使用して the same同じ mechanism機構 that, like,
Facebookフェイスブック and Instagramインスタグラム are usingを使用して
FacebookやInstagramが
使っているのと同じ仕掛けを
02:56
to get you to keep checking点検 that appアプリ,
YouTubeに適用して
小さな子供の頭を弄び
02:58
and they're usingを使用して it on YouTubeYouTube
to hackハック the brains頭脳 of very small小さい children子供
広告収入を得ようとしている人が
たくさんいるんです
03:02
in returnリターン for advertising広告 revenue収入.
少なくとも そうなのだと
思いたいです
03:06
At least少なくとも, I hope希望
that's what they're doing.
03:08
I hope希望 that's what they're doing it for,
というのも YouTubeで
広告収入を得るためなら
03:10
because there's easierより簡単に ways方法
of making作る ad広告 revenue収入 on YouTubeYouTube.
もっと簡単な方法が
ありますから
単にでっち上げるか
盗むかすればいいんです
03:15
You can just make stuffもの up or stealスチール stuffもの.
03:18
So if you searchサーチ for really
popular人気 kids'子供たちは、 cartoons漫画
「ペッパ・ピッグ」や
「ポー・パトロール」のような
子供に人気の
アニメを検索すると
03:20
like "Peppaペッパ Pig" or "Paw Patrolパトロール,"
03:22
you'llあなたは find there's millions何百万 and millions何百万
of these onlineオンライン as well.
何百万という動画が
見つかります
そのほとんどは本当の作者が
アップロードしたものではありません
03:25
Of courseコース, most最も of them aren'tない posted投稿された
by the original元の contentコンテンツ creatorsクリエイター.
山ほどの雑多なアカウントから
投稿されていて
03:28
They come from loads負荷 and loads負荷
of different異なる randomランダム accountsアカウント,
誰がやっているのか
分からないし
03:31
and it's impossible不可能 to know
who'sだれの posting転記 them
その動機も分かりません
03:34
or what their彼らの motives動機 mightかもしれない be.
聞いたことのあるような話ですね
03:36
Does that sound kind種類 of familiar身近な?
まったく同じことが
03:38
Because it's exactly正確に the same同じ mechanism機構
多くのデジタルサービスで
起きていて
03:40
that's happeningハプニング across横断する most最も
of our digitalデジタル servicesサービス,
情報がどこから来ているのか
分からないのです
03:43
where it's impossible不可能 to know
where this information情報 is coming到来 from.
いわば子供のための
フェイクニュースです
03:46
It's basically基本的に fake newsニュース for kids子供たち,
03:48
and we're trainingトレーニング them from birth誕生
子供達は生まれた時から
出てくる最初のリンクを
その出所を問わずクリックするよう
03:50
to clickクリック on the very first linkリンク
that comes来る along一緒に,
03:52
regardless関係なく of what the sourceソース is.
慣らされているのです
あまり良い考えとは
思えませんが
03:54
That's doesn't seem思われる like
a terriblyひどく good ideaアイディア.
これはまた別の すごく有名な
子供向けYouTube動画です
03:58
Here'sここにいる another別の thing
that's really big大きい on kids'子供たちは、 YouTubeYouTube.
04:01
This is calledと呼ばれる the "Finger Family家族 Song."
「フィンガー・ファミリーの歌」です
客席からうめきが
聞こえますね
04:03
I just heard聞いた someone誰か groan声援
in the audience聴衆.
こちらがオリジナルらしく
04:05
This is the "Finger Family家族 Song."
私に見付けられた
最初のものです
04:06
This is the very first one I could find.
2007年に公開され
視聴回数は20万回
04:08
It's from 2007, and it only has
200,000 views再生回数,
この分野では
微々たるものです
04:11
whichどの is, like, nothing in this gameゲーム.
耳から離れない音楽が
付いていますが
04:13
But it has this insanely辛口 earwormyearwormy tune,
ここでお聴かせはしません
04:16
whichどの I'm not going to play遊びます to you,
頭にこびりついて
離れなくなりますから
04:18
because it will searサーチ itself自体
into your brain
私はそうなったので
04:20
in the same同じ way that
it seared睨んだ itself自体 into mine鉱山,
皆さんを同じ目に
遭わせようとは思いません
04:22
and I'm not going to do that to you.
サプライズ・エッグと同じように
04:24
But like the surprise驚き eggs,
子供の頭に入り込んで
04:25
it's got inside内部 kids'子供たちは、 heads
中毒にします
04:27
and addicted中毒 them to it.
数年のうちに
04:29
So within以内 a few少数 years,
these finger family家族 videosビデオ
フィンガー・ファミリーの動画が
至る所に現れ始めました
04:32
start開始 appearing出現する everywhereどこにでも,
いろいろ変種があって
外国語版もあれば
04:33
and you get versionsバージョン
in different異なる languages言語
04:35
with popular人気 kids'子供たちは、 cartoons漫画 usingを使用して foodフード
人気の漫画キャラや
食べ物を使ったものもあり
04:37
or, frankly率直に, usingを使用して whateverなんでも kind種類
of animationアニメーション elements要素
その辺にあるアニメの要素を
何でも使っています
04:40
you seem思われる to have lying嘘つき around.
このような ありとあらゆる
突拍子のない取り合わせの動画が
04:43
And once一度 again, there are millions何百万
and millions何百万 and millions何百万 of these videosビデオ
ネット上に山ほどあるんです
04:48
available利用可能な onlineオンライン in all of these
kind種類 of insane狂人 combinations組み合わせ.
そういうものを見始めると
04:51
And the more time
you start開始 to spend費やす with them,
だんだん自分の気が狂っているような
感じがしてきます
04:53
the crazierクレイジー and crazierクレイジー
you start開始 to feel that you mightかもしれない be.
私がこういうものを
調べ始めたのは
04:57
And that's where I
kind種類 of launched打ち上げ into this,
この深い奇妙さの
感覚のためであり
05:01
that feeling感じ of deep深い strangeness奇妙
and deep深い lack欠如 of understanding理解
それがどうやって作られているのか
あまりに謎だったからです
05:04
of how this thing was constructed建設された
that seems思われる to be presented提示された around me.
これがどこからやってくるのか
知りようがありません
05:08
Because it's impossible不可能 to know
where these things are coming到来 from.
いったい誰が作っているのか?
05:12
Like, who is making作る them?
プロのアニメーターの作のように
見えるものもあれば
05:13
Some of them appear現れる to be made
of teamsチーム of professional専門家 animatorsアニメーター.
ソフトウェアでただランダムに
合成されたように見えるものもあり
05:16
Some of them are just randomly無作為に
assembled組み立てられた by softwareソフトウェア.
05:19
Some of them are quiteかなり wholesome-looking健全な探してください。
young若い kids'子供たちは、 entertainersエンターテイナー.
すごく健全な歌のお姉さん風の人が
出て来るものもあれば
子供にはまったく近寄らせるべきでないような
人々によるものもあります
05:23
And some of them are from people
05:25
who really clearlyはっきりと
shouldn'tすべきではない be around children子供 at all.
(笑)
05:28
(Laughter笑い)
誰が作っているのか
見当が付かないのです
05:30
And once一度 again, this impossibility不可能
of figuring想像する out who'sだれの making作る this stuffもの --
ボットなのか
05:35
like, this is a botボット?
人間なのか
トロールなのか
05:36
Is this a person? Is this a trollトロール?
そういう違いがもはや
分からないというのは
05:39
What does it mean
that we can't tell the difference
何を意味するのか?
05:41
betweenの間に these things anymoreもう?
この不確かさには 馴染みのある
感じが しないでしょうか?
05:43
And again, doesn't that uncertainty不確実性
feel kind種類 of familiar身近な right now?
動画の視聴者を集める
主なやり方は—
05:50
So the mainメイン way people get views再生回数
on their彼らの videosビデオ --
視聴はお金を
意味するわけですが—
05:52
and remember思い出す, views再生回数 mean moneyお金 --
05:54
is that they stuffもの the titlesタイトル
of these videosビデオ with these popular人気 terms条項.
タイトルに人気の言葉を
入れるというものです
たとえば「サプライズ・エッグ」に
05:59
So you take, like, "surprise驚き eggs"
「ポー・パトロール」とか
「イースター・エッグ」とか
06:00
and then you add追加する
"Paw Patrolパトロール," "Easterイースター egg,"
何であれ他の人気動画の
06:03
or whateverなんでも these things are,
06:04
all of these words言葉 from other
popular人気 videosビデオ into your titleタイトル,
キーワードを付け加えるんです
そうしていくと意味のない
言葉の寄せ集めになって
06:07
until〜まで you end終わり up with this kind種類 of
meaningless無意味な mashマッシュ of language言語
人間には意味をなさない
ものになりますが
06:10
that doesn't make senseセンス to humans人間 at all.
こういう動画を見るのは
小さな子供なので
06:12
Because of courseコース it's only really
tiny小さな kids子供たち who are watching見ている your videoビデオ,
どの道関係ありません
06:16
and what the hell地獄 do they know?
これらのものの真の視聴者は
ソフトウェア—
06:18
Your realリアル audience聴衆
for this stuffもの is softwareソフトウェア.
アルゴリズムなんです
06:21
It's the algorithmsアルゴリズム.
動画をおすすめし
人気にしてくれる
06:22
It's the softwareソフトウェア that YouTubeYouTube uses用途
06:24
to select選択する whichどの videosビデオ
are like other videosビデオ,
似たビデオを選ぶ
YouTubeのプログラムが
06:26
to make them popular人気,
to make them recommendedお勧め.
ターゲットなんです
そうやってタイトルも内容も
意味のない
06:29
And that's why you end終わり up with this
kind種類 of completely完全に meaningless無意味な mashマッシュ,
混合物の動画が
出来上がります
06:32
bothどちらも of titleタイトル and of contentコンテンツ.
でも このアルゴリズム的に
最適化されたシステムの中にも
06:35
But the thing is, you have to remember思い出す,
06:37
there really are still people within以内
this algorithmicallyアルゴリズム的に optimized最適化した systemシステム,
依然として本物の人間がいることを
忘れてはいけません
ますます奇抜になっていく
言葉の組み合わせに合わせて
06:42
people who are kind種類
of increasinglyますます forced強制された to act行為 out
演じることを強いられる
人々がいます
06:45
these increasinglyますます bizarre奇妙な
combinations組み合わせ of words言葉,
無数の幼児が同時に叫ぶ
言葉の組み合わせに
06:48
like a desperate絶望的な improvisation即興 artistアーティスト
responding応答する to the combined結合された screams悲鳴を上げる
必死になって応じる
即興芸人みたいなものです
06:53
of a million百万 toddlers幼児 at once一度.
このシステムの中に
囚われている人々がいるんです
06:57
There are realリアル people
trappedトラップされた within以内 these systemsシステム,
このアルゴリズム駆動の文化の
奇妙なところは
06:59
and that's the other deeply深く strange奇妙な thing
about this algorithmicallyアルゴリズム的に driven駆動される culture文化,
ただ生き残るために
07:03
because even if you're human人間,
人間が機械のように
振る舞うことになる点です
07:05
you have to end終わり up behaving行動する like a machine機械
07:07
just to survive生き残ります.
そしてまた画面の反対側には
07:09
And alsoまた、, on the other side of the screen画面,
07:11
there still are these little kids子供たち
watching見ている this stuffもの,
見ている小さな子供達がいて
この奇妙なメカニズムに
心を奪われています
07:14
stuck立ち往生, their彼らの full満員 attention注意 grabbed捕まえた
by these weird奇妙な mechanismsメカニズム.
そういう子供達の多くは小さくて
ウェブサイトの使い方も分かりません
07:18
And most最も of these kids子供たち are too small小さい
to even use a websiteウェブサイト.
07:21
They're just kind種類 of hammeringハンマー
on the screen画面 with their彼らの little hands.
小さな手で
ただ画面を叩くだけです
自動再生機能によって
07:24
And so there's autoplay自動再生,
こういう動画が
繰り返し繰り返し
07:26
where it just keeps維持する playing遊ぶ these videosビデオ
over and over and over in a loopループ,
何時間も再生され続けます
07:29
endlessly無限に for hours時間 and hours時間 at a time.
このシステムが
本当に変なのは
07:31
And there's so much weirdness奇妙
in the systemシステム now
自動再生によって すごく奇妙なところへと
連れて行かれることです
07:34
that autoplay自動再生 takes you
to some prettyかなり strange奇妙な places場所.
07:37
This is how, within以内 a dozenダース stepsステップ,
この例では 数を数える汽車の
かわいい動画から始まって
07:40
you can go from a cute可愛い videoビデオ
of a counting数える train列車
10ステップほどで
マスターベーションする
ミッキーマウスに至っています
07:43
to masturbatingマスターベーション Mickeyミッキー Mouseマウス.
失敬しました
07:46
Yeah. I'm sorry about that.
でも これはもっと酷くなります
07:48
This does get worse悪化する.
雑多なキーワードと
07:50
This is what happens起こる
07:51
when all of these different異なる keywordsキーワード,
断片的な注目と
やけくそのコンテンツ生成を
07:54
all these different異なる pieces作品 of attention注意,
ひとまとめにしたときに
起きるのは
07:57
this desperate絶望的な generation世代 of contentコンテンツ,
そういうことなんです
08:00
all comes来る together一緒に into a singleシングル place場所.
奇妙なキーワードの
連鎖が導く先です
08:03
This is where all those deeply深く weird奇妙な
keywordsキーワード come home to roostねぐら.
フィンガー・ファミリーの動画に
08:08
You cross-breedクロス品種 the finger family家族 videoビデオ
特撮ヒーローと
08:10
with some live-actionライブ アクション superheroスーパーヒーロー stuffもの,
奇妙なトロール的
内輪ネタなんかを加えると
08:12
you add追加する in some weird奇妙な,
trollish立腹し in-jokesジョーク or something,
08:16
and suddenly突然, you come
to a very weird奇妙な place場所 indeed確かに.
ものすごく変な場所に至ります
子供の親を怒らせるのは
08:19
The stuffもの that tends傾向がある to upset動揺 parents
暴力的なものや
性的なものです
08:21
is the stuffもの that has kind種類 of violent暴力的な
or sexual性的 contentコンテンツ, right?
子供向けアニメのキャラが
08:25
Children's子供の cartoons漫画 getting取得 assaulted暴行された,
襲われ 殺され
08:27
getting取得 killed殺された,
子供をただ怯えさせるような
おふざけが展開されます
08:29
weird奇妙な pranksいたずら that actually実際に
genuinely真に terrify恐れる children子供.
そういったあらゆる刺激的なものを
ソフトウェアが寄せ集めて
08:33
What you have is softwareソフトウェア pulling引っ張る in
all of these different異なる influences影響
子供にとって最悪の悪夢を
生成しているんです
08:37
to automatically自動的に generate生成する
kids'子供たちは、 worst最悪 nightmares悪夢.
そういうものは実際に
子供に影響を与えます
08:39
And this stuffもの really, really
does affect影響を与える small小さい children子供.
親御さんたちが報告しています
子供が心に傷を負ったとか
08:42
Parents report報告する their彼らの children子供
beingであること traumatized傷ついた,
08:45
becoming〜になる afraid恐れ of the darkダーク,
暗闇を恐れるようになったとか
08:47
becoming〜になる afraid恐れ of their彼らの favoriteお気に入り
cartoon漫画 characters文字.
好きだったアニメキャラを
怖がるようになったと
ここから1つ
学ぶことがあるとしたら
08:50
If you take one thing away from this,
it's that if you have small小さい children子供,
小さなお子さんがいるなら
YouTubeには近寄るなということです
08:54
keep them the hell地獄 away from YouTubeYouTube.
(拍手)
08:56
(Applause拍手)
私を悩ませる
もう1つのことは
09:02
But the other thing, the thing
that really gets取得 to me about this,
どうやって こんなことになったのか
私達が分かっていないということです
09:05
is that I'm not sure we even really
understandわかる how we got to this pointポイント.
あらゆる影響力
こういう ありとあらゆるものを取り上げ
09:10
We've私たちは taken撮影 all of this influence影響,
all of these things,
09:13
and munged解体した文字列 them together一緒に in a way
that no one really intended意図されました.
誰も意図しなかったような仕方で
まとめられていますが
それはまた 私達が世界全体を
作っている方法でもあります
09:16
And yetまだ, this is alsoまた、 the way
that we're building建物 the entire全体 world世界.
あらゆるデータ
09:20
We're taking取る all of this dataデータ,
沢山のまずいデータや
09:21
a lot of it bad悪い dataデータ,
09:23
a lot of historical歴史的 dataデータ
full満員 of prejudice偏見,
偏見に満ち
最悪の衝動に満ちた
09:26
full満員 of all of our worst最悪
impulsesインパルス of history歴史,
歴史的データを集めて
巨大なデータセットを作り
09:29
and we're building建物 that
into huge巨大 dataデータ setsセット
自動化しているのです
09:31
and then we're automating自動化する it.
09:32
And we're mungingマンジング it together一緒に
into things like creditクレジット reportsレポート,
それをまとめて
信用調査や
保険料や
09:36
into insurance保険 premiumsプレミアム,
犯罪予測や
09:37
into things like predictive予測的
policingポリシング systemsシステム,
量刑基準みたいなことに
使っています
09:40
into sentencing判決 guidelinesガイドライン.
09:42
This is the way we're actually実際に
constructing建設 the world世界 today今日
今日の世界は
データを使って
実際そのように
作られているのです
09:45
out of this dataデータ.
どちらがより悪いことなのか
分かりません
09:46
And I don't know what's worse悪化する,
09:48
that we built建てられた a systemシステム
that seems思われる to be entirely完全に optimized最適化した
人間の行動の最悪な面に
最適化されたシステムを
09:51
for the absolute絶対の worst最悪 aspects側面
of human人間 behavior動作,
意図して作ったのか
それとも 何をしているのか
分からずに
09:54
or that we seem思われる
to have done完了 it by accident事故,
偶然そうなってしまったのか—
09:56
withoutなし even realizing実現する
that we were doing it,
自分の作っているシステムを
理解しておらず
09:58
because we didn't really understandわかる
the systemsシステム that we were building建物,
他のやり方が
分からなかったために
10:02
and we didn't really understandわかる
how to do anything differently異なって with it.
それが特にYouTube上で
甚だしく起きているのには
10:06
There's a coupleカップル of things I think
that really seem思われる to be driving運転 this
2つの要因があります
10:10
most最も fully完全に on YouTubeYouTube,
10:11
and the first of those is advertising広告,
ひとつは関心の
収益化である広告で
10:13
whichどの is the monetization収益化 of attention注意
実質的に他の要因が
働いておらず
10:16
withoutなし any realリアル other variables変数 at work,
コンテンツを実際に
作っている人への配慮がなく
10:19
any careお手入れ for the people who are
actually実際に developing現像 this contentコンテンツ,
権力の集中も分離もない
ということです
10:23
the centralization中央集権化 of the powerパワー,
the separation分離 of those things.
広告で利益を
得ることについて
10:26
And I think howeverしかしながら you feel
about the use of advertising広告
どう思っているにせよ
10:29
to kind種類 of supportサポート stuffもの,
オムツを履いた大の大人が
砂の上を転がり回って
10:31
the sight視力 of grown成長した men男性 in diapersおむつ
rolling圧延 around in the sand
本当には理解していない
アルゴリズムが
10:34
in the hope希望 that an algorithmアルゴリズム
that they don't really understandわかる
お金をくれることを
期待しているという光景は
10:37
will give them moneyお金 for it
10:38
suggests提案する that this
probably多分 isn't the thing
これが社会や文化の
基盤とすべきものでも
10:40
that we should be basingベース
our society社会 and culture文化 upon〜に,
資金を得るべき方法でもないことを
示しているでしょう
10:43
and the way in whichどの
we should be funding資金調達 it.
主要なもう1つの要因は
自動化です
10:45
And the other thing that's kind種類 of
the majorメジャー driverドライバ of this is automationオートメーション,
やって来たらすぐに
10:49
whichどの is the deployment配備
of all of this technology技術
何のチェックもなしに
展開して
10:51
as soonすぐに as it arrives到着,
withoutなし any kind種類 of oversight見落とし,
出した後は
手を挙げて言うんです
10:53
and then once一度 it's out there,
10:55
kind種類 of throwing投げ up our hands and going,
"Hey, it's not us, it's the technology技術."
「俺のせいじゃない
テクノロジーがやったことだ」と
「俺たちは関係ない」
とでも言うように
10:59
Like, "We're not involved関係する in it."
それでは不十分です
11:00
That's not really good enough十分な,
こういったものはアルゴリズムで
管理されているだけでなく
11:02
because this stuffもの isn't
just algorithmicallyアルゴリズム的に governed支配,
アルゴリズムで検閲も
されているからです
11:05
it's alsoまた、 algorithmicallyアルゴリズム的に policed警察.
YouTubeがこういう問題に
注意を向け始めたとき
11:07
When YouTubeYouTube first started開始した
to pay支払う attention注意 to this,
彼らが言ったのは
11:10
the first thing they said
they'd彼らは do about it
もっと良い機械学習
アルゴリズムを用意して
11:12
was that they'd彼らは deploy展開する
better machine機械 learning学習 algorithmsアルゴリズム
内容をチェックする
ということでした
11:15
to moderate中程度の the contentコンテンツ.
11:17
Well, machine機械 learning学習,
as any expert専門家 in it will tell you,
専門家なら
みんな言うでしょうが
機械学習というのは
11:20
is basically基本的に what we've私たちは started開始した to call
どういう仕組みで動いているのか
よく分からないソフトウェアのことです
11:22
softwareソフトウェア that we don't really
understandわかる how it works作品.
11:25
And I think we have
enough十分な of that already既に.
そういうのは
もう十分にあります
何が適切かの判断を
11:29
We shouldn'tすべきではない be leaving去る
this stuffもの up to AIAI to decide決めます
AI にまかせておくべき
ではありません
11:32
what's appropriate適切な or not,
どんなことが起こるか
分かっていますから
11:33
because we know what happens起こる.
11:34
It'llそれは start開始 censoring検閲 other things.
他のものも
検閲し始めるでしょう
11:36
It'llそれは start開始 censoring検閲 queer奇妙な contentコンテンツ.
奇妙な内容のものを検閲し
ちゃんとした演説も
検閲し始めるでしょう
11:38
It'llそれは start開始 censoring検閲
legitimate合法的 publicパブリック speechスピーチ.
どんな言論が許されるかは
11:40
What's allowed許可された in these discourses言説,
無責任なシステムに
まかせておくべき問題ではありません
11:42
it shouldn'tすべきではない be something
that's left up to unaccountable説明できない systemsシステム.
11:45
It's part of a discussion討論
all of us should be having持つ.
私達みんなが
議論すべきことです
しかし代替案もまた
11:48
But I'd leave離れる a reminder思い出させる
11:50
that the alternative代替 isn't
very pleasant楽しい, eitherどちらか.
あまり芳しいものでないことを
指摘しておきます
すべて人間によって
チェックした
11:52
YouTubeYouTube alsoまた、 announced発表 recently最近
11:54
that they're going to release解放
a versionバージョン of their彼らの kids'子供たちは、 appアプリ
子供向けのアプリを出すと
最近YouTubeが
アナウンスしました
11:57
that would be entirely完全に
moderatedモデレートされた by humans人間.
Facebookも ザッカーバーグが
議会で同じようなことを
12:00
Facebookフェイスブック -- Zuckerbergズッカベルク said
much the same同じ thing at Congress会議,
モデレーションについて
聞かれたときに答えました
12:03
when pressed押された about how they
were going to moderate中程度の their彼らの stuffもの.
そのための人間を用意すると
12:06
He said they'd彼らは have humans人間 doing it.
それが意味するのは
12:08
And what that really means手段 is,
そういうものを最初に
目にすることになるのが
12:10
instead代わりに of having持つ toddlers幼児 beingであること
the first person to see this stuffもの,
幼児の代わりに
低賃金で不安定な契約社員になり
12:13
you're going to have underpaid未払い,
precarious不安定な contract契約する workers労働者
メンタルヘルス面での
支援もなく
12:16
withoutなし proper適切な mental精神的な health健康 supportサポート
被害を受けるということです
12:17
beingであること damaged損傷した by it as well.
(笑)
12:19
(Laughter笑い)
もっとマシなことが
できるはずです
12:20
And I think we can all do
quiteかなり a lot better than that.
(拍手)
12:22
(Applause拍手)
この2つのことを
まとめる考えは
12:26
The thought, I think, that bringsもたらす those
two things together一緒に, really, for me,
エージェンシーだと思います
12:30
is agency代理店.
どれだけ本当に
理解しているかということ
12:32
It's like, how much do we really
understandわかる -- by agency代理店, I mean:
最善の利益のため どう行動すればいいか
いかに分かっているかということです
12:35
how we know how to act行為
in our own自分の bestベスト interests関心.
こういう あまり理解していない
システムにおいては
12:39
Whichどの -- it's almostほぼ impossible不可能 to do
12:41
in these systemsシステム that we don't
really fully完全に understandわかる.
ほとんど不可能なことです
力の不均衡は
暴力に繋がります
12:45
Inequality不平等 of powerパワー
always leadsリード to violence暴力.
こういったシステムの中では
12:48
And we can see inside内部 these systemsシステム
理解の不均衡が
同じ結果を生みます
12:49
that inequality不平等 of understanding理解
does the same同じ thing.
こういうシステムを改善するために
できることが1つあるとしたら
12:52
If there's one thing that we can do
to start開始 to improve改善する these systemsシステム,
使う人々にもっと分かるものにする
ということです
12:56
it's to make them more legible読みやすい
to the people who use them,
何が起きているのか
12:59
so that all of us have
a common一般 understanding理解
みんな共通の理解を
得られるように
13:01
of what's actually実際に going on here.
こういったシステムの問題は
前に言いましたように
13:03
The thing, thoughしかし, I think
most最も about these systemsシステム
YouTubeに限ったこと
ではありません
13:06
is that this isn't, as I hope希望
I've explained説明した, really about YouTubeYouTube.
あらゆるものに
当てはまります
13:10
It's about everything.
13:12
These issues問題 of accountability説明責任 and agency代理店,
説明責任やエージェンシー
透明性や複雑さ
13:14
of opacity不透明度 and complexity複雑,
暴力や搾取といった問題は
13:16
of the violence暴力 and exploitation搾取
that inherently本質的に results結果
力が一部に集中していることの
結果であり
13:20
from the concentration濃度
of powerパワー in a few少数 hands --
13:22
these are much, much larger大きい issues問題.
それはずっと
大きな問題なのです
YouTubeだけの問題ではないし
テクノロジーだけの問題でもなく
13:26
And they're issues問題 not just of YouTubeYouTube
and not just of technology技術 in general一般,
新しい問題でさえありません
13:30
and they're not even new新しい.
13:31
They've彼らは been with us for ages年齢.
ずっと昔からあったことです
13:32
But we finally最後に built建てられた this systemシステム,
this globalグローバル systemシステム, the internetインターネット,
ただ我々がこの世界的なシステム
インターネットを作ったことで
13:37
that's actually実際に showing表示 them to us
in this extraordinary特別な way,
極端な形で現れるようになり
否定し得なくなった
というだけです
13:40
making作る them undeniable否定できない.
13:41
Technology技術 has this extraordinary特別な capacity容量
テクノロジーには
ものすごい力があり
我々の最も甚だしい
隠された欲望や偏見に
13:44
to bothどちらも instantiateインスタンス化します。 and continue持続する
13:48
all of our most最も extraordinary特別な,
oftenしばしば hidden隠された desires願望 and biasesバイアス
形を与え継続させ
世界に刻みつけているのです
13:53
and encodingエンコーディング them into the world世界,
13:54
but it alsoまた、 writes書き込み them down
so that we can see them,
しかし書き出されることで
目に見えるようになり
もはや存在しないフリは
できなくなりました
13:58
so that we can't pretendふりをする
they don't exist存在する anymoreもう.
テクノロジーがあらゆる問題への
解決法だと思うのはやめて
14:01
We need to stop thinking考え about technology技術
as a solution溶液 to all of our problems問題,
問題が実際どういうものか知るための
ガイドと考える必要があります
14:06
but think of it as a guideガイド
to what those problems問題 actually実際に are,
そうすれば
問題を適切に捉え
14:09
so we can start開始 thinking考え
about them properly正しく
取り組み始める
ことができるでしょう
14:12
and start開始 to address住所 them.
ありがとうございました
14:13
Thank you very much.
14:15
(Applause拍手)
(拍手)
ありがとうございます
14:21
Thank you.
14:22
(Applause拍手)
(拍手)
(ヘレン・ウォルターズ) ジェームズ
お話をありがとうございました
14:28
Helenヘレン Waltersウォルターズ: Jamesジェームス, thank you
for coming到来 and giving与える us that talk.
興味深いですね
14:32
So it's interesting面白い:
人類がコンピューターに
支配される映画は
14:33
when you think about the films映画 where
the roboticロボット overlords大将 take over,
あなたのお話よりも
華々しいですが
14:36
it's all a bitビット more glamorousグラマラス
than what you're describing記述.
そういう映画ではいつも
レジスタンスが立ち上がります
14:40
But I wonderワンダー -- in those films映画,
you have the resistance抵抗 mounting取り付け.
この問題に対して立ち上がる
レジスタンスというのは いるのでしょうか?
14:43
Is there a resistance抵抗 mounting取り付け
towards方向 this stuffもの?
14:47
Do you see any positiveポジティブ signs兆候,
green shoots芽吹く of resistance抵抗?
抵抗が芽生える兆候に
お気づきですか?
(ジェームズ・ブライドル)
直接的な抵抗というのは知りません
14:52
Jamesジェームス Bridle手綱: I don't know
about direct直接 resistance抵抗,
これはとても長期にわたる問題で
14:54
because I think this stuffもの
is superスーパー long-term長期.
文化の中にすごく深く
入り込んでいます
14:57
I think it's baked焼きました into culture文化
in really deep深い ways方法.
友人のエレノア・サイッタが
いつも言っていますが
14:59
A friend友人 of mine鉱山,
Eleanorエレノア SaittaSaitta, always says言う
十分大きなスケールと範囲を持つ
テクノロジーの問題は
15:01
that any technological技術的 problems問題
of sufficient十分 scale規模 and scope範囲
何よりもまず政治的問題なのです
15:05
are political政治的 problems問題 first of all.
この問題に対処するため
やるべきことは
15:07
So all of these things we're workingワーキング
to address住所 within以内 this
単により良いテクノロジーを
作るということではなく
15:10
are not going to be addressed対処する
just by building建物 the technology技術 better,
そういうテクノロジーを生み出す社会を
変えるということでしょう
15:13
but actually実際に by changing変化 the society社会
that's producing生産する these technologiesテクノロジー.
今はまだありません
道はものすごく長いと思います
15:17
So no, right now, I think we've私たちは got
a hell地獄 of a long way to go.
しかし言いましたように
15:20
But as I said, I think by unpacking開梱 them,
これを紐解き 説明し
すごく率直に話すことで
15:22
by explaining説明する them, by talking話す
about them superスーパー honestly正直,
少なくとも そのプロセスを
始めることはできます
15:25
we can actually実際に start開始
to at least少なくとも beginベギン that processプロセス.
(ヘレン) 判読可能性や
デジタル・リテラシーに触れたとき
15:27
HWHW: And so when you talk about
legibility読みやすさ and digitalデジタル literacyリテラシー,
デジタル・リテラシーの重荷を
ユーザー自身に負わせるというのは
15:31
I find it difficult難しい to imagine想像する
15:32
that we need to place場所 the burden重荷
of digitalデジタル literacyリテラシー on usersユーザー themselves自分自身.
難しいのではと思いました
15:36
But whoseその responsibility責任
is education教育 in this new新しい world世界?
この新しい世界において
教育は誰の責任になるのでしょう?
(ジェームズ) 繰り返しになりますが
責任は私達すべてにかかっています
15:41
JBJB: Again, I think this responsibility責任
is kind種類 of up to all of us,
15:44
that everything we do,
everything we buildビルドする, everything we make,
私達のすることすべて
私達の作る物すべてが
すべての人の議論による
同意のもと
15:47
needsニーズ to be made
in a consensual合意 discussion討論
作られる必要があります
15:51
with everyoneみんな who'sだれの avoiding避ける it;
正しいことを
15:53
that we're not building建物 systemsシステム
intended意図されました to trickトリック and surprise驚き people
引っかけたり驚くような仕方で
やらせようとするのではなく
15:57
into doing the right thing,
みんなが教育の各段階に
関わる必要があります
16:00
but that they're actually実際に involved関係する
in everyすべて stepステップ in educating教育する them,
そういうシステムは
教育的なものですから
16:03
because each of these systemsシステム
is educational教育的.
そこが この滅入る問題に対し
私が希望を持っているところです
16:05
That's what I'm hopeful希望 about,
about even this really grim恐るべき stuffもの,
取り上げて
正しく見ることができるなら
16:08
that if you can take it
and look at it properly正しく,
16:11
it's actually実際に in itself自体
a pieceピース of education教育
そこに学べるものがあり
複雑なシステムがどのように
出来上がるものか知ることができ
16:13
that allows許す you to start開始 seeing見る
how complex複合体 systemsシステム come together一緒に and work
その知識は他の所でも
役立つかもしれません
16:17
and maybe be ableできる to apply適用する
that knowledge知識 elsewhere他の場所 in the world世界.
(ヘレン) とても大切な
話題だと思います
16:20
HWHW: Jamesジェームス, it's suchそのような
an important重要 discussion討論,
ここにいる人の多くが
積極的に加わってくれるでしょう
16:22
and I know manyたくさんの people here
are really open開いた and prepared準備された to have it,
朝一番に素晴らしい話を
ありがとうございました
16:26
so thanksありがとう for starting起動 off our morning.
(ジェームズ) こちらこそ
ありがとうございました
16:27
JBJB: Thanksありがとう very much. Cheers乾杯.
(拍手)
16:29
(Applause拍手)
Translated by Yasushi Aoki
Reviewed by Masako Kigami

▲Back to top

About the speaker:

James Bridle - Artist, writer
Working across technologies and disciplines, James Bridle examines technology, knowledge and the end of the future.

Why you should listen

James Bridle is an artist and writer working across technologies and disciplines. His artworks and installations have been exhibited in Europe, North and South America, Asia and Australia, and have been viewed by hundreds of thousands of visitors online. He has been commissioned by organizations including the Victoria & Albert Museum, the Barbican, Artangel, the Oslo Architecture Triennale and the Istanbul Design Biennial, and he has been honored by Ars Electronica, the Japan Media Arts Festival and the Design Museum, London. His writing on literature, culture and networks has appeared in magazines and newspapers including Frieze, Wired, Domus, Cabinet, The Atlantic, the New Statesman and many others, and he has written a regular column for The Observer.

New Dark Age, Bridle's book about technology, knowledge and the end of the future is forthcoming from Verso (UK & US) in 2018. He lectures regularly on radio, at conferences, universities and other events including SXSW, Lift, the Global Art Forum and Re:Publica. He has been a resident at Lighthouse, Brighton, the White Building, London and Eyebeam, New York, and an adjunct professor on the interactive telecommunications program at New York University.

More profile about the speaker
James Bridle | Speaker | TED.com