ABOUT THE SPEAKER
James Bridle - Artist, writer
Working across technologies and disciplines, James Bridle examines technology, knowledge and the end of the future.

Why you should listen

James Bridle is an artist and writer working across technologies and disciplines. His artworks and installations have been exhibited in Europe, North and South America, Asia and Australia, and have been viewed by hundreds of thousands of visitors online. He has been commissioned by organizations including the Victoria & Albert Museum, the Barbican, Artangel, the Oslo Architecture Triennale and the Istanbul Design Biennial, and he has been honored by Ars Electronica, the Japan Media Arts Festival and the Design Museum, London. His writing on literature, culture and networks has appeared in magazines and newspapers including Frieze, Wired, Domus, Cabinet, The Atlantic, the New Statesman and many others, and he has written a regular column for The Observer.

New Dark Age, Bridle's book about technology, knowledge and the end of the future is forthcoming from Verso (UK & US) in 2018. He lectures regularly on radio, at conferences, universities and other events including SXSW, Lift, the Global Art Forum and Re:Publica. He has been a resident at Lighthouse, Brighton, the White Building, London and Eyebeam, New York, and an adjunct professor on the interactive telecommunications program at New York University.

More profile about the speaker
James Bridle | Speaker | TED.com
TED2018

James Bridle: The nightmare videos of children's YouTube -- and what's wrong with the internet today

James Bridle: De nachtmerrie van kindervideo's op YouTube -- en wat er vandaag fout is aan het internet

Filmed:
5,404,429 views

Schrijver en kunstenaar James Bridle onthult een donkere, vreemde kant van het internet, waar onbekende mensen of groepen op YouTube de hersens van jonge kinderen hacken in ruil voor reclame-inkomsten. Van surprise-ei-onthullingen en het 'Vingerfamilielied', tot algoritmisch gemaakte potpourri's van bekende stripfiguren in gewelddadige situaties, exploiteren en terroriseren deze video's jonge geesten -- en vertellen ze ons iets over waar onze steeds meer door data gedreven wereld op afstevent. "We moeten stoppen met technologie te zien als een oplossing voor al onze problemen, en ze beschouwen als een gids voor wat die problemen eigenlijk zijn, dus kunnen we er maar beter over gaan nadenken en ze aanpakken", zegt Bridle.
- Artist, writer
Working across technologies and disciplines, James Bridle examines technology, knowledge and the end of the future. Full bio

Double-click the English transcript below to play the video.

00:12
I'm JamesJames.
0
777
1183
Ik ben James.
00:13
I'm a writerauteur and artistartiest,
1
1984
1686
Ik ben schrijver en kunstenaar
00:15
and I make work about technologytechnologie.
2
3694
2341
en mijn werk gaat over over technologie,
00:18
I do things like drawtrek life-sizelevensgrote outlinescontouren
of militaryleger dronesDrones
3
6454
3911
zoals levensgrote contouren
van militaire drones tekenen
00:22
in citystad streetsstraten around the worldwereld-,
4
10389
1828
in straten van steden over de hele wereld,
00:24
so that people can startbegin to think
and get theirhun headshoofden around
5
12241
2950
zodat mensen kunnen gaan
nadenken en iets snappen
00:27
these really quiteheel hard-to-seemoeilijk te bekijken
and hard-to-think-abouthard-aan-denken-over technologiestechnologieën.
6
15215
3440
van deze nogal wazige
en moeilijk te begrijpen technologieën.
00:31
I make things like neuralneurale networksnetwerken
that predictvoorspellen the resultsuitslagen of electionsverkiezingen
7
19494
3836
Ik maak dingen als neurale netwerken
die verkiezingsresultaten voorspellen
00:35
basedgebaseerde on weatherweer reportsrapporten,
8
23354
1737
op basis van weerberichten,
00:37
because I'm intriguedgeïntrigeerd about
9
25115
1314
want ik ben geïntrigeerd
door de werkelijke mogelijkheden
00:38
what the actualwerkelijk possibilitiesmogelijkheden
of these weirdvreemd newnieuwe technologiestechnologieën are.
10
26453
3924
van deze vreemde nieuwe technologieën.
00:43
Last yearjaar, I builtgebouwd
my owneigen self-drivingzelf rijden carauto.
11
31405
2426
Vorig jaar bouwde ik
mijn eigen zelfrijdende auto.
00:45
But because I don't
really trustvertrouwen technologytechnologie,
12
33855
2526
Maar omdat ik de technologie
niet echt vertrouwde,
00:48
I alsoook designedontworpen a trapVal for it.
13
36405
1928
ontwierp ik er eveneens een val voor.
00:50
(LaughterGelach)
14
38777
1086
(Gelach)
00:51
And I do these things mostlymeestal because
I find them completelyhelemaal fascinatingfascinerend,
15
39887
4298
Ik doe dat vooral omdat ik
ze helemaal fascinerend vind,
maar ook omdat ik denk
dat als we het hebben over technologie,
00:56
but alsoook because I think
when we talk about technologytechnologie,
16
44209
2602
00:58
we're largelygrotendeels talkingpratend about ourselvesonszelf
17
46835
2619
we meestal over onszelf praten
01:01
and the way that we understandbegrijpen the worldwereld-.
18
49478
2299
en de manier waarop
we de wereld begrijpen.
01:03
So here'shier is a storyverhaal about technologytechnologie.
19
51801
2442
Dus hier een verhaal over technologie.
01:07
This is a "surpriseverrassing eggei" videovideo-.
20
55520
2830
Dit is een surprise-ei-video.
01:10
It's basicallyeigenlijk a videovideo- of someoneiemand
openingopening up loadsmassa of chocolatechocola eggseieren
21
58374
3348
Het is een video van iemand
die wat chocolade-eieren opent
01:13
and showingtonen the toysspeelgoed insidebinnen to the viewerviewer.
22
61746
2126
en de kijker het speelgoed erin toont.
01:16
That's it. That's all it does
for sevenzeven long minutesnotulen.
23
64461
2649
Dat is het.
Dat is alles wat hij
zeven lange minuten doet.
01:19
And I want you to noticekennisgeving
two things about this.
24
67428
3051
Twee dingen zijn hier belangrijk om weten.
01:22
First of all, this videovideo-
has 30 millionmiljoen viewskeer bekeken.
25
70503
4074
Allereerst is deze video
30 miljoen keer bekeken.
01:26
(LaughterGelach)
26
74601
1275
(Gelach)
01:28
And the other thing is,
27
76376
1166
En ten tweede komt hij van een kanaal
01:29
it comeskomt from a channelkanaal
that has 6.3 millionmiljoen subscribersabonnees,
28
77566
3869
met 6,3 miljoen abonnees,
01:33
that has a totaltotaal of eightacht billionmiljard viewskeer bekeken,
29
81459
2680
een totaal van acht miljard views,
01:36
and it's all just more videosvideos like this --
30
84163
3106
en het is één van
een hoop video's zoals deze --
01:40
30 millionmiljoen people watchingkijken a guy
openingopening up these eggseieren.
31
88256
3908
30 miljoen mensen kijken naar iemand
die deze eieren opendoet.
01:44
It soundsklanken prettymooi weirdvreemd, but if you searchzoeken
for "surpriseverrassing eggseieren" on YouTubeYouTube,
32
92188
4481
Het klinkt raar, maar als je
naar surprise-eieren op YouTube zoekt,
01:48
it'llhet zal tell you there's
10 millionmiljoen of these videosvideos,
33
96693
3523
kan ik je vertellen dat er 10 miljoen
van deze video's bestaan,
en ik denk dat dat een onderschatting is.
01:52
and I think that's an undercountundercount.
34
100240
1657
01:53
I think there's way, way more of these.
35
101921
1897
Ik denk dat het er veel, veel meer zijn.
01:55
If you keep searchingzoeken, they're endlesseindeloos.
36
103842
2242
Als je gaat zoeken, houdt het niet op.
01:58
There's millionsmiljoenen and millionsmiljoenen
of these videosvideos
37
106108
2159
Er zijn miljoenen en
miljoenen van deze video's,
02:00
in increasinglyin toenemende mate baroquebarok- combinationscombinaties
of brandsmerken and materialsmaterialen,
38
108291
3454
in toenemende barokke combinaties
van merken en materialen,
02:03
and there's more and more of them
beingwezen uploadedgeüpload everyelk singlesingle day.
39
111769
3846
en er worden er elke dag
meer en meer geüpload.
02:07
Like, this is a strangevreemd worldwereld-. Right?
40
115639
3511
Toch een vreemde wereld, niet?
02:11
But the thing is, it's not adultsvolwassenen
who are watchingkijken these videosvideos.
41
119174
3383
Maar het zijn geen volwassenen
die naar deze video's kijken.
02:14
It's kidskinderen, smallklein childrenkinderen.
42
122581
2921
Het zijn kinderen, kleine kinderen.
Deze video's zijn als crack
voor kleine kinderen.
02:17
These videosvideos are
like crackbarst for little kidskinderen.
43
125526
2154
02:19
There's something about the repetitionherhaling,
44
127704
2075
Iets in de herhaling die steeds
weer een kleine dopamine-opstoot geeft,
02:21
the constantconstante little
dopaminedopamine hitraken of the revealonthullen,
45
129803
2468
02:24
that completelyhelemaal hookshaken them in.
46
132295
1866
maakt ze er helemaal aan verslaafd.
02:26
And little kidskinderen watch these videosvideos
over and over and over again,
47
134185
4809
Kleine kinderen bekijken deze video’s
opnieuw en opnieuw,
02:31
and they do it for hoursuur
and hoursuur and hoursuur.
48
139018
2327
uren aan een stuk.
Probeer ze niet
weg te halen van het scherm,
02:33
And if you try and take
the screenscherm away from them,
49
141369
2356
want ze gaan krijsen en gillen.
02:35
they'llzullen ze screamschreeuw and screamschreeuw and screamschreeuw.
50
143749
1782
Als jullie me niet geloven --
ik zag al mensen knikken --
02:37
If you don't believe me --
51
145555
1262
02:38
and I've alreadynu al seengezien people
in the audiencepubliek noddingknikkend --
52
146841
2607
als je het niet gelooft,
vraag dan iemand met kleine kinderen,
02:41
if you don't believe me, find someoneiemand
with smallklein childrenkinderen and askvragen them,
53
149472
3391
zij kennen die surprise-ei-video's.
02:44
and they'llzullen ze know about
the surpriseverrassing eggei videosvideos.
54
152887
2340
02:47
So this is where we startbegin.
55
155251
2070
Daar beginnen we mee.
02:49
It's 2018, and someoneiemand, or lots of people,
56
157345
3642
Het is 2018, en iemand, of veel mensen,
02:53
are usinggebruik makend van the samedezelfde mechanismmechanisme that, like,
FacebookFacebook and InstagramInstagram are usinggebruik makend van
57
161011
3941
gebruiken hetzelfde mechanisme om,
net als Facebook en Instagram,
02:56
to get you to keep checkingcontroleren that appapp,
58
164976
1989
te zorgen dat je die app opzoekt,
02:58
and they're usinggebruik makend van it on YouTubeYouTube
to hackhouwen the brainshersenen of very smallklein childrenkinderen
59
166989
3985
en ze gebruiken het op YouTube
om de hersenen van zeer kleine kinderen
te hacken in ruil voor reclame-inkomsten.
03:02
in returnterugkeer for advertisingreclame revenueomzet.
60
170998
1958
03:06
At leastminst, I hopehoop
that's what they're doing.
61
174346
2001
Ik hoop tenminste
dat het dat is wat ze doen.
03:08
I hopehoop that's what they're doing it for,
62
176371
1955
Ik hoop dat ze het daarvoor doen,
03:10
because there's easiergemakkelijker waysmanieren
of makingmaking adadvertentie revenueomzet on YouTubeYouTube.
63
178350
5308
omdat er makkelijker manieren zijn
om advertentie-inkomsten
te krijgen op YouTube.
03:15
You can just make stuffspul up or stealstelen stuffspul.
64
183682
2332
Je kunt gewoon dingen
uitvinden of dingen jatten.
03:18
So if you searchzoeken for really
popularpopulair kids'Kids cartoonscartoons
65
186038
2635
Als je naar echt populaire kindercartoons
als ‘Pepper Pig’ of ‘Paw Patrol’ zoekt,
03:20
like "PeppaPeppa PigVarken" or "PawPaw PatrolPatrouille,"
66
188697
1654
03:22
you'llje zult find there's millionsmiljoenen and millionsmiljoenen
of these onlineonline as well.
67
190375
3147
zal je er ook miljoenen
en miljoenen online vinden.
Natuurlijk komen de meeste niet
van de makers van de originele strips.
03:25
Of courseCursus, mostmeest of them aren'tzijn niet postedGeplaatst
by the originalorigineel contentinhoud creatorsmakers.
68
193546
3352
Ze komen uit heel verschillende
willekeurige accounts
03:28
They come from loadsmassa and loadsmassa
of differentverschillend randomwillekeurig accountsrekeningen,
69
196922
2999
03:31
and it's impossibleonmogelijk to know
who'swie is postingplaatsing them
70
199945
2240
en het is onmogelijk
om te weten wie ze posten
03:34
or what theirhun motivesmotieven mightmacht be.
71
202209
1822
of wat hun mogelijke motieven zijn.
03:36
Does that soundgeluid kindsoort of familiarvertrouwd?
72
204428
1930
Komt dat bekend voor?
03:38
Because it's exactlyprecies the samedezelfde mechanismmechanisme
73
206382
1980
Want precies hetzelfde mechanisme
03:40
that's happeninggebeurtenis acrossaan de overkant mostmeest
of our digitaldigitaal servicesdiensten,
74
208386
2600
zie je in de meeste
digitale dienstverlening,
03:43
where it's impossibleonmogelijk to know
where this informationinformatie is comingkomt eraan from.
75
211010
3207
waar je de herkomst van de informatie
niet kunt achterhalen.
Het is eigenlijk nepnieuws voor kinderen
03:46
It's basicallyeigenlijk fakenep newsnieuws for kidskinderen,
76
214241
1829
03:48
and we're trainingopleiding them from birthgeboorte
77
216094
2161
en we zorgen er vanaf
de geboorte voor dat ze klikken
03:50
to clickKlik on the very first linklink
that comeskomt alonglangs,
78
218279
2506
op de eerste link die langs komt,
03:52
regardlessachteloos of what the sourcebron is.
79
220809
1953
ongeacht wat de bron is.
03:54
That's doesn't seemlijken like
a terriblyvreselijk good ideaidee.
80
222786
2603
Dat lijkt geen erg goed idee.
03:58
Here'sHier is anothereen ander thing
that's really biggroot on kids'Kids YouTubeYouTube.
81
226399
2710
Dit is ook echt populair
op YouTube voor kinderen.
04:01
This is calledriep the "FingerVinger FamilyFamilie SongLied."
82
229133
1928
Dit heet de ‘Finger Family Song’.
Ik hoorde net iemand
in het publiek kreunen.
04:03
I just heardgehoord someoneiemand groankreunen
in the audiencepubliek.
83
231085
2018
04:05
This is the "FingerVinger FamilyFamilie SongLied."
84
233127
1624
Dit is de ‘Finger Family Song’.
04:06
This is the very first one I could find.
85
234775
1930
Dit is de eerste die ik kon vinden.
04:08
It's from 2007, and it only has
200,000 viewskeer bekeken,
86
236729
2829
Hij is van 2007 en is
slechts 200.000 keer bekeken,
04:11
whichwelke is, like, nothing in this gamespel.
87
239582
1976
wat echt niets is in dit spel.
04:13
But it has this insanelygek earwormyearwormy tuneTune,
88
241582
2852
Maar het muziekje is een echte oorworm,
04:16
whichwelke I'm not going to playspelen to you,
89
244458
1682
die ik jullie zal besparen,
04:18
because it will searsear itselfzelf
into your brainhersenen
90
246164
2008
omdat hij zich in je hersenen brandt
04:20
in the samedezelfde way that
it searedSeared itselfzelf into minede mijne,
91
248196
2395
net zoals hij zich in de mijne inbrandde.
04:22
and I'm not going to do that to you.
92
250615
1770
Ik wil het jullie niet aandoen.
Maar net als de surprise-eieren
04:24
But like the surpriseverrassing eggseieren,
93
252409
1344
04:25
it's got insidebinnen kids'Kids headshoofden
94
253777
2164
kroop het in de kinderhoofdjes
04:27
and addictedverslaafd them to it.
95
255965
1607
en maakte hen eraan verslaafd.
04:29
So withinbinnen a fewweinig yearsjaar,
these fingervinger familyfamilie videosvideos
96
257596
2531
Binnen enkele jaren verschenen
deze ‘vingerfamilie’- video’s overal,
04:32
startbegin appearingverschijnen everywhereoveral,
97
260151
1303
04:33
and you get versionsversies
in differentverschillend languagestalen
98
261478
2029
met versies in verschillende talen,
04:35
with popularpopulair kids'Kids cartoonscartoons usinggebruik makend van foodeten
99
263531
2121
met populaire kinderstrips met voedsel,
04:37
or, franklyrondweg, usinggebruik makend van whateverwat dan ook kindsoort
of animationanimatie elementselementen
100
265676
2550
of met eender wat voor animatie-elementen
die je ter beschikking hebt.
04:40
you seemlijken to have lyingaan het liegen around.
101
268250
2252
04:43
And onceeen keer again, there are millionsmiljoenen
and millionsmiljoenen and millionsmiljoenen of these videosvideos
102
271002
5197
En er zijn miljoenen en miljoenen
van deze video's online beschikbaar
04:48
availablebeschikbaar onlineonline in all of these
kindsoort of insanekrankzinnig combinationscombinaties.
103
276223
3435
in allerlei soorten
krankzinnige combinaties.
04:51
And the more time
you startbegin to spendbesteden with them,
104
279682
2228
Hoe meer tijd je eraan spendeert,
04:53
the craziergekker and craziergekker
you startbegin to feel that you mightmacht be.
105
281934
3694
des te gekker je je begint te voelen.
04:57
And that's where I
kindsoort of launchedgelanceerd into this,
106
285652
3333
Daar ben ik dan mee begonnen,
05:01
that feelinggevoel of deepdiep strangenessvreemdheid
and deepdiep lackgebrek of understandingbegrip
107
289009
3666
over hoe dat gevoel van diepe vreemdheid
en diep gebrek aan inzicht
05:04
of how this thing was constructedgebouwd
that seemslijkt to be presentedgepresenteerd around me.
108
292699
4175
aan hoe dit ding, dat je overal ziet,
in elkaar werd gestoken.
05:08
Because it's impossibleonmogelijk to know
where these things are comingkomt eraan from.
109
296898
3167
Omdat het onmogelijk is
om de herkomst te weten
of wie ze maakt.
05:12
Like, who is makingmaking them?
110
300089
1241
Sommige lijken gemaakt door teams
van professionele animators.
05:13
Some of them appearverschijnen to be madegemaakt
of teamsteams of professionalprofessioneel animatorsanimatoren.
111
301354
3143
05:16
Some of them are just randomlywillekeurig
assembledgeassembleerd by softwaresoftware.
112
304521
2882
Sommige lijken gewoon willekeurig
samengesteld door software.
05:19
Some of them are quiteheel wholesome-lookinggezond ogende
youngjong kids'Kids entertainersentertainers.
113
307427
4253
Sommige zien eruit
als heel normaal kindervermaak.
05:23
And some of them are from people
114
311704
1552
En sommige lijken te komen van mensen
05:25
who really clearlyduidelijk
shouldn'tmoet niet be around childrenkinderen at all.
115
313280
3007
die je beter weghoudt van kinderen.
05:28
(LaughterGelach)
116
316311
1615
(Gelach)
05:30
And onceeen keer again, this impossibilityonmogelijkheid
of figuringuitzoeken out who'swie is makingmaking this stuffspul --
117
318987
4640
En dan weer de onmogelijkheid
om de bron te achterhalen --
zoals, is dit een bot?
05:35
like, this is a botbot?
118
323651
1156
05:36
Is this a personpersoon? Is this a trollTroll?
119
324831
2647
Of een persoon? Of een trol?
05:39
What does it mean
that we can't tell the differenceverschil
120
327502
2382
Wat betekent het dat we het verschil
tussen deze dingen niet meer zien?
05:41
betweentussen these things anymoremeer?
121
329908
1583
05:43
And again, doesn't that uncertaintyonzekerheid
feel kindsoort of familiarvertrouwd right now?
122
331515
4848
En komt dat gevoel van onzekerheid
jullie ook niet een beetje bekend voor?
De belangrijkste manier
om views te krijgen --
05:50
So the mainhoofd way people get viewskeer bekeken
on theirhun videosvideos --
123
338145
2580
en views krijgen brengt geld op --
05:52
and rememberonthouden, viewskeer bekeken mean moneygeld --
124
340749
1707
05:54
is that they stuffspul the titlestitels
of these videosvideos with these popularpopulair termstermen.
125
342480
4742
is deze video’s te voorzien
van populaire termen.
05:59
So you take, like, "surpriseverrassing eggseieren"
126
347246
1687
Bijvoorbeeld surprise-eieren
06:00
and then you addtoevoegen
"PawPaw PatrolPatrouille," "EasterPasen eggei,"
127
348957
2066
koppel je aan ‘Paw Patrol’ of ‘Easter Egg’
06:03
or whateverwat dan ook these things are,
128
351047
1393
of wat dan ook,
06:04
all of these wordstekst from other
popularpopulair videosvideos into your titletitel,
129
352464
2893
en steek woorden uit andere
populaire video’s in je titel
06:07
untiltot you endeinde up with this kindsoort of
meaninglesszinloos mashMash of languagetaal
130
355381
2968
tot een nietszeggende taalpuree
06:10
that doesn't make sensezin to humansmensen at all.
131
358373
2498
zonder enige betekenis voor mensen.
06:12
Because of courseCursus it's only really
tinyklein kidskinderen who are watchingkijken your videovideo-,
132
360895
3546
Want natuurlijk zijn het alleen
erg kleine kinderen die je video bekijken
06:16
and what the hellhel do they know?
133
364465
1827
en die beseffen het niet.
06:18
Your realecht audiencepubliek
for this stuffspul is softwaresoftware.
134
366316
3007
Je echte publiek
voor dit spul is software.
06:21
It's the algorithmsalgoritmen.
135
369347
1156
Het zijn de algoritmen.
06:22
It's the softwaresoftware that YouTubeYouTube usestoepassingen
136
370527
1855
Het is de software van YouTube
die kiest welke video's
net als andere video's zijn,
06:24
to selectkiezen whichwelke videosvideos
are like other videosvideos,
137
372406
2483
06:26
to make them popularpopulair,
to make them recommendedAanbevolen.
138
374913
2243
om ze populair te maken,
om ze aan te bevelen.
06:29
And that's why you endeinde up with this
kindsoort of completelyhelemaal meaninglesszinloos mashMash,
139
377180
3461
En dat is waarom je eindigt
met dit soort volkomen zinloze puree,
06:32
bothbeide of titletitel and of contentinhoud.
140
380665
2071
zowel van titel als van inhoud.
06:35
But the thing is, you have to rememberonthouden,
141
383792
1894
Maar je mag niet vergeten
06:37
there really are still people withinbinnen
this algorithmicallyalgoritmisch optimizedgeoptimaliseerde systemsysteem,
142
385710
4478
dat er nog steeds mensen zitten achter
dit algoritmisch geoptimaliseerd systeem,
06:42
people who are kindsoort
of increasinglyin toenemende mate forcedgedwongen to acthandelen out
143
390212
2790
mensen die meer en meer
06:45
these increasinglyin toenemende mate bizarreBizarre
combinationscombinaties of wordstekst,
144
393026
3066
deze steeds meer bizarre
woordcombinaties moeten naspelen
06:48
like a desperateten einde raad improvisationimprovisatie artistartiest
respondingreageert to the combinedgecombineerde screamsschreeuwt
145
396116
5173
als een wanhopige improvisatiekunstenaar
die reageert op het gecombineerde gekrijs
06:53
of a millionmiljoen toddlerspeuters at onceeen keer.
146
401313
2203
van een miljoen peuters.
06:57
There are realecht people
trappedgevangen withinbinnen these systemssystemen,
147
405168
2468
Er zitten echte mensen
gevangen in deze systemen
06:59
and that's the other deeplydiep strangevreemd thing
about this algorithmicallyalgoritmisch drivenaangedreven culturecultuur,
148
407660
4055
en dat is het andere zeer vreemde iets
aan deze door algoritmen gedreven cultuur,
07:03
because even if you're humanmenselijk,
149
411739
1381
want zelfs als mens,
moet je je uiteindelijk ​​
07:05
you have to endeinde up behavinggedragen like a machinemachine
150
413144
2145
als een machine gaan gedragen
om te overleven.
07:07
just to surviveoverleven.
151
415313
1800
07:09
And alsoook, on the other sidekant of the screenscherm,
152
417137
2100
En ook aan de andere kant van het scherm
07:11
there still are these little kidskinderen
watchingkijken this stuffspul,
153
419261
2947
zitten nog steeds die kleine kinderen
te kijken naar dit spul,
07:14
stuckgeplakt, theirhun fullvol attentionaandacht grabbedgreep
by these weirdvreemd mechanismsmechanismen.
154
422232
4206
vastgeplakt, hun volledige aandacht
gegrepen door die rare mechanismen.
07:18
And mostmeest of these kidskinderen are too smallklein
to even use a websitewebsite.
155
426768
2798
De meesten zijn zelfs te klein
om een website gebruiken.
07:21
They're just kindsoort of hammeringhameren
on the screenscherm with theirhun little handshanden.
156
429590
3276
Ze tokkelen gewoon wat
met hun kleine handjes op het scherm.
07:24
And so there's autoplayautomatisch afspelen,
157
432890
1217
En dus is er autoplay,
07:26
where it just keepshoudt playingspelen these videosvideos
over and over and over in a looplus,
158
434131
3579
waardoor deze video’s
in een lus blijven doorspelen,
onophoudelijk, uren en uren aan een stuk.
07:29
endlesslyeindeloos for hoursuur and hoursuur at a time.
159
437734
2059
07:31
And there's so much weirdnessweirdness
in the systemsysteem now
160
439817
2843
Het systeem is nu zo raar
07:34
that autoplayautomatisch afspelen takes you
to some prettymooi strangevreemd placesplaatsen.
161
442684
3009
dat autoplay je op hele
vreemde plaatsen brengt.
07:37
This is how, withinbinnen a dozendozijn stepsstappen,
162
445717
2488
Zo kan je in een tiental stappen
07:40
you can go from a cuteschattig videovideo-
of a countingtelling traintrein
163
448229
3158
van een leuke video met een tellende trein
07:43
to masturbatingmasturberen MickeyMickey MouseMuis.
164
451411
2442
bij een masturberende
Mickey Mouse terechtkomen.
07:46
Yeah. I'm sorry about that.
165
454529
2288
Ja. Sorry daarvoor.
07:48
This does get worseerger.
166
456841
1700
Het wordt nog erger.
07:50
This is what happensgebeurt
167
458565
1282
Dit is wat er gebeurt
07:51
when all of these differentverschillend keywordsTrefwoorden,
168
459871
3086
wanneer al deze verschillende zoekwoorden,
07:54
all these differentverschillend piecesstukken of attentionaandacht,
169
462981
2461
al deze verschillende aandachtspunten,
07:57
this desperateten einde raad generationgeneratie of contentinhoud,
170
465466
2807
deze wanhopige productie van inhoud,
08:00
all comeskomt togethersamen into a singlesingle placeplaats.
171
468297
2582
allemaal op een enkele plaats samenkomt.
08:03
This is where all those deeplydiep weirdvreemd
keywordsTrefwoorden come home to roostRoost.
172
471871
4472
Daar vind je die zeer
rare trefwoorden samen.
08:08
You cross-breedCross-RAS the fingervinger familyfamilie videovideo-
173
476367
2391
Je bestuift de vingerfamilie-video
08:10
with some live-actionLive-action superherosuperheld stuffspul,
174
478782
2088
met wat superheldenactie,
08:12
you addtoevoegen in some weirdvreemd,
trollishtrollish in-jokesin-Jokes or something,
175
480894
3256
doe er nog wat rare,
trolse grappen of zoiets bij,
08:16
and suddenlyplotseling, you come
to a very weirdvreemd placeplaats indeedinderdaad.
176
484174
3366
en plotseling kom je
op een zeer rare plek terecht.
08:19
The stuffspul that tendsneigt to upsetboos parentsouders
177
487564
2113
Bij dingen die ouders
nogal van streek maken,
08:21
is the stuffspul that has kindsoort of violentgewelddadig
or sexualseksueel contentinhoud, right?
178
489701
3331
dingen met een gewelddadige
of seksuele inhoud.
08:25
Children'sKinder cartoonscartoons gettingkrijgen assaultedaangerand,
179
493056
2822
Kindercartoons met aangevallen worden,
08:27
gettingkrijgen killedgedood,
180
495902
2018
gedood worden,
08:29
weirdvreemd pranksPranks that actuallywerkelijk
genuinelyecht terrifydoodsangst childrenkinderen.
181
497944
3343
met rare, echt angstaanjagende
dingen voor kinderen.
08:33
What you have is softwaresoftware pullingtrekken in
all of these differentverschillend influencesinvloeden
182
501311
3675
Software die via al
deze verschillende invloeden
08:37
to automaticallyautomatisch generatevoortbrengen
kids'Kids worstslechtst nightmaresnachtmerries.
183
505010
2961
automatisch de ergste nachtmerries
voor kinderen genereert.
08:39
And this stuffspul really, really
does affectaantasten smallklein childrenkinderen.
184
507995
2701
En dit spul heeft echt,
echt invloed op kleine kinderen.
08:42
ParentsOuders reportrapport theirhun childrenkinderen
beingwezen traumatizedgetraumatiseerd,
185
510720
2866
Ouders zeggen dat hun kinderen
getraumatiseerd zijn,
08:45
becomingworden afraidbang of the darkdonker,
186
513610
1392
altijd bang in het donker,
altijd bang van hun striphelden.
08:47
becomingworden afraidbang of theirhun favoritefavoriete
cartoonspotprent characterstekens.
187
515026
3050
08:50
If you take one thing away from this,
it's that if you have smallklein childrenkinderen,
188
518524
3611
Het belangrijkste om te onthouden is
dat als je kleine kinderen hebt,
08:54
keep them the hellhel away from YouTubeYouTube.
189
522159
1996
je ze absoluut moet weghouden van YouTube.
08:56
(ApplauseApplaus)
190
524743
3949
(Applaus)
09:02
But the other thing, the thing
that really getskrijgt to me about this,
191
530504
3096
Wat mij pas echt verontrust,
is dat ik betwijfel of we
begrijpen hoe we zover zijn geraakt.
09:05
is that I'm not sure we even really
understandbegrijpen how we got to this pointpunt.
192
533624
4629
We hebben al deze beïnvloeding,
al deze dingen dooreen gemixt
09:10
We'veWe hebben takeningenomen all of this influenceinvloed,
all of these things,
193
538951
2931
09:13
and mungedmunged them togethersamen in a way
that no one really intendedvoorgenomen.
194
541906
2953
op een manier die niemand echt bedoelde.
En toch is dit ook de manier
waarop we de hele wereld opbouwen.
09:16
And yetnog, this is alsoook the way
that we're buildinggebouw the entiregeheel worldwereld-.
195
544883
3156
We nemen al deze gegevens,
09:20
We're takingnemen all of this datagegevens,
196
548063
1773
09:21
a lot of it badslecht datagegevens,
197
549860
1447
een hoop slechte data,
09:23
a lot of historicalhistorisch datagegevens
fullvol of prejudiceafbreuk te doen,
198
551331
3029
een hoop historische gegevens
vol vooroordelen
09:26
fullvol of all of our worstslechtst
impulsesimpulsen of historygeschiedenis,
199
554384
2837
en onze slechtste neigingen
uit ons verleden,
09:29
and we're buildinggebouw that
into hugereusachtig datagegevens setssets
200
557245
2049
en steken die in grote datasets
09:31
and then we're automatingautomatiseren it.
201
559318
1423
die we dan automatiseren.
09:32
And we're mungingmunging it togethersamen
into things like creditcredit reportsrapporten,
202
560765
3502
We vermalen dat tot dingen
als kredietrapporten,
09:36
into insuranceverzekering premiumspremies,
203
564291
1634
verzekeringspremies,
09:37
into things like predictivevoorspellende
policingpolitie systemssystemen,
204
565949
2693
voorspellende controlesystemen,
09:40
into sentencingveroordeling guidelinesrichtlijnen.
205
568666
1762
veroordelingsrichtlijnen.
09:42
This is the way we're actuallywerkelijk
constructingconstrueren the worldwereld- todayvandaag
206
570452
2821
Zo construeren we in feite
de wereld van vandaag
09:45
out of this datagegevens.
207
573297
1151
uit deze gegevens.
09:46
And I don't know what's worseerger,
208
574472
1698
En ik weet niet wat erger is,
09:48
that we builtgebouwd a systemsysteem
that seemslijkt to be entirelygeheel optimizedgeoptimaliseerde
209
576194
3228
dat we een systeem bouwden
dat volledig geoptimaliseerd lijkt
09:51
for the absoluteabsoluut worstslechtst aspectsaspecten
of humanmenselijk behaviorgedrag,
210
579446
2808
voor de allerslechtste aspecten
van het menselijk gedrag,
09:54
or that we seemlijken
to have donegedaan it by accidentongeval,
211
582278
2425
of dat we het misschien per ongeluk deden,
09:56
withoutzonder even realizinghet realiseren van
that we were doing it,
212
584727
2207
zonder zelfs maar
te beseffen dat we het deden,
09:58
because we didn't really understandbegrijpen
the systemssystemen that we were buildinggebouw,
213
586958
3382
omdat we de systemen
die we bouwden niet echt begrepen
10:02
and we didn't really understandbegrijpen
how to do anything differentlyanders with it.
214
590364
3683
en we niet echt doorhadden
hoe er iets anders mee te doen.
10:06
There's a couplepaar of things I think
that really seemlijken to be drivinghet rijden this
215
594769
3365
Er zijn een paar dingen waarvan ik denk
dat ze dit lijken te sturen,
10:10
mostmeest fullygeheel on YouTubeYouTube,
216
598158
1189
vooral op YouTube,
10:11
and the first of those is advertisingreclame,
217
599371
1827
en het eerste is de reclame,
10:13
whichwelke is the monetizationMonetisatie of attentionaandacht
218
601222
2837
dat is het te gelde maken van de aandacht
10:16
withoutzonder any realecht other variablesvariabelen at work,
219
604083
3136
zonder enige echte andere
variabelen aan het werk,
10:19
any carezorg for the people who are
actuallywerkelijk developingontwikkelen this contentinhoud,
220
607243
3885
geen zorg voor de mensen
die deze inhoud ontwikkelen,
10:23
the centralizationcentralisatie of the powermacht,
the separationscheiding of those things.
221
611152
3636
de centralisatie van de macht,
de scheiding van die dingen.
10:26
And I think howeverechter you feel
about the use of advertisingreclame
222
614812
3144
Ik denk dat wat je ook denkt
over het gebruik van de reclame
om iets te ondersteunen,
10:29
to kindsoort of supportondersteuning stuffspul,
223
617980
1238
dat de aanblik van volwassen mannen
die in luiers ronddollen in het zand
10:31
the sightzicht of growngegroeid menmannen in diapersluiers
rollingrollend around in the sandzand
224
619242
3067
10:34
in the hopehoop that an algorithmalgoritme
that they don't really understandbegrijpen
225
622333
2983
in de hoop dat een algoritme
dat ze niet echt begrijpen
10:37
will give them moneygeld for it
226
625340
1315
hen er geld voor zal geven,
10:38
suggestssuggereert that this
probablywaarschijnlijk isn't the thing
227
626679
2037
suggereert dat dit niet de beste basis is
voor onze samenleving en cultuur
10:40
that we should be basingbaseren
our societymaatschappij and culturecultuur uponop,
228
628740
2563
en van de manier waarop we ze financieren.
10:43
and the way in whichwelke
we should be fundingfinanciering it.
229
631327
2160
En wat deze automatisering
vooral ook aanstuurt,
10:45
And the other thing that's kindsoort of
the majorgroot driverbestuurder of this is automationautomatisering,
230
633511
3519
10:49
whichwelke is the deploymentimplementatie
of all of this technologytechnologie
231
637054
2329
is de toepassing van al
deze technologie zodra ze er is,
10:51
as soonspoedig as it arrivesarriveert,
withoutzonder any kindsoort of oversighttoezicht,
232
639407
2521
zonder enige vorm van toezicht,
10:53
and then onceeen keer it's out there,
233
641952
1412
en eens ze er is,
we onze handen
in de lucht steken en roepen:
10:55
kindsoort of throwinghet werpen up our handshanden and going,
"Hey, it's not us, it's the technologytechnologie."
234
643388
3843
“Hè, wij niet, het is de technologie.
10:59
Like, "We're not involvedbetrokken in it."
235
647255
1642
Wij zijn er niet bij betrokken.”
11:00
That's not really good enoughgenoeg,
236
648921
1767
Dat is echt niet goed genoeg,
11:02
because this stuffspul isn't
just algorithmicallyalgoritmisch governedgeregeerd,
237
650712
2710
omdat dit spul niet alleen
algoritmisch wordt bestuurd,
11:05
it's alsoook algorithmicallyalgoritmisch policedgecontroleerd.
238
653446
2498
maar ook algoritmisch gecontroleerd.
11:07
When YouTubeYouTube first startedbegonnen
to paybetalen attentionaandacht to this,
239
655968
2848
Toen YouTube hier
aandacht aan begon te geven,
11:10
the first thing they said
they'dze zouden do about it
240
658840
2087
zeiden ze dat ze betere algoritmen
voor machinaal leren zouden inzetten
11:12
was that they'dze zouden deployimplementeren
better machinemachine learningaan het leren algorithmsalgoritmen
241
660951
2695
om de inhoud te matigen.
11:15
to moderatematig the contentinhoud.
242
663670
1329
11:17
Well, machinemachine learningaan het leren,
as any expertdeskundige in it will tell you,
243
665023
3485
Machineleren ...
Elke deskundige kan je vertellen
dat dit eigenlijk software is
11:20
is basicallyeigenlijk what we'vewij hebben startedbegonnen to call
244
668532
1896
11:22
softwaresoftware that we don't really
understandbegrijpen how it workswerken.
245
670452
2588
waarvan we niet echt
begrijpen hoe hij werkt.
11:25
And I think we have
enoughgenoeg of that alreadynu al.
246
673064
3983
Daar hebben we al genoeg van,
zou ik denken.
11:29
We shouldn'tmoet niet be leavingverlaten
this stuffspul up to AIAI to decidebesluiten
247
677071
3166
We moeten niet aan KI overlaten
om te beslissen
wat wel of niet geschikt is,
11:32
what's appropriategeschikt or not,
248
680261
1251
omdat we weten wat er dan gebeurt.
11:33
because we know what happensgebeurt.
249
681536
1436
11:34
It'llItll startbegin censoringcensureren other things.
250
682996
1688
Het zal andere dingen gaan censureren.
11:36
It'llItll startbegin censoringcensureren queerQueer contentinhoud.
251
684708
1783
Bijvoorbeeld items over homo’s.
11:38
It'llItll startbegin censoringcensureren
legitimaterechtmatig publicopenbaar speechtoespraak.
252
686515
2237
Of het vrije woord.
11:40
What's allowedtoegestaan in these discoursesDiscourses,
253
688776
1925
Wat hier mag,
11:42
it shouldn'tmoet niet be something
that's left up to unaccountableonverklaarbare systemssystemen.
254
690725
3097
moet je niet overlaten
aan onverantwoordelijke systemen.
11:45
It's partdeel of a discussiondiscussie
all of us should be havingmet.
255
693846
2947
Aan deze discussie zouden we
allemaal moeten deelnemen.
11:48
But I'd leavehet verlof a reminderherinnering
256
696817
1308
Maar ik zou er op willen wijzen
11:50
that the alternativealternatief isn't
very pleasantaangenaam, eithereen van beide.
257
698149
2753
dat het alternatief ook niet erg leuk is.
11:52
YouTubeYouTube alsoook announcedaangekondigd recentlykort geleden
258
700926
1535
YouTube kondigde onlangs ook aan
11:54
that they're going to releasevrijlating
a versionversie of theirhun kids'Kids appapp
259
702485
2767
dat er een versie
van hun kinderapp uitkomt
11:57
that would be entirelygeheel
moderatedgemodereerd by humansmensen.
260
705276
2407
die volledig door mensen
zou worden gemodereerd.
12:00
FacebookFacebook -- ZuckerbergZuckerberg said
much the samedezelfde thing at CongressCongres,
261
708134
3618
Facebook –- Zuckerberg zei ongeveer
hetzelfde in het Congres
12:03
when pressedingedrukt about how they
were going to moderatematig theirhun stuffspul.
262
711776
2987
toen ze hem vroegen over hoe ze
hun zaken zouden gaan matigen.
12:06
He said they'dze zouden have humansmensen doing it.
263
714787
1747
Hij zei dat mensen het zouden gaan doen.
12:08
And what that really meansmiddelen is,
264
716558
1459
Dat betekent in feite
12:10
insteadin plaats daarvan of havingmet toddlerspeuters beingwezen
the first personpersoon to see this stuffspul,
265
718041
3223
dat niet peuters dit
als eersten zouden zien,
maar wel onderbetaalde, losse
werknemers met een contract,
12:13
you're going to have underpaidonderbetaald,
precariousprecaire contractcontract workersarbeiders
266
721288
2788
zonder juiste mentale ondersteuning
12:16
withoutzonder propergoede mentalgeestelijk healthGezondheid supportondersteuning
267
724100
1726
en evengoed het slachtoffer ervan.
12:17
beingwezen damagedbeschadigde by it as well.
268
725850
1376
12:19
(LaughterGelach)
269
727250
1096
(Gelach)
12:20
And I think we can all do
quiteheel a lot better than that.
270
728370
2601
Ik denk dat we dat allemaal
veel beter kunnen doen.
12:22
(ApplauseApplaus)
271
730995
2499
(Applaus)
12:26
The thought, I think, that bringsbrengt those
two things togethersamen, really, for me,
272
734068
4613
Wat volgens mij die twee dingen
echt samenbrengt,
12:30
is agencyagentschap.
273
738705
1420
is ‘agency’.
12:32
It's like, how much do we really
understandbegrijpen -- by agencyagentschap, I mean:
274
740149
3157
Het gaat om hoeveel we echt begrijpen.
Met agency bedoel ik:
12:35
how we know how to acthandelen
in our owneigen bestbeste interestsbelangen.
275
743330
4390
hoe weten we hoe te handelen
in ons eigen belang.
12:39
WhichDie -- it's almostbijna impossibleonmogelijk to do
276
747744
1787
Wat bijna onmogelijk is om te doen
12:41
in these systemssystemen that we don't
really fullygeheel understandbegrijpen.
277
749555
3485
met deze systemen die we
niet ten volle begrijpen.
12:45
InequalityOngelijkheid of powermacht
always leadsleads to violencegeweld.
278
753064
3071
Machtsongelijkheid
leidt altijd tot geweld.
En we kunnen zien dat in deze systemen
12:48
And we can see insidebinnen these systemssystemen
279
756159
1685
12:49
that inequalityongelijkheid of understandingbegrip
does the samedezelfde thing.
280
757868
2611
ongelijkheid van begrip hetzelfde doet.
12:52
If there's one thing that we can do
to startbegin to improveverbeteren these systemssystemen,
281
760503
3779
Dat kunnen we al doen
om deze systemen te verbeteren:
12:56
it's to make them more legibleleesbaar
to the people who use them,
282
764306
2718
ze begrijpelijker maken
voor de gebruikers,
12:59
so that all of us have
a commongemeenschappelijk understandingbegrip
283
767048
2196
zodat we allemaal weten
wat hier werkelijk gaande is.
13:01
of what's actuallywerkelijk going on here.
284
769268
1851
13:03
The thing, thoughhoewel, I think
mostmeest about these systemssystemen
285
771970
2968
Het probleem met de meeste
van deze systemen is
13:06
is that this isn't, as I hopehoop
I've explaineduitgelegd, really about YouTubeYouTube.
286
774962
3857
dat dit niet alleen geldt, zoals ik
hopelijk heb uitgelegd, voor YouTube.
13:10
It's about everything.
287
778843
1312
Het gaat over alles.
13:12
These issueskwesties of accountabilityverantwoording and agencyagentschap,
288
780179
2444
Deze kwesties van
verantwoording en agency,
13:14
of opacitydekking and complexityingewikkeldheid,
289
782647
2225
van ondoorzichtigheid en complexiteit,
13:16
of the violencegeweld and exploitationexploitatie
that inherentlyinherent resultsuitslagen
290
784896
3177
van het geweld en uitbuiting
die inherent voortkomen
uit de concentratie van macht
in weinig handen --
13:20
from the concentrationconcentratie
of powermacht in a fewweinig handshanden --
291
788097
2794
13:22
these are much, much largergrotere issueskwesties.
292
790915
2579
dat zijn veel, veel grotere problemen.
13:26
And they're issueskwesties not just of YouTubeYouTube
and not just of technologytechnologie in generalalgemeen,
293
794395
3687
Niet alleen problemen van YouTube
of van technologie in het algemeen,
13:30
and they're not even newnieuwe.
294
798106
1265
ze zijn zelfs niet nieuw.
13:31
They'veZe hebben been with us for agesleeftijden.
295
799395
1461
We hebben ze al eeuwen.
13:32
But we finallyTenslotte builtgebouwd this systemsysteem,
this globalglobaal systemsysteem, the internetinternet,
296
800880
4390
Maar tenslotte bouwden wij dit systeem,
dit mondiale systeem, het internet,
dat ons de problemen laat zien
op deze bijzondere manier,
13:37
that's actuallywerkelijk showingtonen them to us
in this extraordinarybuitengewoon way,
297
805294
3019
waardoor we ze niet kunnen ontkennen.
13:40
makingmaking them undeniableonmiskenbaar.
298
808337
1547
13:41
TechnologyTechnologie has this extraordinarybuitengewoon capacitycapaciteit
299
809908
2820
Technologie heeft
de buitengewone capaciteit
13:44
to bothbeide instantiateinstantiëren and continuevoortzetten
300
812752
3973
om al onze meest bijzondere,
vaak verborgen verlangens en vooroordelen
13:48
all of our mostmeest extraordinarybuitengewoon,
oftenvaak hiddenverborgen desiresverlangens and biasesbiases
301
816749
4248
te presenteren en te continueren
13:53
and encodingcodering them into the worldwereld-,
302
821021
1866
en ze in de wereld te coderen,
13:54
but it alsoook writesschrijft them down
so that we can see them,
303
822911
3474
maar ze ook op te schrijven,
zodat we ze kunnen zien,
13:58
so that we can't pretenddoen alsof
they don't existbestaan anymoremeer.
304
826409
3330
zodat we niet meer kunnen doen
alsof ​​ze niet bestaan.
14:01
We need to stop thinkinghet denken about technologytechnologie
as a solutionoplossing to all of our problemsproblemen,
305
829763
4319
We moeten stoppen
met denken over technologie
als een oplossing voor al onze problemen,
14:06
but think of it as a guidegids
to what those problemsproblemen actuallywerkelijk are,
306
834106
3757
maar ze zien als een gids
voor wat die problemen werkelijk zijn,
14:09
so we can startbegin thinkinghet denken
about them properlynaar behoren
307
837887
2144
zodat we er op de juiste manier
aan gaan denken
14:12
and startbegin to addressadres them.
308
840055
1766
en ze beginnen aan te pakken.
14:13
Thank you very much.
309
841845
1335
Veel dank.
14:15
(ApplauseApplaus)
310
843204
5192
(Applaus)
14:21
Thank you.
311
849733
1188
Dank je.
14:22
(ApplauseApplaus)
312
850945
2869
(Applaus)
14:28
HelenHelen WaltersWalters: JamesJames, thank you
for comingkomt eraan and givinggeven us that talk.
313
856839
3178
Helen Walters: James, ik dank je
voor je komst en je talk.
14:32
So it's interestinginteressant:
314
860041
1189
Dit is interessant:
14:33
when you think about the filmsfilms where
the roboticrobot overlordsopperheren take over,
315
861254
3495
als je denkt aan de films
waar robotheersers het overnemen,
14:36
it's all a bitbeetje more glamorousbetoverend
than what you're describingbeschrijven.
316
864773
3279
is het allemaal een beetje blitser
dan wat jij beschrijft.
14:40
But I wonderwonder -- in those filmsfilms,
you have the resistanceweerstand mountingmontage.
317
868076
3749
Maar ik vraag me af --
in die films zie je de weerstand toenemen.
14:43
Is there a resistanceweerstand mountingmontage
towardsnaar this stuffspul?
318
871849
3216
Neemt de weerstand tegen dit spul ook toe?
14:47
Do you see any positivepositief signstekenen,
greengroen shootsscheuten of resistanceweerstand?
319
875089
3796
Zie je geen positieve signalen,
tekenen van verzet?
14:52
JamesJames BridleHoofdstel: I don't know
about directdirect resistanceweerstand,
320
880507
2416
James Bridle: Ik zie
geen directe weerstand,
14:54
because I think this stuffspul
is supersuper long-termlangetermijn.
321
882947
2264
ik denk dat dit
over superlange termijn werkt.
14:57
I think it's bakedgebakken into culturecultuur
in really deepdiep waysmanieren.
322
885235
2510
Ik denk dat het diep
ingebakken zit in de cultuur.
14:59
A friendvriend of minede mijne,
EleanorEleanor SaittaSaitta, always sayszegt
323
887769
2132
Een vriend van mij,
Eleanor Saitta, zegt altijd
15:01
that any technologicaltechnologisch problemsproblemen
of sufficientvoldoende scaleschaal and scopestrekking
324
889935
3609
dat alle technologische problemen
van voldoende omvang en reikwijdte
15:05
are politicalpolitiek problemsproblemen first of all.
325
893568
2267
in de eerste plaats
politieke problemen zijn.
15:07
So all of these things we're workingwerkend
to addressadres withinbinnen this
326
895859
2785
Dus gaan al die dingen
waaraan we willen werken
niet worden aangepakt
door alleen maar betere technologie,
15:10
are not going to be addressedaangesproken
just by buildinggebouw the technologytechnologie better,
327
898668
3274
maar door de samenleving te veranderen
waarin deze technologieën ontstonden.
15:13
but actuallywerkelijk by changingveranderen the societymaatschappij
that's producingproducerende these technologiestechnologieën.
328
901966
3464
Nee, ik denk dat we nog
een heel lange weg hebben te gaan.
15:17
So no, right now, I think we'vewij hebben got
a hellhel of a long way to go.
329
905454
3027
Maar ik zei al dat door ze te ontleden,
15:20
But as I said, I think by unpackinguitpakken them,
330
908505
1986
door ze uit te leggen,
er heel eerlijk over te praten,
15:22
by explaininguitleggen them, by talkingpratend
about them supersuper honestlyeerlijk,
331
910515
2697
15:25
we can actuallywerkelijk startbegin
to at leastminst beginbeginnen that processwerkwijze.
332
913236
2505
we tenminste met dat proces
kunnen beginnen.
15:27
HWHW: And so when you talk about
legibilityleesbaarheid and digitaldigitaal literacygeletterdheid,
333
915765
3562
HW: Wanneer je het hebt
over begrip en digitale geletterdheid
vind ik het moeilijk voor te stellen
15:31
I find it difficultmoeilijk to imaginestel je voor
334
919351
1591
15:32
that we need to placeplaats the burdenlast
of digitaldigitaal literacygeletterdheid on usersgebruikers themselveszich.
335
920966
3680
dat we de last van digitale geletterdheid
bij de gebruikers zelf moeten leggen.
15:36
But whosewaarvan responsibilityverantwoordelijkheid
is educationonderwijs in this newnieuwe worldwereld-?
336
924670
4562
Wie wordt verantwoordelijk
voor opvoeding in deze nieuwe wereld?
15:41
JBJB: Again, I think this responsibilityverantwoordelijkheid
is kindsoort of up to all of us,
337
929256
3612
JB: Het gaat ieders
verantwoordelijkheid worden,
dat alles wat we doen, alles wat
we bouwen, alles wat we maken,
15:44
that everything we do,
everything we buildbouwen, everything we make,
338
932892
2984
moet worden gemaakt in samenspraak
15:47
needsbehoefte aan to be madegemaakt
in a consensualconsensus discussiondiscussie
339
935900
3692
15:51
with everyoneiedereen who'swie is avoidingvermijden it;
340
939616
1940
met iedereen die ze uit de weg gaat.
15:53
that we're not buildinggebouw systemssystemen
intendedvoorgenomen to tricktruc and surpriseverrassing people
341
941580
4341
Dat we geen systemen bouwen
bedoeld om mensen te verleiden
15:57
into doing the right thing,
342
945945
2300
om het juiste te doen,
16:00
but that they're actuallywerkelijk involvedbetrokken
in everyelk stepstap in educatingopleiden them,
343
948269
3236
maar ze daadwerkelijk betrekken
bij elke stap van hun opvoeding,
16:03
because eachelk of these systemssystemen
is educationalleerzaam.
344
951529
2278
omdat al deze systemen educatief zijn.
16:05
That's what I'm hopefulhoopvol about,
about even this really grimgrimmig stuffspul,
345
953831
3102
Hoe grimmig het ook is, ik hoop
dat als je het aanpakt
en er vanuit de juiste hoek naar kijkt,
16:08
that if you can take it
and look at it properlynaar behoren,
346
956957
2262
16:11
it's actuallywerkelijk in itselfzelf
a piecestuk of educationonderwijs
347
959243
2089
het op zichzelf al een stuk opvoeding is
16:13
that allowstoestaat you to startbegin seeingziend
how complexcomplex systemssystemen come togethersamen and work
348
961356
3762
dat je toelaat om te zien hoe complexe
systemen samenkomen en werken
16:17
and maybe be ablein staat to applyvan toepassing zijn
that knowledgekennis elsewhereelders in the worldwereld-.
349
965142
3501
en misschien deze kennis
elders in de wereld kunnen toepassen.
16:20
HWHW: JamesJames, it's suchzodanig
an importantbelangrijk discussiondiscussie,
350
968667
2115
HW: James, dit is
zo'n belangrijke discussie
en veel mensen hier staan ervoor open,
16:22
and I know manyveel people here
are really openOpen and preparedbereid to have it,
351
970806
3227
dus bedankt om
onze voormiddag te beginnen.
16:26
so thanksbedankt for startingbeginnend off our morningochtend-.
352
974057
1859
JB: Heel erg bedankt.
16:27
JBJB: ThanksBedankt very much. CheersCheers.
353
975940
1400
16:29
(ApplauseApplaus)
354
977364
1651
(Applaus)
Translated by Rik Delaet
Reviewed by Christel Foncke

▲Back to top

ABOUT THE SPEAKER
James Bridle - Artist, writer
Working across technologies and disciplines, James Bridle examines technology, knowledge and the end of the future.

Why you should listen

James Bridle is an artist and writer working across technologies and disciplines. His artworks and installations have been exhibited in Europe, North and South America, Asia and Australia, and have been viewed by hundreds of thousands of visitors online. He has been commissioned by organizations including the Victoria & Albert Museum, the Barbican, Artangel, the Oslo Architecture Triennale and the Istanbul Design Biennial, and he has been honored by Ars Electronica, the Japan Media Arts Festival and the Design Museum, London. His writing on literature, culture and networks has appeared in magazines and newspapers including Frieze, Wired, Domus, Cabinet, The Atlantic, the New Statesman and many others, and he has written a regular column for The Observer.

New Dark Age, Bridle's book about technology, knowledge and the end of the future is forthcoming from Verso (UK & US) in 2018. He lectures regularly on radio, at conferences, universities and other events including SXSW, Lift, the Global Art Forum and Re:Publica. He has been a resident at Lighthouse, Brighton, the White Building, London and Eyebeam, New York, and an adjunct professor on the interactive telecommunications program at New York University.

More profile about the speaker
James Bridle | Speaker | TED.com