ABOUT THE SPEAKER
James Bridle - Artist, writer
Working across technologies and disciplines, James Bridle examines technology, knowledge and the end of the future.

Why you should listen

James Bridle is an artist and writer working across technologies and disciplines. His artworks and installations have been exhibited in Europe, North and South America, Asia and Australia, and have been viewed by hundreds of thousands of visitors online. He has been commissioned by organizations including the Victoria & Albert Museum, the Barbican, Artangel, the Oslo Architecture Triennale and the Istanbul Design Biennial, and he has been honored by Ars Electronica, the Japan Media Arts Festival and the Design Museum, London. His writing on literature, culture and networks has appeared in magazines and newspapers including Frieze, Wired, Domus, Cabinet, The Atlantic, the New Statesman and many others, and he has written a regular column for The Observer.

New Dark Age, Bridle's book about technology, knowledge and the end of the future is forthcoming from Verso (UK & US) in 2018. He lectures regularly on radio, at conferences, universities and other events including SXSW, Lift, the Global Art Forum and Re:Publica. He has been a resident at Lighthouse, Brighton, the White Building, London and Eyebeam, New York, and an adjunct professor on the interactive telecommunications program at New York University.

More profile about the speaker
James Bridle | Speaker | TED.com
TED2018

James Bridle: The nightmare videos of children's YouTube -- and what's wrong with the internet today

James Bridle: Coșmarul canalului YouTube pentru copii - și ce nu e în regulă cu internetul zilelor noastre

Filmed:
5,404,429 views

Scriitorul și artistul James Bridle dezvăluie o parte întunecată și stranie a internetului, unde oameni sau grupuri de oameni necunoscuți se joacă cu mintea copiilor, în schimbul spațiului de publicitate. Pornind de la cadoul din „ouăle cu surprize” și „Cântecul Familiei Degețel” și până la calupuri create algoritmic, care prezintă personaje de desene animate în situații violente, aceste filmulețe exploatează și îngrozesc mințile tinere - și ne spun câte ceva despre direcția în care o ia lumea noastră tot mai condusă de informații. „Trebuie să încetăm să mai credem că soluția la probleme este tehnologia și să o considerăm, mai degrabă, un ghid pentru ceea ce reprezintă ele, pentru a ne putea concentra asupra lor și pentru a începe să le rezolvăm,” este de părere Bridle.
- Artist, writer
Working across technologies and disciplines, James Bridle examines technology, knowledge and the end of the future. Full bio

Double-click the English transcript below to play the video.

00:12
I'm JamesJames.
0
777
1183
Eu sunt James.
00:13
I'm a writerscriitor and artistartist,
1
1984
1686
Sunt scriitor și artist
00:15
and I make work about technologytehnologie.
2
3694
2341
și domeniul meu este tehnologia.
00:18
I do things like drawa desena life-sizeviaţa-size outlinescontururi
of militarymilitar dronesdrone
3
6454
3911
Desenez schițe în mărime naturală
pentru drone militare
00:22
in cityoraș streetsstrăzi around the worldlume,
4
10389
1828
pe străzile orașelor de prin lume
00:24
so that people can startstart to think
and get theiral lor headsCapete around
5
12241
2950
pentru ca oamenii să se poată gândi
și să poată înțelege
00:27
these really quitedestul de hard-to-seegreu pentru a vedea
and hard-to-think-aboutgreu-la-cred-despre technologiestehnologii.
6
15215
3440
această tehnologie greu de văzut
și greu de imaginat.
00:31
I make things like neuralneural networksrețele
that predictprezice the resultsrezultate of electionsalegeri
7
19494
3836
Eu concep lucruri precum rețele neurale
care prezic rezultatele alegerilor,
00:35
basedbazat on weathervreme reportsrapoarte,
8
23354
1737
având la bază prognozele vremii,
00:37
because I'm intriguedintrigat about
9
25115
1314
pentru că sunt intrigat
00:38
what the actualreal possibilitiesposibilităţi
of these weirdciudat newnou technologiestehnologii are.
10
26453
3924
de posibilitățile propriu-zise
pe care le au aceste tehnologii bizare.
Acum un an mi-am făcut
o mașină care se conduce singură.
00:43
Last yearan, I builtconstruit
my ownpropriu self-drivingauto-conducere carmașină.
11
31405
2426
00:45
But because I don't
really trustîncredere technologytehnologie,
12
33855
2526
Însă, pentru că nu prea mă încred
în tehnologie,
00:48
I alsode asemenea designedproiectat a trapcapcana for it.
13
36405
1928
i-am creat și o capcană.
00:50
(LaughterRâs)
14
38777
1086
(Râsete)
00:51
And I do these things mostlyMai ales because
I find them completelycomplet fascinatingfascinant,
15
39887
4298
Și fac toate acestea în special
pentru că le consider absolut fascinante,
dar și pentru că eu cred
că atunci când vorbim despre tehnologie,
00:56
but alsode asemenea because I think
when we talk about technologytehnologie,
16
44209
2602
00:58
we're largelyîn mare măsură talkingvorbind about ourselvesnoi insine
17
46835
2619
vorbim, în mare măsură, despre noi înșine
01:01
and the way that we understanda intelege the worldlume.
18
49478
2299
și despre modul în care înțelegem lumea.
01:03
So here'saici e a storypoveste about technologytehnologie.
19
51801
2442
Așa că, iată o poveste despre tehnologie.
01:07
This is a "surprisesurprinde eggou" videovideo.
20
55520
2830
Acesta este un filmuleț
despre „ouă cu surprize”.
01:10
It's basicallype scurt a videovideo of someonecineva
openingdeschidere up loadsloturile of chocolateciocolată eggsouă
21
58374
3348
Este un filmuleț cu cineva care desface
o grămadă de ouă de ciocolată
01:13
and showingarătând the toysjucarii insideinterior to the viewertelespectator.
22
61746
2126
și arată jucăriile din interior.
01:16
That's it. That's all it does
for sevenȘapte long minutesminute.
23
64461
2649
Asta e tot. Numai asta face
timp de șapte minute lungi.
01:19
And I want you to noticeînștiințare
two things about this.
24
67428
3051
Și aș vrea să observați
două aspecte despre acest lucru.
01:22
First of all, this videovideo
has 30 millionmilion viewsvizualizari.
25
70503
4074
În primul rând, acest filmuleț
are 30 milioane de vizualizări.
01:26
(LaughterRâs)
26
74601
1275
(Râsete)
01:28
And the other thing is,
27
76376
1166
Și celălalt lucru:
01:29
it comesvine from a channelcanal
that has 6.3 millionmilion subscribersabonați,
28
77566
3869
el provine de pe un canal care are
6,3 milioane de abonați,
01:33
that has a totaltotal of eightopt billionmiliard viewsvizualizari,
29
81459
2680
care are opt miliarde de vizualizări,
01:36
and it's all just more videosVideoclipuri like this --
30
84163
3106
și sunt doar alte filmulețe ca acesta -
01:40
30 millionmilion people watchingvizionarea a guy
openingdeschidere up these eggsouă.
31
88256
3908
30 de milioane de oameni urmărind un om
care desface aceste ouă.
01:44
It soundssunete prettyfrumos weirdciudat, but if you searchcăutare
for "surprisesurprinde eggsouă" on YouTubeYouTube,
32
92188
4481
Sună destul de ciudat, dar dacă am căuta
„ouă cu surprize” pe YouTube,
01:48
it'llO să tell you there's
10 millionmilion of these videosVideoclipuri,
33
96693
3523
vom vedea că sunt 10 milioane
de astfel de filmulețe,
01:52
and I think that's an undercountundercount.
34
100240
1657
și cred că asta e o vagă estimare.
01:53
I think there's way, way more of these.
35
101921
1897
Cred că sunt mult, mult mai multe.
01:55
If you keep searchingin cautarea, they're endlessfără sfârşit.
36
103842
2242
Dacă vom continua să căutăm,
sunt infinite.
01:58
There's millionsmilioane and millionsmilioane
of these videosVideoclipuri
37
106108
2159
Sunt milioane și milioane
de astfel de filme
02:00
in increasinglytot mai mult baroquestil baroc combinationscombinaţii
of brandsbranduri and materialsmateriale,
38
108291
3454
în nenumărate combinații sofisticate
de firme și materiale,
02:03
and there's more and more of them
beingfiind uploadedîncărcat everyfiecare singlesingur day.
39
111769
3846
și tot mai multe sunt încărcate
în fiecare zi.
02:07
Like, this is a strangeciudat worldlume. Right?
40
115639
3511
Chiar că e o lume ciudată. Nu-i așa?
02:11
But the thing is, it's not adultsadulți
who are watchingvizionarea these videosVideoclipuri.
41
119174
3383
Dar chestia e că nu adulții
vizionează aceste filmulețe.
02:14
It's kidscopii, smallmic childrencopii.
42
122581
2921
Ci puștii, copiii mici.
02:17
These videosVideoclipuri are
like cracksparge for little kidscopii.
43
125526
2154
Aceste filmulețe sunt
ca un drog pentru copii.
02:19
There's something about the repetitionrepetiţie,
44
127704
2075
S-ar părea că prezentarea repetată,
02:21
the constantconstant little
dopaminedopamina hitlovit of the revealdezvălui,
45
129803
2468
mica doză de dopamină
dată de descoperirea surprizei
02:24
that completelycomplet hookscârlige them in.
46
132295
1866
e ceea ce îi atrage foarte tare.
02:26
And little kidscopii watch these videosVideoclipuri
over and over and over again,
47
134185
4809
Și copiii urmăresc aceste filmulețe
iarăși și iarăși,
02:31
and they do it for hoursore
and hoursore and hoursore.
48
139018
2327
și o fac ore întregi.
02:33
And if you try and take
the screenecran away from them,
49
141369
2356
Și dacă încerci să le iei ecranul,
02:35
they'llei vor screamţipăt and screamţipăt and screamţipăt.
50
143749
1782
vor începe să țipe mult și bine.
02:37
If you don't believe me --
51
145555
1262
Dacă nu mă credeți -
02:38
and I've alreadydeja seenvăzut people
in the audiencepublic noddingdînd din cap --
52
146841
2607
și deja am și văzut persoane din public
dând din cap -
02:41
if you don't believe me, find someonecineva
with smallmic childrencopii and askcere them,
53
149472
3391
dacă nu mă credeți, căutați pe cineva
care are copii, întrebați-i
și vă vor spune ei despre filmele
cu ouă cu surpriză.
02:44
and they'llei vor know about
the surprisesurprinde eggou videosVideoclipuri.
54
152887
2340
02:47
So this is where we startstart.
55
155251
2070
Așadar, de aici începem.
02:49
It's 2018, and someonecineva, or lots of people,
56
157345
3642
E anul 2018 și cineva sau chiar
mai mulți oameni
02:53
are usingutilizând the samela fel mechanismmecanism that, like,
FacebookFacebook and InstagramInstagram are usingutilizând
57
161011
3941
folosesc același mecanism
care, la fel ca Facebook și Instagram,
02:56
to get you to keep checkingcontrol that appaplicaţia,
58
164976
1989
ne fac să ne tot verificăm aplicația,
02:58
and they're usingutilizând it on YouTubeYouTube
to hackhack the brainscreier of very smallmic childrencopii
59
166989
3985
și folosesc asta și pe YouTube
pentru a „subjuga” creierul copiilor mici
03:02
in returnîntoarcere for advertisingreclamă revenuevenituri.
60
170998
1958
în schimbul veniturilor din publicitate.
03:06
At leastcel mai puţin, I hopesperanţă
that's what they're doing.
61
174346
2001
Cel puțin, sper că asta fac.
03:08
I hopesperanţă that's what they're doing it for,
62
176371
1955
Sper că pentru asta o fac,
03:10
because there's easierMai uşor waysmoduri
of makingluare adanunț revenuevenituri on YouTubeYouTube.
63
178350
5308
pentru că sunt căi mai simple de a obține
vebituri din publicitate pe YouTube.
03:15
You can just make stuffchestie up or stealfura stuffchestie.
64
183682
2332
Poți să inventezi ceva sau să furi ceva.
03:18
So if you searchcăutare for really
popularpopular kids'Kids' cartoonsDesene animate
65
186038
2635
Așa că, atunci când cauți desene animate
foarte populare
03:20
like "PeppaPeppa PigPorc" or "PawLaba PatrolPatrulare,"
66
188697
1654
ca „Peppa Pig” sau „Paw Patrol”,
03:22
you'llveți find there's millionsmilioane and millionsmilioane
of these onlinepe net as well.
67
190375
3147
vei afla că sunt milioane
și milioane din acestea online.
03:25
Of coursecurs, mostcel mai of them aren'tnu sunt postedpostat
by the originaloriginal contentconţinut creatorscreatorii.
68
193546
3352
Desigur, cele mai multe nu sunt postate
de creatorii originali.
03:28
They come from loadsloturile and loadsloturile
of differentdiferit randomîntâmplător accountsconturi,
69
196922
2999
Ele vin din încărcări peste încărcări
din diferite conturi
03:31
and it's impossibleimposibil to know
who'scine postingpostare them
70
199945
2240
și este imposibil să afli cine le postează
03:34
or what theiral lor motivesmotivele mightar putea be.
71
202209
1822
sau care ar putea fi motivele lor.
03:36
Does that soundsunet kinddrăguț of familiarfamiliar?
72
204428
1930
Toate astea vă sună cumva cunoscut?
03:38
Because it's exactlyexact the samela fel mechanismmecanism
73
206382
1980
Pentru că e exact același mecanism
03:40
that's happeninglucru acrosspeste mostcel mai
of our digitaldigital servicesServicii,
74
208386
2600
folosit de multe
dintre serviciile noastre digitale
03:43
where it's impossibleimposibil to know
where this informationinformație is comingvenire from.
75
211010
3207
în care e imposibil să afli
de unde vine informația.
03:46
It's basicallype scurt fakefals newsștiri for kidscopii,
76
214241
1829
De fapt, e știre falsă pentru copii,
03:48
and we're trainingpregătire them from birthnaștere
77
216094
2161
iar noi îi pregătim încă de la naștere
03:50
to clickclic on the very first linklegătură
that comesvine alongde-a lungul,
78
218279
2506
să acceseze chiar primul link care apare,
03:52
regardlessfără deosebire of what the sourcesursă is.
79
220809
1953
indiferent de sursă.
03:54
That's doesn't seempărea like
a terriblyteribil good ideaidee.
80
222786
2603
Nu pare să fie o idee prea bună.
03:58
Here'sAici este anothero alta thing
that's really bigmare on kids'Kids' YouTubeYouTube.
81
226399
2710
Iată altceva care are mare succes
pe YouTube pentru copii.
04:01
This is calleddenumit the "FingerDeget FamilyFamilia SongCântec."
82
229133
1928
Se numește „Cântecul Familiei Degețel.”
04:03
I just heardauzit someonecineva groansuspina
in the audiencepublic.
83
231085
2018
Am auzit pe cineva oftând în public.
04:05
This is the "FingerDeget FamilyFamilia SongCântec."
84
233127
1624
Iată „Cântecul Familiei Degețel.”
04:06
This is the very first one I could find.
85
234775
1930
E chiar primul pe care l-am putut găsi.
04:08
It's from 2007, and it only has
200,000 viewsvizualizari,
86
236729
2829
E din 2007 și are
doar 200.000 de vizualizări,
04:11
whichcare is, like, nothing in this gamejoc.
87
239582
1976
ceea ce e foarte puțin în acest „joc”.
04:13
But it has this insanelyinsanely earwormyearwormy tuneton,
88
241582
2852
Dar are o melodie îngrozitor de pregnantă,
04:16
whichcare I'm not going to playa juca to you,
89
244458
1682
pe care n-am să v-o pun acum,
04:18
because it will searveşted itselfîn sine
into your braincreier
90
246164
2008
pentru că vi s-ar „lipi” de creier,
04:20
in the samela fel way that
it searedSeared itselfîn sine into mineA mea,
91
248196
2395
așa cum s-a întâmplat în cazul meu,
04:22
and I'm not going to do that to you.
92
250615
1770
și n-am de gând să vă fac așa ceva.
04:24
But like the surprisesurprinde eggsouă,
93
252409
1344
Dar, ca și ouăle cu surprize,
04:25
it's got insideinterior kids'Kids' headsCapete
94
253777
2164
melodia a intrat în capul copiilor
04:27
and addicteddependent them to it.
95
255965
1607
și i-a făcut dependenți de ea.
04:29
So withinîn a fewpuțini yearsani,
these fingerdeget familyfamilie videosVideoclipuri
96
257596
2531
În doar câțiva ani,
filmele cu familia Degețel
04:32
startstart appearingcare apare everywherepretutindeni,
97
260151
1303
au tot apărut peste tot,
în variante în diverse limbi,
04:33
and you get versionsversiuni
in differentdiferit languageslimbi
98
261478
2029
cu desene animate care folosesc mâncare
04:35
with popularpopular kids'Kids' cartoonsDesene animate usingutilizând foodalimente
99
263531
2121
04:37
or, franklysincer, usingutilizând whateverindiferent de kinddrăguț
of animationanimaţie elementselement
100
265676
2550
sau, sincer, orice fel de elemente
de animație
pe care le ai în preajma ta.
04:40
you seempărea to have lyingminciună around.
101
268250
2252
04:43
And onceo singura data again, there are millionsmilioane
and millionsmilioane and millionsmilioane of these videosVideoclipuri
102
271002
5197
Sunt milioane și milioane
de astfel de filmulețe
accesibile pe internet,
în tot felul de combinații ciudate.
04:48
availabledisponibil onlinepe net in all of these
kinddrăguț of insanenebun combinationscombinaţii.
103
276223
3435
04:51
And the more time
you startstart to spendpetrece with them,
104
279682
2228
Cu cât începi să petreci
mai mult timp cu ele,
cu atât ai senzația că te înnebunesc.
04:53
the craziernebun and craziernebun
you startstart to feel that you mightar putea be.
105
281934
3694
Ăsta e momentul în care am început
să mă ocup de asta,
04:57
And that's where I
kinddrăguț of launcheda lansat into this,
106
285652
3333
05:01
that feelingsentiment of deepadâncime strangenessciudățenie
and deepadâncime lacklipsă of understandingînţelegere
107
289009
3666
de acel sentiment bizar dat
de lipsa de înțelegere
05:04
of how this thing was constructedconstruite
that seemspare to be presenteda prezentat around me.
108
292699
4175
a felului în care era conceput
acel ceva prezent mereu în jurul meu.
05:08
Because it's impossibleimposibil to know
where these things are comingvenire from.
109
296898
3167
Căci e imposibil să știm
de unde vin aceste lucruri.
05:12
Like, who is makingluare them?
110
300089
1241
Cum ar fi, cine le face?
Unele par a fi concepute de echipe
de animatori profesioniști.
05:13
Some of them appearapărea to be madefăcut
of teamsechipe of professionalprofesional animatorsanimatori.
111
301354
3143
Altele sunt asamblate întâmplător
de vreun program software,
05:16
Some of them are just randomlyla întâmplare
assembledasamblate by softwaresoftware-ul.
112
304521
2882
05:19
Some of them are quitedestul de wholesome-lookingîn căutarea sănătoase
youngtineri kids'Kids' entertainersanimatori.
113
307427
4253
Unele sunt chiar niște superbi animatori
pentru copii.
Unele vin din partea unor oameni
05:23
And some of them are from people
114
311704
1552
05:25
who really clearlyclar
shouldn'tnu ar trebui be around childrencopii at all.
115
313280
3007
care nu ar trebui lăsați
în preajma copiilor.
(Râsete)
05:28
(LaughterRâs)
116
316311
1615
05:30
And onceo singura data again, this impossibilityimposibilitatea
of figuringimaginind out who'scine makingluare this stuffchestie --
117
318987
4640
Repet, această imposibilitate de a ști
cine creează aceste lucruri -
o fi un program de calculator
05:35
like, this is a botbot?
118
323651
1156
05:36
Is this a personpersoană? Is this a trollrevenire?
119
324831
2647
sau e o persoană? E un trol?
Ce înseamnă să nu mai putem face diferența
05:39
What does it mean
that we can't tell the differencediferență
120
327502
2382
05:41
betweenîntre these things anymoremai?
121
329908
1583
dintre aceste lucruri?
05:43
And again, doesn't that uncertaintyincertitudine
feel kinddrăguț of familiarfamiliar right now?
122
331515
4848
Mai mult, nu vi se pare că această
nesiguranța vă este familiară?
05:50
So the mainprincipal way people get viewsvizualizari
on theiral lor videosVideoclipuri --
123
338145
2580
În principal, oamenii
își asigură vizualizările —
reținem, vizualizările înseamnă bani —
05:52
and remembertine minte, viewsvizualizari mean moneybani --
124
340749
1707
05:54
is that they stuffchestie the titlestitluri
of these videosVideoclipuri with these popularpopular termstermeni.
125
342480
4742
folosind în titlurile filmulețelor
termeni foarte populari.
05:59
So you take, like, "surprisesurprinde eggsouă"
126
347246
1687
Luăm, de pildă, „ouăle cu surprize”
06:00
and then you addadăuga
"PawLaba PatrolPatrulare," "EasterPaste eggou,"
127
348957
2066
plus „Patrula Cățelușilor”, „Ouă de Paște”
06:03
or whateverindiferent de these things are,
128
351047
1393
sau orice altceva,
cuvinte din alte filmulețe populare,
aduse în titlu,
06:04
all of these wordscuvinte from other
popularpopular videosVideoclipuri into your titletitlu,
129
352464
2893
până obținem un soi de terci
lingvistic fără înțeles,
06:07
untilpana cand you endSfârşit up with this kinddrăguț of
meaninglessfără înţeles mashmust of languagelimba
130
355381
2968
ce nu mai are niciun sens pentru oameni.
06:10
that doesn't make sensesens to humansoameni at all.
131
358373
2498
06:12
Because of coursecurs it's only really
tinyminuscul kidscopii who are watchingvizionarea your videovideo,
132
360895
3546
Căci doar copiii mici se uită
la astfel de filmulețe
06:16
and what the helliad do they know?
133
364465
1827
și ce naiba știu ei?
06:18
Your realreal audiencepublic
for this stuffchestie is softwaresoftware-ul.
134
366316
3007
Publicul tău țintă e programul software.
06:21
It's the algorithmsalgoritmi.
135
369347
1156
Sunt algoritmii.
06:22
It's the softwaresoftware-ul that YouTubeYouTube usesutilizări
136
370527
1855
Programul de soft folosit de YouTube
06:24
to selectSelectați whichcare videosVideoclipuri
are like other videosVideoclipuri,
137
372406
2483
pentru a alege ce filmulețe se aseamănă,
pentru a le face populare,
pentru a le recomanda.
06:26
to make them popularpopular,
to make them recommendedrecomandat.
138
374913
2243
06:29
And that's why you endSfârşit up with this
kinddrăguț of completelycomplet meaninglessfără înţeles mashmust,
139
377180
3461
Așa ne alegem cu un amestec
total lipsit de sens
06:32
bothambii of titletitlu and of contentconţinut.
140
380665
2071
în titlu și în conținut.
Dar, să nu uităm,
06:35
But the thing is, you have to remembertine minte,
141
383792
1894
06:37
there really are still people withinîn
this algorithmicallyalgoritmic optimizedoptimizat systemsistem,
142
385710
4478
încă există oameni în acest sistem
optimizat algoritmic,
care sunt forțați să răspundă
06:42
people who are kinddrăguț
of increasinglytot mai mult forcedforţat to actact out
143
390212
2790
06:45
these increasinglytot mai mult bizarrebizar
combinationscombinaţii of wordscuvinte,
144
393026
3066
la aceste combinații bizare de cuvinte,
06:48
like a desperatedisperată improvisationimprovizaţie artistartist
respondingrăspunde to the combinedcombinate screamsţipetele
145
396116
5173
precum un artist de improvizație
reacționând în fața țipetelor simultane
ale milioane de copilași.
06:53
of a millionmilion toddlerscopii mici at onceo singura data.
146
401313
2203
Oameni adevărați sunt
captivi în aceste sisteme,
06:57
There are realreal people
trappedprins withinîn these systemssisteme,
147
405168
2468
un alt aspect deosebit de straniu
al culturii dirijate prin algoritmi,
06:59
and that's the other deeplyprofund strangeciudat thing
about this algorithmicallyalgoritmic drivencondus culturecultură,
148
407660
4055
căci, deși suntem oameni,
07:03
because even if you're humanuman,
149
411739
1381
ajungem să ne purtăm precum mașini
07:05
you have to endSfârşit up behavingcomportă like a machinemaşină
150
413144
2145
doar pentru a supraviețui.
07:07
just to survivesupravieţui.
151
415313
1800
07:09
And alsode asemenea, on the other sidelatură of the screenecran,
152
417137
2100
De cealaltă parte a ecranului,
încă îi avem pe copilașii
care vizionează captivați,
07:11
there still are these little kidscopii
watchingvizionarea this stuffchestie,
153
419261
2947
07:14
stuckblocat, theiral lor fulldeplin attentionAtenţie grabbedapucat
by these weirdciudat mechanismsmecanisme.
154
422232
4206
total absorbiți
de aceste mecanisme ciudate.
Majoritatea sunt prea mici
să intre pe pagina web.
07:18
And mostcel mai of these kidscopii are too smallmic
to even use a websitewebsite.
155
426768
2798
Doar lovesc ecranul cu mâinile lor mici.
07:21
They're just kinddrăguț of hammeringbatere
on the screenecran with theiral lor little handsmâini.
156
429590
3276
Și filmulețul repornește
07:24
And so there's autoplayredare automată,
157
432890
1217
și o ia mereu de la început
ca într-o buclă temporală,
07:26
where it just keepspăstrează playingjoc these videosVideoclipuri
over and over and over in a loopbuclă,
158
434131
3579
ore și ore, la nesfârșit.
07:29
endlesslynesfârșit for hoursore and hoursore at a time.
159
437734
2059
07:31
And there's so much weirdnessweirdness
in the systemsistem now
160
439817
2843
Și e atâta ciudățenie în sistem acum,
încât reluările ne duc
în niște locuri bizare.
07:34
that autoplayredare automată takes you
to some prettyfrumos strangeciudat placeslocuri.
161
442684
3009
07:37
This is how, withinîn a dozenduzină stepspași,
162
445717
2488
Astfel încât, cu doar câțiva pași,
07:40
you can go from a cutedrăguţ videovideo
of a countingsocoteală traintren
163
448229
3158
poți ajunge de la un filmuleț simpatic
cu un trenuleț care numără
07:43
to masturbatingse masturbeaza MickeyMickey MouseMouse-ul.
164
451411
2442
la un Mickey Mouse care se masturbează.
Da. Îmi pare rău pentru asta.
07:46
Yeah. I'm sorry about that.
165
454529
2288
07:48
This does get worsemai rau.
166
456841
1700
Și asta se înrăutățește.
07:50
This is what happensse întâmplă
167
458565
1282
Iată ce se întâmplă
când toate aceste cuvinte cheie diferite,
07:51
when all of these differentdiferit keywordscuvinte cheie,
168
459871
3086
07:54
all these differentdiferit piecesbucăți of attentionAtenţie,
169
462981
2461
toată atenția,
07:57
this desperatedisperată generationgeneraţie of contentconţinut,
170
465466
2807
toată generarea disperată de conținut,
08:00
all comesvine togetherîmpreună into a singlesingur placeloc.
171
468297
2582
ajung să fie puse împreună în același loc.
Acolo unde aceste cuvinte cheie bizare
dau rod.
08:03
This is where all those deeplyprofund weirdciudat
keywordscuvinte cheie come home to roostadăpost.
172
471871
4472
Combinând filmulețul cu familia Degețel
08:08
You cross-breedeco-rasa the fingerdeget familyfamilie videovideo
173
476367
2391
cu ceva acțiune cu super eroi,
08:10
with some live-actionlive-action superherosuper-erou stuffchestie,
174
478782
2088
și adăugând ceva chestii ciudate, ----------
triviale,
08:12
you addadăuga in some weirdciudat,
trollishtrollish in-jokesin-Jokes or something,
175
480894
3256
se ajunge într-o zonă cu adevărat
stranie.
08:16
and suddenlybrusc, you come
to a very weirdciudat placeloc indeedintr-adevar.
176
484174
3366
Ceea ce îi deranjează pe părinți
08:19
The stuffchestie that tendsa tinde to upsetderanjat parentspărinţi
177
487564
2113
08:21
is the stuffchestie that has kinddrăguț of violentviolent
or sexualsexual contentconţinut, right?
178
489701
3331
este un material cu conținut
violent sau sexual, nu-i așa?
08:25
Children'sCopii cartoonsDesene animate gettingobtinerea assaultedagresat,
179
493056
2822
Desene animate pentru copii,
cu violență,
sau cu omoruri,
08:27
gettingobtinerea killeducis,
180
495902
2018
farse bizare care, literalmente,
îi sperie pe copii.
08:29
weirdciudat pranksfarse that actuallyde fapt
genuinelycu adevărat terrifyîngrozi childrencopii.
181
497944
3343
E vorba de programe ce folosesc
toate astea
08:33
What you have is softwaresoftware-ul pullingtrăgând in
all of these differentdiferit influencesinfluențe
182
501311
3675
08:37
to automaticallyautomat generateGenera
kids'Kids' worstcel mai rău nightmarescoșmaruri.
183
505010
2961
pentru a le crea copiilor
cele mai urâte coșmaruri.
08:39
And this stuffchestie really, really
does affecta afecta smallmic childrencopii.
184
507995
2701
Și copiii mici sunt cu adevărat marcați.
08:42
ParentsPărinţii reportraport theiral lor childrencopii
beingfiind traumatizedtraumatizat,
185
510720
2866
Părinții se plâng
că le sunt traumatizați copiii,
că le e frică de întuneric,
08:45
becomingdevenire afraidsperiat of the darkîntuneric,
186
513610
1392
08:47
becomingdevenire afraidsperiat of theiral lor favoritefavorit
cartoondesen animat characterscaractere.
187
515026
3050
că se tem de personajele favorite
din desenele animate.
Dacă ar fi să rețineți ceva de aici,
în cazul în care aveți copii mici,
08:50
If you take one thing away from this,
it's that if you have smallmic childrencopii,
188
518524
3611
faceți bine și țineți-i departe
de YouTube.
08:54
keep them the helliad away from YouTubeYouTube.
189
522159
1996
08:56
(ApplauseAplauze)
190
524743
3949
(Aplauze)
Un alt lucru care mă îngrijorează,
referitor la această problemă,
09:02
But the other thing, the thing
that really getsdevine to me about this,
191
530504
3096
este că nu sunt sigur că noi înțelegem
cum s-a ajuns în acest punct.
09:05
is that I'm not sure we even really
understanda intelege how we got to this pointpunct.
192
533624
4629
09:10
We'veNe-am takenluate all of this influenceinfluență,
all of these things,
193
538951
2931
Am preluat toată această influență,
toate lucrurile astea,
09:13
and mungedmunged them togetherîmpreună in a way
that no one really intendeddestinate.
194
541906
2953
și le-am combinat într-o manieră
pe care n-a dorit-o nimeni.
Totuși, acesta este felul
în care ne construim întreaga lume.
09:16
And yetinca, this is alsode asemenea the way
that we're buildingclădire the entireîntreg worldlume.
195
544883
3156
Luăm toate informațiile,
09:20
We're takingluare all of this datadate,
196
548063
1773
09:21
a lot of it badrău datadate,
197
549860
1447
multe dintre ele proaste,
09:23
a lot of historicalistoric datadate
fulldeplin of prejudicea aduce atingere,
198
551331
3029
date istorice pline de prejudecăți
și de cele mai rele impulsuri ale istoriei
09:26
fulldeplin of all of our worstcel mai rău
impulsesimpulsuri of historyistorie,
199
554384
2837
09:29
and we're buildingclădire that
into hugeimens datadate setsseturi
200
557245
2049
și concepem astfel seturi imense de date
09:31
and then we're automatingautomatizarea it.
201
559318
1423
pe care le automatizăm.
09:32
And we're mungingmunging it togetherîmpreună
into things like creditcredit reportsrapoarte,
202
560765
3502
Și le concentrăm în rapoarte de credit,
asigurări premium,
09:36
into insuranceasigurare premiumsprimele,
203
564291
1634
sisteme de predicție în munca poliției,
09:37
into things like predictivecu funcþia de predicþie
policingpoliţie systemssisteme,
204
565949
2693
09:40
into sentencingcondamnarea guidelinesinstrucțiuni.
205
568666
1762
regulamente și directive.
Așa ne concepem lumea de azi,
09:42
This is the way we're actuallyde fapt
constructingconstruirea the worldlume todayastăzi
206
570452
2821
09:45
out of this datadate.
207
573297
1151
din astfel de date.
09:46
And I don't know what's worsemai rau,
208
574472
1698
Și nu știu ce e mai rău:
că am construit un sistem
care pare optimizat
09:48
that we builtconstruit a systemsistem
that seemspare to be entirelyîn întregime optimizedoptimizat
209
576194
3228
09:51
for the absoluteabsolut worstcel mai rău aspectsaspecte
of humanuman behaviorcomportament,
210
579446
2808
pentru aspectele negative
ale comportamentului uman
09:54
or that we seempărea
to have doneTerminat it by accidentaccident,
211
582278
2425
sau faptul că pare că am comis-o
din greșeală,
fără a ne da seama că am făcut-o
09:56
withoutfără even realizingrealizarea
that we were doing it,
212
584727
2207
09:58
because we didn't really understanda intelege
the systemssisteme that we were buildingclădire,
213
586958
3382
pentru că nu înțelegeam pe deplin
sistemul pe care îl cream,
pentru că nu înțelegeam pe deplin
cum să schimbăm ceva prin el.
10:02
and we didn't really understanda intelege
how to do anything differentlydiferit with it.
214
590364
3683
Ar fi o serie de lucruri
care controlează totul
10:06
There's a couplecuplu of things I think
that really seempărea to be drivingconducere this
215
594769
3365
10:10
mostcel mai fullycomplet on YouTubeYouTube,
216
598158
1189
mai ales pe YouTube,
iar primul ar fi publicitatea,
10:11
and the first of those is advertisingreclamă,
217
599371
1827
adică monetizarea atenției,
10:13
whichcare is the monetizationmonetizare of attentionAtenţie
218
601222
2837
fără a ține cont de alte variabile reale,
10:16
withoutfără any realreal other variablesvariabile at work,
219
604083
3136
de oamenii care creează,
de fapt, acest conținut,
10:19
any careîngrijire for the people who are
actuallyde fapt developingîn curs de dezvoltare this contentconţinut,
220
607243
3885
10:23
the centralizationcentralizarea of the powerputere,
the separationseparare of those things.
221
611152
3636
de centralizarea puterii
sau de separarea acestor lucruri.
10:26
And I think howeverin orice caz you feel
about the use of advertisingreclamă
222
614812
3144
Și, orice am crede
despre utilizarea publicității
ca fiind un fel de sprijin,
10:29
to kinddrăguț of supporta sustine stuffchestie,
223
617980
1238
10:31
the sightvedere of growncrescut menbărbați in diapersscutece
rollingrulare around in the sandnisip
224
619242
3067
imaginea unor adulți în scutece,
tăvălindu-se prin nisip,
sperând că un algoritm
pe care nu-l înțeleg pe deplin
10:34
in the hopesperanţă that an algorithmAlgoritmul
that they don't really understanda intelege
225
622333
2983
10:37
will give them moneybani for it
226
625340
1315
îi va îmbogăți,
10:38
suggestssugerează that this
probablyprobabil isn't the thing
227
626679
2037
sugerează că, probabil, nu pe așa ceva
10:40
that we should be basingBazându-se
our societysocietate and culturecultură uponpe,
228
628740
2563
ar trebui să bazăm societatea și cultura,
10:43
and the way in whichcare
we should be fundingfinanțarea it.
229
631327
2160
și că nu așa ar trebui s-o finanțăm.
Cealaltă cauză majoră
a acestui proces e automatismul,
10:45
And the other thing that's kinddrăguț of
the majormajor driverconducător auto of this is automationautomatizare,
230
633511
3519
adică utilizarea acestei tehnologii
10:49
whichcare is the deploymentimplementare
of all of this technologytehnologie
231
637054
2329
10:51
as sooncurând as it arrivessosește,
withoutfără any kinddrăguț of oversightsupraveghere,
232
639407
2521
de îndată ce apare, fără nicio omisiune,
10:53
and then onceo singura data it's out there,
233
641952
1412
și, odată ce e lansată,
ne aruncăm mâinile în aer zicând:
„Nu noi suntem de vină, ci tehnologia.”
10:55
kinddrăguț of throwingaruncare up our handsmâini and going,
"Hey, it's not us, it's the technologytehnologie."
234
643388
3843
10:59
Like, "We're not involvedimplicat in it."
235
647255
1642
Adică „Noi nu suntem implicați.”
Asta nu e de ajuns,
11:00
That's not really good enoughdestul,
236
648921
1767
căci toate acestea nu sunt
doar guvernate de algoritmi,
11:02
because this stuffchestie isn't
just algorithmicallyalgoritmic governedguvernată,
237
650712
2710
11:05
it's alsode asemenea algorithmicallyalgoritmic policedcontrolate.
238
653446
2498
ci și controlate de algoritmi.
Când YouTube a început
să acorde atenție acestui aspect,
11:07
When YouTubeYouTube first starteda început
to paya plati attentionAtenţie to this,
239
655968
2848
primul lucru pe care au zis că-l vor face
11:10
the first thing they said
they'dle-ar do about it
240
658840
2087
11:12
was that they'dle-ar deployimplementa
better machinemaşină learningînvăţare algorithmsalgoritmi
241
660951
2695
a fost să aplice algoritmi
de învățare automată mai buni
11:15
to moderatemoderat the contentconţinut.
242
663670
1329
ca să controleze conținutul.
Ei bine, așa cum v-ar spune orice expert,
învățarea automată
11:17
Well, machinemaşină learningînvăţare,
as any expertexpert in it will tell you,
243
665023
3485
este ceea ce generic numim
11:20
is basicallype scurt what we'vene-am starteda început to call
244
668532
1896
program software
pe care nu-l înțelegem pe deplin.
11:22
softwaresoftware-ul that we don't really
understanda intelege how it workslucrări.
245
670452
2588
Și cred că avem deja destule.
11:25
And I think we have
enoughdestul of that alreadydeja.
246
673064
3983
11:29
We shouldn'tnu ar trebui be leavinglăsând
this stuffchestie up to AIAI to decidea decide
247
677071
3166
N-ar trebui să lăsăm IA să decidă
11:32
what's appropriateadecvat or not,
248
680261
1251
ce e potrivit și ce nu,
11:33
because we know what happensse întâmplă.
249
681536
1436
pentru că știm ce se întâmplă.
11:34
It'llAcesta va startstart censoringcenzura other things.
250
682996
1688
Va cenzura alte lucruri.
Va cenzura conținut suspicios.
11:36
It'llAcesta va startstart censoringcenzura queerqueer contentconţinut.
251
684708
1783
11:38
It'llAcesta va startstart censoringcenzura
legitimatelegitim publicpublic speechvorbire.
252
686515
2237
Va cenzura discursuri publice bune.
11:40
What's allowedpermis in these discoursesdiscursuri,
253
688776
1925
Ceea ce e permis în aceste discursuri
11:42
it shouldn'tnu ar trebui be something
that's left up to unaccountableinexplicabil systemssisteme.
254
690725
3097
n-ar trebui să fie decis
de sisteme arbitrare.
Face parte dintr-o discuție
pe care ar trebui să o avem cu toții.
11:45
It's partparte of a discussiondiscuţie
all of us should be havingavând.
255
693846
2947
11:48
But I'd leavepărăsi a remindermemento
256
696817
1308
Dar aș lăsa drept memento
11:50
that the alternativealternativă isn't
very pleasantplacut, eitherfie.
257
698149
2753
faptul că nici alternativa
nu este mai plăcută.
11:52
YouTubeYouTube alsode asemenea announceda anunțat recentlyrecent
258
700926
1535
YouTube a mai anunțat recent
11:54
that they're going to releaseeliberare
a versionversiune of theiral lor kids'Kids' appaplicaţia
259
702485
2767
că va lansa o versiune
a aplicației pentru copii
11:57
that would be entirelyîn întregime
moderatedmoderat by humansoameni.
260
705276
2407
ce este moderată în întregime de oameni.
Facebook - Zuckerberg a spus
cam același lucru la Congres,
12:00
FacebookFacebook -- ZuckerbergZuckerberg said
much the samela fel thing at CongressCongresul,
261
708134
3618
întrebat insistent
cum își vor modera conținutul.
12:03
when pressedpresat about how they
were going to moderatemoderat theiral lor stuffchestie.
262
711776
2987
12:06
He said they'dle-ar have humansoameni doing it.
263
714787
1747
A zis că oamenii vor rezolva asta.
Asta înseamnă, de fapt,
12:08
And what that really meansmijloace is,
264
716558
1459
nu copiii vor fi primii
care vor vedea materialele,
12:10
insteadin schimb of havingavând toddlerscopii mici beingfiind
the first personpersoană to see this stuffchestie,
265
718041
3223
12:13
you're going to have underpaidprost plătite,
precariousprecare contractcontracta workersmuncitorii
266
721288
2788
ci niște angajați prost plătiți,
cu un contract precar,
fără pregătire psihologică potrivită
12:16
withoutfără properBuna mentalmental healthsănătate supporta sustine
267
724100
1726
care vor avea și ei de suferit.
12:17
beingfiind damageddeteriorat by it as well.
268
725850
1376
12:19
(LaughterRâs)
269
727250
1096
(Râsete)
Eu cred că putem mai mult.
12:20
And I think we can all do
quitedestul de a lot better than that.
270
728370
2601
12:22
(ApplauseAplauze)
271
730995
2499
(Aplauze)
12:26
The thought, I think, that bringsaduce those
two things togetherîmpreună, really, for me,
272
734068
4613
Consider că ceea ce poate reuni
aceste două lucruri
12:30
is agencyagenţie.
273
738705
1420
este implicarea.
Anume, cât de mult înțelegem
cu adevărat - prin implicare, mă refer
12:32
It's like, how much do we really
understanda intelege -- by agencyagenţie, I mean:
274
740149
3157
la cum știm ce să facem
pentru a acționa în interesul nostru.
12:35
how we know how to actact
in our ownpropriu bestCel mai bun interestsinterese.
275
743330
4390
Ceea ce e aproape imposibil de făcut
12:39
WhichCare -- it's almostaproape impossibleimposibil to do
276
747744
1787
12:41
in these systemssisteme that we don't
really fullycomplet understanda intelege.
277
749555
3485
în aceste sisteme
pe care nu le înțelegem pe deplin.
12:45
InequalityInegalitatea of powerputere
always leadsOportunitati to violenceviolenţă.
278
753064
3071
Disproporția de putere
întotdeauna generează violență.
Și în interiorul acestor sisteme,
12:48
And we can see insideinterior these systemssisteme
279
756159
1685
12:49
that inequalityinegalitate of understandingînţelegere
does the samela fel thing.
280
757868
2611
înțelegerea inegală duce la același lucru.
Dacă e să putem face ceva
pentru a îmbunătăți aceste sisteme,
12:52
If there's one thing that we can do
to startstart to improveîmbunătăţi these systemssisteme,
281
760503
3779
12:56
it's to make them more legiblelizibil
to the people who use them,
282
764306
2718
e să le facem mai accesibile
celor care le utilizează,
12:59
so that all of us have
a commoncomun understandingînţelegere
283
767048
2196
astfel încât noi toți să putem înțelege
ce se întâmplă cu adevărat.
13:01
of what's actuallyde fapt going on here.
284
769268
1851
Problema cu aceste sisteme nu e, de fapt,
13:03
The thing, thoughdeşi, I think
mostcel mai about these systemssisteme
285
771970
2968
așa cum sper că am reușit să explic,
legată doar de YouTube.
13:06
is that this isn't, as I hopesperanţă
I've explaineda explicat, really about YouTubeYouTube.
286
774962
3857
E legată de totul din jur.
13:10
It's about everything.
287
778843
1312
13:12
These issuesprobleme of accountabilityresponsabilitate and agencyagenţie,
288
780179
2444
Chestiunile legate de responsabilitate
și implicare,
13:14
of opacityopacitate and complexitycomplexitate,
289
782647
2225
de transparență și complexitate,
13:16
of the violenceviolenţă and exploitationexploatare
that inherentlyîn mod inerent resultsrezultate
290
784896
3177
de violență și exploatare,
ce rezultă, în mod inevitabil,
13:20
from the concentrationconcentraţie
of powerputere in a fewpuțini handsmâini --
291
788097
2794
din comasarea puterii
în doar câteva mâini --
13:22
these are much, much largermai mare issuesprobleme.
292
790915
2579
sunt niște chestiuni mult,
mult mai ample.
13:26
And they're issuesprobleme not just of YouTubeYouTube
and not just of technologytehnologie in generalgeneral,
293
794395
3687
Nu sunt chestiuni legate doar de YouTube
sau de tehnologie, în general,
și nici măcar nu sunt noi.
13:30
and they're not even newnou.
294
798106
1265
13:31
They'veLe-am been with us for agesvârstele.
295
799395
1461
Ne preocupă de mult timp.
Doar că am construit acest sistem global,
care este internetul,
13:32
But we finallyin sfarsit builtconstruit this systemsistem,
this globalglobal systemsistem, the internetInternet,
296
800880
4390
care acum ni le pune în fața ochilor
într-un mod extraordinar,
13:37
that's actuallyde fapt showingarătând them to us
in this extraordinaryextraordinar way,
297
805294
3019
13:40
makingluare them undeniableincontestabil.
298
808337
1547
făcându-le parte din realitate.
13:41
TechnologyTehnologie has this extraordinaryextraordinar capacitycapacitate
299
809908
2820
Tehnologia are
această capacitate fabuloasă
de a scoate la lumină și a exploata
13:44
to bothambii instantiates-a and continuecontinua
300
812752
3973
cele mai grozave, adesea ascunse,
dorințe și prejudecăți ale noastre
13:48
all of our mostcel mai extraordinaryextraordinar,
oftende multe ori hiddenascuns desiresdorințe and biasesdistorsiunilor
301
816749
4248
și de a le „exprima” în lume,
13:53
and encodingcodificarea them into the worldlume,
302
821021
1866
dar și de a le scrie,
astfel încât să le vedem,
13:54
but it alsode asemenea writesscrie them down
so that we can see them,
303
822911
3474
13:58
so that we can't pretendpretinde
they don't existexista anymoremai.
304
826409
3330
să nu mai putem pretinde
că ele nu mai există.
Trebuie să încetăm să mai credem
că soluția la probleme este tehnologia
14:01
We need to stop thinkinggândire about technologytehnologie
as a solutionsoluţie to all of our problemsProbleme,
305
829763
4319
14:06
but think of it as a guideghid
to what those problemsProbleme actuallyde fapt are,
306
834106
3757
și să o considerăm, mai degrabă, un ghid
pentru ceea ce reprezintă ele,
pentru a ne putea concentra asupra lor
14:09
so we can startstart thinkinggândire
about them properlycum se cuvine
307
837887
2144
14:12
and startstart to addressadresa them.
308
840055
1766
și pentru a începe să le rezolvăm.
14:13
Thank you very much.
309
841845
1335
Vă mulțumesc foarte mult.
(Aplauze)
14:15
(ApplauseAplauze)
310
843204
5192
Mulțumesc.
14:21
Thank you.
311
849733
1188
14:22
(ApplauseAplauze)
312
850945
2869
(Aplauze)
14:28
HelenHelen WaltersWalters: JamesJames, thank you
for comingvenire and givingoferindu- us that talk.
313
856839
3178
Helen Walters: James, îți mulțumesc
că ai venit și ne-ai vorbit.
Așadar, e interesant:
14:32
So it's interestinginteresant:
314
860041
1189
dacă ne gândim la filmele
în care roboții supremi preiau controlul,
14:33
when you think about the filmsfilme where
the roboticrobotizate overlordsstăpânii take over,
315
861254
3495
pare mai fermecător decât ce ne descrii.
14:36
it's all a bitpic more glamorousplin de farmec
than what you're describingdescriind.
316
864773
3279
14:40
But I wondermirare -- in those filmsfilme,
you have the resistancerezistenţă mountingmontaj.
317
868076
3749
Dar, mă întreb: în acele filme,
există o luptă pentru supremație.
14:43
Is there a resistancerezistenţă mountingmontaj
towardscătre this stuffchestie?
318
871849
3216
Întâlnim așa ceva
și în cazul materialelor în discuție?
14:47
Do you see any positivepozitiv signssemne,
greenverde shootslăstari of resistancerezistenţă?
319
875089
3796
Vezi vreun semn pozitiv,
vreo tendință de rezistență?
James Bridle: Nu știu ce să zic
legat de rezistență,
14:52
JamesJames BridleFrâu: I don't know
about directdirect resistancerezistenţă,
320
880507
2416
14:54
because I think this stuffchestie
is supersuper long-termtermen lung.
321
882947
2264
consider că e o chestiune
pe termen foarte lung.
14:57
I think it's bakedcopt into culturecultură
in really deepadâncime waysmoduri.
322
885235
2510
Cred că e foarte adânc imprimată
în cultură.
O prietenă, Eleanor Saitta, zice mereu
14:59
A friendprieten of mineA mea,
EleanorEleanor SaittaSaitta, always saysspune
323
887769
2132
15:01
that any technologicaltehnologic problemsProbleme
of sufficientsuficiente scalescară and scopedomeniu
324
889935
3609
că orice probleme tehnologice
cu destulă greutate și scop
15:05
are politicalpolitic problemsProbleme first of all.
325
893568
2267
sunt, înainte de toate, probleme politice.
Așa că, toate aceste chestiuni
pe care vrem să le rezolvăm
15:07
So all of these things we're workinglucru
to addressadresa withinîn this
326
895859
2785
15:10
are not going to be addressedadresat
just by buildingclădire the technologytehnologie better,
327
898668
3274
nu se vor putea rezolva
doar concepând o tehnologie mai bună,
15:13
but actuallyde fapt by changingschimbare the societysocietate
that's producingproducând these technologiestehnologii.
328
901966
3464
ci prin schimbarea societății
care o produce.
Deci nu, acum cred că încă mai avem
un drum al naibii de lung.
15:17
So no, right now, I think we'vene-am got
a helliad of a long way to go.
329
905454
3027
15:20
But as I said, I think by unpackingdespachetarea them,
330
908505
1986
Dar, cred că dacă defalcăm problemele,
15:22
by explainingexplicând them, by talkingvorbind
about them supersuper honestlysincer,
331
910515
2697
dacă vorbim despre ele
cu toată sinceritatea,
putem măcar să începem
procesul de schimbare.
15:25
we can actuallyde fapt startstart
to at leastcel mai puţin beginÎNCEPE that processproces.
332
913236
2505
15:27
HWHW: And so when you talk about
legibilitylizibilitatea and digitaldigital literacyalfabetizare,
333
915765
3562
HW: Când vorbești
despre accesibilitate și cultură digitală,
15:31
I find it difficultdificil to imagineimagina
334
919351
1591
mi-e greu să-mi imaginez
că trebuie să punem povara culturalizării
digitale în sarcina utilizatorului.
15:32
that we need to placeloc the burdenpovară
of digitaldigital literacyalfabetizare on usersutilizatori themselvesînșiși.
335
920966
3680
Dar a cui este responsabilitatea
educației în această lume nouă?
15:36
But whosea caror responsibilityresponsabilitate
is educationeducaţie in this newnou worldlume?
336
924670
4562
15:41
JBJB: Again, I think this responsibilityresponsabilitate
is kinddrăguț of up to all of us,
337
929256
3612
JB: O spun din nou, responsabilitatea
ne cam aparține nouă, tuturor,
căci tot ceea ce facem, tot ce construim,
tot ceea ce creăm,
15:44
that everything we do,
everything we buildconstrui, everything we make,
338
932892
2984
trebuie să fie făcut
într-o discuție consensuală
15:47
needsare nevoie to be madefăcut
in a consensualconsensuală discussiondiscuţie
339
935900
3692
15:51
with everyonetoata lumea who'scine avoidingevitând it;
340
939616
1940
cu toți cei care o evită;
că nu construim sisteme ce urmăresc
să înșele, să păcălească oamenii
15:53
that we're not buildingclădire systemssisteme
intendeddestinate to tricktruc and surprisesurprinde people
341
941580
4341
15:57
into doing the right thing,
342
945945
2300
să facă ce e bine.
16:00
but that they're actuallyde fapt involvedimplicat
in everyfiecare stepEtapa in educatingeducarea them,
343
948269
3236
ci să se implice în fiecare pas
al educației lor,
căci fiecare dintre aceste sisteme
e educativ.
16:03
because eachfiecare of these systemssisteme
is educationaleducational.
344
951529
2278
Asta e ceea ce sper,
sper că și aceste aspecte sinistre,
16:05
That's what I'm hopefulplin de speranță about,
about even this really grimrău stuffchestie,
345
953831
3102
16:08
that if you can take it
and look at it properlycum se cuvine,
346
956957
2262
dacă sunt privite corespunzător,
pot constitui forme de educație
16:11
it's actuallyde fapt in itselfîn sine
a piecebucată of educationeducaţie
347
959243
2089
16:13
that allowspermite you to startstart seeingvedere
how complexcomplex systemssisteme come togetherîmpreună and work
348
961356
3762
care să ne permită să vedem
cât de complexe sunt sistemele în lucru
și să utilizăm cunoștințele dobândite
oriunde altundeva în lume.
16:17
and maybe be ablecapabil to applyaplica
that knowledgecunoştinţe elsewhereîn altă parte in the worldlume.
349
965142
3501
16:20
HWHW: JamesJames, it's suchastfel de
an importantimportant discussiondiscuţie,
350
968667
2115
HW: James, e o discuție foarte importantă
16:22
and I know manymulți people here
are really opendeschis and preparedpregătit to have it,
351
970806
3227
și știu că mulți din cei prezenți
sunt deschiși și pregătiți,
îți mulțumim pentru că ai „deschis” ziua.
16:26
so thanksMulțumiri for startingpornire off our morningdimineaţă.
352
974057
1859
JB: Mulțumesc mult. Noroc.
16:27
JBJB: Thanksmulţumesc very much. CheersNoroc.
353
975940
1400
16:29
(ApplauseAplauze)
354
977364
1651
(Aplauze)
Translated by Bianca Han
Reviewed by Cristina Nicolae

▲Back to top

ABOUT THE SPEAKER
James Bridle - Artist, writer
Working across technologies and disciplines, James Bridle examines technology, knowledge and the end of the future.

Why you should listen

James Bridle is an artist and writer working across technologies and disciplines. His artworks and installations have been exhibited in Europe, North and South America, Asia and Australia, and have been viewed by hundreds of thousands of visitors online. He has been commissioned by organizations including the Victoria & Albert Museum, the Barbican, Artangel, the Oslo Architecture Triennale and the Istanbul Design Biennial, and he has been honored by Ars Electronica, the Japan Media Arts Festival and the Design Museum, London. His writing on literature, culture and networks has appeared in magazines and newspapers including Frieze, Wired, Domus, Cabinet, The Atlantic, the New Statesman and many others, and he has written a regular column for The Observer.

New Dark Age, Bridle's book about technology, knowledge and the end of the future is forthcoming from Verso (UK & US) in 2018. He lectures regularly on radio, at conferences, universities and other events including SXSW, Lift, the Global Art Forum and Re:Publica. He has been a resident at Lighthouse, Brighton, the White Building, London and Eyebeam, New York, and an adjunct professor on the interactive telecommunications program at New York University.

More profile about the speaker
James Bridle | Speaker | TED.com