ABOUT THE SPEAKER
James Bridle - Artist, writer
Working across technologies and disciplines, James Bridle examines technology, knowledge and the end of the future.

Why you should listen

James Bridle is an artist and writer working across technologies and disciplines. His artworks and installations have been exhibited in Europe, North and South America, Asia and Australia, and have been viewed by hundreds of thousands of visitors online. He has been commissioned by organizations including the Victoria & Albert Museum, the Barbican, Artangel, the Oslo Architecture Triennale and the Istanbul Design Biennial, and he has been honored by Ars Electronica, the Japan Media Arts Festival and the Design Museum, London. His writing on literature, culture and networks has appeared in magazines and newspapers including Frieze, Wired, Domus, Cabinet, The Atlantic, the New Statesman and many others, and he has written a regular column for The Observer.

New Dark Age, Bridle's book about technology, knowledge and the end of the future is forthcoming from Verso (UK & US) in 2018. He lectures regularly on radio, at conferences, universities and other events including SXSW, Lift, the Global Art Forum and Re:Publica. He has been a resident at Lighthouse, Brighton, the White Building, London and Eyebeam, New York, and an adjunct professor on the interactive telecommunications program at New York University.

More profile about the speaker
James Bridle | Speaker | TED.com
TED2018

James Bridle: The nightmare videos of children's YouTube -- and what's wrong with the internet today

Τζέιμς Μπράιντλ: Τα εφιαλτικά βίντεο στα παιδικά κανάλια του YouTube -- και τι δεν πάει καλά με το διαδίκτυο σήμερα

Filmed:
5,404,429 views

Ο συγγραφέας και καλλιτέχνης Τζέιμς Μπράιντλ αποκαλύπτει μια κρυμμένη, αλλόκοτη πτυχή του διαδικτύου, όπου άτομα ή ομάδες αγνώστου ταυτότητας χακάρουν το μυαλό των μικρών παιδιών έναντι διαφημιστικών εσόδων. Από τις αποκαλύψεις για τα «αυγά έκπληξη» και το «τραγούδι της Δακτυλοοικογένειας» μέχρι το ανομοιογενές μείγμα γνωστών χαρακτήρων καρτούν που δημιουργείται μέσω αλγορίθμων, αυτά τα βίντεο εκμεταλλεύονται και στοιχειώνουν το μυαλό των μικρών παιδιών -- και μας πληροφορούν για την κατεύθυνση που παίρνει ο όλο και περισσότερο καθοδηγούμενος από τον όγκο των δεδομένων κόσμος μας. «Χρειάζεται να σταματήσουμε να βλέπουμε την τεχνολογία ως τη λύση για όλα μας τα προβλήματα και να την δούμε ως οδηγό του ποια είναι πράγματι αυτά τα προβλήματα έτσι ώστε να μπορέσουμε να τα δούμε στις πραγματικές τους διαστάσεις και να αρχίσουμε να τα διευθετούμε», αναφέρει ο Μπράιντλ.
- Artist, writer
Working across technologies and disciplines, James Bridle examines technology, knowledge and the end of the future. Full bio

Double-click the English transcript below to play the video.

00:12
I'm JamesΤζέιμς.
0
777
1183
Ονομάζομαι Τζέιμς.
00:13
I'm a writerσυγγραφέας and artistκαλλιτέχνης,
1
1984
1686
Είμαι συγγραφέας και καλλιτέχνης,
00:15
and I make work about technologyτεχνολογία.
2
3694
2341
και η δουλειά μου έχει
να κάνει με την τεχνολογία.
00:18
I do things like drawσχεδιάζω life-sizeLife-size outlinesπεριγράμματα
of militaryΣΤΡΑΤΟΣ dronesΚηφήνες
3
6454
3911
Για παράδειγμα ζωγραφίζω στρατιωτικά
μη επανδρωμένα αεροσκάφη
σε πραγματικό μέγεθος
σε δρόμους πόλεων σε όλο τον κόσμο
00:22
in cityπόλη streetsτου δρόμου around the worldκόσμος,
4
10389
1828
00:24
so that people can startαρχή to think
and get theirδικα τους headsκεφάλια around
5
12241
2950
για να μπορέσουν οι άνθρωποι
να σκεφτούν και να καταλάβουν
00:27
these really quiteαρκετά hard-to-seeδύσκολο να δούμε
and hard-to-think-aboutσκληρά-να-νομίζω-περίπου technologiesτεχνολογίες.
6
15215
3440
αυτές τις δυσδιάκριτες
και δυσνόητες νέες τεχνολογίες.
00:31
I make things like neuralνευρικός networksδικτύων
that predictπρολέγω the resultsΑποτελέσματα of electionsεκλογές
7
19494
3836
Φτιάχνω νευρωνικά δίκτυα που
προβλέπουν εκλογικά αποτελέσματα
00:35
basedμε βάση on weatherκαιρός reportsΑναφορές,
8
23354
1737
και βασίζονται σε δελτία καιρού
00:37
because I'm intriguedκέντρισε το ενδιαφέρον about
9
25115
1314
γιατί με γοητεύει
00:38
what the actualπραγματικός possibilitiesδυνατότητες
of these weirdΠερίεργο newνέος technologiesτεχνολογίες are.
10
26453
3924
το πόσες δυνατότητες δίνουν
αυτές οι περίεργες νέες τεχνολογίες.
00:43
Last yearέτος, I builtχτισμένο
my ownτα δικά self-drivingαυτο-οδήγηση carαυτοκίνητο.
11
31405
2426
Πέρυσι έφτιαξα ένα αυτοκίνητο
που κινείται μόνο του.
00:45
But because I don't
really trustεμπιστοσύνη technologyτεχνολογία,
12
33855
2526
Δεν εμπιστεύομαι, όμως, την τεχνολογία
00:48
I alsoεπίσης designedσχεδιασμένο a trapπαγίδα for it.
13
36405
1928
και έτσι του έφτιαξα και μια φάκα.
00:50
(LaughterΤο γέλιο)
14
38777
1086
(Γέλια)
00:51
And I do these things mostlyως επί το πλείστον because
I find them completelyεντελώς fascinatingγοητευτικός,
15
39887
4298
Ασχολούμαι μ' αυτά κυρίως
γιατί τα βρίσκω συναρπαστικά
00:56
but alsoεπίσης because I think
when we talk about technologyτεχνολογία,
16
44209
2602
αλλά και γιατί νομίζω πως
όταν μιλάμε για τεχνολογία
00:58
we're largelyσε μεγάλο βαθμό talkingομιλία about ourselvesεμείς οι ίδιοι
17
46835
2619
μιλάμε, κυρίως, για εμάς
01:01
and the way that we understandκαταλαβαίνουν the worldκόσμος.
18
49478
2299
και τον τρόπο που
αντιλαμβανόμαστε τον κόσμο.
01:03
So here'sεδώ είναι a storyιστορία about technologyτεχνολογία.
19
51801
2442
Ακούστε μια ιστορία για την τεχνολογία.
01:07
This is a "surpriseέκπληξη eggαυγό" videoβίντεο.
20
55520
2830
Αυτό είναι ένα βίντεο με «αυγά έκπληξη».
01:10
It's basicallyβασικα a videoβίντεο of someoneκάποιος
openingάνοιγμα up loadsφορτία of chocolateσοκολάτα eggsτα αυγά
21
58374
3348
Δείχνει κάποιον ν' ανοίγει
δεκάδες σοκολατένια αυγά
01:13
and showingεπίδειξη the toysπαιχνίδια insideμέσα to the viewerθεατής.
22
61746
2126
και να παρουσιάζει το παιχνίδι μέσα του.
01:16
That's it. That's all it does
for sevenεπτά long minutesλεπτά.
23
64461
2649
Τελεία. Κάνει μόνο αυτό
για επτά ολόκληρα λεπτά.
01:19
And I want you to noticeειδοποίηση
two things about this.
24
67428
3051
Θέλω να προσέξτε δύο πράγματα.
01:22
First of all, this videoβίντεο
has 30 millionεκατομμύριο viewsπροβολές.
25
70503
4074
Πρώτον, αυτό το βίντεο
έχει 30 εκατομμύρια θεάσεις.
01:26
(LaughterΤο γέλιο)
26
74601
1275
(Γέλια)
01:28
And the other thing is,
27
76376
1166
Και δεύτερον,
01:29
it comesέρχεται from a channelΚανάλι
that has 6.3 millionεκατομμύριο subscribersσυνδρομητές,
28
77566
3869
παίζεται σ' ένα κανάλι
με 6,3 εκατομμύρια συνδρομητές
01:33
that has a totalσύνολο of eightοκτώ billionδισεκατομμύριο viewsπροβολές,
29
81459
2680
και συνολικά οκτώ δισεκατομμύρια θεάσεις
01:36
and it's all just more videosΒίντεο like this --
30
84163
3106
και υπάρχουν πολλά βίντεο σαν αυτό.
01:40
30 millionεκατομμύριο people watchingβλέποντας a guy
openingάνοιγμα up these eggsτα αυγά.
31
88256
3908
30 εκατομμύρια άτομα παρακολουθούν
κάποιον να ανοίγει αυγά.
01:44
It soundsήχους prettyαρκετά weirdΠερίεργο, but if you searchΨάξιμο
for "surpriseέκπληξη eggsτα αυγά" on YouTubeYouTube,
32
92188
4481
Μοιάζει αλλόκοτο αλλά αν ψάξετε
για «αυγά έκπληξη» στο YouTube,
01:48
it'llθα το κάνει tell you there's
10 millionεκατομμύριο of these videosΒίντεο,
33
96693
3523
θα σας βρει 10 εκατομμύρια
τέτοια βιντεάκια
01:52
and I think that's an undercountundercount.
34
100240
1657
αλλά νομίζω ότι είναι περισσότερα.
01:53
I think there's way, way more of these.
35
101921
1897
Πολύ περισσότερα.
01:55
If you keep searchingερευνητικός, they're endlessατελείωτες.
36
103842
2242
Αν συνεχίσετε την αναζήτηση,
είναι αμέτρητα.
01:58
There's millionsεκατομμύρια and millionsεκατομμύρια
of these videosΒίντεο
37
106108
2159
Υπάρχουν άπειρα τέτοια βίντεο
02:00
in increasinglyόλο και περισσότερο baroqueμπαρόκ combinationsκομπινεζόν
of brandsεμπορικά σήματα and materialsυλικά,
38
108291
3454
σε όλο και πιο μπαρόκ συνδυασμούς
επώνυμων προϊόντων και υλικών.
02:03
and there's more and more of them
beingνα εισαι uploadedφορτώθηκε everyκάθε singleμονόκλινο day.
39
111769
3846
Και ανεβαίνουν όλο και περισσότερα
από αυτά κάθε μέρα.
02:07
Like, this is a strangeπαράξενος worldκόσμος. Right?
40
115639
3511
Ένας αλλόκοτος κόσμος, σωστά;
02:11
But the thing is, it's not adultsενήλικες
who are watchingβλέποντας these videosΒίντεο.
41
119174
3383
'Ομως, δεν τα βλέπουν ενήλικες.
02:14
It's kidsπαιδιά, smallμικρό childrenπαιδιά.
42
122581
2921
Αλλά μικρά παιδιά.
02:17
These videosΒίντεο are
like crackρωγμή for little kidsπαιδιά.
43
125526
2154
Είναι σαν ναρκωτικά για μικρά παιδιά.
02:19
There's something about the repetitionεπανάληψη,
44
127704
2075
Κάτι με το θέμα της επανάληψης
02:21
the constantσυνεχής little
dopamineντοπαμίνη hitΚτύπημα of the revealαποκαλύπτω,
45
129803
2468
και τη συνεχή δόση ντοπαμίνης
από την ανακάλυψη
02:24
that completelyεντελώς hooksγάντζους them in.
46
132295
1866
τα εθίζει εντελώς.
02:26
And little kidsπαιδιά watch these videosΒίντεο
over and over and over again,
47
134185
4809
Τα παιδιά παρακολουθούν
αυτά τα βίντεο ξανά και ξανά,
02:31
and they do it for hoursώρες
and hoursώρες and hoursώρες.
48
139018
2327
για ατελείωτες ώρες.
02:33
And if you try and take
the screenοθόνη away from them,
49
141369
2356
Αν προσπαθήσετε να τους πάρετε την οθόνη,
ουρλιάζουν ασταμάτητα.
02:35
they'llθα το κάνουν screamκραυγή and screamκραυγή and screamκραυγή.
50
143749
1782
Αν δεν με πιστεύετε, έχω δει
άτομα στο κοινό να συμφωνούν,
02:37
If you don't believe me --
51
145555
1262
02:38
and I've alreadyήδη seenείδα people
in the audienceακροατήριο noddingνεύση --
52
146841
2607
αν δεν πιστεύετε, ρωτήστε
κάποιον με μικρά παιδιά
02:41
if you don't believe me, find someoneκάποιος
with smallμικρό childrenπαιδιά and askπαρακαλώ them,
53
149472
3391
και θα γνωρίζει για αυτά τα βίντεο.
02:44
and they'llθα το κάνουν know about
the surpriseέκπληξη eggαυγό videosΒίντεο.
54
152887
2340
02:47
So this is where we startαρχή.
55
155251
2070
Θα αρχίσουμε, λοιπόν, από εδώ.
02:49
It's 2018, and someoneκάποιος, or lots of people,
56
157345
3642
Είμαστε στο 2018 και κάποιοι ή πολλοί
02:53
are usingχρησιμοποιώντας the sameίδιο mechanismμηχανισμός that, like,
FacebookΣτο Facebook and InstagramΣτο Instagram are usingχρησιμοποιώντας
57
161011
3941
χρησιμοποιούν τον ίδιο μηχανισμό
με το Facebook και το Instagram
που σας κάνουν να ελέγχετε
συνεχώς την εφαρμογή,
02:56
to get you to keep checkingέλεγχος that appapp,
58
164976
1989
02:58
and they're usingχρησιμοποιώντας it on YouTubeYouTube
to hackάμαξα προς μίσθωση the brainsμυαλά of very smallμικρό childrenπαιδιά
59
166989
3985
και τον χρησιμοποιούν στο YouTube
για να χακάρουν το μυαλό των παιδιών
03:02
in returnΕΠΙΣΤΡΟΦΗ for advertisingδιαφήμιση revenueέσοδα.
60
170998
1958
με αντάλλαγμα έσοδα από διαφημίσεις.
03:06
At leastελάχιστα, I hopeελπίδα
that's what they're doing.
61
174346
2001
Ελπίζω να το κάνουν μόνο γι' αυτό.
03:08
I hopeελπίδα that's what they're doing it for,
62
176371
1955
Ελπίζω να είναι μόνο γι' αυτό
03:10
because there's easierευκολότερη waysτρόπους
of makingκατασκευή adΕνα δ revenueέσοδα on YouTubeYouTube.
63
178350
5308
γιατί υπάρχουν πιο εύκολοι τρόποι
να βγάλεις τέτοια έσοδα στο YouTube.
03:15
You can just make stuffυλικό up or stealκλέβω stuffυλικό.
64
183682
2332
Μπορείς να επινοήσεις ή να κλέψεις υλικό.
03:18
So if you searchΨάξιμο for really
popularδημοφιλής kids'τα παιδιά» cartoonsκοινουμενα σχεδια
65
186038
2635
Αν αναζητήσετε πολύ δημοφιλή παιδικά,
όπως «Πέπα το γουρουνάκι»,
ή «Κουταβοπερίπολος»
03:20
like "PeppaΠέππα PigΓουρούνι" or "PawΠόδι PatrolΠεριπολικά,"
66
188697
1654
03:22
you'llθα το κάνετε find there's millionsεκατομμύρια and millionsεκατομμύρια
of these onlineσε απευθείας σύνδεση as well.
67
190375
3147
θα βρείτε, επίσης, εκατομμύρια
τέτοια βίντεο στο διαδίκτυο.
03:25
Of courseσειρά μαθημάτων, mostπλέον of them aren'tδεν είναι postedδημοσιεύτηκε
by the originalπρωτότυπο contentπεριεχόμενο creatorsδημιουργοί.
68
193546
3352
Τα περισσότερα δεν ανεβαίνουν
από τους δημιουργούς τους
αλλά από πολλούς λογαριασμούς,
03:28
They come from loadsφορτία and loadsφορτία
of differentδιαφορετικός randomτυχαίος accountsλογαριασμούς,
69
196922
2999
και είναι αδύνατον να ξέρουμε
ποιος τα ανεβάζει
03:31
and it's impossibleαδύνατο to know
who'sποιος είναι postingαπόσπαση them
70
199945
2240
ή ποια είναι τα κίνητρά τους.
03:34
or what theirδικα τους motivesκίνητρα mightθα μπορούσε be.
71
202209
1822
03:36
Does that soundήχος kindείδος of familiarοικείος?
72
204428
1930
Σας ακούγεται γνωστό όλο αυτό;
03:38
Because it's exactlyακριβώς the sameίδιο mechanismμηχανισμός
73
206382
1980
Είναι ακριβώς ο ίδιος μηχανισμός
03:40
that's happeningσυμβαίνει acrossαπέναντι mostπλέον
of our digitalψηφιακό servicesΥπηρεσίες,
74
208386
2600
που βλέπουμε στις πιο πολλές
ψηφιακές υπηρεσίες
03:43
where it's impossibleαδύνατο to know
where this informationπληροφορίες is comingερχομός from.
75
211010
3207
όπου είναι αδύνατο να γνωρίζουμε
την προέλευση των πληροφοριών.
03:46
It's basicallyβασικα fakeαπομίμηση newsΝέα for kidsπαιδιά,
76
214241
1829
Είναι ψευδείς ειδήσεις για παιδιά,
03:48
and we're trainingεκπαίδευση them from birthγέννηση
77
216094
2161
και εμείς τα εκπαιδεύουμε από μωρά
03:50
to clickΚάντε κλικ on the very first linkΣύνδεσμος
that comesέρχεται alongκατά μήκος,
78
218279
2506
να κλικάρουν στον πρώτο
σύνδεσμο που βλέπουν
03:52
regardlessΑνεξάρτητα of what the sourceπηγή is.
79
220809
1953
άσχετα από το πού προέρχεται.
03:54
That's doesn't seemφαίνομαι like
a terriblyτρομερά good ideaιδέα.
80
222786
2603
Δεν είναι πολύ καλή ιδέα.
03:58
Here'sΕδώ είναι anotherαλλο thing
that's really bigμεγάλο on kids'τα παιδιά» YouTubeYouTube.
81
226399
2710
Δείτε κάτι ακόμα πολύ δημοφιλές
για παιδιά, στο YouTube.
04:01
This is calledπου ονομάζεται the "FingerΔάχτυλο FamilyΟικογένεια SongΤο τραγούδι."
82
229133
1928
«Το Τραγούδι της Δακτυλοοικογένειας»
04:03
I just heardακούσει someoneκάποιος groanβογγητό
in the audienceακροατήριο.
83
231085
2018
Άκουσα κάποιον στο κοινό να αναστενάζει.
04:05
This is the "FingerΔάχτυλο FamilyΟικογένεια SongΤο τραγούδι."
84
233127
1624
Δείτε το βίντεο του τραγουδιού.
04:06
This is the very first one I could find.
85
234775
1930
Είναι το πιο παλιό που βρήκα.
04:08
It's from 2007, and it only has
200,000 viewsπροβολές,
86
236729
2829
Από το 2007 με μόνο 200.000 θεάσεις.
04:11
whichοι οποίες is, like, nothing in this gameπαιχνίδι.
87
239582
1976
Ψίχουλα δηλαδή.
04:13
But it has this insanelyαλαζονικά earwormyearwormy tuneσυντονιστείτε,
88
241582
2852
Έχει μια μελωδία απίστευτα κολλητική.
04:16
whichοι οποίες I'm not going to playπαίζω to you,
89
244458
1682
Δεν θα βάλω ήχο
04:18
because it will searκαίω itselfεαυτό
into your brainεγκέφαλος
90
246164
2008
γιατί θα σας κάψει τον εγκέφαλο
04:20
in the sameίδιο way that
it searedσφραγίσει itselfεαυτό into mineδικος μου,
91
248196
2395
όπως έκανε και με τον δικό μου.
04:22
and I'm not going to do that to you.
92
250615
1770
Δεν θέλω να το πάθετε και εσείς.
04:24
But like the surpriseέκπληξη eggsτα αυγά,
93
252409
1344
Όπως και τα «αυγά έκπληξη»,
04:25
it's got insideμέσα kids'τα παιδιά» headsκεφάλια
94
253777
2164
τρύπωσε στο μυαλό των παιδιών
04:27
and addictedεθισμένος them to it.
95
255965
1607
και προκάλεσε εθισμό.
04:29
So withinστα πλαίσια a fewλίγοι yearsχρόνια,
these fingerδάχτυλο familyοικογένεια videosΒίντεο
96
257596
2531
Λίγα χρόνια μετά, αυτά τα βίντεο
04:32
startαρχή appearingεμφανίζονται everywhereπαντού,
97
260151
1303
εμφανίζονται παντού,
σε διαφορετικές γλώσσες
04:33
and you get versionsεκδόσεις
in differentδιαφορετικός languagesΓλώσσες
98
261478
2029
04:35
with popularδημοφιλής kids'τα παιδιά» cartoonsκοινουμενα σχεδια usingχρησιμοποιώντας foodτροφή
99
263531
2121
με κινούμενα σχέδια
που χρησιμοποιούν φαγητό
04:37
or, franklyειλικρινά, usingχρησιμοποιώντας whateverοτιδήποτε kindείδος
of animationκινουμένων σχεδίων elementsστοιχεία
100
265676
2550
ή οτιδήποτε μπορείς να κουνήσεις
04:40
you seemφαίνομαι to have lyingξαπλωμένη around.
101
268250
2252
και σου βρίσκεται πρόχειρο.
04:43
And onceμια φορά again, there are millionsεκατομμύρια
and millionsεκατομμύρια and millionsεκατομμύρια of these videosΒίντεο
102
271002
5197
Και πάλι,
υπάρχουν εκατομμύρια τέτοια στο διαδίκτυο,
04:48
availableδιαθέσιμος onlineσε απευθείας σύνδεση in all of these
kindείδος of insaneπαράφρων combinationsκομπινεζόν.
103
276223
3435
σε παλαβούς συνδυασμούς.
04:51
And the more time
you startαρχή to spendδαπανήσει with them,
104
279682
2228
Όσο περισσότερο τα παρακολουθείς
04:53
the crazierπιο τρελός and crazierπιο τρελός
you startαρχή to feel that you mightθα μπορούσε be.
105
281934
3694
τόσο περισσότερο νιώθεις να τρελαίνεσαι.
04:57
And that's where I
kindείδος of launchedξεκίνησε into this,
106
285652
3333
Αυτό που με έκανε να ασχοληθώ με αυτά
05:01
that feelingσυναισθημα of deepβαθύς strangenessπαραδοξότητα
and deepβαθύς lackέλλειψη of understandingκατανόηση
107
289009
3666
είναι το αίσθημα του αλλόκοτου
και του ανεξήγητου
05:04
of how this thing was constructedκατασκευάστηκε
that seemsφαίνεται to be presentedπαρουσιάστηκε around me.
108
292699
4175
του πώς δημιουργήθηκε όλο αυτό
και βρίσκεται παντού γύρω μου.
05:08
Because it's impossibleαδύνατο to know
where these things are comingερχομός from.
109
296898
3167
Είναι αδύνατο να μάθουμε την πηγή τους.
Ποιος τα φτιάχνει;
05:12
Like, who is makingκατασκευή them?
110
300089
1241
Κάποια μοιάζουν έργα επαγγελματιών.
05:13
Some of them appearεμφανίζομαι to be madeέκανε
of teamsτης ομάδας of professionalεπαγγελματίας animatorsεμψυχωτές.
111
301354
3143
05:16
Some of them are just randomlyτυχαία
assembledσυναρμολογημένο by softwareλογισμικό.
112
304521
2882
Άλλα φτιαγμένα στην τύχη
από κάποιο πρόγραμμα.
05:19
Some of them are quiteαρκετά wholesome-lookingυγιεινό-αναζητούν
youngνεαρός kids'τα παιδιά» entertainersδιασκεδαστές.
113
307427
4253
Σε άλλα βλέπουμε νεαρούς παρουσιαστές
παιδικών προγραμμάτων.
05:23
And some of them are from people
114
311704
1552
Όμως, κάποια είναι από ανθρώπους
05:25
who really clearlyσαφώς
shouldn'tδεν θα έπρεπε be around childrenπαιδιά at all.
115
313280
3007
που δεν θα έπρεπε
να βρίσκονται κοντά σε παιδιά.
05:28
(LaughterΤο γέλιο)
116
316311
1615
(Γέλια)
05:30
And onceμια φορά again, this impossibilityαδυναμία
of figuringκατανόηση out who'sποιος είναι makingκατασκευή this stuffυλικό --
117
318987
4640
Αυτή η αδυναμία να προσδιορίσουμε
ποιος τα φτιάχνει --
05:35
like, this is a botbot?
118
323651
1156
κάποιο μποτ;
05:36
Is this a personπρόσωπο? Is this a trollσυρτή?
119
324831
2647
Άνθρωποι; Τρολ;
05:39
What does it mean
that we can't tell the differenceδιαφορά
120
327502
2382
Και γιατί να μην μπορούμε
να τα διαχωρίσουμε
05:41
betweenμεταξύ these things anymoreπια?
121
329908
1583
όλα αυτά πια;
05:43
And again, doesn't that uncertaintyαβεβαιότητα
feel kindείδος of familiarοικείος right now?
122
331515
4848
Έχουμε πια εξοικειωθεί
με αυτή την αβεβαιότητα;
05:50
So the mainκύριος way people get viewsπροβολές
on theirδικα τους videosΒίντεο --
123
338145
2580
Ο κύριος τρόπος
για να έχουν θεάσεις τα βίντεο --
05:52
and rememberθυμάμαι, viewsπροβολές mean moneyχρήματα --
124
340749
1707
θυμηθείτε, θεάσεις ίσον χρήμα --
05:54
is that they stuffυλικό the titlesτίτλοι
of these videosΒίντεο with these popularδημοφιλής termsόροι.
125
342480
4742
είναι να γεμίσουν τους τίτλους τους
με δημοφιλείς όρους.
Παίρνετε τον όρο «αυγό έκπληξη»
05:59
So you take, like, "surpriseέκπληξη eggsτα αυγά"
126
347246
1687
και προσθέτετε «Κουταβοπερίπολος»,
«Πασχαλινό αυγό»
06:00
and then you addπροσθέτω
"PawΠόδι PatrolΠεριπολικά," "EasterΠάσχα eggαυγό,"
127
348957
2066
06:03
or whateverοτιδήποτε these things are,
128
351047
1393
κάτι σαν αυτά εδώ, που είναι
λέξεις από άλλα βίντεο
06:04
all of these wordsλόγια from other
popularδημοφιλής videosΒίντεο into your titleτίτλος,
129
352464
2893
και τα βάζεις στον τίτλο
06:07
untilμέχρις ότου you endτέλος up with this kindείδος of
meaninglessχωρίς νόημα mashπολτοποίηση of languageΓλώσσα
130
355381
2968
και έχουμε, τελικά, μια σούπα
από λέξεις χωρίς νόημα,
06:10
that doesn't make senseέννοια to humansτου ανθρώπου at all.
131
358373
2498
εντελώς ακατανόητη από ανθρώπους.
06:12
Because of courseσειρά μαθημάτων it's only really
tinyμικροσκοπικός kidsπαιδιά who are watchingβλέποντας your videoβίντεο,
132
360895
3546
Αφού τα βλέπουν μόνο μικρά παιδιά,
06:16
and what the hellκόλαση do they know?
133
364465
1827
και τι στο καλό ξέρουν αυτά;
06:18
Your realπραγματικός audienceακροατήριο
for this stuffυλικό is softwareλογισμικό.
134
366316
3007
Το πραγματικό κοινό σου
είναι τα προγράμματα.
06:21
It's the algorithmsαλγορίθμους.
135
369347
1156
Οι αλγόριθμοι.
06:22
It's the softwareλογισμικό that YouTubeYouTube usesχρήσεις
136
370527
1855
Τα προγράμματα που έχει το YouTube
06:24
to selectεπιλέγω whichοι οποίες videosΒίντεο
are like other videosΒίντεο,
137
372406
2483
για να βρίσκει παρόμοια βίντεο,
06:26
to make them popularδημοφιλής,
to make them recommendedΣυνιστάται.
138
374913
2243
να τα κάνει δημοφιλή και προτεινόμενα.
06:29
And that's why you endτέλος up with this
kindείδος of completelyεντελώς meaninglessχωρίς νόημα mashπολτοποίηση,
139
377180
3461
Έτσι καταλήγουμε σε αυτή
την εντελώς ανούσια σούπα
06:32
bothκαι τα δυο of titleτίτλος and of contentπεριεχόμενο.
140
380665
2071
ως προς τον τίτλο και το περιεχόμενο.
06:35
But the thing is, you have to rememberθυμάμαι,
141
383792
1894
Όμως θυμηθείτε
06:37
there really are still people withinστα πλαίσια
this algorithmicallyαλγοριθμικά optimizedβελτιστοποιηθεί systemΣύστημα,
142
385710
4478
ότι πίσω από αυτό το σύστημα
αλγόριθμων υπάρχουν άνθρωποι
06:42
people who are kindείδος
of increasinglyόλο και περισσότερο forcedεξαναγκασμένος to actενεργω out
143
390212
2790
που αναγκάζονται
όλο και πιο πολύ να μιμηθούν
06:45
these increasinglyόλο και περισσότερο bizarreΠαράξενα σεξ
combinationsκομπινεζόν of wordsλόγια,
144
393026
3066
αυτούς τους όλο και πιο αλλόκοτους
συνδιασμούς λέξεων.
06:48
like a desperateαπελπισμένος improvisationαυτοσχεδίαση artistκαλλιτέχνης
respondingαπαντώντας to the combinedσε συνδυασμό screamsκραυγές
145
396116
5173
Όπως ένας απελπισμένος καλλιτέχνης
που ουρλιάζει ως απάντηση
06:53
of a millionεκατομμύριο toddlersτα νήπια at onceμια φορά.
146
401313
2203
στα ταυτόχρονα ουρλιαχτά
εκατομυρίων παιδιών.
06:57
There are realπραγματικός people
trappedπαγιδευμένοι withinστα πλαίσια these systemsσυστήματα,
147
405168
2468
Πραγματικοί άνθρωποι
παγιδευμένοι στα συστήματα.
06:59
and that's the other deeplyκατα ΒΑΘΟΣ strangeπαράξενος thing
about this algorithmicallyαλγοριθμικά drivenοδηγείται cultureΠολιτισμός,
148
407660
4055
Ένα άλλο παράξενο πράγμα σε αυτόν
τον πολιτισμό των αλγορίθμων
07:03
because even if you're humanο άνθρωπος,
149
411739
1381
είναι ότι ακόμη και αν είστε άνθρωποι
τελικά φέρεστε σαν μηχανή
07:05
you have to endτέλος up behavingσυμπεριφέρεται like a machineμηχανή
150
413144
2145
μόνο και μόνο για να επιβιώσετε.
07:07
just to surviveεπιζώ.
151
415313
1800
07:09
And alsoεπίσης, on the other sideπλευρά of the screenοθόνη,
152
417137
2100
Στην άλλη πλευρά της όψη της οθόνης
07:11
there still are these little kidsπαιδιά
watchingβλέποντας this stuffυλικό,
153
419261
2947
έχουμε μικρά παιδιά να παρακολουθούν,
07:14
stuckκολλήσει, theirδικα τους fullγεμάτος attentionπροσοχή grabbedάρπαξε
by these weirdΠερίεργο mechanismsμηχανισμούς.
154
422232
4206
κολλημένα, η προσοχή τους αιχμάλωτη
αυτών των παράξενων μηχανισμών.
07:18
And mostπλέον of these kidsπαιδιά are too smallμικρό
to even use a websiteδικτυακός τόπος.
155
426768
2798
Τα πιο πολλά είναι πολύ μικρά
για να χρησιμοποιούν ιστότοπους.
07:21
They're just kindείδος of hammeringσφυρηλάτηση
on the screenοθόνη with theirδικα τους little handsτα χέρια.
156
429590
3276
Απλώς πατάνε στην οθόνη
με τα χεράκια τους.
Η αυτόματη αναπαραγωγή
07:24
And so there's autoplayΑυτόματη αναπαραγωγή,
157
432890
1217
07:26
where it just keepsκρατάει playingπαιχνίδι these videosΒίντεο
over and over and over in a loopβρόχος,
158
434131
3579
παίζει αυτά τα βίντεο ξανά και ξανά
για ώρες, χωρίς να σταματά.
07:29
endlesslyατελείωτα for hoursώρες and hoursώρες at a time.
159
437734
2059
07:31
And there's so much weirdnessπαραξενιά
in the systemΣύστημα now
160
439817
2843
Υπάρχουν τόσα αλλόκοτα
πράγματα στο σύστημα
07:34
that autoplayΑυτόματη αναπαραγωγή takes you
to some prettyαρκετά strangeπαράξενος placesθέσεις.
161
442684
3009
που ο αυτοματισμός σε κατευθύνει
σε πολύ περίεργα μέρη.
07:37
This is how, withinστα πλαίσια a dozenντουζίνα stepsβήματα,
162
445717
2488
Και έτσι, μέσα σε λίγα βήματα,
07:40
you can go from a cuteΧαριτωμένο videoβίντεο
of a countingαρίθμηση trainτρένο
163
448229
3158
βρίσκεσαι από ένα βίντεο
με ένα τρενάκι που μετράει
07:43
to masturbatingΜαλακία MickeyΜίκυ MouseΠοντίκι.
164
451411
2442
σε ένα με τον Μίκυ Μάους να αυνανίζεται.
07:46
Yeah. I'm sorry about that.
165
454529
2288
Πράγματι. Και λυπάμαι γι' αυτό.
07:48
This does get worseχειρότερος.
166
456841
1700
Πραγματικά χειροτερεύει.
07:50
This is what happensσυμβαίνει
167
458565
1282
Αυτό συμβαίνει
07:51
when all of these differentδιαφορετικός keywordsλέξεις-κλειδιά,
168
459871
3086
όταν όλες αυτές οι λέξεις κλειδιά,
07:54
all these differentδιαφορετικός piecesκομμάτια of attentionπροσοχή,
169
462981
2461
όλα αυτά τα διάφορα τμήματα της προσοχής,
07:57
this desperateαπελπισμένος generationγενιά of contentπεριεχόμενο,
170
465466
2807
αυτή η απεγνωσμένη γενιά του περιεχομένου
08:00
all comesέρχεται togetherμαζί into a singleμονόκλινο placeθέση.
171
468297
2582
συγκεντρώνονται σε ένα μέρος.
08:03
This is where all those deeplyκατα ΒΑΘΟΣ weirdΠερίεργο
keywordsλέξεις-κλειδιά come home to roostφωλιά.
172
471871
4472
Έτσι όλες οι περίεργες αυτές λέξεις
γυρίζουν μπούμερανγκ.
08:08
You cross-breedCross-φυλής the fingerδάχτυλο familyοικογένεια videoβίντεο
173
476367
2391
Διασταυρώνουμε το βίντεο
της δακτυλοοικογένειας
08:10
with some live-actionζωντανής δράσης superheroυπερήρωα stuffυλικό,
174
478782
2088
με μια δόση δράσης υπερήρωα
08:12
you addπροσθέτω in some weirdΠερίεργο,
trollishtrollish in-jokesΑνέκδοτα or something,
175
480894
3256
και προσθέτουμε κάτι
σαν αστειάκι, σαν τρολλάρισμα
08:16
and suddenlyξαφνικά, you come
to a very weirdΠερίεργο placeθέση indeedπράγματι.
176
484174
3366
και ξαφνικά βρισκόμαστε
σε μια πραγματικά περίεργη κατάσταση.
08:19
The stuffυλικό that tendsτείνει to upsetαναστατωμένος parentsγονείς
177
487564
2113
Τα βίντεο που εξοργίζουν τους γονείς
08:21
is the stuffυλικό that has kindείδος of violentβίαιος
or sexualσεξουαλικός contentπεριεχόμενο, right?
178
489701
3331
είναι αυτά με βίαιο ή σεξουαλικό
περιεχόμενο, σωστά;
08:25
Children'sΤων παιδιών cartoonsκοινουμενα σχεδια gettingνα πάρει assaultedεπίθεση,
179
493056
2822
Παιδικοί ήρωες δέχονται επιθέσεις,
08:27
gettingνα πάρει killedσκοτώθηκαν,
180
495902
2018
δολοφονούνται.
08:29
weirdΠερίεργο pranksφάρσες that actuallyπράγματι
genuinelyπραγματικά terrifyτρομοκρατεί childrenπαιδιά.
181
497944
3343
Παράξενες φάρσες που πραγματικά
τρομοκρατούν τα παιδιά.
08:33
What you have is softwareλογισμικό pullingτραβώντας in
all of these differentδιαφορετικός influencesεπιρροές
182
501311
3675
Πρόκειται για προγράμματα
που συλλέγουν αυτά τα στοιχεία
08:37
to automaticallyαυτομάτως generateπαράγω
kids'τα παιδιά» worstχειριστός nightmaresεφιάλτες.
183
505010
2961
και αυτοματοποιημένα δημιουργούν
χείριστους παιδικούς εφιάλτες.
08:39
And this stuffυλικό really, really
does affectεπηρεάζουν smallμικρό childrenπαιδιά.
184
507995
2701
Όλα αυτά πραγματικά
επηρεάζουν τα μικρά παιδιά.
08:42
ParentsΟι γονείς reportκανω ΑΝΑΦΟΡΑ theirδικα τους childrenπαιδιά
beingνα εισαι traumatizedψυχολογικά τραύματα,
185
510720
2866
Γονείς αναφέρονται σε ψυχολογικά τραύματα,
08:45
becomingθελκτικός afraidφοβισμένος of the darkσκοτάδι,
186
513610
1392
τα παιδιά φοβούνται το σκοτάδι, φοβούνται
τον αγαπημένο τους ήρωα καρτούν.
08:47
becomingθελκτικός afraidφοβισμένος of theirδικα τους favoriteαγαπημένη
cartoonΚΙΝΟΥΜΕΝΟ ΣΧΕΔΙΟ charactersχαρακτήρες.
187
515026
3050
08:50
If you take one thing away from this,
it's that if you have smallμικρό childrenπαιδιά,
188
518524
3611
Κρατήστε αυτό από την ομιλία μου:
αν έχετε μικρά παιδιά,
κρατήστε τα μακριά από το YouTube.
08:54
keep them the hellκόλαση away from YouTubeYouTube.
189
522159
1996
08:56
(ApplauseΧειροκροτήματα)
190
524743
3949
(Χειροκρότημα)
09:02
But the other thing, the thing
that really getsπαίρνει to me about this,
191
530504
3096
Αυτό, όμως, που πραγματικά με εκνευρίζει
09:05
is that I'm not sure we even really
understandκαταλαβαίνουν how we got to this pointσημείο.
192
533624
4629
είναι πως, μάλλον, ούτε καν
καταλαβαίνουμε πώς φτάσαμε ως εδώ.
09:10
We'veΈχουμε takenληφθεί all of this influenceεπιρροή,
all of these things,
193
538951
2931
Πήραμε όλα αυτά τα στοιχεία
09:13
and mungedmunged them togetherμαζί in a way
that no one really intendedπροορίζονται.
194
541906
2953
και τα επεξεργαστήκαμε με τρόπο
πέρα από τις προθέσεις μας.
09:16
And yetΑκόμη, this is alsoεπίσης the way
that we're buildingΚτίριο the entireολόκληρος worldκόσμος.
195
544883
3156
Κι όμως, έτσι χτίζουμε
τον κόσμο που μας περιβάλλει.
09:20
We're takingλήψη all of this dataδεδομένα,
196
548063
1773
Συγκεντρώνουμε όλα αυτά τα δεδομένα,
09:21
a lot of it badκακό dataδεδομένα,
197
549860
1447
πολλά απ' τα οποία αβάσιμα,
09:23
a lot of historicalιστορικός dataδεδομένα
fullγεμάτος of prejudiceπροκατάληψη,
198
551331
3029
πολλά με προκαταλήψεις
γύρω από την ιστορία,
09:26
fullγεμάτος of all of our worstχειριστός
impulsesωθήσεις of historyιστορία,
199
554384
2837
με τις χειρότερες απερισκεψίες
της ιστορίας μας,
09:29
and we're buildingΚτίριο that
into hugeτεράστιος dataδεδομένα setsσκηνικά
200
557245
2049
τα οργανώνουμε σε μεγάλες βάσεις δεδομένων
09:31
and then we're automatingαυτοματοποίηση it.
201
559318
1423
και μετά, τα αυτοματοποιούμε.
09:32
And we're mungingmunging it togetherμαζί
into things like creditπίστωση reportsΑναφορές,
202
560765
3502
Τα επεξεργαζόμαστε για να φτιάξουμε
προφίλ πιστοληπτικής ικανότητας,
09:36
into insuranceΑΣΦΑΛΙΣΗ premiumsασφάλιστρα,
203
564291
1634
το κόστος ασφάλιστρων,
09:37
into things like predictiveπρογνωστική
policingαστυνόμευση systemsσυστήματα,
204
565949
2693
για συστήματα που δίνουν
προγνωστικά εγκληματικότητας,
09:40
into sentencingκαταδίκη guidelinesΚατευθυντήριες γραμμές.
205
568666
1762
και οδηγίες για δικαστικές ποινές.
09:42
This is the way we're actuallyπράγματι
constructingκατασκευή the worldκόσμος todayσήμερα
206
570452
2821
Με αυτόν τον τρόπο συγκροτούμε
τον κόσμο μας σήμερα,
με βάση αυτά τα δεδομένα.
09:45
out of this dataδεδομένα.
207
573297
1151
09:46
And I don't know what's worseχειρότερος,
208
574472
1698
Δεν ξέρω πιο είναι χειρότερο.
09:48
that we builtχτισμένο a systemΣύστημα
that seemsφαίνεται to be entirelyεξ ολοκλήρου optimizedβελτιστοποιηθεί
209
576194
3228
Η οικοδόμηση ενός συστήματος
που μοιάζει το καλύτερο
09:51
for the absoluteαπόλυτος worstχειριστός aspectsπτυχές
of humanο άνθρωπος behaviorη ΣΥΜΠΕΡΙΦΟΡΑ,
210
579446
2808
για τις χειρότερες πτυχές
της ανθρώπινης συμπεριφοράς
09:54
or that we seemφαίνομαι
to have doneΈγινε it by accidentατύχημα,
211
582278
2425
ή η υποψία ότι μάλλον φτιάχτηκε κατά λάθος
09:56
withoutχωρίς even realizingσυνειδητοποιώντας
that we were doing it,
212
584727
2207
χωρίς καν να το πάρουμε χαμπάρι
09:58
because we didn't really understandκαταλαβαίνουν
the systemsσυστήματα that we were buildingΚτίριο,
213
586958
3382
γιατί δεν κατανοούσαμε πραγματικά
τι σύστημα οικοδομούσαμε, ούτε πώς
να το χρησιμοποιήσουμε διαφορετικά.
10:02
and we didn't really understandκαταλαβαίνουν
how to do anything differentlyδιαφορετικά with it.
214
590364
3683
10:06
There's a coupleζευγάρι of things I think
that really seemφαίνομαι to be drivingοδήγηση this
215
594769
3365
Υπάρχουν κάποια πράγματα
που φαίνονται να ωθούν όλα αυτά,
10:10
mostπλέον fullyπλήρως on YouTubeYouTube,
216
598158
1189
κυρίως στο YouTube
10:11
and the first of those is advertisingδιαφήμιση,
217
599371
1827
και το πρώτο είναι οι διαφημίσεις,
10:13
whichοι οποίες is the monetizationνομισματοποίηση of attentionπροσοχή
218
601222
2837
η αναγωγή της προσοχής μας σε χρήμα
10:16
withoutχωρίς any realπραγματικός other variablesμεταβλητές at work,
219
604083
3136
χωρίς κανέναν άλλον οδηγό,
10:19
any careΦροντίδα for the people who are
actuallyπράγματι developingανάπτυξη this contentπεριεχόμενο,
220
607243
3885
χωρίς να μας νοιάζουν οι άνθρωποι
που δημιουργούν αυτό το περιεχόμενο,
10:23
the centralizationσυγκέντρωση of the powerεξουσία,
the separationδιαχωρισμός of those things.
221
611152
3636
ο συγκεντρωτισμός της εξουσίας,
ο διαχωρισμός των πραγμάτων.
10:26
And I think howeverωστόσο you feel
about the use of advertisingδιαφήμιση
222
614812
3144
Άσχετα από τη γνώμη σας
για τη διαφήμιση σαν μέσο προώθησης,
10:29
to kindείδος of supportυποστήριξη stuffυλικό,
223
617980
1238
η εικόνα ενήλικων ανδρών με πάνες
να κυλιούνται στην άμμο, ελπίζοντας
10:31
the sightθέαμα of grownκαλλιεργούνται menάνδρες in diapersπάνες
rollingκυλιομένος around in the sandΆμμος
224
619242
3067
10:34
in the hopeελπίδα that an algorithmαλγόριθμος
that they don't really understandκαταλαβαίνουν
225
622333
2983
ότι ένας ακαταλαβίστικος αλγόριθμος
θα τους αποφέρει έτσι χρήματα,
10:37
will give them moneyχρήματα for it
226
625340
1315
10:38
suggestsπροτείνει that this
probablyπιθανώς isn't the thing
227
626679
2037
δείχνει ότι μάλλον δεν θα πρέπει
να βασιστούμε στην διαφήμιση
10:40
that we should be basingβασίζοντας
our societyκοινωνία and cultureΠολιτισμός uponεπάνω σε,
228
628740
2563
για να χρηματοδοτούμε
την κοινωνία και τον πολιτισμό μας.
10:43
and the way in whichοι οποίες
we should be fundingχρηματοδότηση it.
229
631327
2160
10:45
And the other thing that's kindείδος of
the majorμείζων driverοδηγός of this is automationαυτοματισμού,
230
633511
3519
Το άλλο, που κυρίως δίνει ώθηση
σε αυτά, είναι η αυτοματοποίηση.
10:49
whichοι οποίες is the deploymentανάπτυξης
of all of this technologyτεχνολογία
231
637054
2329
Δηλαδή η εφαρμογή
όλης αυτής της τεχνολογίας
10:51
as soonσύντομα as it arrivesφτάνει,
withoutχωρίς any kindείδος of oversightεποπτεία,
232
639407
2521
αμέσως μόλις εμφανιστεί,
χωρίς κάποια εποπτεία.
10:53
and then onceμια φορά it's out there,
233
641952
1412
Και όταν γίνεται διαθέσιμη,
10:55
kindείδος of throwingρίψη up our handsτα χέρια and going,
"Hey, it's not us, it's the technologyτεχνολογία."
234
643388
3843
σηκώνουμε τα χέρια και λέμε:
«Η τεχνολογία φταίει, όχι εμείς.
10:59
Like, "We're not involvedεμπλεγμένος in it."
235
647255
1642
Εμείς δεν έχουμε καμία σχέση».
11:00
That's not really good enoughαρκετά,
236
648921
1767
Αυτό δεν βοηθάει,
11:02
because this stuffυλικό isn't
just algorithmicallyαλγοριθμικά governedκυβερνήθηκε,
237
650712
2710
γιατί όλα αυτά όχι απλώς
ρυθμίζονται από αλγόριθμους
11:05
it's alsoεπίσης algorithmicallyαλγοριθμικά policedαστυνόμευση.
238
653446
2498
αλλά και αστυνομεύονται από αυτούς.
11:07
When YouTubeYouTube first startedξεκίνησε
to payπληρωμή attentionπροσοχή to this,
239
655968
2848
Όταν στο YouTube
αντιλήφθηκαν το πρόβλημα,
11:10
the first thing they said
they'dτο είχαν do about it
240
658840
2087
το πρώτο που είπαν ότι θα κάνουν
11:12
was that they'dτο είχαν deployαναπτύξετε
better machineμηχανή learningμάθηση algorithmsαλγορίθμους
241
660951
2695
ήταν να φτιάξουν καλύτερους
αλγόριθμους μηχανικής μάθησης
11:15
to moderateμέτριος the contentπεριεχόμενο.
242
663670
1329
για έλεγχο περιεχομένου.
11:17
Well, machineμηχανή learningμάθηση,
as any expertειδικός in it will tell you,
243
665023
3485
Αυτοί που γνωρίζουν θα σας πουν
11:20
is basicallyβασικα what we'veέχουμε startedξεκίνησε to call
244
668532
1896
ότι μηχανική μάθηση αποκαλούμε προγράμματα
11:22
softwareλογισμικό that we don't really
understandκαταλαβαίνουν how it worksεργοστάσιο.
245
670452
2588
που δεν καταλαβαίνουμε πώς λειτουργούν.
11:25
And I think we have
enoughαρκετά of that alreadyήδη.
246
673064
3983
Και υπάρχουν ήδη πολλά τέτοια.
11:29
We shouldn'tδεν θα έπρεπε be leavingαφήνοντας
this stuffυλικό up to AIAI to decideαποφασίζω
247
677071
3166
Δεν πρέπει να αφήνουμε
την τεχνητή νοημοσύνη να αποφασίζει
τι είναι κατάλληλο
γιατί ξέρουμε τι θα συμβεί,
11:32
what's appropriateκατάλληλος or not,
248
680261
1251
11:33
because we know what happensσυμβαίνει.
249
681536
1436
θα λογοκρίνει κι άλλα,
όπως ομοφυλοφιλικό περιεχόμενο,
11:34
It'llΑυτό θα startαρχή censoringλογοκρισία other things.
250
682996
1688
11:36
It'llΑυτό θα startαρχή censoringλογοκρισία queerqueer contentπεριεχόμενο.
251
684708
1783
ή αποδεκτό δημόσιο λόγο.
11:38
It'llΑυτό θα startαρχή censoringλογοκρισία
legitimateνόμιμος publicδημόσιο speechομιλία.
252
686515
2237
11:40
What's allowedεπιτρέπεται in these discoursesομιλίες,
253
688776
1925
Το τι επιτρέπεται σε έναν διάλογο
11:42
it shouldn'tδεν θα έπρεπε be something
that's left up to unaccountableασύδοτη systemsσυστήματα.
254
690725
3097
δεν πρέπει να το αποφασίζει
ένα σύστημα που δεν λογοδοτεί
11:45
It's partμέρος of a discussionσυζήτηση
all of us should be havingέχοντας.
255
693846
2947
αλλά κάτι που εμείς όλοι πρέπει
να αποφασίσουμε με διάλογο.
11:48
But I'd leaveάδεια a reminderυπενθύμιση
256
696817
1308
Θέλω, όμως, να θυμίσω
11:50
that the alternativeεναλλακτική λύση isn't
very pleasantευχάριστος, eitherείτε.
257
698149
2753
ότι ούτε η εναλλακτική λύση
είναι ευχάριστη.
11:52
YouTubeYouTube alsoεπίσης announcedανακοίνωσε recentlyπρόσφατα
258
700926
1535
Το YouTube ανακοίνωσε πρόσφατα
11:54
that they're going to releaseελευθέρωση
a versionεκδοχή of theirδικα τους kids'τα παιδιά» appapp
259
702485
2767
ότι θα βγάλει μια έκδοση
της εφαρμογής για παιδιά
που θα ελέγχεται εξ' ολοκλήρου
από ανθρώπους.
11:57
that would be entirelyεξ ολοκλήρου
moderatedεποπτεύονται by humansτου ανθρώπου.
260
705276
2407
12:00
FacebookΣτο Facebook -- ZuckerbergZuckerberg said
much the sameίδιο thing at CongressΣυνέδριο,
261
708134
3618
Το Facebook -- ο Ζούκερμπεργκ είπε
κάτι παρόμοιο στο Κογκρέσο
12:03
when pressedπιέζεται about how they
were going to moderateμέτριος theirδικα τους stuffυλικό.
262
711776
2987
όταν τον πίεσαν να πει
πώς θα ασκούν έλεγχο.
Είπε πως θα το κάνουν άνθρωποι.
12:06
He said they'dτο είχαν have humansτου ανθρώπου doing it.
263
714787
1747
Που, βασικά, σημαίνει
ότι αντί για τα νήπια
12:08
And what that really meansπου σημαίνει is,
264
716558
1459
12:10
insteadαντι αυτου of havingέχοντας toddlersτα νήπια beingνα εισαι
the first personπρόσωπο to see this stuffυλικό,
265
718041
3223
που έβλεπαν πρώτα το περιεχόμενο,
θα το κάνουν κακοπληρωμένοι
υπάλληλοι με επισφαλή συμβόλαια
12:13
you're going to have underpaidκακοπληρωμένες,
precariousεπισφαλής contractσύμβαση workersεργαζομένων
266
721288
2788
και χωρίς ψυχολογική υποστήριξη
για να διαλύονται κι αυτοί.
12:16
withoutχωρίς properορθή mentalδιανοητικός healthυγεία supportυποστήριξη
267
724100
1726
12:17
beingνα εισαι damagedσκάρτος by it as well.
268
725850
1376
(Γέλια)
12:19
(LaughterΤο γέλιο)
269
727250
1096
Νομίζω πως μπορούμε και καλύτερα.
12:20
And I think we can all do
quiteαρκετά a lot better than that.
270
728370
2601
(Χειροκρότημα)
12:22
(ApplauseΧειροκροτήματα)
271
730995
2499
12:26
The thought, I think, that bringsφέρνει those
two things togetherμαζί, really, for me,
272
734068
4613
Η ιδέα που ενώνει τη διαφήμιση
και την αυτοματοποίηση είναι, νομίζω,
12:30
is agencyπρακτορείο.
273
738705
1420
η μεσολάβηση.
12:32
It's like, how much do we really
understandκαταλαβαίνουν -- by agencyπρακτορείο, I mean:
274
740149
3157
Κατά πόσο καταλαβαίνουμε
πραγματικά -- εννοώ
12:35
how we know how to actενεργω
in our ownτα δικά bestκαλύτερος interestsτα ενδιαφέροντα.
275
743330
4390
πώς ξέρουμε τι να πράξουμε
για το συμφέρον μας.
12:39
WhichΟποία -- it's almostσχεδόν impossibleαδύνατο to do
276
747744
1787
Πράγμα σχεδόν αδύνατο
με αυτά τα συστήματα που πραγματικά
δεν κατανοούμε σε βάθος.
12:41
in these systemsσυστήματα that we don't
really fullyπλήρως understandκαταλαβαίνουν.
277
749555
3485
12:45
InequalityΑνισότητα of powerεξουσία
always leadsοδηγεί to violenceβία.
278
753064
3071
Η ανισότητα ισχύος οδηγεί πάντα στη βία.
12:48
And we can see insideμέσα these systemsσυστήματα
279
756159
1685
Και σε αυτά τα συστήματα βλέπουμε
12:49
that inequalityανισότητα of understandingκατανόηση
does the sameίδιο thing.
280
757868
2611
ότι η ανισότητα κατανόησης
οδηγεί στο ίδιο πράγμα.
12:52
If there's one thing that we can do
to startαρχή to improveβελτιώσει these systemsσυστήματα,
281
760503
3779
Αν υπάρχει κάτι που μπορεί να γίνει
για τη βελτίωση των συστημάτων,
12:56
it's to make them more legibleευανάγνωστο
to the people who use them,
282
764306
2718
θα πρέπει να γίνουν
πιο κατανοητά για τους χρήστες
12:59
so that all of us have
a commonκοινός understandingκατανόηση
283
767048
2196
έτσι ώστε να υπάρχει
μια από κοινού κατανόηση
του τι πραγματικά συμβαίνει.
13:01
of what's actuallyπράγματι going on here.
284
769268
1851
13:03
The thing, thoughαν και, I think
mostπλέον about these systemsσυστήματα
285
771970
2968
Το σημαντικό με αυτά τα συστήματα
13:06
is that this isn't, as I hopeελπίδα
I've explainedεξηγείται, really about YouTubeYouTube.
286
774962
3857
είναι ότι δεν πρόκειται
απλώς για το YouTube,
αλλά για τα πάντα.
13:10
It's about everything.
287
778843
1312
13:12
These issuesθέματα of accountabilityΕυθύνη and agencyπρακτορείο,
288
780179
2444
Τα θέματα της ανάληψης ευθύνης
και διαμεσολάβησης,
13:14
of opacityαδιαφάνεια and complexityπερίπλοκο,
289
782647
2225
έλλειψης διαφάνειας και περιπλοκότητας
13:16
of the violenceβία and exploitationεκμετάλλευση
that inherentlyεκ φύσεως resultsΑποτελέσματα
290
784896
3177
της βίας και εκμετάλλευσης
που προέρχονται εγγενώς
13:20
from the concentrationσυγκέντρωση
of powerεξουσία in a fewλίγοι handsτα χέρια --
291
788097
2794
από τη συγκέντρωση της εξουσίας
στα χέρια λίγων --
13:22
these are much, much largerμεγαλύτερος issuesθέματα.
292
790915
2579
αυτά είναι τα σημαντικά προβλήματα.
13:26
And they're issuesθέματα not just of YouTubeYouTube
and not just of technologyτεχνολογία in generalγενικός,
293
794395
3687
Δεν είναι απλώς το YouTube
ή γενικά η τεχνολογία
13:30
and they're not even newνέος.
294
798106
1265
και δεν είναι καν κάτι νέο.
13:31
They'veΘα έχουμε been with us for agesηλικίες.
295
799395
1461
Τα ζούμε εδώ και χρόνια.
13:32
But we finallyτελικά builtχτισμένο this systemΣύστημα,
this globalπαγκόσμια systemΣύστημα, the internetΔιαδίκτυο,
296
800880
4390
Φτιάξαμε, όμως, το παγκόσμιο αυτό
σύστημα, το Ίντερνετ,
που μας τα αποκαλύπτει
με αυτόν τον περίεργο τρόπο
13:37
that's actuallyπράγματι showingεπίδειξη them to us
in this extraordinaryέκτακτος way,
297
805294
3019
13:40
makingκατασκευή them undeniableαδιαμφισβήτητη.
298
808337
1547
καθιστώντας τα αυταπόδεικτα.
13:41
TechnologyΤεχνολογία has this extraordinaryέκτακτος capacityχωρητικότητα
299
809908
2820
Η τεχνολογία έχει την εξαιρετική ικανότητα
13:44
to bothκαι τα δυο instantiateυπόσταση and continueνα συνεχίσει
300
812752
3973
να δίνει υπόσταση και να διαιωνίζει
13:48
all of our mostπλέον extraordinaryέκτακτος,
oftenσυχνά hiddenκεκρυμμένος desiresεπιθυμίες and biasesμεροληψίες
301
816749
4248
τις πιο και συχνά κρυφές μας
επιθυμίες και προκαταλήψεις
και να μας τις παρουσιάζει κωδικοποιημένες
13:53
and encodingκωδικοποίηση them into the worldκόσμος,
302
821021
1866
13:54
but it alsoεπίσης writesγράφει them down
so that we can see them,
303
822911
3474
αλλά και να τις καταγράφει
για να γίνονται ορατές
13:58
so that we can't pretendπροσποιούμαι
they don't existυπάρχει anymoreπια.
304
826409
3330
και να μην μπορούμε να κάνουμε
πως δεν υπάρχουν πια.
14:01
We need to stop thinkingσκέψη about technologyτεχνολογία
as a solutionλύση to all of our problemsπροβλήματα,
305
829763
4319
Ας μην βλέπουμε την τεχνολογία
ως λύση για όλα τα προβλήματά μας
14:06
but think of it as a guideοδηγός
to what those problemsπροβλήματα actuallyπράγματι are,
306
834106
3757
αλλά ως οδηγό για το ποια
είναι πραγματικά αυτά τα προβλήματα
14:09
so we can startαρχή thinkingσκέψη
about them properlyδεόντως
307
837887
2144
για να μπορέσουμε να τα εξετάσουμε σωστά
14:12
and startαρχή to addressδιεύθυνση them.
308
840055
1766
και να αρχίσουμε να τα διευθετούμε.
14:13
Thank you very much.
309
841845
1335
Σας ευχαριστώ πολύ.
14:15
(ApplauseΧειροκροτήματα)
310
843204
5192
(Χειροκρότημα)
14:21
Thank you.
311
849733
1188
Ευχαριστώ.
14:22
(ApplauseΧειροκροτήματα)
312
850945
2869
(Χειροκρότημα)
14:28
HelenΕλένη WaltersWalters: JamesΤζέιμς, thank you
for comingερχομός and givingδίνοντας us that talk.
313
856839
3178
Έλεν Γουόλτερς: Τζέιμς, σ' ευχαριστώ
που ήρθες και μας μίλησες.
14:32
So it's interestingενδιαφέρων:
314
860041
1189
Είναι ενδιαφέρον:
14:33
when you think about the filmsταινίες where
the roboticρομποτικό overlordsηγεμόνες take over,
315
861254
3495
όταν σκεφτόμαστε ταινίες
όπου κυριαρχεί το ρομποτικό στοιχείο
14:36
it's all a bitκομμάτι more glamorousγοητευτικός
than what you're describingπεριγράφοντας.
316
864773
3279
μοιάζει κάπως πιο λαμπερό
από αυτό που εσύ περιγράφεις.
14:40
But I wonderθαύμα -- in those filmsταινίες,
you have the resistanceαντίσταση mountingτοποθέτηση.
317
868076
3749
Αναρωτιέμαι -- σ' αυτές τις ταινίες
βλέπεις την αντίδραση να αυξάνεται.
14:43
Is there a resistanceαντίσταση mountingτοποθέτηση
towardsπρος this stuffυλικό?
318
871849
3216
Υπάρχει αυξανόμενη
αντίδραση προς όλα αυτά;
14:47
Do you see any positiveθετικός signsσημάδια,
greenπράσινος shootsπυροβολεί of resistanceαντίσταση?
319
875089
3796
Βλέπεις θετικά σημάδια,
βλαστούς αντίστασης;
Τζέιμς Μπράιντλ: δεν θα έλεγα
άμεση αντίσταση
14:52
JamesΤζέιμς BridleΧαλινάρι: I don't know
about directαπευθείας resistanceαντίσταση,
320
880507
2416
γιατί αυτά υπάρχουν
εδώ και πάρα πολύ καιρό.
14:54
because I think this stuffυλικό
is superσούπερ long-termμακροπρόθεσμα.
321
882947
2264
Έχουν ενσωματωθεί
βαθιά στην κουλτούρα μας.
14:57
I think it's bakedψημένα into cultureΠολιτισμός
in really deepβαθύς waysτρόπους.
322
885235
2510
Μια φίλη, η Έλεανορ Σαίτα,
14:59
A friendφίλος of mineδικος μου,
EleanorΕλεονώρα SaittaΣαϊττά, always saysλέει
323
887769
2132
λέει ότι προβλήματα τεχνολογίας
σε μεγάλη κλίμακα και φάσμα
15:01
that any technologicalτεχνολογικός problemsπροβλήματα
of sufficientεπαρκές scaleκλίμακα and scopeπεδίο εφαρμογής
324
889935
3609
15:05
are politicalπολιτικός problemsπροβλήματα first of all.
325
893568
2267
είναι κατά βάση προβλήματα πολιτικής.
15:07
So all of these things we're workingεργαζόμενος
to addressδιεύθυνση withinστα πλαίσια this
326
895859
2785
Όλα αυτά που προσπαθούμε να διευθετήσουμε
δεν θα λυθούν βελτιώνοντας την τεχνολογία
15:10
are not going to be addressedαπευθύνεται
just by buildingΚτίριο the technologyτεχνολογία better,
327
898668
3274
αλλά αλλάζοντας την κοινωνία
που τη δημιουργεί.
15:13
but actuallyπράγματι by changingαλλάζοντας the societyκοινωνία
that's producingπαραγωγή these technologiesτεχνολογίες.
328
901966
3464
15:17
So no, right now, I think we'veέχουμε got
a hellκόλαση of a long way to go.
329
905454
3027
Μένουν να γίνουν πάρα πολλά.
Όμως, φέρνοντάς τα στο φως,
15:20
But as I said, I think by unpackingαποσυσκευασία them,
330
908505
1986
εξηγώντας τα, μιλώντας
απολύτως ειλικρινά για αυτά,
15:22
by explainingεξηγώντας them, by talkingομιλία
about them superσούπερ honestlyτίμια,
331
910515
2697
μπορούμε, τουλάχιστον,
να κάνουμε μια αρχή.
15:25
we can actuallyπράγματι startαρχή
to at leastελάχιστα beginαρχίζουν that processεπεξεργάζομαι, διαδικασία.
332
913236
2505
15:27
HWHW: And so when you talk about
legibilityευανάγνωστο and digitalψηφιακό literacyγνώση γραφής,
333
915765
3562
ΕΓ: Όταν μιλάς για αναγνωσιμότητα
και ψηφιακή μάθηση,
15:31
I find it difficultδύσκολος to imagineφαντάζομαι
334
919351
1591
δυσκολεύομαι να φανταστώ
15:32
that we need to placeθέση the burdenβάρος
of digitalψηφιακό literacyγνώση γραφής on usersχρήστες themselvesτους εαυτούς τους.
335
920966
3680
πως πρέπει να επωμιστούν
αυτό το φορτίο οι ίδιοι οι χρήστες.
15:36
But whoseτου οποίου responsibilityευθύνη
is educationεκπαίδευση in this newνέος worldκόσμος?
336
924670
4562
Τίνος ευθύνη είναι η εκπαίδευση
σε αυτόν τον νέο κόσμο;
15:41
JBJB: Again, I think this responsibilityευθύνη
is kindείδος of up to all of us,
337
929256
3612
ΤΜ: Νομίζω πως είναι όλων μας.
15:44
that everything we do,
everything we buildχτίζω, everything we make,
338
932892
2984
Όσα κάνουμε, χτίζουμε ή φτιάχνουμε
πρέπει να γίνονται μετά
από συναινετικό διάλογο
15:47
needsανάγκες to be madeέκανε
in a consensualσυναινετική discussionσυζήτηση
339
935900
3692
15:51
with everyoneΟλοι who'sποιος είναι avoidingαποφεύγοντας it;
340
939616
1940
με όλους όσοι τον αποφεύγουν.
15:53
that we're not buildingΚτίριο systemsσυστήματα
intendedπροορίζονται to trickτέχνασμα and surpriseέκπληξη people
341
941580
4341
Να μη φτιάχνουμε συστήματα που
ξεγελούν και αιφνιδιάζουν ανθρώπους
15:57
into doing the right thing,
342
945945
2300
ώστε να πράττουν το αναμενόμενο,
16:00
but that they're actuallyπράγματι involvedεμπλεγμένος
in everyκάθε stepβήμα in educatingεκπαίδευση them,
343
948269
3236
αλλά που θα εμπλέκονται
σε κάθε φάση της εκπαίδευσής τους,
καθώς κάθε τέτοιο σύστημα
είναι επιμορφωτικό.
16:03
because eachκαθε of these systemsσυστήματα
is educationalεκπαιδευτικός.
344
951529
2278
16:05
That's what I'm hopefulελπιδοφόρος about,
about even this really grimβλοσυρός stuffυλικό,
345
953831
3102
Ελπίζω να συμβεί ακόμη και για όλα
αυτά τα φρικτά πράγματα
16:08
that if you can take it
and look at it properlyδεόντως,
346
956957
2262
που αν τα δούμε
από την κατάλληλη οπτική γωνία
16:11
it's actuallyπράγματι in itselfεαυτό
a pieceκομμάτι of educationεκπαίδευση
347
959243
2089
αποτελούν πραγματικά ένα μάθημα
16:13
that allowsεπιτρέπει you to startαρχή seeingβλέπων
how complexσυγκρότημα systemsσυστήματα come togetherμαζί and work
348
961356
3762
για να δούμε πώς δημιουργούνται
και λειτουργούν τα περίπλοκα συστήματα
16:17
and maybe be ableικανός to applyισχύουν
that knowledgeη γνώση elsewhereαλλού in the worldκόσμος.
349
965142
3501
και ίσως μπορέσουμε να εφαρμόσουμε
αυτή τη γνώση και σε άλλους τομείς.
16:20
HWHW: JamesΤζέιμς, it's suchτέτοιος
an importantσπουδαίος discussionσυζήτηση,
350
968667
2115
ΕΓ: Τζέιμς, θα ήταν μια σημαντική συζήτηση
και πολλοί από μας εδώ είμαστε
ανοιχτοί και έτοιμοι γι αυτή.
16:22
and I know manyΠολλά people here
are really openΆνοιξε and preparedέτοιμος to have it,
351
970806
3227
Σε ευχαριστώ που έκανες
την αρχή σήμερα.
16:26
so thanksευχαριστώ for startingεκκίνηση off our morningπρωί.
352
974057
1859
ΤΜ: Ευχαριστώ πολύ. Γεια σας.
16:27
JBJB: ThanksΕυχαριστώ very much. CheersΓεια.
353
975940
1400
16:29
(ApplauseΧειροκροτήματα)
354
977364
1651
(Χειροκρότημα)
Translated by Anthi Lakka
Reviewed by Chryssa Rapessi

▲Back to top

ABOUT THE SPEAKER
James Bridle - Artist, writer
Working across technologies and disciplines, James Bridle examines technology, knowledge and the end of the future.

Why you should listen

James Bridle is an artist and writer working across technologies and disciplines. His artworks and installations have been exhibited in Europe, North and South America, Asia and Australia, and have been viewed by hundreds of thousands of visitors online. He has been commissioned by organizations including the Victoria & Albert Museum, the Barbican, Artangel, the Oslo Architecture Triennale and the Istanbul Design Biennial, and he has been honored by Ars Electronica, the Japan Media Arts Festival and the Design Museum, London. His writing on literature, culture and networks has appeared in magazines and newspapers including Frieze, Wired, Domus, Cabinet, The Atlantic, the New Statesman and many others, and he has written a regular column for The Observer.

New Dark Age, Bridle's book about technology, knowledge and the end of the future is forthcoming from Verso (UK & US) in 2018. He lectures regularly on radio, at conferences, universities and other events including SXSW, Lift, the Global Art Forum and Re:Publica. He has been a resident at Lighthouse, Brighton, the White Building, London and Eyebeam, New York, and an adjunct professor on the interactive telecommunications program at New York University.

More profile about the speaker
James Bridle | Speaker | TED.com