ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.

Why you should listen

We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.

Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.

Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.

More profile about the speaker
Zeynep Tufekci | Speaker | TED.com
TEDGlobal>NYC

Zeynep Tufekci: We're building a dystopia just to make people click on ads

Ζεϊνέπ Τουφεξί: Οικοδομούμε μια δυστοπία απλώς για να κάνουμε τους ανθρώπους να κλικάρουν σε διαφημίσεις

Filmed:
2,866,905 views

Οικοδομούμε μια ισχυρή δυστοπία τεχνητής νοημοσύνης, με ένα κλικ τη φορά, λέει η τεχνοκοινωνιολόγος Ζέινεπ Τουφέξι. Σε μια αποκαλυπτική ομιλία, περιγράφει τον τρόπο που οι ίδιοι αλγόριθμοι που χρησιμοποιούν εταιρίες όπως το Facebook, η Google κι η Amazon για να σας βάζουν να κλικάρετε σε διαφημίσεις χρησιμοποιούνται επίσης για να οργανώσουν την πρόσβασή σας σε πολιτικές και κοινωνικές πληροφορίες. Και οι μηχανές δεν είναι καν η πραγματική απειλή. Αυτό που πρέπει να κατανοήσουμε είναι πώς οι ισχυροί μπορούν να χρησιμοποιήσουν την τεχνητή νοημοσύνη για να μας ελέγχουν, και τι μπορούμε να κάνουμε για να αντιδράσουμε.
- Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread. Full bio

Double-click the English transcript below to play the video.

00:12
So when people voiceφωνή fearsφόβους
of artificialτεχνητός intelligenceνοημοσύνη,
0
760
3536
Όταν οι άνθρωποι εκφράζουν φόβους
για την τεχνητή νοημοσύνη,
00:16
very oftenσυχνά, they invokeεπικαλούμαι imagesεικόνες
of humanoidανθρωποειδές robotsρομπότ runτρέξιμο amokαμόκ.
1
4320
3976
πολύ συχνά, ανασύρουν εικόνες
ανεξέλεγκτων ανθρωποειδών ρομπότ.
00:20
You know? TerminatorΕξολοθρευτής?
2
8320
1240
Ξέρετε; Τον Εξολοθρευτή;
00:22
You know, that mightθα μπορούσε be
something to considerσκεφτείτε,
3
10400
2336
Αυτό είναι κάτι που πρέπει να σκεφτούμε,
00:24
but that's a distantμακρινός threatαπειλή.
4
12760
1856
αλλά είναι μια μακρινή απειλή.
00:26
Or, we fretΜαίανδρος about digitalψηφιακό surveillanceεπιτήρηση
5
14640
3456
Ή ανησυχούμε για την ψηφιακή παρακολούθηση
00:30
with metaphorsμεταφορές from the pastτο παρελθόν.
6
18120
1776
με παρελθοντικές μεταφορές.
00:31
"1984," GeorgeΓιώργος Orwell'sΌργουελ "1984,"
7
19920
2656
Το «1984» του Τζορτζ Όργουελ
00:34
it's hittingνα χτυπήσει the bestsellerμπεστ σέλερ listsτόπος αγώνων again.
8
22600
2280
χτυπάει ξανά τις λίστες των μπεστ σέλερ.
00:37
It's a great bookΒιβλίο,
9
25960
1416
Είναι ένα σπουδαίο βιβλίο,
00:39
but it's not the correctσωστός dystopiaδυστοπία
for the 21stst centuryαιώνας.
10
27400
3880
αλλά δεν είναι η σωστή δυστοπία
για τον 21ο αιώνα.
Αυτό που πρέπει να φοβόμαστε
00:44
What we need to fearφόβος mostπλέον
11
32080
1416
00:45
is not what artificialτεχνητός intelligenceνοημοσύνη
will do to us on its ownτα δικά,
12
33520
4776
δεν είναι αυτό που μπορεί να μας κάνει
από μόνη της η τεχνητή νοημοσύνη,
00:50
but how the people in powerεξουσία
will use artificialτεχνητός intelligenceνοημοσύνη
13
38320
4736
αλλά πώς τα άτομα στην εξουσία
θα χρησιμοποιήσουν την τεχνητή νοημοσύνη
00:55
to controlέλεγχος us and to manipulateχειραγωγώ us
14
43080
2816
για να μας ελέγχουν και να μας χειραγωγούν
00:57
in novelμυθιστόρημα, sometimesωρες ωρες hiddenκεκρυμμένος,
15
45920
3136
με νέους, ενίοτε κρυφούς,
01:01
subtleδιακριτικό and unexpectedαπροσδόκητος waysτρόπους.
16
49080
3016
επιδέξιους και απροσδόκητους τρόπους.
01:04
Much of the technologyτεχνολογία
17
52120
1856
Μεγάλο μέρος της τεχνολογίας
01:06
that threatensαπειλεί our freedomελευθερία
and our dignityαξιοπρέπεια in the near-termβραχυπρόθεσμες futureμελλοντικός
18
54000
4336
που απειλεί την ελευθερία μας
και την αξιοπρέπειά μας στο εγγύς μέλλον
01:10
is beingνα εισαι developedαναπτηγμένος by companiesεταιρείες
19
58360
1856
αναπτύσσεται από εταιρείες
01:12
in the businessεπιχείρηση of capturingσύλληψη
and sellingπώληση our dataδεδομένα and our attentionπροσοχή
20
60240
4936
στην υπηρεσία της αποθήκευσης και πώλησης
των δεδομένων και της προσοχής μας
01:17
to advertisersδιαφημιστές and othersοι υπολοιποι:
21
65200
2256
προς διαφημιστές κι άλλους:
01:19
FacebookΣτο Facebook, GoogleGoogle, AmazonAmazon,
22
67480
3416
η Facebook, η Google, η Amazon,
01:22
AlibabaAlibaba, TencentTencent.
23
70920
1880
η Alibaba, η Tencent.
01:26
Now, artificialτεχνητός intelligenceνοημοσύνη has startedξεκίνησε
bolsteringΕνίσχυση theirδικα τους businessεπιχείρηση as well.
24
74040
5496
Τώρα, η τεχνητή νοημοσύνη έχει αρχίσει
να ενισχύει και τις επιχειρήσεις τους.
Και μπορεί να φαίνεται
ότι η τεχνητή νοημοσύνη
01:31
And it mayενδέχεται seemφαίνομαι
like artificialτεχνητός intelligenceνοημοσύνη
25
79560
2096
01:33
is just the nextεπόμενος thing after onlineσε απευθείας σύνδεση adsδιαφημίσεις.
26
81680
2856
είναι απλά το επόμενο πράγμα
μετά τις διαφημίσεις.
01:36
It's not.
27
84560
1216
Δεν είναι.
01:37
It's a jumpάλμα in categoryκατηγορία.
28
85800
2456
Είναι ένα άλμα σε μια κατηγορία.
01:40
It's a wholeολόκληρος differentδιαφορετικός worldκόσμος,
29
88280
2576
Είναι ένας εντελώς διαφορετικός κόσμος,
01:42
and it has great potentialδυνητικός.
30
90880
2616
κι έχει φοβερές δυνατότητες.
01:45
It could accelerateεπιταχύνω our understandingκατανόηση
of manyΠολλά areasπεριοχές of studyμελέτη and researchέρευνα.
31
93520
6920
Μπορεί να επιταχύνει την κατανόησή μας
σε πολλά πεδία μελέτης και έρευνας.
01:53
But to paraphraseπαράφραση
a famousπερίφημος HollywoodΧόλιγουντ philosopherφιλόσοφος,
32
101120
3496
Αλλά για να παραφράσω
έναν διάσημο φιλόσοφο του Χόλιγουντ,
01:56
"With prodigiousκαταπληκτικός potentialδυνητικός
comesέρχεται prodigiousκαταπληκτικός riskκίνδυνος."
33
104640
3640
«Με τεράστιες δυνατότητες
έρχεται κι ένας τεράστιος κίνδυνος».
02:01
Now let's look at a basicβασικός factγεγονός
of our digitalψηφιακό livesζωή, onlineσε απευθείας σύνδεση adsδιαφημίσεις.
34
109120
3936
Ας δούμε ένα βασικό γεγονός
της ψηφιακή μας ζωής:
τις διαδικτυακές διαφημίσεις.
02:05
Right? We kindείδος of dismissνα απορρίψει them.
35
113080
2896
Σωστά; Τις αγνοούμε κατά κάποιο τρόπο.
02:08
They seemφαίνομαι crudeακατέργαστος, ineffectiveαναποτελεσματική.
36
116000
1976
Φαίνονται πρόχειρες, αναποτελεσματικές.
02:10
We'veΈχουμε all had the experienceεμπειρία
of beingνα εισαι followedακολούθησε on the webιστός
37
118000
4256
Όλοι μας βιώσαμε την
παρακολούθησή μας στο διαδίκτυο
02:14
by an adΕνα δ basedμε βάση on something
we searchedαναζήτηση or readανάγνωση.
38
122280
2776
από μια διαφήμιση βασισμένη
σε κάτι που ψάξαμε ή διαβάσαμε.
02:17
You know, you look up a pairζεύγος of bootsμπότες
39
125080
1856
Βλέπετε ένα ζευγάρι μπότες
02:18
and for a weekεβδομάδα, those bootsμπότες are followingΕΠΟΜΕΝΟ
you around everywhereπαντού you go.
40
126960
3376
και για μια εβδομάδα,
αυτές οι μπότες σας ακολουθούν όπου πάτε.
Ακόμα κι όταν υποκύψετε και τις αγοράσετε,
και πάλι σας ακολουθούν.
02:22
Even after you succumbυποκύψει and buyαγορά them,
they're still followingΕΠΟΜΕΝΟ you around.
41
130360
3656
02:26
We're kindείδος of inuredσημείο εθισμού to that kindείδος
of basicβασικός, cheapφτηνός manipulationχειρισμός.
42
134040
3016
Είμαστε κάπως εξοικειωμένοι σε αυτή
τη βασική, φτηνή χειραγώγηση.
02:29
We rollρολό our eyesμάτια and we think,
"You know what? These things don't work."
43
137080
3400
Αδιαφορούμε και σκεφτόμαστε,
«Ξέρεις κάτι; Αυτά δεν πιάνουν».
02:33
ExceptΕκτός από, onlineσε απευθείας σύνδεση,
44
141720
2096
Μόνο που διαδικτυακά,
02:35
the digitalψηφιακό technologiesτεχνολογίες are not just adsδιαφημίσεις.
45
143840
3600
οι ψηφιακές τεχνολογίες
δεν είναι απλώς διαφημίσεις.
02:40
Now, to understandκαταλαβαίνουν that,
let's think of a physicalφυσικός worldκόσμος exampleπαράδειγμα.
46
148240
3120
Για να το καταλάβουμε, ας σκεφτούμε
ένα παράδειγμα του φυσικού κόσμου.
02:43
You know how, at the checkoutολοκλήρωση της παραγγελίας countersμετρητές
at supermarketsσούπερ μάρκετ, nearκοντά the cashierΤαμίας,
47
151840
4656
Γνωρίζετε πως στα ταμεία
των σουπερμάρκετ, κοντά στα ταμεία,
02:48
there's candyκαραμέλα and gumκόμμι
at the eyeμάτι levelεπίπεδο of kidsπαιδιά?
48
156520
3480
υπάρχουν ζαχαρωτά και τσίχλες
στο ύψος των ματιών των παιδιών;
02:52
That's designedσχεδιασμένο to make them
whineγκρινιάζει at theirδικα τους parentsγονείς
49
160800
3496
Αυτό είναι σχεδιασμένο να τα κάνουν
να κλαίνε στους γονείς τους
02:56
just as the parentsγονείς
are about to sortείδος of checkέλεγχος out.
50
164320
3080
μόλις οι γονείς είναι έτοιμοι να φύγουν.
03:00
Now, that's a persuasionπειστικότητα architectureαρχιτεκτονική.
51
168040
2640
Αυτή τώρα είναι μια αρχιτεκτονική πειθούς.
03:03
It's not niceόμορφη, but it kindείδος of worksεργοστάσιο.
52
171160
3096
Δεν είναι σωστή, αλλά κάπως δουλεύει.
03:06
That's why you see it
in everyκάθε supermarketσουπερμάρκετ.
53
174280
2040
Γι' αυτό το βλέπετε σε κάθε σουπερμάρκετ.
03:08
Now, in the physicalφυσικός worldκόσμος,
54
176720
1696
Τώρα, στον φυσικό κόσμο,
03:10
suchτέτοιος persuasionπειστικότητα architecturesαρχιτεκτονικές
are kindείδος of limitedπεριωρισμένος,
55
178440
2496
τέτοιες αρχιτεκτονικές πειθούς
είναι περιορισμένες,
03:12
because you can only put
so manyΠολλά things by the cashierΤαμίας. Right?
56
180960
4816
επειδή μπορείς να βάλεις
ένα σωρό πράγματα δίπλα στο ταμείο, έτσι;
03:17
And the candyκαραμέλα and gumκόμμι,
it's the sameίδιο for everyoneΟλοι,
57
185800
4296
Και οι τσίχλες και τα ζαχαρωτά
είναι τα ίδια για όλους,
03:22
even thoughαν και it mostlyως επί το πλείστον worksεργοστάσιο
58
190120
1456
παρόλο που αυτό δουλεύει κυρίως
03:23
only for people who have
whinyWhiny little humansτου ανθρώπου besideδίπλα them.
59
191600
4040
μόνο για τον κόσμο που έχει
κλαψιάρικα ανθρωπάκια δίπλα του.
03:29
In the physicalφυσικός worldκόσμος,
we liveζω with those limitationsπεριορισμούς.
60
197160
3920
Στον φυσικό κόσμο,
ζούμε με αυτούς τους περιορισμούς.
03:34
In the digitalψηφιακό worldκόσμος, thoughαν και,
61
202280
1936
Στον ψηφιακό κόσμο, όμως,
03:36
persuasionπειστικότητα architecturesαρχιτεκτονικές
can be builtχτισμένο at the scaleκλίμακα of billionsδισεκατομμύρια
62
204240
4320
οι αρχιτεκτονικές πειθούς δημιουργούνται
στην κλίμακα των δισεκατομμυρίων
03:41
and they can targetστόχος, inferσυμπεράνουμε, understandκαταλαβαίνουν
63
209840
3856
και μπορούν να στοχεύσουν,
να συνάγουν, να καταλάβουν
03:45
and be deployedαναπτυχθεί at individualsτα άτομα
64
213720
2896
και να αξιοποιηθούν από άτομα
03:48
one by one
65
216640
1216
μία προς μία
03:49
by figuringκατανόηση out your weaknessesαδυναμίες,
66
217880
2136
ανακαλύπτοντας τις αδυναμίες σας,
03:52
and they can be sentΑπεσταλμένα
to everyone'sο καθένας phoneτηλέφωνο privateιδιωτικός screenοθόνη,
67
220040
5616
και να μπορούν να αποστέλλονται
στην οθόνη του κινητού του καθενός,
03:57
so it's not visibleορατός to us.
68
225680
2256
γι' αυτό δεν είναι ορατές σε εμάς.
03:59
And that's differentδιαφορετικός.
69
227960
1256
Κι αυτό είναι διαφορετικό.
04:01
And that's just one of the basicβασικός things
that artificialτεχνητός intelligenceνοημοσύνη can do.
70
229240
3576
Και είναι μόνο ένα από τα βασικά
που μπορεί να κάνει η τεχνητή νοημοσύνη.
Ας πάρουμε ένα παράδειγμα.
04:04
Now, let's take an exampleπαράδειγμα.
71
232840
1336
Πείτε ότι θέλετε να πουλήσετε
αεροπορικά εισιτήρια για Λας Βέγκας.
04:06
Let's say you want to sellΠουλώ
planeεπίπεδο ticketsεισιτήρια to VegasΛας Βέγκας. Right?
72
234200
2696
04:08
So in the oldπαλαιός worldκόσμος, you could think
of some demographicsδημογραφικά στοιχεία to targetστόχος
73
236920
3496
Παλιά θα σκεφτόσασταν
να στοχεύσετε κάποια πληθυσμιακή ομάδα
04:12
basedμε βάση on experienceεμπειρία
and what you can guessεικασία.
74
240440
2520
βάσει της εμπειρίας
και αυτά που μπορείτε να υποθέσετε.
04:15
You mightθα μπορούσε try to advertiseΔιαφημιστείτε to, oh,
75
243560
2816
Μπορεί να δοκιμάσετε να διαφημίσετε
σε άντρες ηλικιών μεταξύ 25 και 35
04:18
menάνδρες betweenμεταξύ the agesηλικίες of 25 and 35,
76
246400
2496
04:20
or people who have
a highυψηλός limitόριο on theirδικα τους creditπίστωση cardκάρτα,
77
248920
3936
ή σε ανθρώπους που έχουν ένα υψηλό όριο
στην πιστωτική τους κάρτα,
ή σε συνταξιοδοτημένα ζευγάρια. Σωστά;
04:24
or retiredσυνταξιούχος couplesζευγάρια. Right?
78
252880
1376
04:26
That's what you would do in the pastτο παρελθόν.
79
254280
1816
Αυτό θα κάνατε στο παρελθόν.
04:28
With bigμεγάλο dataδεδομένα and machineμηχανή learningμάθηση,
80
256120
2896
Με τα μαζικά δεδομένα
και τη μηχανική μάθηση,
04:31
that's not how it worksεργοστάσιο anymoreπια.
81
259040
1524
δεν δουλεύει έτσι πια.
04:33
So to imagineφαντάζομαι that,
82
261320
2176
Για να το φανταστείτε αυτό,
04:35
think of all the dataδεδομένα
that FacebookΣτο Facebook has on you:
83
263520
3856
σκεφτείτε όλα τα δεδομένα
που έχει το Facebook για εσάς:
04:39
everyκάθε statusκατάσταση updateεκσυγχρονίζω you ever typedπληκτρολογήσαμε,
84
267400
2536
κάθε κατάσταση ενημέρωσης
που πληκτρολογήσατε ποτέ,
04:41
everyκάθε MessengerΑγγελιοφόρος conversationσυνομιλία,
85
269960
2016
κάθε συζήτηση στο Messenger,
04:44
everyκάθε placeθέση you loggedσυνδεδεμένοι in from,
86
272000
1880
κάθε μέρος στο οποίο συνδεθήκατε,
04:48
all your photographsφωτογραφίες
that you uploadedφορτώθηκε there.
87
276400
3176
όλες τις φωτογραφίες σας
που έχετε ανεβάσει εκεί.
04:51
If you startαρχή typingπληκτρολόγηση something
and changeαλλαγή your mindμυαλό and deleteδιαγράφω it,
88
279600
3776
Αν αρχίσετε να πληκτρολογείτε κάτι
και αλλάξετε γνώμη και το διαγράψετε,
04:55
FacebookΣτο Facebook keepsκρατάει those
and analyzesαναλύσεις them, too.
89
283400
3200
το Facebook τα διατηρεί και τα αναλύει.
04:59
IncreasinglyΟλοένα και περισσότερο, it triesπροσπαθεί
to matchαγώνας you with your offlineεκτός σύνδεσης dataδεδομένα.
90
287160
3936
Όλο και πιο συχνά, προσπαθεί να ταιριάξει
εσάς με τα δεδομένα εκτός γραμμής.
05:03
It alsoεπίσης purchasesψώνια
a lot of dataδεδομένα from dataδεδομένα brokersΜεσίτες.
91
291120
3176
Αγοράζει επίσης πολλά δεδομένα
από μεσίτες δεδομένων.
05:06
It could be everything
from your financialχρηματοοικονομική recordsαρχεία
92
294320
3416
Μπορεί να είναι οτιδήποτε
από τα χρηματοπιστωτικά σας αρχεία
μέχρι έναν καλό όγκο του ιστορικού
της πλοήγησης σας, σωστά;
05:09
to a good chunkμεγάλο κομμάτι of your browsingΠεριήγηση historyιστορία.
93
297760
2120
05:12
Right? In the US,
suchτέτοιος dataδεδομένα is routinelyσυνήθως collectedσυγκεντρωμένος,
94
300360
5416
Στις Ηνωμένες Πολιτείες, τέτοια δεδομένα
συλλέγονται συστηματικά,
05:17
collatedΣυρραφή and soldπωληθεί.
95
305800
1960
διαταξινομούνται και πωλούνται.
05:20
In EuropeΕυρώπη, they have tougherπιο σκληρή rulesκανόνες.
96
308320
2440
Στην Ευρώπη, έχουν πιο σκληρούς κανόνες.
05:23
So what happensσυμβαίνει then is,
97
311680
2200
Αυτό λοιπόν που συμβαίνει μετά
05:26
by churningανατάραξη throughδιά μέσου all that dataδεδομένα,
these machine-learningπολυβόλο-μαθαίνω algorithmsαλγορίθμους --
98
314920
4016
μέσω της επεξεργασίας όλων των δεδομένων,
αυτοί οι αλγόριθμοι μηχανικής μάθησης --
05:30
that's why they're calledπου ονομάζεται
learningμάθηση algorithmsαλγορίθμους --
99
318960
2896
γι' αυτό αποκαλούνται
αλγόριθμοι μάθησης --
05:33
they learnμαθαίνω to understandκαταλαβαίνουν
the characteristicsΧαρακτηριστικά of people
100
321880
4096
μαθαίνουν να κατανοούν
τα χαρακτηριστικά των ανθρώπων
05:38
who purchasedαγοράσει ticketsεισιτήρια to VegasΛας Βέγκας before.
101
326000
2520
που αγόρασαν εισιτήρια
για το Λας Βέγκας προηγουμένως.
05:41
When they learnμαθαίνω this from existingυπάρχουσες dataδεδομένα,
102
329760
3536
Όταν το μαθαίνουν αυτό
από τα υπάρχοντα δεδομένα,
05:45
they alsoεπίσης learnμαθαίνω
how to applyισχύουν this to newνέος people.
103
333320
3816
μαθαίνουν επίσης πώς να το εφαρμόζουν
αυτό σε νέους ανθρώπους.
05:49
So if they're presentedπαρουσιάστηκε with a newνέος personπρόσωπο,
104
337160
3056
Αν παρουσιάζονται με έναν νέο άνθρωπο,
05:52
they can classifyταξινόμηση whetherκατά πόσο that personπρόσωπο
is likelyπιθανός to buyαγορά a ticketεισιτήριο to VegasΛας Βέγκας or not.
105
340240
4640
ταξινομούν εάν αυτό το άτομο
μπορεί να αγοράσει
ένα εισιτήριο για το Λας Βέγκας ή όχι.
05:57
Fine. You're thinkingσκέψη,
an offerπροσφορά to buyαγορά ticketsεισιτήρια to VegasΛας Βέγκας.
106
345720
5456
Εντάξει. Σκέφτεσαι μια προσφορά
να αγοράσω εισιτήρια για το Λας Βέγκας.
06:03
I can ignoreαγνοώ that.
107
351200
1456
Μπορώ να το αγνοήσω αυτό.
06:04
But the problemπρόβλημα isn't that.
108
352680
2216
Αλλά το πρόβλημα δεν είναι αυτό.
06:06
The problemπρόβλημα is,
109
354920
1576
Το πρόβλημα είναι
06:08
we no longerμακρύτερα really understandκαταλαβαίνουν
how these complexσυγκρότημα algorithmsαλγορίθμους work.
110
356520
4136
πως δεν κατανοούμε πλέον τη λειτουργία
αυτών των περίπλοκων αλγορίθμων.
06:12
We don't understandκαταλαβαίνουν
how they're doing this categorizationκατηγοριοποίηση.
111
360680
3456
Δεν καταλαβαίνουμε πώς κάνουν
αυτή την κατηγοριοποίηση.
06:16
It's giantγίγαντας matricesμήτρες,
thousandsχιλιάδες of rowsσειρές and columnsστήλες,
112
364160
4416
Τους γιγάντιες πίνακές του,
τις χιλιάδες γραμμές και στήλες,
06:20
maybe millionsεκατομμύρια of rowsσειρές and columnsστήλες,
113
368600
1960
ίσως εκατομμύρια από γραμμές και στήλες,
06:23
and not the programmersπρογραμματιστές
114
371320
2640
και ούτε οι προγραμματιστές
06:26
and not anybodyοποιοσδήποτε who looksφαίνεται at it,
115
374760
1680
ούτε ο κάθε ένας που τα κοιτάει,
ακόμα κι αν έχετε όλα τα δεδομένα,
06:29
even if you have all the dataδεδομένα,
116
377440
1496
06:30
understandsκαταλαβαίνει anymoreπια
how exactlyακριβώς it's operatingλειτουργικός
117
378960
4616
κατανοεί πώς ακριβώς λειτουργεί πια
06:35
any more than you'dεσείς know
what I was thinkingσκέψη right now
118
383600
3776
πολύ περισσότερο από ότι θα γνωρίζατε
τι σκέφτομαι αυτή τη στιγμή
06:39
if you were shownαπεικονίζεται
a crossσταυρός sectionΕνότητα of my brainεγκέφαλος.
119
387400
3960
αν βλέπατε μια εγκάρσια τομή
του εγκεφάλου μου.
06:44
It's like we're not programmingπρογραμματισμός anymoreπια,
120
392360
2576
Είναι σαν να μην προγραμματίζουμε πλέον,
06:46
we're growingκαλλιέργεια intelligenceνοημοσύνη
that we don't trulyστα αληθεια understandκαταλαβαίνουν.
121
394960
4400
αναπτύσσουμε νοημοσύνη
την οποία δεν κατανοούμε πλήρως.
06:52
And these things only work
if there's an enormousτεράστιος amountποσό of dataδεδομένα,
122
400520
3976
Κι αυτά τα πράγματα λειτουργούν μόνο
αν υπάρχει ένας μεγάλος όγκος δεδομένων,
06:56
so they alsoεπίσης encourageενθαρρύνω
deepβαθύς surveillanceεπιτήρηση on all of us
123
404520
5096
έτσι προτρέπουν επιπλέον
μια βαθιά παρακολούθηση όλων μας,
07:01
so that the machineμηχανή learningμάθηση
algorithmsαλγορίθμους can work.
124
409640
2336
ώστε να δουλεύουν οι αλγόριθμοι
μηχανικής μάθησης.
07:04
That's why FacebookΣτο Facebook wants
to collectσυλλέγω all the dataδεδομένα it can about you.
125
412000
3176
Γι' αυτό το Facebook θέλει να συλλέγει
όλα τα δεδομένα για εσάς.
Οι αλγόριθμοι δουλεύουν καλύτερα.
07:07
The algorithmsαλγορίθμους work better.
126
415200
1576
07:08
So let's pushΣπρώξτε that VegasΛας Βέγκας exampleπαράδειγμα a bitκομμάτι.
127
416800
2696
Ας επιμείνουμε για λίγο
στο παράδειγμα του Λας Βέγκας.
07:11
What if the systemΣύστημα
that we do not understandκαταλαβαίνουν
128
419520
3680
Τι κι αν το σύστημα που δεν καταλαβαίνουμε
07:16
was pickingσυλλογή up that it's easierευκολότερη
to sellΠουλώ VegasΛας Βέγκας ticketsεισιτήρια
129
424200
5136
ανίχνευε ότι είναι πιο εύκολο
να πουλήσει εισιτήρια του Λας Βέγκας
07:21
to people who are bipolarδιπολικός
and about to enterεισαγω the manicμανιακών phaseφάση.
130
429360
3760
σε ανθρώπους που είναι διπολικοί
και μπαίνουν σε μανιακό επειδόδιο.
07:25
SuchΜια τέτοια people tendτείνω to becomeγίνομαι
overspendersτα παραφτερά, compulsiveψυχαναγκαστική gamblersΟι παίκτες.
131
433640
4920
Τέτοιοι άνθρωποι τείνουν να ξοδεύουν πολύ,
να είναι εθισμένοι στον τζόγο.
07:31
They could do this, and you'dεσείς have no clueένδειξη
that's what they were pickingσυλλογή up on.
132
439280
4456
Μπορούν να το κάνουν, και δεν θα είχατε
καμιά ένδειξη ότι συνέλεξαν κάτι τέτοιο.
07:35
I gaveέδωσε this exampleπαράδειγμα
to a bunchδέσμη of computerυπολογιστή scientistsΕπιστήμονες onceμια φορά
133
443760
3616
Έδωσα αυτό το παράδειγμα κάποτε
σε μια ομάδα επιστημόνων της πληροφορικής
07:39
and afterwardsέπειτα, one of them cameήρθε up to me.
134
447400
2056
και μετά, ένας από αυτούς με πλησίασε.
07:41
He was troubledπροβλήματα and he said,
"That's why I couldn'tδεν μπορούσε publishδημοσιεύω it."
135
449480
3520
Ήταν προβληματισμένος και είπε,
«Γι' αυτό δεν μπόρεσα να το δημοσιεύσω».
07:45
I was like, "Couldn'tΔεν θα μπορούσε να publishδημοσιεύω what?"
136
453600
1715
«Τι δεν μπόρεσες να δημοσιεύσεις;» είπα.
07:47
He had triedδοκιμασμένος to see whetherκατά πόσο you can indeedπράγματι
figureεικόνα out the onsetΈναρξη of maniaμανία
137
455800
5856
Προσπαθούσε να δει εάν μπορείς πράγματι
να καταλάβεις την έναρξη της μανίας
07:53
from socialκοινωνικός mediaμεσο ΜΑΖΙΚΗΣ ΕΝΗΜΕΡΩΣΗΣ postsθέσεις
before clinicalκλινικός symptomsσυμπτώματα,
138
461680
3216
από τις αναρτήσεις στα κοινωνικά δίκτυα
πριν τα κλινικά συμπτώματα,
07:56
and it had workedεργάστηκε,
139
464920
1776
και πέτυχε,
07:58
and it had workedεργάστηκε very well,
140
466720
2056
και πάρα πολύ καλά,
08:00
and he had no ideaιδέα how it workedεργάστηκε
or what it was pickingσυλλογή up on.
141
468800
4880
και δεν είχε ιδέα
πώς λειτούργησε ή τι συνέλεγε.
08:06
Now, the problemπρόβλημα isn't solvedλυθεί
if he doesn't publishδημοσιεύω it,
142
474840
4416
Τώρα, το πρόβλημα δεν λύνεται
αν δεν το εκδώσει,
επειδή υπάρχουν ήδη εταιρείες
08:11
because there are alreadyήδη companiesεταιρείες
143
479280
1896
08:13
that are developingανάπτυξη
this kindείδος of technologyτεχνολογία,
144
481200
2536
που αναπτύσσουν
αυτού του είδους την τεχνολογία,
08:15
and a lot of the stuffυλικό
is just off the shelfράφι.
145
483760
2800
και πολλά από τα πράγματα
είναι απλά ετοιμοπαράδοτα.
08:19
This is not very difficultδύσκολος anymoreπια.
146
487240
2576
Αυτό δεν είναι δύσκολο πια.
08:21
Do you ever go on YouTubeYouTube
meaningέννοια to watch one videoβίντεο
147
489840
3456
Έχετε μπει ποτέ στο YouTube
να δείτε ένα βίντεο
08:25
and an hourώρα laterαργότερα you've watchedπαρακολούθησα 27?
148
493320
2360
και μία ώρα αργότερα να έχετε δει άλλα 27;
08:28
You know how YouTubeYouTube
has this columnστήλη on the right
149
496760
2496
Ξέρετε ότι το YouTube
έχει αυτή την στήλη στα δεξιά
08:31
that saysλέει, "Up nextεπόμενος"
150
499280
2216
που λέει, «Επόμενο»
08:33
and it autoplaysαυτόματης εκτύπωσης something?
151
501520
1816
και παίζει αυτόματα κάτι;
08:35
It's an algorithmαλγόριθμος
152
503360
1216
Είναι ένας αλγόριθμος
08:36
pickingσυλλογή what it thinksσκέφτεται
that you mightθα μπορούσε be interestedενδιαφερόμενος in
153
504600
3616
που συλλέγει αυτά που νομίζει
ότι πιθανόν να ενδιαφέρεστε
και μπορεί να μην βρείτε μόνοι σας.
08:40
and maybe not find on your ownτα δικά.
154
508240
1536
08:41
It's not a humanο άνθρωπος editorσυντάκτης.
155
509800
1256
Δεν είναι ανθρώπινος παραγωγός.
Αυτό κάνουν οι αλγόριθμοι.
08:43
It's what algorithmsαλγορίθμους do.
156
511080
1416
08:44
It picksεπιλογές up on what you have watchedπαρακολούθησα
and what people like you have watchedπαρακολούθησα,
157
512520
4736
Συλλέγει αυτά που έχετε παρακολουθήσει
άνθρωποι όπως εσείς,
08:49
and infersσυνάγει that that mustπρέπει be
what you're interestedενδιαφερόμενος in,
158
517280
4216
και συμπεραίνει ότι αυτό
είναι που πρέπει να σας ενδιαφέρει,
08:53
what you want more of,
159
521520
1255
ότι θέλετε κι άλλο από αυτό,
και σας δείχνει κι άλλο.
08:54
and just showsδείχνει you more.
160
522799
1336
08:56
It soundsήχους like a benignαγαθός
and usefulχρήσιμος featureχαρακτηριστικό,
161
524159
2201
Ακούγεται σαν μια άκακη
και χρήσιμη λειτουργία,
08:59
exceptεκτός when it isn't.
162
527280
1200
μόνο που δεν είναι.
09:01
So in 2016, I attendedπαρακολούθησαν ralliesσυλλαλητήρια
of then-candidateτότε-υποψήφιος DonaldDonald TrumpΑτού
163
529640
6960
Το 2016 παραρεύθηκα σε συγκεντρώσεις
του τότε υποψηφίου Ντόναλντ Τραμπ
09:09
to studyμελέτη as a scholarλόγιος
the movementκίνηση supportingυποστήριξη him.
164
537840
3336
για να μελετήσω ως ακαδημαϊκός
το κίνημα που τον υποστήριζε.
09:13
I studyμελέτη socialκοινωνικός movementsκινήσεις,
so I was studyingμελετώντας it, too.
165
541200
3456
Μελετώ τα κοινωνικά κινήματα,
έτσι μελετούσα κι αυτό.
09:16
And then I wanted to writeγράφω something
about one of his ralliesσυλλαλητήρια,
166
544680
3336
Και τότε ήθελα να γράψω κάτι
σχετικά με μία από τις συγκεντρώσεις του,
09:20
so I watchedπαρακολούθησα it a fewλίγοι timesφορές on YouTubeYouTube.
167
548040
1960
γι' αυτό το είδα
κάμποσες φορές στο YouTube.
09:23
YouTubeYouTube startedξεκίνησε recommendingσυνιστώντας to me
168
551240
3096
Το YouTube άρχισε να μου προτείνει
09:26
and autoplayingδιαμορφώσετε to me
whiteάσπρο supremacistρατσιστών videosΒίντεο
169
554360
4256
και να παίζει αυτόματα
ακραία ρατσιστικά βίντεο
09:30
in increasingαυξάνεται orderΣειρά of extremismεξτρεμισμός.
170
558640
2656
κατά αύξουσα σειρά του εξτρεμισμού.
09:33
If I watchedπαρακολούθησα one,
171
561320
1816
Αν έβλεπα ένα,
09:35
it servedσερβίρεται up one even more extremeάκρο
172
563160
2976
παρέθετε ένα ακόμα πιο ακραίο
09:38
and autoplayedΑυτόματη that one, too.
173
566160
1424
κι έπαιζε αυτόματα και αυτό.
09:40
If you watch HillaryΧίλαρι ClintonΚλίντον
or BernieBernie SandersΤριβεία contentπεριεχόμενο,
174
568320
4536
Αν δείτε περιεχόμενο της Χίλαρι Κλίντον
ή του Μπέρνι Σάντερς,
09:44
YouTubeYouTube recommendsσυνιστά
and autoplaysαυτόματης εκτύπωσης conspiracyσυνωμοσία left,
175
572880
4696
το YouTube προτείνει και παίζει αυτόματα
της αριστερής συνομωσίας,
09:49
and it goesπηγαίνει downhillκατηφορικός from there.
176
577600
1760
και παίρνει την κατιούσα από εκεί.
Μπορεί να σκέφτεστε ότι αυτή
είναι η πολιτική, αλλά δεν είναι.
09:52
Well, you mightθα μπορούσε be thinkingσκέψη,
this is politicsπολιτική, but it's not.
177
580480
3056
Δεν έχει να κάνει με πολιτική.
09:55
This isn't about politicsπολιτική.
178
583560
1256
Είναι ο αλγόριθμος που αποκρυπτογραφεί
την ανθρώπινη συμπεριφορά.
09:56
This is just the algorithmαλγόριθμος
figuringκατανόηση out humanο άνθρωπος behaviorη ΣΥΜΠΕΡΙΦΟΡΑ.
179
584840
3096
09:59
I onceμια φορά watchedπαρακολούθησα a videoβίντεο
about vegetarianismχορτοφαγία on YouTubeYouTube
180
587960
4776
Κάποτε είδα ένα βίντεο
για τη χορτοφαγία στο YouTube
10:04
and YouTubeYouTube recommendedΣυνιστάται
and autoplayedΑυτόματη a videoβίντεο about beingνα εισαι veganγια χορτοφάγους.
181
592760
4936
και το YouTube πρότεινε κι έπαιξε αυτόματα
ένα βίντεο για το πώς να γίνω βίγκαν.
10:09
It's like you're never
hardcoreσκληρο πορνο enoughαρκετά for YouTubeYouTube.
182
597720
3016
Είναι λες και δεν είσαι αρκετά
σκληροπυρηνικός για το YouTube.
10:12
(LaughterΤο γέλιο)
183
600760
1576
(Γέλια)
10:14
So what's going on?
184
602360
1560
Τι συμβαίνει λοιπόν;
10:16
Now, YouTube'sΤου YouTube algorithmαλγόριθμος is proprietaryιδιόκτητο,
185
604520
3536
Τώρα, ο αλγόριθμος
του YouTube είναι ιδιοταγής,
10:20
but here'sεδώ είναι what I think is going on.
186
608080
2360
αλλά αυτό είναι που νομίζω ότι συμβαίνει.
10:23
The algorithmαλγόριθμος has figuredσχηματικός out
187
611360
2096
Ο αλγόριθμος έχει ανακαλύψει
10:25
that if you can enticeνα δελεάσει people
188
613480
3696
ότι αν μπορείς να δελεάζεις τους ανθρώπους
10:29
into thinkingσκέψη that you can
showπροβολή them something more hardcoreσκληρο πορνο,
189
617200
3736
με το να πιστεύουν ότι μπορείς
να τους δείχνεις κάτι πιο σκληροπυρηνικό,
10:32
they're more likelyπιθανός to stayδιαμονή on the siteιστοσελίδα
190
620960
2416
είναι πιο πιθανό
να παραμείνουν στην ιστοσελίδα
10:35
watchingβλέποντας videoβίντεο after videoβίντεο
going down that rabbitκουνέλι holeτρύπα
191
623400
4416
βλέποντας το ένα βίντεο
μετά το άλλο μπαίνοντας σε βαθιά νερά
10:39
while GoogleGoogle servesεξυπηρετεί them adsδιαφημίσεις.
192
627840
1680
ενώ η Google τους διανέμει διαφημίσεις.
10:43
Now, with nobodyκανείς mindingφύλαξη των παιδιών
the ethicsδεοντολογία of the storeκατάστημα,
193
631760
3120
Τώρα, χωρίς να τον πειράζει
κανέναν η δεοντολογία του καταστήματος,
10:47
these sitesιστοσελίδες can profileπροφίλ people
194
635720
4240
αυτές οι ιστοσελίδες μπορούν
να σκιαγραφήσουν ανθρώπους
οι οποίοι μισούν τους Εβραίους,
10:53
who are JewΕβραίος hatershaters,
195
641680
1920
10:56
who think that JewsΕβραίοι are parasitesπαράσιτα
196
644360
2480
που νομίζουν ότι οι Εβραίοι είναι παράσιτα
11:00
and who have suchτέτοιος explicitσαφής
anti-Semiticαντι-σημιτικές contentπεριεχόμενο,
197
648320
4920
και που έχουν τόσο χυδαίο
αντισημιτικό περιεχόμενο,
και σε αφήνουν να τους στοχεύεις
με διαφημίσεις.
11:06
and let you targetστόχος them with adsδιαφημίσεις.
198
654080
2000
11:09
They can alsoεπίσης mobilizeκινητοποιώ algorithmsαλγορίθμους
199
657200
3536
Μπορούν επίσης
να ενεργοποιήσουν αλγόριθμους
11:12
to find for you look-alikeμοιάζουν audiencesκοινό,
200
660760
3136
για να σου βρουν πανομοιότυπα ακροατήρια,
11:15
people who do not have suchτέτοιος explicitσαφής
anti-Semiticαντι-σημιτικές contentπεριεχόμενο on theirδικα τους profileπροφίλ
201
663920
5576
άτομα τα οποία δεν έχουν τόσο χυδαίο
αντισημιτικό περιεχόμενο στο προφίλ τους,
11:21
but who the algorithmαλγόριθμος detectsανιχνεύει
mayενδέχεται be susceptibleευαίσθητος to suchτέτοιος messagesμηνυμάτων,
202
669520
6176
αλλά όσους ανιχνεύει ο αλγόριθμος μπορεί
να είναι επιρρεπείς σε τέτοια μηνύματα,
και σε αφήνουν να τους στοχεύεις
και αυτούς με διαφημίσεις.
11:27
and letsεπιτρέπει you targetστόχος them with adsδιαφημίσεις, too.
203
675720
1920
11:30
Now, this mayενδέχεται soundήχος
like an implausibleαβάσιμη exampleπαράδειγμα,
204
678680
2736
Τώρα, αυτό μπορεί να ακουστεί
σαν ένα απίθανο παράδειγμα,
11:33
but this is realπραγματικός.
205
681440
1320
αλλά είναι αληθινό.
11:35
ProPublicaΗ Προδημοσια investigatedέρευνα this
206
683480
2136
Η ProPublica το ερεύνησε αυτό
11:37
and foundβρέθηκαν that you can indeedπράγματι
do this on FacebookΣτο Facebook,
207
685640
3616
και βρήκε ότι μπορείς πράγματι
να το κάνεις αυτό στο Facebook,
11:41
and FacebookΣτο Facebook helpfullyπρόθυμα
offeredπροσφέρονται up suggestionsΠροτάσεις
208
689280
2416
και το Facebook πρόθυμα
προσέφερε προτάσεις
11:43
on how to broadenδιευρύνουν that audienceακροατήριο.
209
691720
1600
ή στο πώς να διευρύνεις αυτό το κοινό.
11:46
BuzzFeedBuzzFeed triedδοκιμασμένος it for GoogleGoogle,
and very quicklyγρήγορα they foundβρέθηκαν,
210
694720
3016
Το BuzzFeed το δοκίμασε για την Google,
και πολύ γρήγορα έμαθαν,
11:49
yepΝαι, you can do it on GoogleGoogle, too.
211
697760
1736
ότι μπορείς και στο Google.
11:51
And it wasn'tδεν ήταν even expensiveακριβός.
212
699520
1696
Και δεν ήταν καν ακριβό.
11:53
The ProPublicaΗ Προδημοσια reporterδημοσιογράφος
spentξόδεψε about 30 dollarsδολάρια
213
701240
4416
ο δημοσιογράφος της ProPublica
ξόδεψε γύρω στα 30 δολάρια
11:57
to targetστόχος this categoryκατηγορία.
214
705680
2240
για να στοχεύσει αυτή την κατηγορία.
12:02
So last yearέτος, DonaldDonald Trump'sTrump
socialκοινωνικός mediaμεσο ΜΑΖΙΚΗΣ ΕΝΗΜΕΡΩΣΗΣ managerδιευθυντής disclosedαποκαλύπτονται
215
710600
5296
Πέρυσι, ο διαχειριστής των κοινωνικών
μέσων του Ντόναλντ Τραμπ αποκάλυψε
12:07
that they were usingχρησιμοποιώντας FacebookΣτο Facebook darkσκοτάδι postsθέσεις
to demobilizeπερπάτημα είναι people,
216
715920
5336
ότι χρησιμοποιούσαν
αόρατες αναρτήσεις στο Facebook
για να μην κινητοποιήσουν ανθρώπους,
12:13
not to persuadeπείθω them,
217
721280
1376
όχι να τους επηρεάσουν,
12:14
but to convinceπείθω them not to voteψήφος at all.
218
722680
2800
αλλά να τους μεταπείσουν
να μην ψηφίσουν καθόλου.
12:18
And to do that,
they targetedστοχοθετημένη specificallyειδικά,
219
726520
3576
Και για να το κάνουν αυτό,
στόχευσαν συγκεκριμένα, για παράδειγμα,
12:22
for exampleπαράδειγμα, African-AmericanΑφροαμερικανός menάνδρες
in keyκλειδί citiesπόλεις like PhiladelphiaΦιλαδέλφεια,
220
730120
3896
αφροαμερικανούς άντρες
σε κομβικές πόλεις, όπως τη Φιλαδέλφεια,
12:26
and I'm going to readανάγνωση
exactlyακριβώς what he said.
221
734040
2456
και θα σας διαβάσω ακριβώς ό,τι είπε.
12:28
I'm quotingαναφέροντας.
222
736520
1216
Παραθέτω.
12:29
They were usingχρησιμοποιώντας "nonpublicμη δημόσιες postsθέσεις
223
737760
3016
Χρησιμοποιούσαν «μη δημόσιες αναρτήσεις
12:32
whoseτου οποίου viewershipτηλεθέαση the campaignκαμπάνια controlsελέγχους
224
740800
2176
των οποίων η εκστρατεία ελέγχει
τη θεαματικότητα,
12:35
so that only the people
we want to see it see it.
225
743000
3776
για να το δουν μόνο οι άνθρωποι
που θέλουμε εμείς.
12:38
We modeledμοντέλο this.
226
746800
1216
Εμείς το σχεδιάσαμε αυτό.
12:40
It will dramaticallyδραματικά affectεπηρεάζουν her abilityικανότητα
to turnστροφή these people out."
227
748040
4720
Θα επηρεάσει δραματικά την ικανότητά της
να μεταστρέψει αυτούς τους ανθρώπους».
12:45
What's in those darkσκοτάδι postsθέσεις?
228
753720
2280
Τι περιέχουν αυτές οι αόρατες αναρτήσεις;
12:48
We have no ideaιδέα.
229
756480
1656
Δεν έχουμε ιδέα.
12:50
FacebookΣτο Facebook won'tσυνηθισμένος tell us.
230
758160
1200
Το Facebook δεν θα μας πει.
12:52
So FacebookΣτο Facebook alsoεπίσης algorithmicallyαλγοριθμικά
arrangesτακτοποιεί the postsθέσεις
231
760480
4376
Το Facebook λοιπόν ρυθμίζει
αλγοριθμικά τις αναρτήσεις
12:56
that your friendsοι φιλοι put on FacebookΣτο Facebook,
or the pagesσελίδες you followακολουθηστε.
232
764880
3736
που ανεβάζουν οι φίλοι σας στο Facebook
στις σελίδες που ακολουθείτε.
13:00
It doesn't showπροβολή you
everything chronologicallyχρονολογικά.
233
768640
2216
Δεν σας δείχνει τα πάντα χρονολογικά.
13:02
It putsθέτει the orderΣειρά in the way
that the algorithmαλγόριθμος thinksσκέφτεται will enticeνα δελεάσει you
234
770880
4816
Βάζει τη σειρά με έναν τρόπο
όπου ο αλγόριθμος
πιστεύει ότι θα σας δελεάσει
για να μείνετε κι άλλο στην ιστοσελίδα.
13:07
to stayδιαμονή on the siteιστοσελίδα longerμακρύτερα.
235
775720
1840
13:11
Now, so this has a lot of consequencesσυνέπειες.
236
779040
3376
Τώρα, αυτό έχει πολλές συνέπειες.
13:14
You mayενδέχεται be thinkingσκέψη
somebodyκάποιος is snubbingσνομπάρει you on FacebookΣτο Facebook.
237
782440
3800
Μπορεί να σκέφτεστε ότι κάποιος
σας σνομπάρει στο Facebook.
13:18
The algorithmαλγόριθμος mayενδέχεται never
be showingεπίδειξη your postΘέση to them.
238
786800
3256
Ο αλγόριθμος μπορεί να μην δείχνει καν
την ανάρτησή σας σε αυτούς.
13:22
The algorithmαλγόριθμος is prioritizingπροτεραιότητα
some of them and buryingταφή the othersοι υπολοιποι.
239
790080
5960
Ο αλγόριθμος θέτει σε προτεραιότητα
κάποιες από αυτές και θάβει τι άλλες.
13:29
ExperimentsΠειράματα showπροβολή
240
797320
1296
Πειράματα δείχνουν πως ό,τι επιλέγει
να σας δείξει ο αλγόριθμος
13:30
that what the algorithmαλγόριθμος picksεπιλογές to showπροβολή you
can affectεπηρεάζουν your emotionsσυναισθήματα.
241
798640
4520
επηρεάζει τα συναισθήματά σας.
13:36
But that's not all.
242
804600
1200
Δεν είναι μόνο αυτό.
13:38
It alsoεπίσης affectsεπηρεάζει politicalπολιτικός behaviorη ΣΥΜΠΕΡΙΦΟΡΑ.
243
806280
2360
Επηρεάζει επίσης την πολιτική στάση.
13:41
So in 2010, in the midtermενδιάμεση electionsεκλογές,
244
809360
4656
Το 2010 λοιπόν, στις ενδιάμεσες εκλογές,
13:46
FacebookΣτο Facebook did an experimentπείραμα
on 61 millionεκατομμύριο people in the US
245
814040
5896
το Facebook έκανε ένα πείραμα
σε 61 εκατομμύρια ανθρώπους στις ΗΠΑ
το οποίο αποκαλύφθηκε μετά το γεγονός.
13:51
that was disclosedαποκαλύπτονται after the factγεγονός.
246
819960
1896
Σε κάποιους ανθρώπους έδειξε
το «Σήμερα είναι η μέρα των εκλογών»,
13:53
So some people were shownαπεικονίζεται,
"TodayΣήμερα is electionεκλογή day,"
247
821880
3416
13:57
the simplerαπλούστερη one,
248
825320
1376
το πιο απλό,
13:58
and some people were shownαπεικονίζεται
the one with that tinyμικροσκοπικός tweakτσίμπημα
249
826720
3896
και σε κάποιους ανθρώπους έδειξε
αυτό με τη μικροδιόρθωση
14:02
with those little thumbnailsμικρογραφίες
250
830640
2096
με εκείνες τις μικρογραφίες
14:04
of your friendsοι φιλοι who clickedχτύπησα on "I votedψήφισαν."
251
832760
2840
των φίλων σου που κλίκαραν «Ψήφισα».
14:09
This simpleαπλός tweakτσίμπημα.
252
837000
1400
Αυτή η απλή μικροδιόρθωση.
14:11
OK? So the picturesεικόνες were the only changeαλλαγή,
253
839520
4296
Οι φωτογραφίες ήταν η μόνη αλλαγή,
14:15
and that postΘέση shownαπεικονίζεται just onceμια φορά
254
843840
3256
κι αυτή η ανάρτηση
που προβλήθηκε μόνο μια φορά
14:19
turnedγύρισε out an additionalπρόσθετες 340,000 votersΟι ψηφοφόροι
255
847120
6056
προσέλκυσε επιπλέον 340.000 ψηφοφόρους
14:25
in that electionεκλογή,
256
853200
1696
σε εκείνες τις εκλογές,
14:26
accordingσύμφωνα με to this researchέρευνα
257
854920
1696
σύμφωνα με αυτή την έρευνα
14:28
as confirmedεπιβεβαιωμένος by the voterψηφοφόρος rollsρολά.
258
856640
2520
όπως επιβεβαιώθηκε
από τους εκλογικούς καταλόγους.
14:32
A flukeΤρηματώδης σκώληκας? No.
259
860920
1656
Σύμπτωση; Όχι.
14:34
Because in 2012,
they repeatedαλλεπάλληλος the sameίδιο experimentπείραμα.
260
862600
5360
Επειδή το 2012,
επανέλαβαν το ίδιο πείραμα.
14:40
And that time,
261
868840
1736
Και εκείνη την περίοδο,
14:42
that civicαστικός messageμήνυμα shownαπεικονίζεται just onceμια φορά
262
870600
3296
αυτό το πολιτικό μήνυμα
προβλήθηκε μόνο μία φορά
14:45
turnedγύρισε out an additionalπρόσθετες 270,000 votersΟι ψηφοφόροι.
263
873920
4440
προσελκύοντας επιπλέον 270.000 ψηφοφόρους.
14:51
For referenceαναφορά, the 2016
US presidentialΠροεδρικό electionεκλογή
264
879160
5216
Προς πληροφόρησή σας, οι αμερικανικές
προεδρικές εκλογές το 2016
14:56
was decidedαποφασισμένος by about 100,000 votesψήφους.
265
884400
3520
κρίθηκαν από 100.000 ψήφους περίπου.
15:01
Now, FacebookΣτο Facebook can alsoεπίσης
very easilyεύκολα inferσυμπεράνουμε what your politicsπολιτική are,
266
889360
4736
Τώρα, το Facebook μπορεί επίσης να εξάγει
πολύ εύκολα ποιες είναι οι πολιτικές σας,
15:06
even if you've never
disclosedαποκαλύπτονται them on the siteιστοσελίδα.
267
894120
2256
ακόμα κι αν δεν τις αποκαλύψατε
ποτέ στην ιστοσελίδα.
15:08
Right? These algorithmsαλγορίθμους
can do that quiteαρκετά easilyεύκολα.
268
896400
2520
Αυτοί οι αλγόριθμοι μπορούν
να το κάνουν πανεύκολα.
15:11
What if a platformπλατφόρμα with that kindείδος of powerεξουσία
269
899960
3896
Tι κι αν μια πλατφόρμα με αυτού
του είδους τη δύναμη
15:15
decidesαποφασίζει to turnστροφή out supportersΟι υποστηρικτές
of one candidateυποψήφιος over the other?
270
903880
5040
αποφασίσει να μεταστρέψει υποστηρικτές
του ενός υποψηφίου στον άλλο;
15:21
How would we even know about it?
271
909680
2440
Πώς θα το ξέραμε αυτό;
15:25
Now, we startedξεκίνησε from someplaceκάπου
seeminglyφαινομενικώς innocuousαβλαβείς --
272
913560
4136
Τώρα, ξεκινήσαμε από ένα μέρος,
φαινομενικά, αβλαβές --
15:29
onlineσε απευθείας σύνδεση addsπροσθέτει followingΕΠΟΜΕΝΟ us around --
273
917720
2216
διαφημίσεις στο διαδίκτυο
που μας ακολουθούν --
15:31
and we'veέχουμε landedπροσγειώθηκε someplaceκάπου elseαλλού.
274
919960
1840
και βρεθήκαμε κάπου αλλού.
15:35
As a publicδημόσιο and as citizensοι πολίτες,
275
923480
2456
Ως κοινό και ως πολίτες,
15:37
we no longerμακρύτερα know
if we're seeingβλέπων the sameίδιο informationπληροφορίες
276
925960
3416
δεν γνωρίζουμε πλέον αν βλέπουμε
τις ίδιες πληροφορίες
ή οτιδήποτε βλέπει ο καθένας,
15:41
or what anybodyοποιοσδήποτε elseαλλού is seeingβλέπων,
277
929400
1480
15:43
and withoutχωρίς a commonκοινός basisβάση of informationπληροφορίες,
278
931680
2576
και χωρίς μια κοινή βάση πληροφορίας,
15:46
little by little,
279
934280
1616
σιγά σιγά,
15:47
publicδημόσιο debateδημόσια συζήτηση is becomingθελκτικός impossibleαδύνατο,
280
935920
3216
ο δημόσιος διάλογος γίνεται ανέφικτος,
15:51
and we're just at
the beginningαρχή stagesστάδια of this.
281
939160
2976
και βρισκόμαστε στο αρχικό στάδιο αυτού.
15:54
These algorithmsαλγορίθμους can quiteαρκετά easilyεύκολα inferσυμπεράνουμε
282
942160
3456
Αυτοί οι αλγόριθμοι
μπορούν να εξάγουν πανεύκολα
15:57
things like your people'sτων ανθρώπων ethnicityεθνικότητα,
283
945640
3256
πράγματα όπως την εθνικότητά σας,
θρησκευτικές και πολιτικές απόψεις,
16:00
religiousθρησκευτικός and politicalπολιτικός viewsπροβολές,
personalityπροσωπικότητα traitsχαρακτηριστικά,
284
948920
2336
στοιχεία του χαρακτήρα,
16:03
intelligenceνοημοσύνη, happinessευτυχία,
use of addictiveεθιστική substancesουσίες,
285
951280
3376
ευφυΐα, ευτυχία, χρήση εθιστικών ουσιών,
16:06
parentalγονική separationδιαχωρισμός, ageηλικία and gendersφύλα,
286
954680
3136
χωρισμός των γονέων, ηλικία και φύλο,
16:09
just from FacebookΣτο Facebook likesαρέσει.
287
957840
1960
απλώς από τα like του Facebook.
16:13
These algorithmsαλγορίθμους can identifyαναγνωρίζω protestersδιαδηλωτές
288
961440
4056
Αυτοί οι αλγόριθμοι μπορούν
να ταυτοποιήσουν διαδηλωτές
16:17
even if theirδικα τους facesπρόσωπα
are partiallyεν μέρει concealedαπέκρυψε.
289
965520
2760
ακόμα κι αν τα πρόσωπά τους
είναι μερικώς κρυμμένα.
16:21
These algorithmsαλγορίθμους mayενδέχεται be ableικανός
to detectανιχνεύουν people'sτων ανθρώπων sexualσεξουαλικός orientationπροσανατολισμός
290
969720
6616
Αυτοί οι αλγόριθμοι μπορούν να ανιχνεύσουν
τον σεξουαλικό προσανατολισμό των ανθρώπων
16:28
just from theirδικα τους datingχρονολόγηση profileπροφίλ picturesεικόνες.
291
976360
3200
μόνο από φωτογραφίες
σε πλατφόρμες γνωριμιών.
16:33
Now, these are probabilisticΠιθανοτική guessesμαντεύει,
292
981560
2616
Τώρα, αυτές είναι πιθανολογικές εικασίες,
16:36
so they're not going
to be 100 percentτοις εκατό right,
293
984200
2896
οπότε δεν θα είναι
εκατό τοις εκατό σωστές,
16:39
but I don't see the powerfulισχυρός resistingαντιστέκονται
the temptationο πειρασμός to use these technologiesτεχνολογίες
294
987120
4896
αλλά δεν βλέπω οι ισχυροί να ενδίδουν
στον πειρασμό να χρησιμοποιήσουν
αυτές τις τεχνολογίες
16:44
just because there are
some falseψευδής positivesθετικά,
295
992040
2176
απλά επειδή υπάρχουν
κάποια ψευδή προτερήματα,
16:46
whichοι οποίες will of courseσειρά μαθημάτων createδημιουργώ
a wholeολόκληρος other layerστρώμα of problemsπροβλήματα.
296
994240
3256
τα οποία θα δημιουργήσουν φυσικά
ένα άλλο σωρό προβλήματα.
16:49
ImagineΦανταστείτε what a stateκατάσταση can do
297
997520
2936
Φανταστείτε τι μπορεί να κάνει ένα κράτος
16:52
with the immenseτεράστια amountποσό of dataδεδομένα
it has on its citizensοι πολίτες.
298
1000480
3560
με τον αχανή όγκο δεδομένων
που έχει στους πολίτες του.
16:56
ChinaΚίνα is alreadyήδη usingχρησιμοποιώντας
faceπρόσωπο detectionανίχνευση technologyτεχνολογία
299
1004680
4776
Η Κίνα ήδη χρησιμοποιεί τεχνολογία
ανίχνευσης προσώπου
17:01
to identifyαναγνωρίζω and arrestσύλληψη people.
300
1009480
2880
για να ταυτοποιήσει
και να συλλάβει ανθρώπους.
17:05
And here'sεδώ είναι the tragedyτραγωδία:
301
1013280
2136
Και να η τραγωδία:
17:07
we're buildingΚτίριο this infrastructureυποδομή
of surveillanceεπιτήρηση authoritarianismο αυταρχισμός
302
1015440
5536
φτιάχνουμε αυτή την υποδομή
της απολυταρχικής παρακολούθησης
17:13
merelyαπλώς to get people to clickΚάντε κλικ on adsδιαφημίσεις.
303
1021000
2960
απλά για να βάζουμε τους ανθρώπους
να κλικάρουν σε διαφημίσεις.
17:17
And this won'tσυνηθισμένος be
Orwell'sΌργουελ authoritarianismο αυταρχισμός.
304
1025240
2576
Κι αυτός δεν θα είναι
ο απολυταρχισμός του Όργουελ.
17:19
This isn't "1984."
305
1027839
1897
Αυτό δεν είναι το «1984».
17:21
Now, if authoritarianismο αυταρχισμός
is usingχρησιμοποιώντας overtφανερός fearφόβος to terrorizeτρομοκρατούν us,
306
1029760
4576
Τώρα, αν ο απολυταρχισμός χρησιμοποιεί
φανερό φόβο για να μας τρομοκρατήσει,
17:26
we'llΚαλά all be scaredφοβισμένος, but we'llΚαλά know it,
307
1034359
2897
όλοι μας θα φοβόμασταν,
αλλά θα το ξέρουμε,
17:29
we'llΚαλά hateμισώ it and we'llΚαλά resistαντιστέκομαι it.
308
1037280
2200
θα το μισήσουμε και θα του αντισταθούμε.
17:32
But if the people in powerεξουσία
are usingχρησιμοποιώντας these algorithmsαλγορίθμους
309
1040880
4416
Αλλά αν οι άνθρωποι της εξουσίας
χρησιμοποιούν αυτούς τους αλγόριθμους
17:37
to quietlyήσυχα watch us,
310
1045319
3377
για να μας παρακολουθούν σιωπηρά,
17:40
to judgeδικαστής us and to nudgeώθηση us,
311
1048720
2080
για να μας κρίνουν και να μας τσιγκλούν,
17:43
to predictπρολέγω and identifyαναγνωρίζω
the troublemakersταραξίες and the rebelsαντάρτες,
312
1051720
4176
για να προβλέπουν και να ταυτοποιούν
τους ταραξίες και τους επαναστάτες,
17:47
to deployαναπτύξετε persuasionπειστικότητα
architecturesαρχιτεκτονικές at scaleκλίμακα
313
1055920
3896
για να αξιοποιήσουν σε μεγάλο βαθμό
αρχιτεκτονικές πειθούς
17:51
and to manipulateχειραγωγώ individualsτα άτομα one by one
314
1059840
4136
και να χειραγωγούν άτομα μεμονωμένα,
17:56
usingχρησιμοποιώντας theirδικα τους personalπροσωπικός, individualάτομο
weaknessesαδυναμίες and vulnerabilitiesθέματα ευπάθειας,
315
1064000
5440
χρησιμοποιώντας τις προσωπικές,
ατομικές αδυναμίες και ευαισθησίες μας,
18:02
and if they're doing it at scaleκλίμακα
316
1070720
2200
κι αν το κάνουν σε μεγάλο βαθμό
18:06
throughδιά μέσου our privateιδιωτικός screensοθόνες
317
1074080
1736
μέσω της ιδιωτικής μας οθόνης
18:07
so that we don't even know
318
1075840
1656
για να μην ξέρουμε καν
18:09
what our fellowσύντροφος citizensοι πολίτες
and neighborsγείτονες are seeingβλέπων,
319
1077520
2760
τι βλέπουν οι γείτονές μας
και οι συμπολίτες μας,
18:13
that authoritarianismο αυταρχισμός
will envelopΠεριβάλλουν us like a spider'sαράχνη webιστός
320
1081560
4816
αυτός ο απολυταρχισμός θα μας τυλίξει
σαν τον ιστό μιας αράχνης
18:18
and we mayενδέχεται not even know we're in it.
321
1086400
2480
και πιθανόν να μην ξέρουμε καν
πως είμαστε μέσα του.
18:22
So Facebook'sΤου Facebook marketαγορά capitalizationκεφαλαιοποίηση
322
1090440
2936
Η χρηματιστηριακή αξία του Facebook
18:25
is approachingπλησιάζει halfΉμισυ a trillionτρισεκατομμύριο dollarsδολάρια.
323
1093400
3296
πλησιάζει τα μισό τρισεκατομμύριο δολάρια.
18:28
It's because it worksεργοστάσιο great
as a persuasionπειστικότητα architectureαρχιτεκτονική.
324
1096720
3120
Οφείλεται στο ότι λειτουργεί υπέροχα
ως μια αρχιτεκτοντική πειθούς.
18:33
But the structureδομή of that architectureαρχιτεκτονική
325
1101760
2816
Αλλά η δομή αυτής της αρχιτεκτονικής
18:36
is the sameίδιο whetherκατά πόσο you're sellingπώληση shoesπαπούτσια
326
1104600
3216
είναι η ίδια είτε πουλάτε παπούτσια
18:39
or whetherκατά πόσο you're sellingπώληση politicsπολιτική.
327
1107840
2496
είτε πουλάτε πολιτική.
18:42
The algorithmsαλγορίθμους do not know the differenceδιαφορά.
328
1110360
3120
Οι αλγόριθμοι δεν ξέρουν τη διαφορά.
18:46
The sameίδιο algorithmsαλγορίθμους setσειρά looseχάνω uponεπάνω σε us
329
1114240
3296
Οι ίδιοι αλγόριθμοι
που εξαπολύθηκαν πάνω μας
18:49
to make us more pliableΕύκαμπτο for adsδιαφημίσεις
330
1117560
3176
για να μας κάνουν
πιο προσαρμόσιμους στις διαφημίσεις
18:52
are alsoεπίσης organizingοργανωτικός our politicalπολιτικός,
personalπροσωπικός and socialκοινωνικός informationπληροφορίες flowsροές,
331
1120760
6736
οργανώνουν επίσης
τις πολιτικές, προσωπικές
και τις κοινωνικές ρόες
των πληροφοριών μας.
18:59
and that's what's got to changeαλλαγή.
332
1127520
1840
και αυτό είναι που πρέπει να αλλάξει.
19:02
Now, don't get me wrongλανθασμένος,
333
1130240
2296
Τώρα, μην με παρεξηγήσετε,
19:04
we use digitalψηφιακό platformsπλατφόρμες
because they provideπρομηθεύω us with great valueαξία.
334
1132560
3680
χρησιμοποιούμε ψηφιακές πλατφόρμες
επειδή μας παρέχουν μεγάλη αξία.
19:09
I use FacebookΣτο Facebook to keep in touchαφή
with friendsοι φιλοι and familyοικογένεια around the worldκόσμος.
335
1137120
3560
Χρησιμοποιώ το Facebook για να κρατώ επαφή
με οικογένεια και φίλους σε όλο τον κόσμο.
19:14
I've writtenγραπτός about how crucialκρίσιμος
socialκοινωνικός mediaμεσο ΜΑΖΙΚΗΣ ΕΝΗΜΕΡΩΣΗΣ is for socialκοινωνικός movementsκινήσεις.
336
1142000
5776
Έχω γράψει για τη σημασία των κοινωνικών
δικτύων στα κοινωνικά κινήματα.
19:19
I have studiedμελετημένος how
these technologiesτεχνολογίες can be used
337
1147800
3016
Μελέτησα πώς μπορούν
να χρησιμοποιηθούν αυτές οι τεχνολογίες
19:22
to circumventπαράκαμψη censorshipλογοκρισία around the worldκόσμος.
338
1150840
2480
για να ξεπερνούν τη λογοκρισία
σε όλο τον κόσμο.
19:27
But it's not that the people who runτρέξιμο,
you know, FacebookΣτο Facebook or GoogleGoogle
339
1155280
6416
Αλλά δεν είναι τα άτομα που διαχειρίζονται
το Facebook ή την Google
19:33
are maliciouslyΚακόβουλα and deliberatelyεπίτηδες tryingπροσπαθεί
340
1161720
2696
που προσπαθούν μοχθηρά και σκόπιμα
19:36
to make the countryΧώρα
or the worldκόσμος more polarizedπολωμένο
341
1164440
4456
να πολώσουν πιο πολύ τη χώρα ή τον κόσμο
19:40
and encourageενθαρρύνω extremismεξτρεμισμός.
342
1168920
1680
και να ενθαρρύνουν τον εξτρεμισμό.
19:43
I readανάγνωση the manyΠολλά
well-intentionedκαλοπροαίρετη statementsδηλώσεις
343
1171440
3976
Διαβάζω πολλές δηλώσεις καλής πρόθεσης
19:47
that these people put out.
344
1175440
3320
στις οποίες προβαίνουν αυτοί οι άνθρωποι.
19:51
But it's not the intentπρόθεση or the statementsδηλώσεις
people in technologyτεχνολογία make that matterύλη,
345
1179600
6056
Δεν είναι, όμως, ο σκοπός ή οι δηλώσεις
που καθιστούν σαφείς
οι άνθρωποι της τεχνολογίας,
19:57
it's the structuresδομές
and businessεπιχείρηση modelsμοντέλα they're buildingΚτίριο.
346
1185680
3560
είναι οι δομές και τα επιχειρηματικά
μοντέλα που οικοδομούν.
20:02
And that's the coreπυρήνας of the problemπρόβλημα.
347
1190360
2096
Κι αυτή είναι η ουσία του προβλήματος.
20:04
EitherΕίτε FacebookΣτο Facebook is a giantγίγαντας con
of halfΉμισυ a trillionτρισεκατομμύριο dollarsδολάρια
348
1192480
4720
Είτε το Facebook είναι ένας μεγάλος
απατεώνας 500 δισεκατομμυρίων δολαρίων
και οι διαφημίσεις δεν πιάνουν στη σελίδα,
20:10
and adsδιαφημίσεις don't work on the siteιστοσελίδα,
349
1198200
1896
20:12
it doesn't work
as a persuasionπειστικότητα architectureαρχιτεκτονική,
350
1200120
2696
δεν δουλεύει ως μια αρχιτεκτονική πειθούς,
20:14
or its powerεξουσία of influenceεπιρροή
is of great concernανησυχία.
351
1202840
4120
ή η δυνατότητα της επιρροής του
είναι αρκετά ανησυχητική.
20:20
It's eitherείτε one or the other.
352
1208560
1776
Είτε το ένα είναι, είτε το άλλο.
20:22
It's similarπαρόμοιος for GoogleGoogle, too.
353
1210360
1600
Το ίδιο είναι και για την Google.
20:24
So what can we do?
354
1212880
2456
Τι μπορούμε να κάνουμε λοιπόν;
20:27
This needsανάγκες to changeαλλαγή.
355
1215360
1936
Αυτό πρέπει να αλλάξει.
20:29
Now, I can't offerπροσφορά a simpleαπλός recipeσυνταγή,
356
1217320
2576
Τώρα, δεν μπορώ να προσφέρω
μια απλή συνταγή,
20:31
because we need to restructureαναδιάρθρωση
357
1219920
2256
διότι χρειάζεται να αναδομήσουμε
20:34
the wholeολόκληρος way our
digitalψηφιακό technologyτεχνολογία operatesλειτουργεί.
358
1222200
3016
όλο τον τρόπο λειτουργίας
της ψηφιακής μας τεχνολογίας.
20:37
Everything from the way
technologyτεχνολογία is developedαναπτηγμένος
359
1225240
4096
Τα πάντα από τον τρόπο
ανάπτυξης της τεχνολογίας
20:41
to the way the incentivesκίνητρα,
economicοικονομικός and otherwiseσε διαφορετική περίπτωση,
360
1229360
3856
μέχρι τον τρόπο όπου τα κίνητρα,
οικονομικά ή μη,
20:45
are builtχτισμένο into the systemΣύστημα.
361
1233240
2280
οικοδομούνται στο σύστημα.
20:48
We have to faceπρόσωπο and try to dealσυμφωνία with
362
1236480
3456
Πρέπει να προσπαθήσουμε
να αντιμετωπίσουμε
20:51
the lackέλλειψη of transparencyδιαφάνεια
createdδημιουργήθηκε by the proprietaryιδιόκτητο algorithmsαλγορίθμους,
363
1239960
4656
την έλλειψη διαφάνειας που δημιουργείται
από ιδιοταγείς αλγόριθμους,
20:56
the structuralκατασκευαστικός challengeπρόκληση
of machineμηχανή learning'sμάθησης opacityαδιαφάνεια,
364
1244640
3816
τη δομική πρόκληση για την αδιαφάνεια
της μηχανικής μάθησης,
21:00
all this indiscriminateαδιακρίτως dataδεδομένα
that's beingνα εισαι collectedσυγκεντρωμένος about us.
365
1248480
3400
όλα αυτά τα αδιάκριτα δεδομένα
που συλλέγονται για εμάς.
21:05
We have a bigμεγάλο taskέργο in frontεμπρός of us.
366
1253000
2520
Έχουμε ένα μεγάλο καθήκον μπροστά μας.
21:08
We have to mobilizeκινητοποιώ our technologyτεχνολογία,
367
1256160
2680
Πρέπει να κινητοποιήσουμε
την τεχνολογία μας,
21:11
our creativityδημιουργικότητα
368
1259760
1576
τη δημιουργικότητά μας
21:13
and yes, our politicsπολιτική
369
1261360
1880
και ναι, την πολιτική μας
21:16
so that we can buildχτίζω
artificialτεχνητός intelligenceνοημοσύνη
370
1264240
2656
για να να δημιουργήσουμε τεχνητή νοημοσύνη
21:18
that supportsυποστηρίζει us in our humanο άνθρωπος goalsστόχους
371
1266920
3120
που να μας στηρίζει
στους ανθρώπινους στόχους μας
21:22
but that is alsoεπίσης constrainedπεριορισμένες
by our humanο άνθρωπος valuesαξίες.
372
1270800
3920
αλλά η οποία να δεσμεύεται
από τις ανθρώπινες αξίες μας.
21:27
And I understandκαταλαβαίνουν this won'tσυνηθισμένος be easyεύκολος.
373
1275600
2160
Και καταλαβαίνω πως αυτό
δεν θα είναι εύκολο.
21:30
We mightθα μπορούσε not even easilyεύκολα agreeσυμφωνώ
on what those termsόροι mean.
374
1278360
3600
Ενδεχομένως να μην συμφωνούμε εύκολα
ούτε στην έννοια αυτών των όρων.
21:34
But if we take seriouslyσοβαρά
375
1282920
2400
Αλλά αν λάβουμε σοβαρά υπόψη
21:38
how these systemsσυστήματα that we
dependεξαρτώμαι on for so much operateλειτουργεί,
376
1286240
5976
πώς λειτουργούν τα συστήματα
από τα οποία είμαστε τόσο εξαρτημένοι,
21:44
I don't see how we can postponeαναβάλλω
this conversationσυνομιλία anymoreπια.
377
1292240
4120
δεν βλέπω πώς μπορούμε να αναβάλλουμε
άλλο αυτή τη συζήτηση.
21:49
These structuresδομές
378
1297200
2536
Αυτές οι δομές
21:51
are organizingοργανωτικός how we functionλειτουργία
379
1299760
4096
οργανώνουν τον τρόπο λειτουργίας μας
21:55
and they're controllingέλεγχος
380
1303880
2296
και ελέγχουν τι μπορούμε
να κάνουμε και τι όχι.
21:58
what we can and we cannotδεν μπορώ do.
381
1306200
2616
Και πολλές τέτοιες διαφημιστικά
χρηματοδοτούμενες πλατφόρμες,
22:00
And manyΠολλά of these ad-financedχρηματοδοτούμενες από platformsπλατφόρμες,
382
1308840
2456
22:03
they boastεπαίρεται that they're freeΕλεύθερος.
383
1311320
1576
υπερηφανεύονται ότι είναι δωρεάν.
22:04
In this contextσυμφραζόμενα, it meansπου σημαίνει
that we are the productπροϊόν that's beingνα εισαι soldπωληθεί.
384
1312920
4560
Σε αυτό το πλαίσιο, αυτό σημαίνει
ότι εμείς είμαστε το προϊόν προς πώληση.
22:10
We need a digitalψηφιακό economyοικονομία
385
1318840
2736
Χρειαζόμαστε μια ψηφιακή οικονομία
22:13
where our dataδεδομένα and our attentionπροσοχή
386
1321600
3496
όπου τα δεδομένα μας και η προσοχή μας
22:17
is not for saleπώληση to the highest-biddingυψηλότερη προσφορά
authoritarianαυταρχική or demagogueδημαγωγός.
387
1325120
5080
δεν πωλούνται με την υψηλότερη προσφορά
σε έναν δικτάτορα ή δημαγωγό.
22:23
(ApplauseΧειροκροτήματα)
388
1331160
3800
(Χειροκρότημα)
22:30
So to go back to
that HollywoodΧόλιγουντ paraphraseπαράφραση,
389
1338480
3256
Ας επιστρέψουμε λοιπόν σε αυτή
την παράφραση του Χόλιγουντ,
22:33
we do want the prodigiousκαταπληκτικός potentialδυνητικός
390
1341760
3736
θέλουμε πράγματι τις τεράστιες δυνατότητες
22:37
of artificialτεχνητός intelligenceνοημοσύνη
and digitalψηφιακό technologyτεχνολογία to blossomάνθος,
391
1345520
3200
της τεχνητής νοημοσύνης
και της ψηφιακής τεχνολογίας να ανθίσουν,
22:41
but for that, we mustπρέπει faceπρόσωπο
this prodigiousκαταπληκτικός menaceαπειλή,
392
1349400
4936
αλλά για αυτό πρέπει να αντιμετωπίσουμε
αυτή την τεράστια απειλή,
22:46
open-eyedμε ανοιχτά μάτια and now.
393
1354360
1936
με καθαρό βλέμμα και τώρα.
22:48
Thank you.
394
1356320
1216
Σας ευχαριστώ.
22:49
(ApplauseΧειροκροτήματα)
395
1357560
4640
(Χειροκρότημα)
Translated by Thanasis Zadrimas
Reviewed by Vasiliki Soultani

▲Back to top

ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.

Why you should listen

We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.

Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.

Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.

More profile about the speaker
Zeynep Tufekci | Speaker | TED.com