ABOUT THE SPEAKERS
Jack Dorsey - Entrepreneur, programmer
Jack Dorsey is the CEO of Twitter, CEO & Chairman of Square, and a cofounder of both.

Why you should listen
More profile about the speaker
Jack Dorsey | Speaker | TED.com
Chris Anderson - TED Curator
After a long career in journalism and publishing, Chris Anderson became the curator of the TED Conference in 2002 and has developed it as a platform for identifying and disseminating ideas worth spreading.

Why you should listen

Chris Anderson is the Curator of TED, a nonprofit devoted to sharing valuable ideas, primarily through the medium of 'TED Talks' -- short talks that are offered free online to a global audience.

Chris was born in a remote village in Pakistan in 1957. He spent his early years in India, Pakistan and Afghanistan, where his parents worked as medical missionaries, and he attended an American school in the Himalayas for his early education. After boarding school in Bath, England, he went on to Oxford University, graduating in 1978 with a degree in philosophy, politics and economics.

Chris then trained as a journalist, working in newspapers and radio, including two years producing a world news service in the Seychelles Islands.

Back in the UK in 1984, Chris was captivated by the personal computer revolution and became an editor at one of the UK's early computer magazines. A year later he founded Future Publishing with a $25,000 bank loan. The new company initially focused on specialist computer publications but eventually expanded into other areas such as cycling, music, video games, technology and design, doubling in size every year for seven years. In 1994, Chris moved to the United States where he built Imagine Media, publisher of Business 2.0 magazine and creator of the popular video game users website IGN. Chris eventually merged Imagine and Future, taking the combined entity public in London in 1999, under the Future name. At its peak, it published 150 magazines and websites and employed 2,000 people.

This success allowed Chris to create a private nonprofit organization, the Sapling Foundation, with the hope of finding new ways to tackle tough global issues through media, technology, entrepreneurship and, most of all, ideas. In 2001, the foundation acquired the TED Conference, then an annual meeting of luminaries in the fields of Technology, Entertainment and Design held in Monterey, California, and Chris left Future to work full time on TED.

He expanded the conference's remit to cover all topics, including science, business and key global issues, while adding a Fellows program, which now has some 300 alumni, and the TED Prize, which grants its recipients "one wish to change the world." The TED stage has become a place for thinkers and doers from all fields to share their ideas and their work, capturing imaginations, sparking conversation and encouraging discovery along the way.

In 2006, TED experimented with posting some of its talks on the Internet. Their viral success encouraged Chris to begin positioning the organization as a global media initiative devoted to 'ideas worth spreading,' part of a new era of information dissemination using the power of online video. In June 2015, the organization posted its 2,000th talk online. The talks are free to view, and they have been translated into more than 100 languages with the help of volunteers from around the world. Viewership has grown to approximately one billion views per year.

Continuing a strategy of 'radical openness,' in 2009 Chris introduced the TEDx initiative, allowing free licenses to local organizers who wished to organize their own TED-like events. More than 8,000 such events have been held, generating an archive of 60,000 TEDx talks. And three years later, the TED-Ed program was launched, offering free educational videos and tools to students and teachers.

More profile about the speaker
Chris Anderson | Speaker | TED.com
Whitney Pennington Rodgers - TED Current Affairs Curator
Whitney Pennington Rodgers is an award-winning journalist and media professional.

Why you should listen

Prior to joining TED as current affairs curator, Whitney Pennington Rodgers produced for NBC's primetime news magazine Dateline NBC. She earned a duPont-Columbia award and a News & Documentary Emmy or her contributions to the Dateline NBC hour "The Cosby Accusers Speak" -- an extensive group interview with 27 of the women who accused entertainer Bill Cosby of sexual misconduct.

Pennington Rodgers has worked at NBC's in-house production company Peacock Productions, The Today Show, Nightly News, Rock Center with Brian Williams and New Jersey-centric public affairs shows Caucus: New Jersey and One-on-One with Steve Adubato. Prior to beginning her career in media, she had a short stint as a fourth-grade teacher through the Teach for America program.

Pennington Rodgers received her Bachelor's in journalism and media studies from Rutgers University. She completed her Master's of Journalism at the University of California at Berkeley, where she produced a documentary about recruitment of nonblack students at historically black colleges and universities.

More profile about the speaker
Whitney Pennington Rodgers | Speaker | TED.com
TED2019

Jack Dorsey: How Twitter needs to change

Τζακ Ντόρσι: Πώς πρέπει να αλλάξει το Twitter

Filmed:
2,089,470 views

Μπορεί να σωθεί το Twitter; Σε μια ευρεία συζήτηση με τον Κρις Άντερσον του TED και την Γουίτνεϊ Πάνινγκτον Ρότζερς, ο CEO του Twitter Τζακ Ντόρσι συζητά το μέλλον της πλατφόρμας -- αναγνωρίζοντας προβλήματα με την παρενόχληση και τον συντονισμό και προτείνοντας κάποιες ριζικές αλλαγές που ελπίζει ότι θα ενθαρρύνουν υγιείς συζητήσεις με σεβασμό. «Παραδίδουμε κάτι που ο κόσμος εκτιμά κάθε μέρα;» ρωτάει ο Ντόρσι.
- Entrepreneur, programmer
Jack Dorsey is the CEO of Twitter, CEO & Chairman of Square, and a cofounder of both. Full bio - TED Curator
After a long career in journalism and publishing, Chris Anderson became the curator of the TED Conference in 2002 and has developed it as a platform for identifying and disseminating ideas worth spreading. Full bio - TED Current Affairs Curator
Whitney Pennington Rodgers is an award-winning journalist and media professional. Full bio

Double-click the English transcript below to play the video.

00:13
ChrisChris AndersonΆντερσον:
What worriesανησυχίες you right now?
0
1131
2408
Κρις Άντερσον:
Τι σε ανησυχεί αυτήν τη στιγμή;
00:15
You've been very openΆνοιξε
about lots of issuesθέματα on TwitterΠειραχτήρι.
1
3563
2853
Ήσουν πολύ ανοιχτός
για πολλά θέματα με το Twitter.
00:18
What would be your topμπλουζα worryανησυχία
2
6440
2299
Ποια θα ήταν η μεγαλύτερή σου ανησυχία
00:20
about where things are right now?
3
8763
2049
για το πού είναι τα πράγματα
αυτήν τη στιγμή;
00:23
JackJack DorseyDorsey: Right now,
the healthυγεία of the conversationσυνομιλία.
4
11447
2929
Τζακ Ντόρσι: Αυτήν τη στιγμή,
η υγεία της συζήτησης.
00:26
So, our purposeσκοπός is to serveσερβίρισμα
the publicδημόσιο conversationσυνομιλία,
5
14400
3660
Έτσι, ο σκοπός μας είναι
να υπηρετούμε τη δημόσια συζήτηση,
00:30
and we have seenείδα
a numberαριθμός of attacksεπιθέσεις on it.
6
18084
5056
και έχουμε δει αρκετές επιθέσεις σε αυτό.
00:35
We'veΈχουμε seenείδα abuseκατάχρηση, we'veέχουμε seenείδα harassmentπαρενόχληση,
7
23164
2425
Έχουμε δει κακοποίηση,
έχουμε δει παρενόχληση,
00:37
we'veέχουμε seenείδα manipulationχειρισμός,
8
25613
3222
έχουμε δει χειραγώγηση,
00:40
automationαυτοματισμού, humanο άνθρωπος coordinationσυντονισμός,
misinformationπαραπληροφόρηση.
9
28859
4265
αυτοματισμό, ανθρώπινο
συντονισμό, παραπληροφόρηση.
00:46
So these are all dynamicsδυναμική
that we were not expectingαναμένουν
10
34134
4034
Αυτές είναι δυναμικές που δεν περιμέναμε
00:50
13 yearsχρόνια agoπριν when we were
startingεκκίνηση the companyΕταιρία.
11
38192
3718
όταν ξεκινήσαμε την εταιρία
πριν από 13 χρόνια.
00:53
But we do now see them at scaleκλίμακα,
12
41934
2664
Αλλά τώρα τις βλέπουμε σε κλίμακα,
00:56
and what worriesανησυχίες me mostπλέον
is just our abilityικανότητα to addressδιεύθυνση it
13
44622
5278
και αυτό που με ανησυχεί περισσότερο είναι
η ικανότητά μας να το αντιμετωπίσουμε
01:01
in a systemicσυστήματος way that is scalableανάβατος,
14
49924
3108
με έναν συστημικό τρόπο
που είναι επεκτάσιμος,
01:05
that has a rigorousαυστηρός understandingκατανόηση
of how we're takingλήψη actionδράση,
15
53056
6976
που έχει αυστηρή κατανόηση
για το πώς αναλαμβάνουμε δράση,
01:12
a transparentδιαφανής understandingκατανόηση
of how we're takingλήψη actionδράση
16
60056
3105
διαφάνεια στην κατανόηση
του πώς πράττουμε
01:15
and a rigorousαυστηρός appealsένδικα μέσα processεπεξεργάζομαι, διαδικασία
for when we're wrongλανθασμένος,
17
63185
3101
και μια αυστηρή διαδικασία ενστάσεων
για όταν κάνουμε λάθος,
01:18
because we will be wrongλανθασμένος.
18
66310
2169
επειδή θα κάνουμε λάθη.
01:20
WhitneyWhitney PenningtonPennington RodgersRodgers:
I'm really gladχαρούμενος to hearακούω
19
68503
2397
Γουίτνεϊ Πάνινγκτον Ρότζερς:
Χαίρομαι πολύ που ακούω
01:22
that that's something that concernsανησυχίες you,
20
70924
1928
ότι είναι κάτι που σε απασχολεί,
επειδή πιστεύω ότι έχουν γραφτεί
πολλά γι' αυτούς
01:24
because I think there's been
a lot writtenγραπτός about people
21
72876
2630
που αισθάνονται ότι έχουν κακοποιηθεί
και παρενοχληθεί στο Twitter,
01:27
who feel they'veέχουν been abusedκατάχρηση
and harassedπαρενοχλούνται on TwitterΠειραχτήρι,
22
75530
2477
01:30
and I think no one more so
than womenγυναίκες and womenγυναίκες of colorχρώμα
23
78031
4102
και πιστεύω ότι είναι περισσότερο
για τις γυναίκες και τις έγχρωμες γυναίκες
01:34
and blackμαύρος womenγυναίκες.
24
82157
1170
και τις μαύρες γυναίκες.
01:35
And there's been dataδεδομένα that's come out --
25
83351
1913
Και έχουν βγει πολλά δεδομένα --
01:37
AmnestyΑμνηστία InternationalΔιεθνής put out
a reportκανω ΑΝΑΦΟΡΑ a fewλίγοι monthsμήνες agoπριν
26
85288
2909
η Διεθνής Αμνηστία έβγαλε
μια αναφορά πριν μερικούς μήνες
01:40
where they showedέδειξε that a subsetυποσύνολο
of activeενεργός blackμαύρος femaleθηλυκός TwitterΠειραχτήρι usersχρήστες
27
88221
4480
όπου έδειχναν ότι ένα υποσύνολο ενεργών
μαύρων γυναικών που χρησιμοποιούν Twitter
01:44
were receivingλήψη, on averageμέση τιμή,
one in 10 of theirδικα τους tweetsTweets
28
92725
3456
λάμβαναν, κατά μέσω όρο,
ένα στα 10 τιτιβίσματά τους
01:48
were some formμορφή of harassmentπαρενόχληση.
29
96205
2099
ήταν κάποιου είδους παρενόχληση.
01:50
And so when you think about healthυγεία
for the communityκοινότητα on TwitterΠειραχτήρι,
30
98328
3907
Έτσι όταν σκέφτεστε την υγεία
για την κοινότητα στο Twitter,
01:54
I'm interestedενδιαφερόμενος to hearακούω,
"healthυγεία for everyoneΟλοι,"
31
102259
4024
ενδιαφέρομαι να ακούσω,
«υγεία για όλους»,
01:58
but specificallyειδικά: How are you looking
to make TwitterΠειραχτήρι a safeασφαλής spaceχώρος
32
106307
3125
αλλά συγκεκριμένα: Πώς κοιτάτε
να κάνετε το Twitter έναν ασφαλή τόπο
02:01
for that subsetυποσύνολο, for womenγυναίκες,
for womenγυναίκες of colorχρώμα and blackμαύρος womenγυναίκες?
33
109456
4164
γι' αυτό το υποσύνολο, για τις γυναίκες,
τις έγχρωμες και τις μαύρες γυναίκες;
02:05
JDJD: Yeah.
34
113644
1164
ΤΝ: Ναι.
02:06
So it's a prettyαρκετά terribleτρομερός situationκατάσταση
35
114832
2643
Είναι πολύ άσχημη κατάσταση
02:09
when you're comingερχομός to a serviceυπηρεσία
36
117499
1619
όταν έρχεστε σε ένα σύστημα
02:11
that, ideallyιδανικά, you want to learnμαθαίνω
something about the worldκόσμος,
37
119142
4321
που ιδανικά, θέλετε να μάθετε
κάτι για τον κόσμο,
02:15
and you spendδαπανήσει the majorityη πλειοψηφία of your time
reportingαναφοράς abuseκατάχρηση, receivingλήψη abuseκατάχρηση,
38
123487
5443
και περνάτε τον περισσότερο χρόνο σας
κάνοντας αναφορές κακοποίησης,
λαμβάνοντας κακοποίηση,
λαμβάνοντας παρενόχληση.
02:20
receivingλήψη harassmentπαρενόχληση.
39
128954
1804
02:23
So what we're looking mostπλέον deeplyκατα ΒΑΘΟΣ at
is just the incentivesκίνητρα
40
131373
6321
Έτσι κοιτάζουμε πιο βαθιά τα κίνητρα
02:29
that the platformπλατφόρμα naturallyΦυσικά providesπαρέχει
and the serviceυπηρεσία providesπαρέχει.
41
137718
3823
που παρέχει φυσικά
η πλατφόρμα και η υπηρεσία.
02:34
Right now, the dynamicδυναμικός of the systemΣύστημα
makesκάνει it super-easyεξαιρετικά εύκολο to harassπαρενόχληση
42
142262
4577
Τώρα, η δυναμική του συστήματος
το κάνει πολύ εύκολο να παρενοχλήσετε
02:38
and to abuseκατάχρηση othersοι υπολοιποι throughδιά μέσου the serviceυπηρεσία,
43
146863
3664
και να κακοποιήσετε άλλους
μέσω του συστήματος,
02:42
and unfortunatelyΔυστυχώς, the majorityη πλειοψηφία
of our systemΣύστημα in the pastτο παρελθόν
44
150551
3262
και δυστυχώς, η πλειοψηφία
του συστήματός μας στο παρελθόν
02:45
workedεργάστηκε entirelyεξ ολοκλήρου basedμε βάση on people
reportingαναφοράς harassmentπαρενόχληση and abuseκατάχρηση.
45
153837
5596
δούλευε κατ' αποκλειστικότητα
βασισμένη σε άτομα που έκαναν
αναφορές παρενόχλησης και κακοποίησης.
02:51
So about midwayστα μισά του δρόμου last yearέτος,
we decidedαποφασισμένος that we were going to applyισχύουν
46
159457
5075
Έτσι περίπου στα μέσα του περασμένου έτους
αποφασίσαμε ότι θα εφαρμόζαμε
02:56
a lot more machineμηχανή learningμάθηση,
a lot more deepβαθύς learningμάθηση to the problemπρόβλημα,
47
164556
3982
περισσότερη μηχανική μάθηση,
περισσότερη βαθιά μάθηση στο πρόβλημα,
03:00
and try to be a lot more proactiveενεργό
around where abuseκατάχρηση is happeningσυμβαίνει,
48
168562
4538
και θα προσπαθήσουμε να είμαστε
πιο ενεργοί εκεί που γίνεται η κακοποίηση,
03:05
so that we can take the burdenβάρος
off the victimθύμα completelyεντελώς.
49
173124
3960
έτσι ώστε να πάρουμε το βάρος
τελείως από το θύμα.
03:09
And we'veέχουμε madeέκανε some progressπρόοδος recentlyπρόσφατα.
50
177108
2435
Κι έχουμε κάνει κάποια πρόοδο πρόσφατα.
03:11
About 38 percentτοις εκατό of abusiveκαταχρηστική tweetsTweets
are now proactivelyπροληπτικά identifiedαναγνωρισθείς
51
179567
6689
Περίπου 38 τοις εκατό των καταχρηστικών
τιτιβισμάτων τώρα εντοπίζονται προληπτικά
03:18
by machineμηχανή learningμάθηση algorithmsαλγορίθμους
52
186280
1715
από αλγόριθμους μηχανικής μάθησης
03:20
so that people don't actuallyπράγματι
have to reportκανω ΑΝΑΦΟΡΑ them.
53
188019
2334
έτσι ώστε να μην χρειάζεται
να γίνονται αναφορές.
03:22
But those that are identifiedαναγνωρισθείς
are still reviewedεπανεξεταστεί by humansτου ανθρώπου,
54
190377
3305
Αλλά αυτά που αναγνωρίζονται
επανεξετάζονται από ανθρώπους,
03:25
so we do not take down contentπεριεχόμενο or accountsλογαριασμούς
withoutχωρίς a humanο άνθρωπος actuallyπράγματι reviewingεπανεξέταση it.
55
193706
5384
έτσι δεν κατεβάζουμε περιεχόμενο
ή λογαριασμούς πριν τα δει άνθρωπος.
Αλλά αυτό ήταν από το μηδέν
τοις εκατό πριν μόλις έναν χρόνο.
03:31
But that was from zeroμηδέν percentτοις εκατό
just a yearέτος agoπριν.
56
199114
2759
03:33
So that meantσήμαινε, at that zeroμηδέν percentτοις εκατό,
57
201897
1931
Έτσι αυτό σημαίνει ότι,
στο μηδέν τοις εκατό,
03:35
everyκάθε singleμονόκλινο personπρόσωπο who receivedέλαβε abuseκατάχρηση
had to actuallyπράγματι reportκανω ΑΝΑΦΟΡΑ it,
58
203852
3650
κάθε λήπτης κατάχρησης
έπρεπε να κάνει αναφορά,
03:39
whichοι οποίες was a lot of work for them,
a lot of work for us
59
207526
3579
που είναι πολλή δουλειά γι' αυτούς,
πολλή δουλειά για εμάς
03:43
and just ultimatelyτελικά unfairαθέμιτες.
60
211129
2018
και στην τελική είναι άδικο.
03:46
The other thing that we're doing
is makingκατασκευή sure that we, as a companyΕταιρία,
61
214528
3780
Το άλλο πράγμα που κάνουμε είναι
να σιγουρευτούμε ότι, ως εταιρεία,
έχουμε αντιπροσώπευση
03:50
have representationαναπαράσταση of all the communitiesκοινότητες
that we're tryingπροσπαθεί to serveσερβίρισμα.
62
218332
3333
από όλες τις κοινότητες
που προσπαθούμε να υπηρετήσουμε.
03:53
We can't buildχτίζω a businessεπιχείρηση
that is successfulεπιτυχής
63
221689
2159
Δεν μπορούμε να χτίσουμε
μια επιτυχημένη επιχείρηση
03:55
unlessεκτός we have a diversityποικιλία
of perspectiveπροοπτική insideμέσα of our wallsτοίχους
64
223872
3300
εκτός κι αν έχουμε μια ποικιλία
προοπτικών εσωτερικά
03:59
that actuallyπράγματι feel these issuesθέματα
everyκάθε singleμονόκλινο day.
65
227196
3732
που αισθάνονται τα θέματα αυτά κάθε μέρα.
04:02
And that's not just with the teamομάδα
that's doing the work,
66
230952
3738
Και δεν είναι μόνο με την ομάδα
που κάνει τη δουλειά,
04:06
it's alsoεπίσης withinστα πλαίσια our leadershipηγεσία as well.
67
234714
2096
είναι και μέσα στην ηγεσία μας.
04:08
So we need to continueνα συνεχίσει to buildχτίζω empathyενσυναίσθηση
for what people are experiencingβιώνουν
68
236834
5757
Έτσι πρέπει να συνεχίσουμε να χτίζουμε
ενσυναίσθηση για το τι βιώνουν οι άνθρωποι
04:14
and give them better toolsεργαλεία to actενεργω on it
69
242615
3316
και να τους δώσουμε καλύτερα εργαλεία
για να δράσουν σε αυτά
04:17
and alsoεπίσης give our customersοι πελάτες
a much better and easierευκολότερη approachπλησιάζω
70
245955
4252
καθώς και να δώσουμε στους πελάτες μας
μια καλύτερη και ευκολότερη προσέγγιση
04:22
to handleλαβή some of the things
that they're seeingβλέπων.
71
250231
2382
για να διαχειριστούν
μερικά πράγματα που βλέπουν.
04:24
So a lot of what we're doing
is around technologyτεχνολογία,
72
252637
3266
Έτσι πολλά από αυτά που κάνουμε
έχουν να κάνουν με την τεχνολογία,
04:27
but we're alsoεπίσης looking at
the incentivesκίνητρα on the serviceυπηρεσία:
73
255927
4308
αλλά κοιτάμε και τα κίνητρα στην υπηρεσία:
04:32
What does TwitterΠειραχτήρι incentivizeκίνητρα you to do
when you first openΆνοιξε it up?
74
260259
5183
Τι σας παρακινεί να κάνετε
το Twitter όταν το πρωτοανοίγετε;
04:37
And in the pastτο παρελθόν,
75
265466
1294
Παλαιότερα,
04:40
it's incentedμε a lot of outrageπροσβολή,
it's incentedμε a lot of mobΚιν behaviorη ΣΥΜΠΕΡΙΦΟΡΑ,
76
268670
5544
παρακινούσε πολύ αγανάκτηση,
παρακινούσε συμπεριφορά όχλου,
04:46
it's incentedμε a lot of groupομάδα harassmentπαρενόχληση.
77
274238
2459
παρακινούσε ομαδική παρενόχληση.
04:48
And we have to look a lot deeperβαθύτερη
at some of the fundamentalsβασικές αρχές
78
276721
3648
Και πρέπει να κοιτάξουμε βαθύτερα
κάποιες από τις βασικές αρχές
04:52
of what the serviceυπηρεσία is doing
to make the biggerμεγαλύτερος shiftsβάρδιες.
79
280393
2958
του τι κάνει η υπηρεσία
για να κάνουμε μεγαλύτερες αλλαγές.
04:55
We can make a bunchδέσμη of smallμικρό shiftsβάρδιες
around technologyτεχνολογία, as I just describedπεριγράφεται,
80
283375
4031
Μπορούμε να κάνουμε μερικές μικρές
αλλαγές τεχνολογικά, όπως περιέγραψα,
04:59
but ultimatelyτελικά, we have to look deeplyκατα ΒΑΘΟΣ
at the dynamicsδυναμική in the networkδίκτυο itselfεαυτό,
81
287430
4386
αλλά στην τελική, πρέπει να κοιτάξουμε
πιο βαθιά τις δυναμικές του δικτύου,
05:03
and that's what we're doing.
82
291840
1368
και αυτό κάνουμε.
05:05
CACA: But what's your senseέννοια --
83
293232
2060
ΚΑ: Αλλά ποια είναι η αίσθησή σου --
05:07
what is the kindείδος of thing
that you mightθα μπορούσε be ableικανός to changeαλλαγή
84
295316
3963
ποιο είδος πράγματος
θα μπορούσατε να αλλάξετε
05:11
that would actuallyπράγματι
fundamentallyθεμελιωδώς shiftβάρδια behaviorη ΣΥΜΠΕΡΙΦΟΡΑ?
85
299303
2749
που θα άλλαζε ουσιαστικά τη συμπεριφορά;
05:15
JDJD: Well, one of the things --
86
303386
1480
ΤΝ: Ένα από τα πράγματα --
05:16
we startedξεκίνησε the serviceυπηρεσία
with this conceptέννοια of followingΕΠΟΜΕΝΟ an accountΛογαριασμός,
87
304890
5340
ξεκινήσαμε την υπηρεσία με την ιδέα
να ακολουθείς έναν λογαριασμό,
05:22
as an exampleπαράδειγμα,
88
310254
1725
σαν παράδειγμα,
05:24
and I don't believe that's why
people actuallyπράγματι come to TwitterΠειραχτήρι.
89
312003
4349
και δεν πιστεύω ότι ο κόσμος
έρχεται στο Twitter γι' αυτόν τον λόγο.
05:28
I believe TwitterΠειραχτήρι is bestκαλύτερος
as an interest-basedμε βάση το ενδιαφέρον networkδίκτυο.
90
316376
4857
Πιστεύω ότι το Twitter είναι καλύτερο ως
ένα δίκτυο που βασίζεται στα ενδιαφέροντα.
05:33
People come with a particularιδιαιτερος interestενδιαφέρον.
91
321257
3453
Οι άνθρωποι έρχονται
με ένα συγκεκριμένο ενδιαφέρον.
05:36
They have to do a tonτόνος of work
to find and followακολουθηστε the relatedσχετίζεται με accountsλογαριασμούς
92
324734
3487
Πρέπει να δουλέψουν πολύ
για να βρουν και να ακολουθήσουν
σχετικούς λογαριασμούς
με αυτά τα ενδιαφέροντα.
05:40
around those interestsτα ενδιαφέροντα.
93
328245
1405
05:42
What we could do insteadαντι αυτου
is allowεπιτρέπω you to followακολουθηστε an interestενδιαφέρον,
94
330217
3397
Θα μπορούσαμε να σας αφήσουμε
να ακολουθήσετε ένα ενδιαφέρον,
05:45
followακολουθηστε a hashtaghashtag, followακολουθηστε a trendτάση,
95
333638
2103
να ακολουθήσετε ένα hashtag, μια τάση,
05:47
followακολουθηστε a communityκοινότητα,
96
335765
1754
μια κοινότητα,
05:49
whichοι οποίες givesδίνει us the opportunityευκαιρία
to showπροβολή all of the accountsλογαριασμούς,
97
337543
4637
που μας δίνει τη δυνατότητα
να δείξουμε όλους τους λογαριασμούς,
05:54
all the topicsΘέματα, all the momentsστιγμές,
all the hashtagshashtags
98
342204
3323
όλα τα θέματα, όλες τις στιγμές,
όλα τα hashtag
05:57
that are associatedσυσχετισμένη with that
particularιδιαιτερος topicθέμα and interestενδιαφέρον,
99
345551
3992
που σχετίζονται με το συγκεκριμένο
θέμα και ενδιαφέρον,
06:01
whichοι οποίες really opensανοίγει up
the perspectiveπροοπτική that you see.
100
349567
4600
που ανοίγει πραγματικά την προοπτική σου.
06:06
But that is a hugeτεράστιος fundamentalθεμελιώδης shiftβάρδια
101
354191
2157
Αλλά είναι μια τεράστια ουσιαστική αλλαγή
06:08
to biasπροκατάληψη the entireολόκληρος networkδίκτυο
away from just an accountΛογαριασμός biasπροκατάληψη
102
356372
3792
το να προδιαθέσουμε ένα ολόκληρο δίκτυο
μακριά από έναν μόνο λογαριασμό
06:12
towardsπρος a topicsΘέματα and interestενδιαφέρον biasπροκατάληψη.
103
360188
2587
προς θέματα και ενδιαφέροντα.
06:15
CACA: Because isn't it the caseπερίπτωση
104
363283
3148
ΚΑ: Δεν είναι όμως αυτό
06:19
that one reasonλόγος why you have
so much contentπεριεχόμενο on there
105
367375
3541
ότι ένας λόγος που έχετε
τόσο πολύ περιεχόμενο εκεί
06:22
is a resultαποτέλεσμα of puttingβάζοντας millionsεκατομμύρια
of people around the worldκόσμος
106
370940
3591
είναι αποτέλεσμα του να βάλετε
εκατομμύρια ανθρώπους παγκοσμίως
06:26
in this kindείδος of gladiatorialμονομάχους
contestδιαγωνισμός with eachκαθε other
107
374555
3142
σε μια είδους μονομαχία μεταξύ τους
06:29
for followersΟι οπαδοί, for attentionπροσοχή?
108
377721
2090
για ακόλουθους, για προσοχή;
06:31
Like, from the pointσημείο of viewθέα
of people who just readανάγνωση TwitterΠειραχτήρι,
109
379835
4117
Από την οπτική γωνία
αυτών που απλώς διαβάζουν στο Twitter,
06:35
that's not an issueθέμα,
110
383976
1155
δεν είναι θέμα,
06:37
but for the people who actuallyπράγματι createδημιουργώ it,
everyone'sο καθένας out there sayingρητό,
111
385155
3350
αλλά γι' αυτούς που το δημιουργούν,
όλοι εκεί έξω λένε,
06:40
"You know, I wishεπιθυμία I had
a fewλίγοι more 'likes"του αρέσει,' followersΟι οπαδοί, retweetsαναδημοσιεύσεις."
112
388529
3236
«Μακάρι να είχα μερικά ακόμη
"like", ακόλουθους, επανατιτιβίβίσματα».
06:43
And so they're constantlyσυνεχώς experimentingπειραματίζονται,
113
391789
2148
Έτσι συνεχώς πειραματίζονται,
06:45
tryingπροσπαθεί to find the pathμονοπάτι to do that.
114
393961
1961
προσπαθώντας να βρουν το μονοπάτι.
06:47
And what we'veέχουμε all discoveredανακαλύφθηκε
is that the numberαριθμός one pathμονοπάτι to do that
115
395946
4126
Και αυτό που ανακαλύψαμε όλοι μας
είναι ότι το νούμερο ένα μονοπάτι γι' αυτό
06:52
is to be some formμορφή of provocativeπροκλητική,
116
400096
3406
είναι να είσαι κάπως προκλητικός,
06:55
obnoxiousαποκρουστικός, eloquentlyεύγλωττα obnoxiousαποκρουστικός,
117
403526
2980
αντιπαθητικός, εύγλωττα αντιπαθητικός,
06:58
like, eloquentεύγλωττη insultsπροσβολές
are a dreamόνειρο on TwitterΠειραχτήρι,
118
406530
3516
οι εύγλωττες προσβολές
είναι όνειρο στο Twitter,
07:02
where you rapidlyταχέως pileσωρός up --
119
410070
2603
όπου γρήγορα γεμίζει --
07:04
and it becomesγίνεται this self-fuelingαυτο-τροφοδοτεί
processεπεξεργάζομαι, διαδικασία of drivingοδήγηση outrageπροσβολή.
120
412697
4608
και γίνεται αυτή η αυτοτροφοδοτούμενη
διαδικασία εξοργισμού.
07:09
How do you defuseεκτόνωση that?
121
417329
2351
Πώς το εξουδετερώνεις αυτό;
07:12
JDJD: Yeah, I mean, I think you're spotσημείο on,
122
420624
2947
ΤΝ: Ναι, έχεις απόλυτο δίκιο,
07:15
but that goesπηγαίνει back to the incentivesκίνητρα.
123
423595
1886
αλλά αυτό πάει πίσω στα κίνητρα.
07:17
Like, one of the choicesεπιλογές
we madeέκανε in the earlyνωρίς daysημέρες was
124
425505
2632
Μία από τις επιλογές που κάναμε
στις πρώιμες μέρες ήταν
07:20
we had this numberαριθμός that showedέδειξε
how manyΠολλά people followακολουθηστε you.
125
428161
4701
ότι είχαμε αυτόν τον αριθμό που έδειχνε
πόσοι άνθρωποι σε ακολουθούν.
07:24
We decidedαποφασισμένος that numberαριθμός
should be bigμεγάλο and boldτολμηρός,
126
432886
2959
Αποφασίσαμε ότι αυτός ο αριθμός
πρέπει να είναι μεγάλος και παχύς,
07:27
and anything that's on the pageσελίδα
that's bigμεγάλο and boldτολμηρός has importanceσημασια,
127
435869
3740
και οτιδήποτε είναι στη σελίδα και είναι
μεγάλο και παχύ έχει σημασία,
07:31
and those are the things
that you want to driveοδηγώ.
128
439633
2278
και σε αυτά είναι
που θέλεις να επικεντρωθείς.
07:33
Was that the right decisionαπόφαση at the time?
129
441935
1907
Ήταν τότε η σωστή απόφαση; Μάλλον όχι.
07:35
ProbablyΠιθανώς not.
130
443866
1153
Αν έπρεπε να ξαναξεκινήσω την υπηρεσία,
07:37
If I had to startαρχή the serviceυπηρεσία again,
131
445043
1805
δεν θα έδινα τόσο μεγάλη έμφαση
στον αριθμό ακολούθων.
07:38
I would not emphasizeτονίζω
the followerοπαδός countμετρώ as much.
132
446872
2398
Δεν θα έδινα τόσο μεγάλη έμφαση
στον αριθμό των «like».
07:41
I would not emphasizeτονίζω
the "like" countμετρώ as much.
133
449294
2295
07:43
I don't think I would even
createδημιουργώ "like" in the first placeθέση,
134
451613
3120
Δε νομίζω ότι θα έφτιαχνα
καν το «like»,
07:46
because it doesn't actuallyπράγματι pushΣπρώξτε
135
454757
3267
επειδή δεν σπρώχνει πραγματικά
07:50
what we believe now
to be the mostπλέον importantσπουδαίος thing,
136
458048
3179
αυτό που τώρα πιστεύουμε ότι είναι
το πιο σημαντικό πράγμα,
07:53
whichοι οποίες is healthyυγιής contributionσυνεισφορά
back to the networkδίκτυο
137
461251
3039
που είναι η υγιής συνεισφορά
πίσω στο δίκτυο
07:56
and conversationσυνομιλία to the networkδίκτυο,
138
464314
2652
και η συζήτηση στο δίκτυο,
07:58
participationσυμμετοχή withinστα πλαίσια conversationσυνομιλία,
139
466990
2072
συμμετοχή στη συζήτηση,
08:01
learningμάθηση something from the conversationσυνομιλία.
140
469086
2493
το να μαθαίνεις κάτι από τη συζήτηση.
08:03
Those are not things
that we thought of 13 yearsχρόνια agoπριν,
141
471603
2824
Αυτά δεν είναι πράγματα
που σκεφτήκαμε πριν από 13 χρόνια,
08:06
and we believe are extremelyεπακρώς
importantσπουδαίος right now.
142
474451
2439
και πιστεύουμε ότι είναι
εξαιρετικά σημαντικά τώρα.
08:08
So we have to look at
how we displayαπεικόνιση the followerοπαδός countμετρώ,
143
476914
3023
Έτσι πρέπει να δούμε πώς εμφανίζουμε
τον αριθμό των ακόλουθων,
08:11
how we displayαπεικόνιση retweetretweet countμετρώ,
144
479961
2365
πώς εμφανίζουμε
τον αριθμό επανατιτιβισμάτων,
08:14
how we displayαπεικόνιση "likesαρέσει,"
145
482350
1401
πώς εμφανίζουμε τα «like»,
08:15
and just askπαρακαλώ the deepβαθύς questionερώτηση:
146
483775
2254
και απλώς να κάνουμε τη βαθιά ερώτηση:
Είναι αυτός πραγματικά ο αριθμός
που θέλουμε να καθοδηγεί τους ανθρώπους;
08:18
Is this really the numberαριθμός
that we want people to driveοδηγώ up?
147
486053
3048
08:21
Is this the thing that,
when you openΆνοιξε TwitterΠειραχτήρι,
148
489125
2545
Είναι αυτό το πράγμα,
που όταν ανοίγεις το Twitter,
08:23
you see, "That's the thing
I need to increaseαυξάνουν?"
149
491694
2516
το βλέπεις, «Αυτό το πράγμα
πρέπει να αυξήσω;»
08:26
And I don't believe
that's the caseπερίπτωση right now.
150
494234
2144
Και δεν πιστεύω ότι αυτό
είναι το θέμα αυτήν τη στιγμή.
08:28
(ApplauseΧειροκροτήματα)
151
496402
2103
(Χειροκρότημα)
08:30
WPRWPR του: I think we should look at
some of the tweetsTweets
152
498529
2352
ΓΠΡ: Νομίζω ότι πρέπει
να δούμε μερικά τιτιβίσματα
08:32
that are comingερχομός
in from the audienceακροατήριο as well.
153
500905
2169
που προέρχονται από το κοινό.
08:35
CACA: Let's see what you guys are askingζητώντας.
154
503868
2436
ΚΑ: Για να δούμε τι ζητάτε.
08:38
I mean, this is -- generallyγενικά, one
of the amazingφοβερο things about TwitterΠειραχτήρι
155
506328
3294
Θέλω να πω ότι γενικά, ένα από
τα απίστευτα πράγματα για το Twitter
08:41
is how you can use it for crowdπλήθος wisdomσοφία,
156
509646
2294
είναι ότι μπορεί να χρησιμοποιηθεί
για σοφία πλήθους,
08:43
you know, that more knowledgeη γνώση,
more questionsερωτήσεις, more pointsσημεία of viewθέα
157
511964
4840
ξέρετε, περισσότερη γνώση, περισσότερες
πληροφορίες, περισσότερες απόψεις
απ' όσο μπορείτε να φανταστείτε,
08:48
than you can imagineφαντάζομαι,
158
516828
1238
08:50
and sometimesωρες ωρες, manyΠολλά of them
are really healthyυγιής.
159
518090
3689
και μερικές φορές, αρκετές από αυτές
είναι πραγματικά υγιείς.
08:53
WPRWPR του: I think one I saw that
passedπέρασε alreadyήδη quicklyγρήγορα down here,
160
521803
2900
ΓΠΡ: Νομίζω μία που είδα
πέρασε γρήγορα εδώ,
«Ποιο είναι το σχέδιο του Twitter
για να καταπολεμήσει
08:56
"What's Twitter'sΤου Twitter planσχέδιο to combatμάχη
foreignξένο meddlingανάμιξη in the 2020 US electionεκλογή?"
161
524717
3524
την εξωτερική παρέμβαση
στις εκλογές των ΗΠΑ το 2020;»
09:00
I think that's something
that's an issueθέμα we're seeingβλέπων
162
528265
2571
Νομίζω ότι είναι κάτι που είναι θέμα
που βλέπουμε γενικά στο διαδίκτυο,
09:02
on the internetΔιαδίκτυο in generalγενικός,
163
530860
1901
09:04
that we have a lot of maliciousκακόβουλο
automatedαυτοματοποιημένη activityδραστηριότητα happeningσυμβαίνει.
164
532785
3667
ότι έχουμε πολύ κακόβουλη
αυτοματοποιημένη δράση.
09:08
And on TwitterΠειραχτήρι, for exampleπαράδειγμα,
in factγεγονός, we have some work
165
536476
5373
Και στο Twitter, για παράδειγμα,
έχουμε κάποια δουλειά
09:13
that's come from our friendsοι φιλοι
at Zignal"Ζιγκ-ζων" LabsΕργαστήρια,
166
541873
2758
που προέρχεται από τους φίλους μας
στα Zignal Labs,
09:16
and maybe we can even see that
to give us an exampleπαράδειγμα
167
544655
2656
και ίσως να το δούμε ως παράδειγμα
09:19
of what exactlyακριβώς I'm talkingομιλία about,
168
547335
1927
γι' αυτό που μιλάω,
09:21
where you have these botsbots, if you will,
169
549286
3204
όπου έχετε αυτά τα bot, αν θέλετε,
09:24
or coordinatedσυντονισμένη automatedαυτοματοποιημένη
maliciousκακόβουλο accountΛογαριασμός activityδραστηριότητα,
170
552514
4550
ή συντονισμένη αυτοματοποιημένη
κακόβουλη δραστηριότητα λογαριασμών,
που χρησιμοποιείται για να επηρεάσει
πράγματα όπως οι εκλογές.
09:29
that is beingνα εισαι used to influenceεπιρροή
things like electionsεκλογές.
171
557088
2764
09:31
And in this exampleπαράδειγμα we have
from Zignal"Ζιγκ-ζων" whichοι οποίες they'veέχουν sharedκοινή χρήση with us
172
559876
3843
Και σε αυτό το παράδειγμα που έχουμε
από τη Zignal που μοιράστηκαν μαζί μας
χρησιμοποιώντας τα δεδομένα
που έχουν από το Twitter,
09:35
usingχρησιμοποιώντας the dataδεδομένα that
they have from TwitterΠειραχτήρι,
173
563743
2198
09:37
you actuallyπράγματι see that in this caseπερίπτωση,
174
565965
2441
βλέπετε ότι σε αυτήν την περίπτωση,
09:40
whiteάσπρο representsαντιπροσωπεύει the humansτου ανθρώπου --
humanο άνθρωπος accountsλογαριασμούς, eachκαθε dotτελεία is an accountΛογαριασμός.
175
568430
4370
το άσπρο αντιπροσωπεύει
τους ανθρώπινους λογαριασμούς,
κάθε κουκκίδα είναι ένας λογαριασμός.
09:44
The pinkerPinker it is,
176
572824
1359
Όσο πιο ροζ είναι,
τόσο πιο αυτοματοποιημένη
είναι η δραστηριότητα.
09:46
the more automatedαυτοματοποιημένη the activityδραστηριότητα is.
177
574207
1740
09:47
And you can see how you have
a fewλίγοι humansτου ανθρώπου interactingαλληλεπιδρώντας with botsbots.
178
575971
5970
Και μπορείς να δεις ότι έχετε μερικούς
ανθρώπους που αλληλεπιδρούν με bot.
09:53
In this caseπερίπτωση, it's relatedσχετίζεται με
to the electionεκλογή in IsraelΙσραήλ
179
581965
4419
Σε αυτήν την περίπτωση, έχει να κάνει
με τις εκλογές στο Ισραήλ
09:58
and spreadingδιάδοση misinformationπαραπληροφόρηση
about BennyBenny GantzGantz,
180
586408
2833
και τη διάδοση ψευδών πληροφοριών
για τον Μπένι Γκαντζ,
10:01
and as we know, in the endτέλος,
that was an electionεκλογή
181
589265
2662
και όπως ξέρουμε, στο τέλος,
αυτές ήταν εκλογές
10:03
that NetanyahuΟ Νετανιάχου wonΚέρδισε by a slimλεπτός marginπεριθώριο,
182
591951
3724
στις οποίες κέρδισε ο Νετανιάχου
με μικρή διαφορά,
10:07
and that mayενδέχεται have been
in some caseπερίπτωση influencedεπηρεάζονται by this.
183
595699
2842
και ίσως να είχε επηρεαστεί
κατά κάποιο τρόπο από αυτό.
10:10
And when you think about
that happeningσυμβαίνει on TwitterΠειραχτήρι,
184
598565
2615
Και όταν σκεφτείτε
ότι αυτό συμβαίνει στο Twitter,
10:13
what are the things
that you're doing, specificallyειδικά,
185
601204
2456
τι κάνετε, συγκεκριμένα,
για να εξασφαλίσετε
10:15
to ensureεξασφαλίζω you don't have misinformationπαραπληροφόρηση
like this spreadingδιάδοση in this way,
186
603684
3702
ότι δεν θα εξαπλώνονται
ψευδείς πληροφορίες με αυτόν τον τρόπο,
10:19
influencingπου επηρεάζουν την people in waysτρόπους
that could affectεπηρεάζουν democracyΔημοκρατία?
187
607410
4181
επηρεάζοντας τον κόσμο
με τρόπους που θα επηρέαζε τη δημοκρατία;
10:23
JDJD: Just to back up a bitκομμάτι,
188
611615
1771
ΤΝ: Να πάω λιγάκι πίσω,
10:25
we askedερωτηθείς ourselvesεμείς οι ίδιοι a questionερώτηση:
189
613410
2975
αναρωτηθήκαμε το εξής:
10:28
Can we actuallyπράγματι measureμετρήσει
the healthυγεία of a conversationσυνομιλία,
190
616409
3816
Μπορούμε να μετρήσουμε
την υγεία μιας συζήτησης,
10:32
and what does that mean?
191
620249
1288
και τι σημαίνει αυτό;
10:33
And in the sameίδιο way
that you have indicatorsδείκτες
192
621561
3382
Με τον ίδιο τρόπο που έχεις δείκτες
10:36
and we have indicatorsδείκτες as humansτου ανθρώπου
in termsόροι of are we healthyυγιής or not,
193
624967
3467
και εμείς έχουμε δείκτες ως άνθρωποι
για το αν είμαστε υγιείς ή όχι,
10:40
suchτέτοιος as temperatureθερμοκρασία,
the flushnessη σκληρότητα of your faceπρόσωπο,
194
628458
4658
όπως η θερμοκρασία,
το κοκκίνισμα του προσώπου,
10:45
we believe that we could find
the indicatorsδείκτες of conversationalομιλητικός healthυγεία.
195
633140
4560
πιστεύω ότι θα μπορούσαμε να βρούμε
τους δείκτες για την υγεία της συζήτησης.
10:49
And we workedεργάστηκε with a labεργαστήριο
calledπου ονομάζεται CorticoΦλοιο at MITMIT
196
637724
3843
Δουλέψαμε με ένα εργαστήριο
που λέγεται Cortico στο MIT
10:54
to proposeπροτείνω fourτέσσερα starterμίζα indicatorsδείκτες
197
642479
6091
για να προτείνουμε
τέσσερις αρχικούς δείκτες
11:00
that we believe we could ultimatelyτελικά
measureμετρήσει on the systemΣύστημα.
198
648594
3670
που πιστεύουμε ότι θα μπορούσαμε τελικά
να μετρήσουμε στο σύστημα,
11:05
And the first one is
what we're callingκλήση sharedκοινή χρήση attentionπροσοχή.
199
653249
5604
Ο πρώτος είναι αυτό που λέμε
μοιρασμένη προσοχή.
11:10
It's a measureμετρήσει of how much
of the conversationσυνομιλία is attentiveπροσεκτικός
200
658877
3581
Είναι ένα μέτρο για το πόσο
από τη συζήτηση παραμένει
11:14
on the sameίδιο topicθέμα versusεναντίον disparateανόμοιος.
201
662482
2630
στο ίδιο θέμα αντί να ξεφεύγει.
11:17
The secondδεύτερος one is calledπου ονομάζεται sharedκοινή χρήση realityπραγματικότητα,
202
665739
2783
Ο δεύτερος ονομάζεται
μοιρασμένη πραγματικότητα,
11:21
and this is what percentageποσοστό
of the conversationσυνομιλία
203
669217
2259
και είναι ποιο ποσοστό της συζήτησης
11:23
sharesμερίδια the sameίδιο factsγεγονότα --
204
671500
2005
μοιράζεται τα ίδια δεδομένα --
11:25
not whetherκατά πόσο those factsγεγονότα
are truthfulαληθείς or not,
205
673529
3113
όχι αν αυτά τα δεδομένα είναι αληθή ή όχι,
11:28
but are we sharingμοιρασιά
the sameίδιο factsγεγονότα as we converseConverse?
206
676666
3009
αλλά μοιραζόμαστε
τα ίδια δεδομένα καθώς συζητάμε;
11:32
The thirdτρίτος is receptivityΔεκτικότητα:
207
680235
2353
Ο τρίτος είναι δεκτικότητα:
11:34
How much of the conversationσυνομιλία
is receptiveδεκτικοί or civilεμφύλιος
208
682612
3959
Πόση από τη συζήτηση
είναι δεκτική ή πολιτισμένη
11:38
or the inverseαντίστροφος, toxicτοξικός?
209
686595
2944
ή το αντίστροφο, τοξική;
11:42
And then the fourthτέταρτος
is varietyποικιλία of perspectiveπροοπτική.
210
690213
3222
Και ο τέταρτος είναι
ποικιλία στην προοπτική.
11:45
So, are we seeingβλέπων filterφίλτρο bubblesφυσαλίδες
or echoηχώ chambersΕπιμελητήρια,
211
693459
3145
Έτσι, βλέπουμε φιλτραρισμένες
φούσκες ή κλώβους αντήχησης
11:48
or are we actuallyπράγματι gettingνα πάρει
a varietyποικιλία of opinionsγνώμες
212
696628
3057
ή λαμβάνουμε διάφορες απόψεις
11:51
withinστα πλαίσια the conversationσυνομιλία?
213
699709
1635
μέσα στη συζήτηση;
11:53
And implicitσιωπηρή in all fourτέσσερα of these
is the understandingκατανόηση that,
214
701368
4018
Και στους τέσσερις δείκτες
κατανοούμε σιωπηρά ότι,
11:57
as they increaseαυξάνουν, the conversationσυνομιλία
getsπαίρνει healthierπιο υγιεινό and healthierπιο υγιεινό.
215
705410
3390
καθώς αυξάνονται, η συζήτηση
γίνεται όλο και πιο υγιής.
12:00
So our first stepβήμα is to see
if we can measureμετρήσει these onlineσε απευθείας σύνδεση,
216
708824
4869
Έτσι το πρώτο βήμα είναι να δούμε
αν μπορούμε να τα μετρήσουμε στο δίκτυο,
12:05
whichοι οποίες we believe we can.
217
713717
1308
που πιστεύω ότι μπορούμε.
12:07
We have the mostπλέον momentumορμή
around receptivityΔεκτικότητα.
218
715049
3167
Έχουμε τη μεγαλύτερη δυναμική
γύρω από τη δεκτικότητα.
12:10
We have a toxicityτοξικότητα scoreσκορ,
a toxicityτοξικότητα modelμοντέλο, on our systemΣύστημα
219
718240
4317
Έχουμε ένα σκορ τοξικότητας,
ένα μοντέλο τοξικότητας, στο σύστημά μας
12:14
that can actuallyπράγματι measureμετρήσει
whetherκατά πόσο you are likelyπιθανός to walkΠερπατήστε away
220
722581
4124
που μπορεί να μετρήσει
αν είναι είναι πιθανό να φύγετε
12:18
from a conversationσυνομιλία
that you're havingέχοντας on TwitterΠειραχτήρι
221
726729
2313
από μια συζήτηση που κάνετε στο Twitter
12:21
because you feel it's toxicτοξικός,
222
729066
1633
επειδή νιώθετε ότι είναι τοξική,
12:22
with some prettyαρκετά highυψηλός degreeβαθμός.
223
730723
2512
σε πολύ μεγάλο βαθμό.
12:26
We're workingεργαζόμενος to measureμετρήσει the restυπόλοιπο,
224
734369
2199
Δουλεύουμε πάνω
στις μετρήσεις για τα υπόλοιπα,
12:28
and the nextεπόμενος stepβήμα is,
225
736592
1964
και το επόμενο βήμα είναι,
12:30
as we buildχτίζω up solutionsλύσεων,
226
738580
3359
καθώς φτιάχνουμε λύσεις,
12:33
to watch how these measurementsΜετρήσεις
trendτάση over time
227
741963
3491
για να δούμε πώς τείνουν αυτές
οι μετρήσεις στο πέρασμα του χρόνου
12:37
and continueνα συνεχίσει to experimentπείραμα.
228
745478
1873
και να συνεχίσουμε να πειραματιζόμαστε.
12:39
And our goalστόχος is to make sure
that these are balancedισορροπημένη,
229
747375
4041
Ο σκοπός μας είναι να σιγουρευτούμε
ότι είναι ισορροπημένα,
12:43
because if you increaseαυξάνουν one,
you mightθα μπορούσε decreaseμείωση anotherαλλο.
230
751440
3066
επειδή αν αυξήσετε έναν,
ίσως να μειώσετε κάποιον άλλον.
12:46
If you increaseαυξάνουν varietyποικιλία of perspectiveπροοπτική,
231
754530
2147
Αν αυξήσεις την ποικιλία προοπτικών,
12:48
you mightθα μπορούσε actuallyπράγματι decreaseμείωση
sharedκοινή χρήση realityπραγματικότητα.
232
756701
3091
ίσως όντως να μειώσεις
τη μοιρασμένη πραγματικότητα.
12:51
CACA: Just pickingσυλλογή up on some
of the questionsερωτήσεις floodingπλημμύρα in here.
233
759816
4989
ΚΑ: Πιάνω λιγάκι τις ερωτήσεις
που μας κατακλύζουν εδώ.
12:56
JDJD: ConstantΣταθερή questioningπροβληματισμός.
234
764829
1271
ΝΤ: Συνεχείς ερωτήσεις.
12:58
CACA: A lot of people are puzzledπροβλημάτισε why,
235
766996
3620
ΚΑ: Πολλοί αναρωτιούνται γιατί,
13:02
like, how hardσκληρά is it to get ridαπαλλάσσω
of NazisΝαζί from TwitterΠειραχτήρι?
236
770640
4247
δηλαδή, πόσο δύσκολο είναι
να ξεφορτωθείτε τους Ναζί από το Twitter;
13:08
JDJD: (LaughsΓέλια)
237
776309
1322
ΤΝ: (Γελάει)
13:09
So we have policiesπολιτικές
around violentβίαιος extremistεξτρεμιστικές groupsομάδες,
238
777655
6995
Έχουμε πολιτικές σχετικά
με βίαιες εξτρεμιστικές ομάδες,
13:16
and the majorityη πλειοψηφία of our work
and our termsόροι of serviceυπηρεσία
239
784674
4426
και η περισσότερη από τη δουλειά μας
και τους όρους χρήσης μας
13:21
worksεργοστάσιο on conductσυμπεριφοράς, not contentπεριεχόμενο.
240
789124
3729
λειτουργεί με τη συμπεριφορά,
όχι με το περιεχόμενο.
13:24
So we're actuallyπράγματι looking for conductσυμπεριφοράς.
241
792877
2551
Κοιτάζουμε λοιπόν τη συμπεριφορά.
13:27
ConductΣυμπεριφοράς beingνα εισαι usingχρησιμοποιώντας the serviceυπηρεσία
242
795452
3014
Με συμπεριφορά εννοούμε
τη χρήση της υπηρεσίας
13:30
to repeatedlyεπανειλημμένα or episodicallyσποραδικώς
harassπαρενόχληση someoneκάποιος,
243
798490
3867
για επανειλημμένη ή επεισοδιακή
παρενόχληση κάποιου,
13:34
usingχρησιμοποιώντας hatefulμισητός imageryεικόνες
244
802381
2493
χρήση εικόνων μίσους
13:36
that mightθα μπορούσε be associatedσυσχετισμένη with the KKKKkk
245
804898
2106
που μπορούν να συνδεθούν με την ΚΚΚ
13:39
or the AmericanΑμερικανική NaziΝαζί PartyΚόμμα.
246
807028
3281
ή το Αμερικανικό Κόμμα Ναζί.
13:42
Those are all things
that we actενεργω on immediatelyαμέσως.
247
810333
4156
Όλα αυτά είναι πράγματα
στα οποία δρούμε άμεσα.
13:47
We're in a situationκατάσταση right now
where that termόρος is used fairlyαρκετά looselyχαλαρά,
248
815002
5452
Αυτήν τη στιγμή είμαστε σε μια κατάσταση
όπου αυτός ο όρος
χρησιμοποιείται αρκετά χαλαρά,
13:52
and we just cannotδεν μπορώ take
any one mentionαναφέρω of that wordλέξη
249
820478
5313
και δεν μπορούμε απλώς να πάρουμε
μια αναφορά αυτής της λέξης
13:57
accusingκατηγορώντας someoneκάποιος elseαλλού
250
825815
2117
που κατηγορεί κάποιον άλλον
13:59
as a factualπραγματικά περιστατικά indicationένδειξη that they
should be removedνα αφαιρεθεί from the platformπλατφόρμα.
251
827956
3755
ως πραγματική ένδειξη ότι θα πρέπει
να απομακρυνθούν από την πλατφόρμα.
14:03
So a lot of our modelsμοντέλα
are basedμε βάση around, numberαριθμός one:
252
831735
2627
Έτσι πολλά από τα μοντέλα μας
βασίζονται σε, νούμερο ένα:
14:06
Is this accountΛογαριασμός associatedσυσχετισμένη
with a violentβίαιος extremistεξτρεμιστικές groupομάδα?
253
834386
3140
Σχετίζεται αυτός ο λογαριασμός
με μια βίαιη εξτρεμιστική ομάδα;
14:09
And if so, we can take actionδράση.
254
837550
1983
Αν ναι, μπορούμε να δράσουμε.
14:11
And we have doneΈγινε so on the KKKKkk
and the AmericanΑμερικανική NaziΝαζί PartyΚόμμα and othersοι υπολοιποι.
255
839557
3852
Και το έχουμε κάνει με την ΚΚΚ
και το Αμερικανικό Κόμμα Ναζί και άλλους.
14:15
And numberαριθμός two: Are they usingχρησιμοποιώντας
imageryεικόνες or conductσυμπεριφοράς
256
843433
4183
Και νούμερο δύο: Χρησιμοποιούν
εικόνες ή συμπεριφορά
14:19
that would associateΑναπληρωτής them as suchτέτοιος as well?
257
847640
2372
που θα τους συνέδεαν με τέτοιο τρόπο;
14:22
CACA: How manyΠολλά people do you have
workingεργαζόμενος on contentπεριεχόμενο moderationμετριοπάθεια
258
850416
2932
ΚΑ: Πόσα άτομα έχετε να δουλεύουν
στον έλεγχο περιεχομένου
14:25
to look at this?
259
853372
1250
για να τα κοιτούν αυτά;
14:26
JDJD: It variesποικίλλει.
260
854646
1496
ΤΝ: Ανάλογα.
14:28
We want to be flexibleεύκαμπτος on this,
261
856166
1595
Θέλουμε να είμαστε ευέλικτοι,
14:29
because we want to make sure
that we're, numberαριθμός one,
262
857785
2646
επειδή θέλουμε να σιγουρευτούμε
ότι, νούμερο ένα,
14:32
buildingΚτίριο algorithmsαλγορίθμους insteadαντι αυτου of just
hiringτην πρόσληψη massiveογκώδης amountsποσά of people,
263
860455
4424
φτιάχνουμε αλγόριθμους αντί
να προσλαμβάνουμε ένα σωρό κόσμο,
14:36
because we need to make sure
that this is scalableανάβατος,
264
864903
2824
επειδή πρέπει να σιγουρευτούμε
ότι είναι επεκτάσιμο,
14:39
and there are no amountποσό of people
that can actuallyπράγματι scaleκλίμακα this.
265
867751
3454
και δεν υπάρχουν άτομα
που να μπορούν να το επεκτείνουν.
14:43
So this is why we'veέχουμε doneΈγινε so much work
around proactiveενεργό detectionανίχνευση of abuseκατάχρηση
266
871229
6629
Γι' αυτό έχουμε κάνει τόση πολλή δουλειά
στην προληπτική ανίχνευση της κατάχρησης
που μπορούν μετά να ελέγξουν άνθρωποι.
14:49
that humansτου ανθρώπου can then reviewανασκόπηση.
267
877882
1391
14:51
We want to have a situationκατάσταση
268
879297
2861
Θέλουμε να έχουμε μια κατάσταση
14:54
where algorithmsαλγορίθμους are constantlyσυνεχώς
scouringΠλύσιμο everyκάθε singleμονόκλινο tweetτιτίβισμα
269
882182
3741
όπου οι αλγόριθμοι ελέγχουν
συνεχώς κάθε τιτίβισμα
14:57
and bringingφέρνοντας the mostπλέον
interestingενδιαφέρων onesαυτές to the topμπλουζα
270
885947
2342
και ανεβάζοντας
τα πιο ενδιαφέροντα πρώτα
15:00
so that humansτου ανθρώπου can bringνα φερεις theirδικα τους judgmentκρίση
to whetherκατά πόσο we should take actionδράση or not,
271
888313
3902
έτσι ώστε οι άνθρωποι να κρίνουν
αν θα πρέπει να δράσουμε ή όχι,
σύμφωνα με τους όρους χρήσης μας.
15:04
basedμε βάση on our termsόροι of serviceυπηρεσία.
272
892239
1524
15:05
WPRWPR του: But there's not an amountποσό
of people that are scalableανάβατος,
273
893787
2803
ΓΠΡ: Αλλά δεν υπάρχει αριθμός
ατόμων που είναι επεκτάσιμος,
15:08
but how manyΠολλά people do you currentlyεπί του παρόντος have
monitoringπαρακολούθησης these accountsλογαριασμούς,
274
896614
3497
αλλά πόσοι άνθρωποι αυτήν τη στιγμή
παρακολουθούν αυτούς τους λογαριασμούς,
15:12
and how do you figureεικόνα out what's enoughαρκετά?
275
900135
2546
και πώς καταλαβαίνεις τι είναι αρκετό;
15:14
JDJD: They're completelyεντελώς flexibleεύκαμπτος.
276
902705
2272
ΤΝ: Είναι τελείως ευέλικτοι.
15:17
SometimesΜερικές φορές we associateΑναπληρωτής folksλαούς with spamανεπιθυμητη αλληλογραφια.
277
905001
2941
Μερικές φορές συνδέουμε άτομα με spam.
15:19
SometimesΜερικές φορές we associateΑναπληρωτής folksλαούς
with abuseκατάχρηση and harassmentπαρενόχληση.
278
907966
3845
Μερικές φορές συνδέουμε άτομα
με κακοποίηση και παρενόχληση.
Θα σιγουρευτούμε ότι έχουμε
ευελιξία στους ανθρώπους μας
15:23
We're going to make sure that
we have flexibilityευκαμψία in our people
279
911835
3062
ώστε να τους κατευθύνουμε
εκεί που χρειάζονται περισσότερο.
15:26
so that we can directαπευθείας them
at what is mostπλέον neededαπαιτείται.
280
914921
2350
Μερικές φορές, στις εκλογές.
15:29
SometimesΜερικές φορές, the electionsεκλογές.
281
917295
1204
15:30
We'veΈχουμε had a stringσειρά of electionsεκλογές
in MexicoΜεξικό, one comingερχομός up in IndiaΙνδία,
282
918523
4927
Είχαμε μια σειρά από εκλογές
στο Μεξικό, μία σε λίγο στην Ινδία,
15:35
obviouslyπροφανώς, the electionεκλογή last yearέτος,
the midtermενδιάμεση electionεκλογή,
283
923474
4447
προφανώς, οι εκλογές πέρσι,
οι ενδιάμεσες εκλογές,
15:39
so we just want to be flexibleεύκαμπτος
with our resourcesπόροι.
284
927945
2472
έτσι θέλουμε να είμαστε
ευέλικτοι με τους πόρους μας.
15:42
So when people --
285
930441
2129
Έτσι όταν --
15:44
just as an exampleπαράδειγμα, if you go
to our currentρεύμα termsόροι of serviceυπηρεσία
286
932594
6389
σαν παράδειγμα, αν πας
στους τρέχοντες όρους χρήσης
15:51
and you bringνα φερεις the pageσελίδα up,
287
939007
1641
και ανοίξεις τη σελίδα,
15:52
and you're wonderingαναρωτιούνται about abuseκατάχρηση
and harassmentπαρενόχληση that you just receivedέλαβε
288
940672
3682
και αναρωτιέσαι για την κακοποίηση
και την παρενόχληση που μόλις έλαβες
15:56
and whetherκατά πόσο it was againstκατά
our termsόροι of serviceυπηρεσία to reportκανω ΑΝΑΦΟΡΑ it,
289
944378
3634
και αν ήταν ενάντια στους όρους
χρήσης μας, για να το αναφέρεις,
το πρώτο πράγμα που θα δεις
όταν ανοίξεις αυτήν τη σελίδα
16:00
the first thing you see
when you openΆνοιξε that pageσελίδα
290
948036
2559
16:02
is around intellectualδιανοούμενος
propertyιδιοκτησία protectionΠΡΟΣΤΑΣΙΑ.
291
950619
3088
έχει να κάνει με την προστασία
πνευματικής ιδιοκτησίας.
16:06
You scrollπάπυρος down and you get to
abuseκατάχρηση, harassmentπαρενόχληση
292
954504
5323
Σκρολάρετε προς τα κάτω και φτάνετε
στην κακοποίηση, την παρενόχληση
16:11
and everything elseαλλού
that you mightθα μπορούσε be experiencingβιώνουν.
293
959851
2382
και όλα όσα μπορεί να βιώνετε.
16:14
So I don't know how that happenedσυνέβη
over the company'sτης εταιρείας historyιστορία,
294
962257
3195
Έτσι δεν ξέρω πώς συνέβη
αυτό στην ιστορία της εταιρίας,
16:17
but we put that aboveπανω
the thing that people want
295
965476
4797
αλλά το βάζουμε πάνω
από αυτό που θέλει ο κόσμος
16:24
the mostπλέον informationπληροφορίες on
and to actuallyπράγματι actενεργω on.
296
972146
3222
τις περισσότερες πληροφορίες
και να δράσουν σε αυτό.
16:27
And just our orderingπαραγγελία showsδείχνει the worldκόσμος
what we believedπιστεύω was importantσπουδαίος.
297
975392
5241
Και η σειρά δείχνει στον κόσμο
τι θεωρούσαμε σημαντικό.
16:32
So we're changingαλλάζοντας all that.
298
980657
2881
Έτσι τα αλλάζουμε όλα αυτά.
16:35
We're orderingπαραγγελία it the right way,
299
983562
1563
Τα βάζουμε στη σωστή σειρά,
16:37
but we're alsoεπίσης simplifyingαπλούστευση the rulesκανόνες
so that they're human-readableαναγνώσιμη από άνθρωπο
300
985149
3451
αλλά απλοποιούμε και τους κανόνες ώστε
να μπορούν να διαβαστούν από ανθρώπους
16:40
so that people can actuallyπράγματι
understandκαταλαβαίνουν themselvesτους εαυτούς τους
301
988624
4067
έτσι ώστε να καταλαβαίνουν μόνοι τους
16:44
when something is againstκατά our termsόροι
and when something is not.
302
992715
3448
όταν κάτι είναι ενάντια
στους όρους μας και όταν κάτι δεν είναι.
16:48
And then we're makingκατασκευή --
303
996187
2161
Και μετά κάνουμε --
16:50
again, our bigμεγάλο focusΣυγκεντρώνω is on removingαφαίρεση
the burdenβάρος of work from the victimsθύματα.
304
998372
5200
πάλι, εστιάζουμε στο να πάρουμε
το βάρος της δουλειάς από τα θύματα.
16:55
So that meansπου σημαίνει pushΣπρώξτε more
towardsπρος technologyτεχνολογία,
305
1003596
3734
Αυτό σημαίνει να σπρώξουμε
περισσότερα προς την τεχνολογία,
16:59
ratherμάλλον than humansτου ανθρώπου doing the work --
306
1007354
1873
αντί να κάνουν τη δουλειά άνθρωποι --
17:01
that meansπου σημαίνει the humansτου ανθρώπου receivingλήψη the abuseκατάχρηση
307
1009251
2413
αυτό σημαίνει ότι αυτοί που κακοποιούνται
17:03
and alsoεπίσης the humansτου ανθρώπου
havingέχοντας to reviewανασκόπηση that work.
308
1011688
3026
και αυτοί που ελέγχουν.
17:06
So we want to make sure
309
1014738
1673
Έτσι θέλουμε να σιγουρευτούμε
17:08
that we're not just encouragingενθαρρύνοντας more work
310
1016435
2841
ότι δεν ενθαρρύνουμε απλώς
περισσότερη δουλειά
17:11
around something
that's superσούπερ, superσούπερ negativeαρνητικός,
311
1019300
2629
προς κάτι που είναι πολύ αρνητικό,
και θέλουμε να έχουμε μια καλή ισορροπία
ανάμεσα στην τεχνολογία
17:13
and we want to have a good balanceισορροπία
betweenμεταξύ the technologyτεχνολογία
312
1021953
2674
17:16
and where humansτου ανθρώπου can actuallyπράγματι be creativeδημιουργικός,
313
1024651
2852
και πού οι άνθρωποι
μπορούν να είναι δημιουργικοί,
17:19
whichοι οποίες is the judgmentκρίση of the rulesκανόνες,
314
1027527
3090
που είναι η κρίση των όρων,
17:22
and not just all the mechanicalμηχανικός stuffυλικό
of findingεύρεση and reportingαναφοράς them.
315
1030641
3267
και όχι απλώς όλα τα μηχανικά πράγματα
του να βρεις και να αναφέρεις.
17:25
So that's how we think about it.
316
1033932
1530
Έτσι το σκεφτόμαστε.
17:27
CACA: I'm curiousπερίεργος to digσκάβω in more
about what you said.
317
1035486
2406
ΚΑ: Θα ήθελα να δούμε
περισσότερο αυτό που είπες.
17:29
I mean, I love that you said
you are looking for waysτρόπους
318
1037916
2605
Θέλω να πω, μου αρέσει ότι είπες
ότι ψάχνετε για τρόπους
17:32
to re-tweakεκ νέου τσίμπημα the fundamentalθεμελιώδης
designσχέδιο of the systemΣύστημα
319
1040545
3462
για να επανεξετάσετε τον βασικό
σχεδιασμό του συστήματος
17:36
to discourageαποθαρρύνει some of the reactiveαντιδραστική
behaviorη ΣΥΜΠΕΡΙΦΟΡΑ, and perhapsίσως --
320
1044031
4875
για να αποθαρρύνετε κάποια από
την αντιδραστική συμπεριφορά, και ίσως --
17:40
to use TristanΤριστάν Harris-typeΤύπος Χάρης languageΓλώσσα --
321
1048930
2705
να χρησιμοποιήσω γλώσσα
τύπου Τρίσταν Χάρις --
17:43
engageαρραβωνιάζω people'sτων ανθρώπων more reflectiveανακλαστικός thinkingσκέψη.
322
1051659
4288
να εμπλέξετε πιο στοχαστική σκέψη.
17:47
How farμακριά advancedπροχωρημένος is that?
323
1055971
1854
Πόσο έχει προχωρήσει αυτό;
17:49
What would alternativesεναλλακτικές λύσεις
to that "like" buttonκουμπί be?
324
1057849
4305
Ποιες θα ήταν οι εναλλακτικές
για το κουμπί «like»;
17:55
JDJD: Well, first and foremostπρώτιστος,
325
1063518
3575
ΤΝ: Πρώτα απ' όλα,
17:59
my personalπροσωπικός goalστόχος with the serviceυπηρεσία
is that I believe fundamentallyθεμελιωδώς
326
1067117
5753
ο προσωπικός μου στόχος με την υπηρεσία
είναι ότι πιστεύω θεμελιωδώς
18:04
that publicδημόσιο conversationσυνομιλία is criticalκρίσιμος.
327
1072894
2702
ότι η δημόσια συζήτηση είναι κρίσιμη.
18:07
There are existentialυπαρξιακός problemsπροβλήματα
facingαντιμέτωπος the worldκόσμος
328
1075620
2647
Ο κόσμος αντιμετωπίζει
υπαρξιακά προβλήματα,
18:10
that are facingαντιμέτωπος the entireολόκληρος worldκόσμος,
not any one particularιδιαιτερος nation-stateέθνος-κράτος,
329
1078291
4163
ολόκληρος ο κόσμος,
όχι μόνο σε ένα συγκεκριμένο έθνος,
18:14
that globalπαγκόσμια publicδημόσιο conversationσυνομιλία benefitsπλεονεκτήματα.
330
1082478
2649
και θα βοηθήσει η παγκόσμια
δημόσια συζήτηση.
18:17
And that is one of the uniqueμοναδικός
dynamicsδυναμική of TwitterΠειραχτήρι,
331
1085151
2372
Αυτή είναι μία από τις μοναδικές
δυναμικές του Twitter,
18:19
that it is completelyεντελώς openΆνοιξε,
332
1087547
1814
που είναι τελείως ανοιχτό,
18:21
it is completelyεντελώς publicδημόσιο,
333
1089385
1596
τελείως δημόσιο,
18:23
it is completelyεντελώς fluidυγρό,
334
1091005
1399
τελείως ρευστό,
18:24
and anyoneο καθενας can see any other conversationσυνομιλία
and participateσυμμετέχω in it.
335
1092428
4038
και οποιοσδήποτε μπορεί να δει όλες
τις συζητήσεις και να συμμετάσχει.
18:28
So there are conversationsσυνομιλίες
like climateκλίμα changeαλλαγή.
336
1096490
2206
Υπάρχουν συζητήσεις
όπως η κλιματική αλλαγή.
18:30
There are conversationsσυνομιλίες
like the displacementμετατόπιση in the work
337
1098720
2682
Υπάρχουν συζητήσεις
όπως η μετατόπιση στην εργασία
18:33
throughδιά μέσου artificialτεχνητός intelligenceνοημοσύνη.
338
1101426
2000
μέσω της τεχνητής νοημοσύνης.
18:35
There are conversationsσυνομιλίες
like economicοικονομικός disparityανισότητα.
339
1103450
3006
Υπάρχουν συζητήσεις
όπως η οικονομική ανισότητα.
18:38
No matterύλη what any one nation-stateέθνος-κράτος does,
340
1106480
2765
Δεν έχει σημασία τι κάνει μία χώρα,
18:41
they will not be ableικανός
to solveλύσει the problemπρόβλημα aloneμόνος.
341
1109269
2421
δεν θα καταφέρουν να λύσουν
το πρόβλημα μόνοι τους.
18:43
It takes coordinationσυντονισμός around the worldκόσμος,
342
1111714
2643
Χρειάζεται συντονισμό σε όλον τον κόσμο,
18:46
and that's where I think
TwitterΠειραχτήρι can playπαίζω a partμέρος.
343
1114381
3047
και εκεί νομίζω ότι μπορεί
να παίξει κάποιον ρόλο το Twitter.
18:49
The secondδεύτερος thing is that TwitterΠειραχτήρι,
right now, when you go to it,
344
1117452
5642
Το δεύτερο είναι ότι το Twitter,
αυτήν τη στιγμή, όταν πάτε σε αυτό,
18:55
you don't necessarilyαναγκαίως walkΠερπατήστε away
feelingσυναισθημα like you learnedέμαθα something.
345
1123118
3746
δεν φεύγετε απαραίτητα
με το αίσθημα ότι μάθατε κάτι.
18:58
Some people do.
346
1126888
1276
Μερικοί το κάνουν.
19:00
Some people have
a very, very richπλούσιος networkδίκτυο,
347
1128188
3107
Μερικοί έχουν ένα πολύ πλούσιο δίκτυο,
19:03
a very richπλούσιος communityκοινότητα
that they learnμαθαίνω from everyκάθε singleμονόκλινο day.
348
1131319
3117
μια πολύ πλούσια κοινότητα
από την οποία μαθαίνουν κάθε μέρα.
19:06
But it takes a lot of work
and a lot of time to buildχτίζω up to that.
349
1134460
3691
Αλλά χρειάζεται πολλή δουλειά και χρόνος
για να το φτάσει σε αυτό το σημείο.
19:10
So we want to get people
to those topicsΘέματα and those interestsτα ενδιαφέροντα
350
1138175
3448
Θέλουμε να πάμε τον κόσμο
σε αυτά τα θέματα και ενδιαφέροντα
19:13
much, much fasterγρηγορότερα
351
1141647
1579
πολύ γρηγορότερα
19:15
and make sure that
they're findingεύρεση something that,
352
1143250
2566
και να σιγουρευτούμε
ότι βρίσκουν κάτι που,
19:18
no matterύλη how much time
they spendδαπανήσει on TwitterΠειραχτήρι --
353
1146728
2360
ασχέτως πόση ώρα
ξοδεύουν στο Twitter --
19:21
and I don't want to maximizeμεγιστοποίηση
the time on TwitterΠειραχτήρι,
354
1149112
2358
και δεν θέλω να μεγιστοποιήσω
τον χρόνο στο Twitter,
19:23
I want to maximizeμεγιστοποίηση
what they actuallyπράγματι take away from it
355
1151494
2910
θέλω να μεγιστοποιήσω
τι παίρνουν από αυτό
19:26
and what they learnμαθαίνω from it, and --
356
1154428
2030
και τι μαθαίνουν από αυτό, και --
19:29
CACA: Well, do you, thoughαν και?
357
1157598
1328
ΚΑ: Το κάνεις όμως;
19:30
Because that's the coreπυρήνας questionερώτηση
that a lot of people want to know.
358
1158950
3244
Επειδή αυτή είναι η κύρια ερώτηση
που θέλει να μάθει πολύς κόσμος.
19:34
SurelyΣίγουρα, JackJack, you're constrainedπεριορισμένες,
to a hugeτεράστιος extentέκταση,
359
1162218
3638
Τζακ, σίγουρα περιορίζεσαι,
σε μεγάλο βαθμό,
19:37
by the factγεγονός that you're a publicδημόσιο companyΕταιρία,
360
1165880
2007
από το γεγονός,
ότι είσαι στο χρηματιστήριο,
19:39
you've got investorsεπενδυτές pressingπάτημα on you,
361
1167911
1774
και έχεις τους επενδυτές να σε πιέζουν,
19:41
the numberαριθμός one way you make your moneyχρήματα
is from advertisingδιαφήμιση --
362
1169709
3559
ο νούμερο ένα τρόπος να βγάλεις
χρήματα είναι από τις διαφημίσεις --
19:45
that dependsΕξαρτάται on userχρήστης engagementσύμπλεξη.
363
1173292
2772
αυτό εξαρτάται
από την εμπλοκή των χρηστών.
19:48
Are you willingπρόθυμος to sacrificeθυσία
userχρήστης time, if need be,
364
1176088
4700
Είσαι διατεθειμένος να θυσιάσεις
χρόνο χρηστών, αν χρειαστεί,
19:52
to go for a more reflectiveανακλαστικός conversationσυνομιλία?
365
1180812
3729
για να πας σε μια
πιο στοχαστική συνομιλία;
19:56
JDJD: Yeah; more relevanceσυνάφεια meansπου σημαίνει
lessπιο λιγο time on the serviceυπηρεσία,
366
1184565
3111
ΤΝ: Ναι, μεγαλύτερη σχετικότητα σημαίνει
λιγότερος χρόνος στην υπηρεσία,
19:59
and that's perfectlyτέλεια fine,
367
1187700
1937
και είναι μια χαρά,
20:01
because we want to make sure
that, like, you're comingερχομός to TwitterΠειραχτήρι,
368
1189661
3099
επειδή θέλουμε να σιγουρευτούμε
ότι όταν έρχεσαι στο Twitter,
20:04
and you see something immediatelyαμέσως
that you learnμαθαίνω from and that you pushΣπρώξτε.
369
1192784
4520
και δεις κάτι αμέσως από το οποίο
μαθαίνεις και σπρώχνεις.
20:09
We can still serveσερβίρισμα an adΕνα δ againstκατά that.
370
1197328
3420
Ακόμη μπορούμε να βάλουμε
διαφήμιση σε αυτό.
Δεν χρειάζεται να περάσεις
πιο πολύ χρόνο για να δεις πιο πολλά.
20:12
That doesn't mean you need to spendδαπανήσει
any more time to see more.
371
1200772
2921
20:15
The secondδεύτερος thing we're looking at --
372
1203717
1733
Το δεύτερο πράγμα που κοιτάμε --
20:17
CACA: But just -- on that goalστόχος,
dailyκαθημερινά activeενεργός usageχρήση,
373
1205474
2698
ΚΑ: Αλλά μόνο -- σε αυτόν τον στόχο,
καθημερινή ενεργή χρήση,
20:20
if you're measuringμέτρημα that,
that doesn't necessarilyαναγκαίως mean things
374
1208196
3245
αν μετράς αυτό, δεν σημαίνει
απαραίτητα πράγματα
20:23
that people valueαξία everyκάθε day.
375
1211465
1738
που εκτιμά ο κόσμος καθημερινά.
20:25
It mayενδέχεται well mean
376
1213227
1161
Θα μπορούσε να σημαίνει
20:26
things that people are drawnσυρθεί to
like a mothσκώρος to the flameφλόγα, everyκάθε day.
377
1214412
3306
πράγματα τα οποία έλκουν τους ανθρώπους
σαν μαγνήτης, κάθε μέρα.
20:29
We are addictedεθισμένος, because we see
something that pissesΠήσσες us off,
378
1217742
3022
Είμαστε εθισμένοι, επειδή
βλέπουμε κάτι που μας τσαντίζει,
20:32
so we go in and addπροσθέτω fuelκαύσιμα to the fireΦωτιά,
379
1220788
3178
έτσι πηγαίνουμε και ρίχνουμε
λάδι στη φωτιά,
20:35
and the dailyκαθημερινά activeενεργός usageχρήση goesπηγαίνει up,
380
1223990
1927
και η καθημερινή ενεργή χρήση ανεβαίνει,
20:37
and there's more adΕνα δ revenueέσοδα there,
381
1225941
1715
και υπάρχει μεγαλύτερος
τζίρος από διαφημίσεις,
20:39
but we all get angrierangrier with eachκαθε other.
382
1227680
2752
αλλά όλοι μας θυμώνουμε
περισσότερο μεταξύ μας.
20:42
How do you defineκαθορίζω ...
383
1230456
2509
Πώς ορίζεις...
20:44
"DailyΚαθημερινά activeενεργός usageχρήση" seemsφαίνεται like a really
dangerousεπικίνδυνος termόρος to be optimizingβελτιστοποίηση.
384
1232989
4126
«Η καθημερινή ενεργή χρήση» ακούγεται σαν
κάτι επικίνδυνο για να βελτιστοποιηθεί.
20:49
(ApplauseΧειροκροτήματα)
385
1237139
5057
(Χειροκρότημα)
20:54
JDJD: TakenΛαμβάνονται aloneμόνος, it is,
386
1242220
1268
ΤΝ: Από μόνο του, είναι,
20:55
but you didn't let me
finishφινίρισμα the other metricμετρικός,
387
1243512
2346
αλλά δεν με άφησες να τελειώσω
την άλλη μέτρηση,
20:57
whichοι οποίες is, we're watchingβλέποντας for conversationsσυνομιλίες
388
1245882
3727
που είναι ότι κοιτάμε για συζητήσεις
21:01
and conversationσυνομιλία chainsαλυσίδες.
389
1249633
2129
και αλυσίδες συζητήσεων.
21:03
So we want to incentivizeκίνητρα
healthyυγιής contributionσυνεισφορά back to the networkδίκτυο,
390
1251786
5076
Έτσι θέλουμε να δώσουμε κίνητρα
για την υγιή συμβολή στο δίκτυο,
21:08
and what we believe that is
is actuallyπράγματι participatingσυμμετέχοντας in conversationσυνομιλία
391
1256886
4181
και πιστεύουμε ότι η συμμετοχή
στη συζήτηση είναι υγιής,
21:13
that is healthyυγιής,
392
1261091
1197
21:14
as definedορίζεται by those fourτέσσερα indicatorsδείκτες
I articulatedαρθρωτό earlierνωρίτερα.
393
1262312
5037
όπως προσδιορίζεται από αυτούς
τους τέσσερις δείκτες που ανέφερα πριν.
21:19
So you can't just optimizeβελτιστοποίηση της
around one metricμετρικός.
394
1267373
2657
Δεν μπορείς να βελτιστοποιήσεις
γύρω από μία μέτρηση.
21:22
You have to balanceισορροπία and look constantlyσυνεχώς
395
1270054
2752
Πρέπει να ισορροπείς
και να κοιτάς συνεχώς
21:24
at what is actuallyπράγματι going to createδημιουργώ
a healthyυγιής contributionσυνεισφορά to the networkδίκτυο
396
1272830
4083
τι είναι αυτό που θα δημιουργήσει
μια υγιή συμμετοχή στο δίκτυο
21:28
and a healthyυγιής experienceεμπειρία for people.
397
1276937
2341
και μια υγιή εμπειρία για τους ανθρώπους.
21:31
UltimatelyΤελικά, we want to get to a metricμετρικός
398
1279302
1866
Στην τελική, θέλω να φτάσω σε μια μέτρηση
21:33
where people can tell us,
"Hey, I learnedέμαθα something from TwitterΠειραχτήρι,
399
1281192
3757
όπου θα μπορούν να μου πουν,
«Έι, έμαθα κάτι από το Twitter,
21:36
and I'm walkingτο περπάτημα away
with something valuableπολύτιμος."
400
1284973
2167
και φεύγω με κάτι πολύτιμο».
21:39
That is our goalστόχος ultimatelyτελικά over time,
401
1287164
2043
Αυτός είναι ο σκοπός μας τελικά,
21:41
but that's going to take some time.
402
1289231
1809
αλλά θα χρειαστεί χρόνος.
21:43
CACA: You come over to manyΠολλά,
I think to me, as this enigmaαίνιγμα.
403
1291064
5282
ΚΑ: Σε πολλούς είσαι,
νομίζω σε μένα, σαν αίνιγμα.
21:48
This is possiblyπιθανώς unfairαθέμιτες,
but I wokeξύπνησα up the other night
404
1296370
4396
Είναι μάλλον άδικο,
αλλά τις προάλλες ξύπνησα τη νύχτα
21:52
with this pictureεικόνα of how I foundβρέθηκαν I was
thinkingσκέψη about you and the situationκατάσταση,
405
1300790
3879
έχοντας αυτή την εικόνα του πώς
σκέφτομαι εσένα και την κατάσταση,
21:56
that we're on this great voyageταξίδι στη θάλασσα with you
on this shipπλοίο calledπου ονομάζεται the "TwittanicΤαττουανικό" --
406
1304693
6903
ότι είμαστε σε ένα μεγάλο ταξίδι μαζί σου
στο καράβι που λέγεται «Twittanic» --
22:03
(LaughterΤο γέλιο)
407
1311620
1281
(Γέλια)
22:04
and there are people on boardσανίδα in steerageκατάστρωμα
408
1312925
4357
και υπάρχουν άτομα στο πλοίο στο πηδάλιο
22:09
who are expressingεκφράζοντας discomfortδυσφορία,
409
1317306
2203
που εκφράζουν τη δυσφορία τους,
22:11
and you, unlikeδιαφορετικός manyΠολλά other captainsκαπετάνιοι,
410
1319533
2543
κι εσύ, σε αντίθεση
με πολλούς άλλους καπετάνιους,
22:14
are sayingρητό, "Well, tell me, talk to me,
listen to me, I want to hearακούω."
411
1322100
3431
λες, «Πείτε μου, μιλήστε μου,
ακούστε με, θέλω να ακούσω».
22:17
And they talk to you, and they say,
"We're worriedανήσυχος about the icebergπαγόβουνο aheadεμπρός."
412
1325555
3619
Και σου μιλούν, και λένε,
«Ανησυχούμε για το παγόβουνο μπροστά».
22:21
And you go, "You know,
that is a powerfulισχυρός pointσημείο,
413
1329198
2242
Λες, «Ξέρεις, έχεις ένα ισχυρό σημείο,
και το πλοίο μας, για να πω την αλήθεια,
δεν έχει χτιστεί σωστά
22:23
and our shipπλοίο, franklyειλικρινά,
hasn'tδεν έχει been builtχτισμένο properlyδεόντως
414
1331464
2430
22:25
for steeringπηδαλιούχηση as well as it mightθα μπορούσε."
415
1333918
1669
για πλοήγηση όπως θα μπορούσε».
22:27
And we say, "Please do something."
416
1335611
1658
Και λέμε, «Σε παρακαλώ, κάνε κάτι».
22:29
And you go to the bridgeγέφυρα,
417
1337293
1411
Και πας στη γέφυρα,
22:30
and we're waitingαναμονή,
418
1338728
2295
και περιμένουμε,
22:33
and we look, and then you're showingεπίδειξη
this extraordinaryέκτακτος calmηρεμία,
419
1341047
4548
και βλέπουμε, και φαίνεσαι
εξαιρετικά ήρεμος,
22:37
but we're all standingορθοστασία outsideεξω απο,
sayingρητό, "JackJack, turnστροφή the fuckingγαμημένος wheelΡΟΔΑ!"
420
1345619
3883
αλλά όλοι μας στεκόμαστε απ' έξω και λέμε,
«Τζακ, γύρνα το γαμημένο τιμόνι!»
22:41
You know?
421
1349526
1151
Καταλαβαίνεις;
22:42
(LaughterΤο γέλιο)
422
1350701
1335
(Γέλια)
22:44
(ApplauseΧειροκροτήματα)
423
1352060
2381
(Χειροκρότημα)
22:46
I mean --
424
1354465
1166
Θέλω να πω --
22:47
(ApplauseΧειροκροτήματα)
425
1355655
1734
(Χειροκρότημα)
22:49
It's democracyΔημοκρατία at stakeστοίχημα.
426
1357413
4594
Διακυβεύεται η δημοκρατία.
22:54
It's our cultureΠολιτισμός at stakeστοίχημα.
It's our worldκόσμος at stakeστοίχημα.
427
1362031
2821
Διακυβεύεται ο πολιτισμός μας.
Διακυβεύεται ο κόσμος μας.
22:56
And TwitterΠειραχτήρι is amazingφοβερο and shapesσχήματα so much.
428
1364876
4706
Και το Twitter είναι εξαιρετικό
και διαμορφώνει τόσα πράγματα.
Δεν είναι τόσο μεγάλο
όσο μερικές άλλες πλατφόρμες,
23:01
It's not as bigμεγάλο as some
of the other platformsπλατφόρμες,
429
1369606
2233
23:03
but the people of influenceεπιρροή use it
to setσειρά the agendaημερήσια διάταξη,
430
1371863
2804
αλλά το χρησιμοποιούν άτομα με επιρροή
για να ορίσουν την ατζέντα,
23:06
and it's just hardσκληρά to imagineφαντάζομαι a more
importantσπουδαίος roleρόλος in the worldκόσμος than to ...
431
1374691
6787
και είναι δύσκολο να φανταστείς έναν
πιο σημαντικό ρόλο στον κόσμο από το να...
23:13
I mean, you're doing a brilliantλαμπρός jobδουλειά
of listeningακούγοντας, JackJack, and hearingακρόαση people,
432
1381502
3784
Θέλω να πω, κάνεις φανταστική δουλειά στο
να ακούς, Τζακ, και ακούς τον κόσμο,
23:17
but to actuallyπράγματι dialμέσω τηλεφώνου up the urgencyεπείγουσα ανάγκη
and moveκίνηση on this stuffυλικό --
433
1385310
4445
αλλά το να το θέσεις σε προτεραιότητα
και να κάνεις κάτι --
23:21
will you do that?
434
1389779
2201
θα το κάνεις αυτό;
23:24
JDJD: Yes, and we have been
movingκίνηση substantiallyουσιαστικά.
435
1392750
3815
ΤΝ: Ναι, και έχουμε κάνει
σημαντικές κινήσεις.
23:28
I mean, there's been
a fewλίγοι dynamicsδυναμική in Twitter'sΤου Twitter historyιστορία.
436
1396589
3225
Υπήρχαν κάποιες δυναμικές
στην ιστορία του Twitter.
23:31
One, when I cameήρθε back to the companyΕταιρία,
437
1399838
2083
Ένα, όταν επέστρεψα στην εταιρία,
23:35
we were in a prettyαρκετά direδεινή stateκατάσταση
in termsόροι of our futureμελλοντικός,
438
1403477
6256
ήμασταν σε κακή κατάσταση
όσον αφορά το μέλλον μας,
23:41
and not just from how people
were usingχρησιμοποιώντας the platformπλατφόρμα,
439
1409757
4634
και όχι μόνο από το πώς
χρησιμοποιείται η πλατφόρμα,
23:46
but from a corporateεταιρικός narrativeαφήγημα as well.
440
1414415
2047
αλλά και από εταιρική αφήγηση.
23:48
So we had to fixδιορθώσετε
a bunchδέσμη of the foundationθεμέλιο,
441
1416486
3204
Έτσι έπρεπε να φτιάξουμε
αρκετή από τη βάση,
23:51
turnστροφή the companyΕταιρία around,
442
1419714
1969
να γυρίσουμε την εταιρία,
23:53
go throughδιά μέσου two crazyτρελός layoffsαπολύσεις,
443
1421707
3111
να κάνουμε δύο τρελές απολύσεις,
23:56
because we just got too bigμεγάλο
for what we were doing,
444
1424842
3793
επειδή μεγαλώσαμε πολύ
γι' αυτό που κάναμε,
24:00
and we focusedεστιασμένη all of our energyενέργεια
445
1428659
2060
και εστιάσαμε όλη την ενέργειά μας
24:02
on this conceptέννοια of servingσερβίρισμα
the publicδημόσιο conversationσυνομιλία.
446
1430743
3508
σε αυτή την έννοια της υπηρεσίας
της δημόσιας συζήτησης.
24:06
And that tookπήρε some work.
447
1434275
1451
Και χρειάστηκε αρκετή δουλειά.
24:07
And as we divedβούτηξε into that,
448
1435750
2608
Και καθώς το ξεκινήσαμε αυτό,
24:10
we realizedσυνειδητοποίησα some of the issuesθέματα
with the fundamentalsβασικές αρχές.
449
1438382
2992
συνειδητοποιήσαμε μερικά θέματα
με τις θεμελιώδεις αρχές.
24:14
We could do a bunchδέσμη of superficialεπιδερμικό things
to addressδιεύθυνση what you're talkingομιλία about,
450
1442120
4656
Θα μπορούσαμε να κάνουμε
διάφορα επιφανειακά πράγματα
για να αντιμετωπίσουμε αυτά που λες,
αλλά πρέπει να κρατήσουν οι αλλαγές,
24:18
but we need the changesαλλαγές to last,
451
1446800
1790
και αυτό σημαίνει ότι πρέπει
να πάμε πραγματικά βαθιά
24:20
and that meansπου σημαίνει going really, really deepβαθύς
452
1448614
2459
24:23
and payingδικαιούχος attentionπροσοχή
to what we startedξεκίνησε 13 yearsχρόνια agoπριν
453
1451097
4350
και να προσέξουμε αυτό
που ξεκινήσαμε πριν από 13 χρόνια
24:27
and really questioningπροβληματισμός
454
1455471
2261
και να αναρωτηθούμε πραγματικά
24:29
how the systemΣύστημα worksεργοστάσιο
and how the frameworkδομή worksεργοστάσιο
455
1457756
2566
πώς λειτουργεί το σύστημα και η δομή
24:32
and what is neededαπαιτείται for the worldκόσμος todayσήμερα,
456
1460346
3833
και τι χρειάζεται για τον κόσμο σήμερα,
24:36
givenδεδομένος how quicklyγρήγορα everything is movingκίνηση
and how people are usingχρησιμοποιώντας it.
457
1464203
4024
δεδομένου πόσο γρήγορα κινούνται
όλα και πώς το χρησιμοποιεί ο κόσμος.
24:40
So we are workingεργαζόμενος as quicklyγρήγορα as we can,
but quicknessταχύτητα will not get the jobδουλειά doneΈγινε.
458
1468251
6544
Δουλεύουμε όσο πιο γρήγορα μπορούμε, αλλά
η γρηγοράδα δεν θα τελειώσει τη δουλειά.
24:46
It's focusΣυγκεντρώνω, it's prioritizationπροτεραιότητα,
459
1474819
2611
Είναι η εστίαση, οι προτεραιότητες,
24:49
it's understandingκατανόηση
the fundamentalsβασικές αρχές of the networkδίκτυο
460
1477454
2946
η κατανόηση των θεμελιωδών
αρχών του δικτύου
24:52
and buildingΚτίριο a frameworkδομή that scalesΖυγός
461
1480424
2842
και το χτίσιμο μιας δομής που επεκτείνεται
24:55
and that is resilientανθεκτική to changeαλλαγή,
462
1483290
2351
και είναι ανθεκτική στην αλλαγή,
24:57
and beingνα εισαι openΆνοιξε about where we are
and beingνα εισαι transparentδιαφανής about where are
463
1485665
5429
και το να είμαστε ανοιχτοί και διαφανείς
για το πού βρισκόμαστε
25:03
so that we can continueνα συνεχίσει to earnΚερδίστε trustεμπιστοσύνη.
464
1491118
2179
έτσι ώστε να συνεχίσουμε
να κερδίζουμε την εμπιστοσύνη.
25:06
So I'm proudυπερήφανος of all the frameworksπλαισίων
that we'veέχουμε put in placeθέση.
465
1494141
3331
Είμαι περήφανος για όλες τις δομές
που έχουμε εφαρμόσει.
25:09
I'm proudυπερήφανος of our directionκατεύθυνση.
466
1497496
2888
Είμαι περήφανος για την κατεύθυνσή μας.
25:12
We obviouslyπροφανώς can moveκίνηση fasterγρηγορότερα,
467
1500915
2718
Προφανώς μπορούμε να πάμε γρηγορότερα,
25:15
but that requiredαπαιτείται just stoppingστάθμευση a bunchδέσμη
of stupidηλίθιος stuffυλικό we were doing in the pastτο παρελθόν.
468
1503657
4719
αλλά αυτό απαιτούσε να σταματήσουμε
διάφορα χαζά που κάναμε στο παρελθόν.
25:21
CACA: All right.
469
1509067
1164
ΚΑ: Εντάξει.
25:22
Well, I suspectύποπτος there are manyΠολλά people here
who, if givenδεδομένος the chanceευκαιρία,
470
1510255
4067
Υποψιάζομαι ότι πολλά άτομα εδώ
αν είχαν την ευκαιρία,
25:26
would love to help you
on this change-makingαλλαγή-δημιουργία agendaημερήσια διάταξη you're on,
471
1514346
3989
θα ήθελαν πολύ να σε βοηθήσουν
σε αυτή την ατζέντα αλλαγών,
25:30
and I don't know if WhitneyWhitney --
472
1518359
1542
και δεν ξέρω αν η Γουίτνι --
25:31
JackJack, thank you for comingερχομός here
and speakingΟμιλία so openlyανοιχτά.
473
1519925
2761
Τζακ, σε ευχαριστώ που ήρθες εδώ
και μίλησες τόσο ανοιχτά.
25:34
It tookπήρε courageθάρρος.
474
1522710
1527
Χρειάστηκε κουράγιο.
25:36
I really appreciateΕκτιμώ what you said,
and good luckτυχη with your missionαποστολή.
475
1524261
3384
Εκτιμώ πραγματικά αυτό που είπες,
και καλή τύχη με την αποστολή σου.
25:39
JDJD: Thank you so much.
ThanksΕυχαριστώ for havingέχοντας me.
476
1527669
2095
ΤΝ: Σας ευχαριστώ πολύ.
Σας ευχαριστώ που με δεχτήκατε.
25:41
(ApplauseΧειροκροτήματα)
477
1529788
3322
(Χειροκρότημα)
25:45
Thank you.
478
1533134
1159
Σας ευχαριστώ.
Translated by Chryssa Rapessi
Reviewed by Vasiliki Soultani

▲Back to top

ABOUT THE SPEAKERS
Jack Dorsey - Entrepreneur, programmer
Jack Dorsey is the CEO of Twitter, CEO & Chairman of Square, and a cofounder of both.

Why you should listen
More profile about the speaker
Jack Dorsey | Speaker | TED.com
Chris Anderson - TED Curator
After a long career in journalism and publishing, Chris Anderson became the curator of the TED Conference in 2002 and has developed it as a platform for identifying and disseminating ideas worth spreading.

Why you should listen

Chris Anderson is the Curator of TED, a nonprofit devoted to sharing valuable ideas, primarily through the medium of 'TED Talks' -- short talks that are offered free online to a global audience.

Chris was born in a remote village in Pakistan in 1957. He spent his early years in India, Pakistan and Afghanistan, where his parents worked as medical missionaries, and he attended an American school in the Himalayas for his early education. After boarding school in Bath, England, he went on to Oxford University, graduating in 1978 with a degree in philosophy, politics and economics.

Chris then trained as a journalist, working in newspapers and radio, including two years producing a world news service in the Seychelles Islands.

Back in the UK in 1984, Chris was captivated by the personal computer revolution and became an editor at one of the UK's early computer magazines. A year later he founded Future Publishing with a $25,000 bank loan. The new company initially focused on specialist computer publications but eventually expanded into other areas such as cycling, music, video games, technology and design, doubling in size every year for seven years. In 1994, Chris moved to the United States where he built Imagine Media, publisher of Business 2.0 magazine and creator of the popular video game users website IGN. Chris eventually merged Imagine and Future, taking the combined entity public in London in 1999, under the Future name. At its peak, it published 150 magazines and websites and employed 2,000 people.

This success allowed Chris to create a private nonprofit organization, the Sapling Foundation, with the hope of finding new ways to tackle tough global issues through media, technology, entrepreneurship and, most of all, ideas. In 2001, the foundation acquired the TED Conference, then an annual meeting of luminaries in the fields of Technology, Entertainment and Design held in Monterey, California, and Chris left Future to work full time on TED.

He expanded the conference's remit to cover all topics, including science, business and key global issues, while adding a Fellows program, which now has some 300 alumni, and the TED Prize, which grants its recipients "one wish to change the world." The TED stage has become a place for thinkers and doers from all fields to share their ideas and their work, capturing imaginations, sparking conversation and encouraging discovery along the way.

In 2006, TED experimented with posting some of its talks on the Internet. Their viral success encouraged Chris to begin positioning the organization as a global media initiative devoted to 'ideas worth spreading,' part of a new era of information dissemination using the power of online video. In June 2015, the organization posted its 2,000th talk online. The talks are free to view, and they have been translated into more than 100 languages with the help of volunteers from around the world. Viewership has grown to approximately one billion views per year.

Continuing a strategy of 'radical openness,' in 2009 Chris introduced the TEDx initiative, allowing free licenses to local organizers who wished to organize their own TED-like events. More than 8,000 such events have been held, generating an archive of 60,000 TEDx talks. And three years later, the TED-Ed program was launched, offering free educational videos and tools to students and teachers.

More profile about the speaker
Chris Anderson | Speaker | TED.com
Whitney Pennington Rodgers - TED Current Affairs Curator
Whitney Pennington Rodgers is an award-winning journalist and media professional.

Why you should listen

Prior to joining TED as current affairs curator, Whitney Pennington Rodgers produced for NBC's primetime news magazine Dateline NBC. She earned a duPont-Columbia award and a News & Documentary Emmy or her contributions to the Dateline NBC hour "The Cosby Accusers Speak" -- an extensive group interview with 27 of the women who accused entertainer Bill Cosby of sexual misconduct.

Pennington Rodgers has worked at NBC's in-house production company Peacock Productions, The Today Show, Nightly News, Rock Center with Brian Williams and New Jersey-centric public affairs shows Caucus: New Jersey and One-on-One with Steve Adubato. Prior to beginning her career in media, she had a short stint as a fourth-grade teacher through the Teach for America program.

Pennington Rodgers received her Bachelor's in journalism and media studies from Rutgers University. She completed her Master's of Journalism at the University of California at Berkeley, where she produced a documentary about recruitment of nonblack students at historically black colleges and universities.

More profile about the speaker
Whitney Pennington Rodgers | Speaker | TED.com