ABOUT THE SPEAKERS
Jack Dorsey - Entrepreneur, programmer
Jack Dorsey is the CEO of Twitter, CEO & Chairman of Square, and a cofounder of both.

Why you should listen
More profile about the speaker
Jack Dorsey | Speaker | TED.com
Chris Anderson - TED Curator
After a long career in journalism and publishing, Chris Anderson became the curator of the TED Conference in 2002 and has developed it as a platform for identifying and disseminating ideas worth spreading.

Why you should listen

Chris Anderson is the Curator of TED, a nonprofit devoted to sharing valuable ideas, primarily through the medium of 'TED Talks' -- short talks that are offered free online to a global audience.

Chris was born in a remote village in Pakistan in 1957. He spent his early years in India, Pakistan and Afghanistan, where his parents worked as medical missionaries, and he attended an American school in the Himalayas for his early education. After boarding school in Bath, England, he went on to Oxford University, graduating in 1978 with a degree in philosophy, politics and economics.

Chris then trained as a journalist, working in newspapers and radio, including two years producing a world news service in the Seychelles Islands.

Back in the UK in 1984, Chris was captivated by the personal computer revolution and became an editor at one of the UK's early computer magazines. A year later he founded Future Publishing with a $25,000 bank loan. The new company initially focused on specialist computer publications but eventually expanded into other areas such as cycling, music, video games, technology and design, doubling in size every year for seven years. In 1994, Chris moved to the United States where he built Imagine Media, publisher of Business 2.0 magazine and creator of the popular video game users website IGN. Chris eventually merged Imagine and Future, taking the combined entity public in London in 1999, under the Future name. At its peak, it published 150 magazines and websites and employed 2,000 people.

This success allowed Chris to create a private nonprofit organization, the Sapling Foundation, with the hope of finding new ways to tackle tough global issues through media, technology, entrepreneurship and, most of all, ideas. In 2001, the foundation acquired the TED Conference, then an annual meeting of luminaries in the fields of Technology, Entertainment and Design held in Monterey, California, and Chris left Future to work full time on TED.

He expanded the conference's remit to cover all topics, including science, business and key global issues, while adding a Fellows program, which now has some 300 alumni, and the TED Prize, which grants its recipients "one wish to change the world." The TED stage has become a place for thinkers and doers from all fields to share their ideas and their work, capturing imaginations, sparking conversation and encouraging discovery along the way.

In 2006, TED experimented with posting some of its talks on the Internet. Their viral success encouraged Chris to begin positioning the organization as a global media initiative devoted to 'ideas worth spreading,' part of a new era of information dissemination using the power of online video. In June 2015, the organization posted its 2,000th talk online. The talks are free to view, and they have been translated into more than 100 languages with the help of volunteers from around the world. Viewership has grown to approximately one billion views per year.

Continuing a strategy of 'radical openness,' in 2009 Chris introduced the TEDx initiative, allowing free licenses to local organizers who wished to organize their own TED-like events. More than 8,000 such events have been held, generating an archive of 60,000 TEDx talks. And three years later, the TED-Ed program was launched, offering free educational videos and tools to students and teachers.

More profile about the speaker
Chris Anderson | Speaker | TED.com
Whitney Pennington Rodgers - TED Current Affairs Curator
Whitney Pennington Rodgers is an award-winning journalist and media professional.

Why you should listen

Prior to joining TED as current affairs curator, Whitney Pennington Rodgers produced for NBC's primetime news magazine Dateline NBC. She earned a duPont-Columbia award and a News & Documentary Emmy or her contributions to the Dateline NBC hour "The Cosby Accusers Speak" -- an extensive group interview with 27 of the women who accused entertainer Bill Cosby of sexual misconduct.

Pennington Rodgers has worked at NBC's in-house production company Peacock Productions, The Today Show, Nightly News, Rock Center with Brian Williams and New Jersey-centric public affairs shows Caucus: New Jersey and One-on-One with Steve Adubato. Prior to beginning her career in media, she had a short stint as a fourth-grade teacher through the Teach for America program.

Pennington Rodgers received her Bachelor's in journalism and media studies from Rutgers University. She completed her Master's of Journalism at the University of California at Berkeley, where she produced a documentary about recruitment of nonblack students at historically black colleges and universities.

More profile about the speaker
Whitney Pennington Rodgers | Speaker | TED.com
TED2019

Jack Dorsey: How Twitter needs to change

Jack Dorsey: Twitter'ın nasıl değişmesi gerek

Filmed:
2,089,470 views

Twitter kurtarılabilir mi? TED'den Chris Anderson ve Whitney Pennington Rodgers'la geniş çaplı bu sohbette Twitter CEO'su Jack Dorsey, platformun geleceğini masaya yatırıyor -- taciz ve bundan kaçınmaya yönelik sorunlar hakkında konuşuyor ve sağlıklı, saygılı sohbetleri teşvik edeceğini umduğu temel değişikliklerden bahsediyor. Dorsey soruyor, ''İnsanların her geçen gün değer verdiği bir hizmet sunuyor muyuz?''
- Entrepreneur, programmer
Jack Dorsey is the CEO of Twitter, CEO & Chairman of Square, and a cofounder of both. Full bio - TED Curator
After a long career in journalism and publishing, Chris Anderson became the curator of the TED Conference in 2002 and has developed it as a platform for identifying and disseminating ideas worth spreading. Full bio - TED Current Affairs Curator
Whitney Pennington Rodgers is an award-winning journalist and media professional. Full bio

Double-click the English transcript below to play the video.

00:13
ChrisChris AndersonAnderson:
What worriesEndişeye you right now?
0
1131
2408
Chris Anderson:
Bugün seni kaygılandıran ne?
00:15
You've been very openaçık
about lots of issuessorunlar on TwitterTwitter.
1
3563
2853
Twitter'la ilgili çok sorun hakkında
hep çok dürüst oldun.
00:18
What would be your topüst worryendişelenmek
2
6440
2299
Şu anki gidişatla ilgili
00:20
about where things are right now?
3
8763
2049
en büyük endişen nedir?
00:23
JackJack DorseyDorsey: Right now,
the healthsağlık of the conversationkonuşma.
4
11447
2929
Jack Dorsey:
Şu anki endişem, sohbetiin sağlığı.
00:26
So, our purposeamaç is to serveservis
the publichalka açık conversationkonuşma,
5
14400
3660
Amacımız herkese açık
sohbete hizmet etmek
00:30
and we have seengörüldü
a numbernumara of attackssaldırılar on it.
6
18084
5056
ve buna yönelik bir dizi saldırı oldu.
00:35
We'veBiz ettik seengörüldü abusetaciz, we'vebiz ettik seengörüldü harassmenttaciz,
7
23164
2425
Suistimal oldu, taciz oldu,
00:37
we'vebiz ettik seengörüldü manipulationhile,
8
25613
3222
manipülasyon oldu,
00:40
automationOtomasyon, humaninsan coordinationKoordinasyon,
misinformationyanlış bilgilendirme.
9
28859
4265
otomasyon, insan koordinasyonu,
yanlış bilgi aktarımı oldu.
00:46
So these are all dynamicsdinamik
that we were not expectingbekliyor
10
34134
4034
Bundan 13 yıl önce
şirketi ilk kurduğumuzda
00:50
13 yearsyıl agoönce when we were
startingbaşlangıç the companyşirket.
11
38192
3718
tüm bunlar beklemediğimiz dinamiklerdi.
00:53
But we do now see them at scaleölçek,
12
41934
2664
Ama şimdi gözle görülebilir boyuttalar,
00:56
and what worriesEndişeye me mostçoğu
is just our abilitykabiliyet to addressadres it
13
44622
5278
beni en çok endişelendiren de
buna yanıt verme yeteneğimiz;
01:01
in a systemicsistemik way that is scalableölçeklenebilir,
14
49924
3108
ölçeklendirilebilecek
sistematik bir şekilde,
01:05
that has a rigoroustitiz understandinganlayış
of how we're takingalma actionaksiyon,
15
53056
6976
özenli bir şekilde
harekete geçtiğimizi gösterecek,
01:12
a transparentşeffaf understandinganlayış
of how we're takingalma actionaksiyon
16
60056
3105
şeffaf bir şekilde
harekete geçtiğimizi gösterecek,
01:15
and a rigoroustitiz appealstemyiz processsüreç
for when we're wrongyanlış,
17
63185
3101
yanıldığımızda da özenli bir
itiraz süreci olacak bir şekilde
01:18
because we will be wrongyanlış.
18
66310
2169
çünkü yanılacağız da.
01:20
WhitneyWhitney PenningtonPennington RodgersRodgers:
I'm really gladmemnun to hearduymak
19
68503
2397
Whitney Rodgers:
Bunun seni endişelendirdiğini söylemene
01:22
that that's something that concernsendişeler you,
20
70924
1928
gerçekten memnun oldum
01:24
because I think there's been
a lot writtenyazılı about people
21
72876
2630
çünkü Twitter'da rahatsız
ve taciz edildiğini söyleyen
01:27
who feel they'veonlar ettik been abusedistismar
and harassedtaciz on TwitterTwitter,
22
75530
2477
insanlar hakkında çok şey yazıldı,
01:30
and I think no one more so
than womenkadınlar and womenkadınlar of colorrenk
23
78031
4102
bence bunlar, özellikle de kadınlar
ve farklı etnisiteden kadınlar
01:34
and blacksiyah womenkadınlar.
24
82157
1170
ve siyahi kadınlar.
01:35
And there's been dataveri that's come out --
25
83351
1913
Yeni çıkan bazı veriler var --
01:37
AmnestyAf Örgütü InternationalUluslararası put out
a reportrapor a fewaz monthsay agoönce
26
85288
2909
Amnesty International
birkaç ay önce bir rapor çıkardı,
01:40
where they showedgösterdi that a subsetalt küme
of activeaktif blacksiyah femalekadın TwitterTwitter userskullanıcılar
27
88221
4480
buna göre, bir aktif, siyahi kadın
Twitter kullanı grubunun
01:44
were receivingkabul, on averageortalama,
one in 10 of theironların tweetsTweets
28
92725
3456
ortalama olarak her 10 tweetinden biri
01:48
were some formform of harassmenttaciz.
29
96205
2099
bir tür taciz oluyormuş.
01:50
And so when you think about healthsağlık
for the communitytoplum on TwitterTwitter,
30
98328
3907
Twitter'daki topluluğun
sağlığı hakkında konuşmuşken
01:54
I'm interestedilgili to hearduymak,
"healthsağlık for everyoneherkes,"
31
102259
4024
''herkesin sağlığı'' benim için önemli
01:58
but specificallyözellikle: How are you looking
to make TwitterTwitter a safekasa spaceuzay
32
106307
3125
ama şunu bilmek istiyorum,
Twitter'ı bu grup için, kadınlar için,
02:01
for that subsetalt küme, for womenkadınlar,
for womenkadınlar of colorrenk and blacksiyah womenkadınlar?
33
109456
4164
farklı etnisiteden ve siyahi kadınlar için
nasıl güvenli kılmayı düşünüyorsun?
02:05
JDJD: Yeah.
34
113644
1164
JD: Evet.
02:06
So it's a prettygüzel terriblekorkunç situationdurum
35
114832
2643
Bu oldukça kötü bir durum,
02:09
when you're cominggelecek to a servicehizmet
36
117499
1619
bir ortama giriyorsunuz,
02:11
that, ideallyideal olarak, you want to learnöğrenmek
something about the worldDünya,
37
119142
4321
tercihen dünya hakkında
bir şey öğrenmek istiyorsunuz
02:15
and you spendharcamak the majorityçoğunluk of your time
reportingraporlama abusetaciz, receivingkabul abusetaciz,
38
123487
5443
ve zamanınızın çoğunu
taciz ve saldırıya uğrayarak,
02:20
receivingkabul harassmenttaciz.
39
128954
1804
bunları bildirerek geçiriyorsunuz.
02:23
So what we're looking mostçoğu deeplyderinden at
is just the incentivesteşvikler
40
131373
6321
Bizim de en derin baktığımız şey
02:29
that the platformplatform naturallydoğal olarak providessağlar
and the servicehizmet providessağlar.
41
137718
3823
bu platform ve hizmetin doğal olarak
sağladığı özendirici ögeler.
02:34
Right now, the dynamicdinamik of the systemsistem
makesmarkaları it super-easySüper to harasstaciz
42
142262
4577
Şu anda sistemin dinamiği
bu hizmet aracılığıyla
02:38
and to abusetaciz othersdiğerleri throughvasitasiyla the servicehizmet,
43
146863
3664
başkalarını saldırmayı
ve onları taciz etmeyi çok kolay kılıyor
02:42
and unfortunatelyne yazık ki, the majorityçoğunluk
of our systemsistem in the pastgeçmiş
44
150551
3262
ve ne yazık ki geçmişte
sistemimizin çoğunluğu
02:45
workedişlenmiş entirelyBaştan sona basedmerkezli on people
reportingraporlama harassmenttaciz and abusetaciz.
45
153837
5596
tamamen saldırı ve tacizi bildiren
insanlar için çalıştı.
02:51
So about midwayyarı yolda last yearyıl,
we decidedkarar that we were going to applyuygulamak
46
159457
5075
Geçen yılın ortasında
bu soruna yönelik olarak
02:56
a lot more machinemakine learningöğrenme,
a lot more deepderin learningöğrenme to the problemsorun,
47
164556
3982
çok daha fazla makine öğrenimi
ve derin öğrenme uygulamaya karar verdik,
03:00
and try to be a lot more proactiveproaktif
around where abusetaciz is happeningolay,
48
168562
4538
ve saldırının olduğu yerde
daha proaktif olacağız,
03:05
so that we can take the burdenyük
off the victimkurban completelytamamen.
49
173124
3960
böylece yükü mağdurun üstünden
tamamen alabileceğiz.
03:09
And we'vebiz ettik madeyapılmış some progressilerleme recentlyson günlerde.
50
177108
2435
Son zamanlarda biraz ilerleme kaydettik.
03:11
About 38 percentyüzde of abusivekötü niyetli tweetsTweets
are now proactivelyproaktif identifiedtespit
51
179567
6689
Saldırı nitelikle tweetlerin yüzde 38'i
artık proaktif şekilde belirleniyor,
03:18
by machinemakine learningöğrenme algorithmsalgoritmalar
52
186280
1715
makine öğrenimli algoritmalar tarafından,
03:20
so that people don't actuallyaslında
have to reportrapor them.
53
188019
2334
böylece insanlar
bildirmek zorunda kalmıyor.
03:22
But those that are identifiedtespit
are still revieweddeğerlendirilmiş by humansinsanlar,
54
190377
3305
Ama belirlenen tweetler hâlâ
insanlar tarafından denetleniyor,
03:25
so we do not take down contentiçerik or accountshesapları
withoutolmadan a humaninsan actuallyaslında reviewinggözden it.
55
193706
5384
yani bir insan denetim yapmadan
hiçbir içerik veya hesabı kaldırmıyoruz.
03:31
But that was from zerosıfır percentyüzde
just a yearyıl agoönce.
56
199114
2759
Ama bu aşamaya geçen yıldan
bu yana yüzde sıfırdan geldik.
03:33
So that meantdemek, at that zerosıfır percentyüzde,
57
201897
1931
Yüzde sıfır dediğim durumda,
03:35
everyher singletek personkişi who receivedAlınan abusetaciz
had to actuallyaslında reportrapor it,
58
203852
3650
saldırı alan her kişinin
bunu bildirmesi gerekiyordu,
03:39
whichhangi was a lot of work for them,
a lot of work for us
59
207526
3579
ki bu da hem onlar için
hem de bizim için çok iş demek
03:43
and just ultimatelyen sonunda unfairhaksız.
60
211129
2018
ve sonuç olarak da adil değildi.
03:46
The other thing that we're doing
is makingyapma sure that we, as a companyşirket,
61
214528
3780
Yaptığımız diğer şey de
şirket olarak şundan emin olmak;
03:50
have representationtemsil of all the communitiestopluluklar
that we're tryingçalışıyor to serveservis.
62
218332
3333
hizmet etmeye çalıştığımız
tüm toplulukların temsil edilmesi.
03:53
We can't buildinşa etmek a business
that is successfulbaşarılı
63
221689
2159
Kendi aramızda
bu sorunları her gün hisseden
03:55
unlessolmadıkça we have a diversityçeşitlilik
of perspectiveperspektif insideiçeride of our wallsduvarlar
64
223872
3300
bir bakış açısı çeşitliliğimiz olmazsa
03:59
that actuallyaslında feel these issuessorunlar
everyher singletek day.
65
227196
3732
başarılı bir işletme kuramayız.
04:02
And that's not just with the teamtakım
that's doing the work,
66
230952
3738
Bu yalnızca asıl işi yapan ekip için değil
04:06
it's alsoAyrıca withiniçinde our leadershipliderlik as well.
67
234714
2096
yönetimimiz için de geçerli.
04:08
So we need to continuedevam et to buildinşa etmek empathyempati
for what people are experiencingyaşandığı
68
236834
5757
Bu yüzden insanların yaşadıkları için
empati kurmaya devam etmeli
04:14
and give them better toolsaraçlar to actdavranmak on it
69
242615
3316
ve onlara daha iyi araçlar sunmalı
04:17
and alsoAyrıca give our customersmüşteriler
a much better and easierDaha kolay approachyaklaşım
70
245955
4252
ve ayrıca kullanıcılarımıza daha iyi
ve daha kolay bir yaklaşım vermeliyiz ki
04:22
to handlesap some of the things
that they're seeinggörme.
71
250231
2382
gördüklerinin bir kısmını
daha iyi kullanabilsinler.
04:24
So a lot of what we're doing
is around technologyteknoloji,
72
252637
3266
Yaptığımız şeyin çoğu
teknoloji ekseninde dönüyor
04:27
but we're alsoAyrıca looking at
the incentivesteşvikler on the servicehizmet:
73
255927
4308
ama ayrıca bu hizmetin
özendirici ögeleri de söz konusu:
04:32
What does TwitterTwitter incentivizeteşvik you to do
when you first openaçık it up?
74
260259
5183
İlk açtığınızda Twitter
sizi ne yapmaya teşvik ediyor?
04:37
And in the pastgeçmiş,
75
265466
1294
Geçmişte,
04:40
it's incentedfiyatlandırılacaktır a lot of outragerezalet,
it's incentedfiyatlandırılacaktır a lot of mobMafya behaviordavranış,
76
268670
5544
çok fazla öfke, çok fazla çete davranışı,
04:46
it's incentedfiyatlandırılacaktır a lot of groupgrup harassmenttaciz.
77
274238
2459
çok fazla grup tacizi teşvik ediyordu.
04:48
And we have to look a lot deeperDaha derine
at some of the fundamentalsTemelleri
78
276721
3648
Hizmetin daha büyük değişiklikler
geçirebilmesi için
04:52
of what the servicehizmet is doing
to make the biggerDaha büyük shiftskaymalar.
79
280393
2958
bunun temeline daha derin inmemiz lazım.
04:55
We can make a bunchDemet of smallküçük shiftskaymalar
around technologyteknoloji, as I just describedtarif edilen,
80
283375
4031
Teknoloji ekseninde pek çok
küçük değişiklik yapabiliriz
04:59
but ultimatelyen sonunda, we have to look deeplyderinden
at the dynamicsdinamik in the network itselfkendisi,
81
287430
4386
ama sonuç olarak bu sosyal ağın
dinamiklerine derinden bakmamız lazım
05:03
and that's what we're doing.
82
291840
1368
ve yaptığımız da bu.
05:05
CACA: But what's your senseduyu --
83
293232
2060
CA: Peki ya senin bakış açın --
05:07
what is the kindtür of thing
that you mightbelki be ableyapabilmek to changedeğişiklik
84
295316
3963
Temelden davranışı değiştirecek
05:11
that would actuallyaslında
fundamentallyesasen shiftvardiya behaviordavranış?
85
299303
2749
senin değiştirebileceğin şey ne olurdu?
05:15
JDJD: Well, one of the things --
86
303386
1480
JD: Bunlardan biri...
05:16
we startedbaşladı the servicehizmet
with this conceptkavram of followingtakip etme an accounthesap,
87
304890
5340
biz bu hizmeti bir hesap takip etme
konseptiyle başlattık,
05:22
as an exampleörnek,
88
310254
1725
örnek olarak,
05:24
and I don't believe that's why
people actuallyaslında come to TwitterTwitter.
89
312003
4349
insanların Twitter'a gelme sebebinin
bu olduğunu düşünmüyorum.
05:28
I believe TwitterTwitter is besten iyi
as an interest-basedfaiz tabanlı network.
90
316376
4857
Bence Twitter'in en iyi kullanım amacı
ilgi temelli ağ olarak görülmesi.
05:33
People come with a particularbelirli interestfaiz.
91
321257
3453
İnsanlar belli bir
ilgi alanıyla geliyorlar.
05:36
They have to do a tonton of work
to find and followtakip et the relatedilgili accountshesapları
92
324734
3487
Bu ilgi alanları hakkında
hesaplar bulmak ve takip etmek için
05:40
around those interestsilgi.
93
328245
1405
bir sürü şey yapmak zorundalar.
05:42
What we could do insteadyerine
is allowizin vermek you to followtakip et an interestfaiz,
94
330217
3397
Bunun yerine bir ilgi alanını
takip etmelerini sağlayabiliriz;
05:45
followtakip et a hashtaghashtag, followtakip et a trendakım,
95
333638
2103
bir etiketi, bir trendi,
05:47
followtakip et a communitytoplum,
96
335765
1754
bir topluluğu,
05:49
whichhangi givesverir us the opportunityfırsat
to showgöstermek all of the accountshesapları,
97
337543
4637
bu da bize o konu ve ilgi alanıyla alakalı
05:54
all the topicskonular, all the momentsanlar,
all the hashtagshashtags
98
342204
3323
tüm hesapları, tüm anları, tüm etiketleri
05:57
that are associatedilişkili with that
particularbelirli topickonu and interestfaiz,
99
345551
3992
gösterme imkânu sunar
06:01
whichhangi really opensaçılan up
the perspectiveperspektif that you see.
100
349567
4600
ve bu da sizin gördüğünüz
bakış açısına kapı açar.
06:06
But that is a hugeKocaman fundamentaltemel shiftvardiya
101
354191
2157
Ama bu dev bir temel değişiklik,
06:08
to biasönyargı the entiretüm network
away from just an accounthesap biasönyargı
102
356372
3792
tüm sosyal ağı,
hesap temelinden uzaklaştırıp
06:12
towardskarşı a topicskonular and interestfaiz biasönyargı.
103
360188
2587
bir konu ve ilgi alanı temeline döndürmek.
06:15
CACA: Because isn't it the casedurum
104
363283
3148
CA: Çünkü durum aslında şu sanırım,
06:19
that one reasonneden why you have
so much contentiçerik on there
105
367375
3541
platformda bu kadar içerik
olmasının başlıca sebebi,
06:22
is a resultsonuç of puttingkoyarak millionsmilyonlarca
of people around the worldDünya
106
370940
3591
dünyanın her yanından milyonlarca insanı
06:26
in this kindtür of gladiatorialGladyatör
contestyarışma with eachher other
107
374555
3142
birbirleriyle bu tür bir gladyatör
yarışına sokmanın sonucu,
06:29
for followerstakipçileri, for attentionDikkat?
108
377721
2090
takipçi için, ilgi çekmek için?
06:31
Like, from the pointpuan of viewgörünüm
of people who just readokumak TwitterTwitter,
109
379835
4117
Twitter'ı yalnızca okuma amaçlı
kullanan insanların bakış açısından
06:35
that's not an issuekonu,
110
383976
1155
bu bir sorun değil,
06:37
but for the people who actuallyaslında createyaratmak it,
everyone'sherkesin var out there sayingsöz,
111
385155
3350
peki ya onu yaratanlar için...
Çünkü herkes şöyle düşünüyor,
06:40
"You know, I wishdilek I had
a fewaz more 'likes' seviyor,' followerstakipçileri, retweetsRetweets."
112
388529
3236
''Kesşke daha çok beğeni alsaydım,
daha çok takipçi, daha çok retweet.''
06:43
And so they're constantlysürekli experimentingdeneme,
113
391789
2148
Bu yüzden de sürekli deneme hâlindeler,
06:45
tryingçalışıyor to find the pathyol to do that.
114
393961
1961
o yola ulaşmaya çalışıyorlar.
06:47
And what we'vebiz ettik all discoveredkeşfedilen
is that the numbernumara one pathyol to do that
115
395946
4126
Şunu da hepimiz artık biliyoruz ki
bunu yapabilmenin bir numaralı yolu
06:52
is to be some formform of provocativekışkırtıcı,
116
400096
3406
bir şekilde provokatif olmak,
06:55
obnoxiousiğrenç, eloquentlyikna edici obnoxiousiğrenç,
117
403526
2980
etkileyici bir tonda aşağılaycı olmak,
06:58
like, eloquentanlamlı insultshakaret
are a dreamrüya on TwitterTwitter,
118
406530
3516
etkileyici hakaretler
Twitter'da bir hayal,
07:02
where you rapidlyhızla pileistif up --
119
410070
2603
hızla yığılıyorlar
07:04
and it becomesolur this self-fuelingkendi kendine körüklüyor
processsüreç of drivingsürme outragerezalet.
120
412697
4608
ve kendi kendine yeten bir
kızgınlık sürecine dönüşüyor.
07:09
How do you defuseetkisiz hale getir that?
121
417329
2351
Bunu nasıl ortadan kaldırabilirsin?
07:12
JDJD: Yeah, I mean, I think you're spotyer on,
122
420624
2947
JD: Bence tam üstüne bastınız
07:15
but that goesgider back to the incentivesteşvikler.
123
423595
1886
ama konu yine özendiricilere gidiyor.
07:17
Like, one of the choicesseçimler
we madeyapılmış in the earlyerken daysgünler was
124
425505
2632
İlk günlerde verdiğimiz kararlardan biri,
07:20
we had this numbernumara that showedgösterdi
how manyçok people followtakip et you.
125
428161
4701
sizi kaç kişinin takip ettiğini
size göstermekti.
07:24
We decidedkarar that numbernumara
should be bigbüyük and boldcesur,
126
432886
2959
Bunun büyük ve kalın yazı tipiyle
olmasına karar vermiştik
07:27
and anything that's on the pagesayfa
that's bigbüyük and boldcesur has importanceönem,
127
435869
3740
ve sayfada büyük ve kalın yazı tipli
her şey önemli olacaktı
07:31
and those are the things
that you want to drivesürücü.
128
439633
2278
ve üzerinde uğraşmak
istediğiniz şeyler bunlar.
07:33
Was that the right decisionkarar at the time?
129
441935
1907
Bu doğru bir karar mıydı?
07:35
ProbablyMuhtemelen not.
130
443866
1153
Muhtemelen hayır.
07:37
If I had to startbaşlama the servicehizmet again,
131
445043
1805
Bu hizmeti yeniden başlatacak olsam
07:38
I would not emphasizevurgu yapmak
the followertakipçisi countsaymak as much.
132
446872
2398
Takipçi sayısı üzerinde bu kadar durmam.
07:41
I would not emphasizevurgu yapmak
the "like" countsaymak as much.
133
449294
2295
"Beğeni" sayısı üzerinde bu kadar durmam.
07:43
I don't think I would even
createyaratmak "like" in the first placeyer,
134
451613
3120
Hatta sanırım "beğen"i hiç yaratmam bile
07:46
because it doesn't actuallyaslında pushit
135
454757
3267
çünkü bizim için artık önemli olanı
07:50
what we believe now
to be the mostçoğu importantönemli thing,
136
458048
3179
gerçekten yansıtmıyor,
07:53
whichhangi is healthysağlıklı contributionkatkı
back to the network
137
461251
3039
bu da sosyal ağa sağlıklı katkılar
07:56
and conversationkonuşma to the network,
138
464314
2652
ve sosyal ağda sohbet,
07:58
participationkatılım withiniçinde conversationkonuşma,
139
466990
2072
sohbet içine katılım,
08:01
learningöğrenme something from the conversationkonuşma.
140
469086
2493
sohbetten bir şey öğrenme.
08:03
Those are not things
that we thought of 13 yearsyıl agoönce,
141
471603
2824
13 yıl önce düşündüğümüz şeyler
bunlar değildi
08:06
and we believe are extremelyson derece
importantönemli right now.
142
474451
2439
ve şu an bunların çok önemli
olduğuna inanıyoruz.
08:08
So we have to look at
how we displayGörüntüle the followertakipçisi countsaymak,
143
476914
3023
Takipçi sayısını nasıl görüntülediğimize
yeniden bakmamız lazım,
08:11
how we displayGörüntüle retweetRetweet countsaymak,
144
479961
2365
retweet sayısını,
08:14
how we displayGörüntüle "likesseviyor,"
145
482350
1401
''beğeni'' görüntüleyişimizi
08:15
and just asksormak the deepderin questionsoru:
146
483775
2254
ve şu soruyu sormamız lazım:
08:18
Is this really the numbernumara
that we want people to drivesürücü up?
147
486053
3048
İnsanları teşvik etmek
istediğimiz sayı bu mu?
08:21
Is this the thing that,
when you openaçık TwitterTwitter,
148
489125
2545
Twitter'ı açtığınız zaman
08:23
you see, "That's the thing
I need to increaseartırmak?"
149
491694
2516
''Arttırmam gereken işte bu''
demelerini mi istiyoruz?
08:26
And I don't believe
that's the casedurum right now.
150
494234
2144
Bunun doğru olduğunu sanmıyorum.
08:28
(ApplauseAlkış)
151
496402
2103
(Alkışlar)
08:30
WPRWpr: I think we should look at
some of the tweetsTweets
152
498529
2352
WPR: Bence izleyicilerden gelmekte olan
08:32
that are cominggelecek
in from the audienceseyirci as well.
153
500905
2169
tweetlere de bakmalıyız.
08:35
CACA: Let's see what you guys are askingsormak.
154
503868
2436
CA: Neler sorulduğuna bir bakalım.
08:38
I mean, this is -- generallygenellikle, one
of the amazingşaşırtıcı things about TwitterTwitter
155
506328
3294
Twitter'ın harika yanlarından biri bu,
08:41
is how you can use it for crowdkalabalık wisdombilgelik,
156
509646
2294
topluluğun fikri için kullanabiliyoruz,
08:43
you know, that more knowledgebilgi,
more questionssorular, more pointsmakas of viewgörünüm
157
511964
4840
daha fazla bilgi, daha fazla soru,
daha fazla bakış açısı,
08:48
than you can imaginehayal etmek,
158
516828
1238
düşündüğümüzden de fazla
08:50
and sometimesara sıra, manyçok of them
are really healthysağlıklı.
159
518090
3689
ve bazen çoğu gerçekten sağlıklı yorumlar.
08:53
WPRWpr: I think one I saw that
passedgeçti alreadyzaten quicklyhızlı bir şekilde down here,
160
521803
2900
WPR: Sanırım gözümün önünden
geçen bir tanesi şöyleydi,
08:56
"What's Twitter'sTwitter planplan to combatsavaş
foreignyabancı meddlingburnunu sokmak in the 2020 US electionseçim?"
161
524717
3524
"Twitter'ın 2020 ABD seçiminde yabancı
müdahalesiyle savaşmak için planı ne?"
09:00
I think that's something
that's an issuekonu we're seeinggörme
162
528265
2571
Sanırım bu internette
genel olarak gördüğümüz
09:02
on the internetInternet in generalgenel,
163
530860
1901
sorunlardan bir tanesi,
09:04
that we have a lot of maliciouskötü amaçlı
automatedotomatikleştirilmiş activityaktivite happeningolay.
164
532785
3667
çok fazla otomatik kötü amaçlı
aktivitenin yaşandığı bir sorun.
09:08
And on TwitterTwitter, for exampleörnek,
in factgerçek, we have some work
165
536476
5373
Twitter'da da örneğin
09:13
that's come from our friendsarkadaşlar
at ZignalZignal LabsLabs,
166
541873
2758
Zignal Labs'tan arkadaşlarımızın
çalışmaları var,
09:16
and maybe we can even see that
to give us an exampleörnek
167
544655
2656
belki de bunu tam olarak
ne anlatmaya çalıştığıma
09:19
of what exactlykesinlikle I'm talkingkonuşma about,
168
547335
1927
bir örnek olarak kullanabiliriz,
09:21
where you have these botsbotlar, if you will,
169
549286
3204
bazı botlar var
09:24
or coordinatedkoordine automatedotomatikleştirilmiş
maliciouskötü amaçlı accounthesap activityaktivite,
170
552514
4550
veya koordineli otomatik
kötü amaçlı aktivite,
09:29
that is beingolmak used to influenceetki
things like electionsseçimleri.
171
557088
2764
seçim gibi şeyleri
etkilemek için kullanılıyor.
09:31
And in this exampleörnek we have
from ZignalZignal whichhangi they'veonlar ettik sharedpaylaşılan with us
172
559876
3843
Zignal'in bizimle paylaştığı bu örnekte
09:35
usingkullanma the dataveri that
they have from TwitterTwitter,
173
563743
2198
Twitter'dan veriler kullandılar,
09:37
you actuallyaslında see that in this casedurum,
174
565965
2441
gerçekten görüyorsunuz ki
09:40
whitebeyaz representstemsil the humansinsanlar --
humaninsan accountshesapları, eachher dotnokta is an accounthesap.
175
568430
4370
beyaz, insanları temsil ediyor --
insan hesapları, her nokta bir hesap.
09:44
The pinkerPinker it is,
176
572824
1359
Pembeleştikçe
09:46
the more automatedotomatikleştirilmiş the activityaktivite is.
177
574207
1740
aktivite daha otomatik hâle geliyor.
09:47
And you can see how you have
a fewaz humansinsanlar interactingetkileşim with botsbotlar.
178
575971
5970
Botlarla etkileşime geçen birkaç insan
olduğunu da görebilirsiniz.
09:53
In this casedurum, it's relatedilgili
to the electionseçim in Israelİsrail
179
581965
4419
Böyle bir durumda,
İsrail'deki seçimlerle de alakalı
09:58
and spreadingyayma misinformationyanlış bilgilendirme
about BennyBenny GantzGökçe,
180
586408
2833
ve Benny Gantz hakkında
yanlış bilgi yayılmasıyla
10:01
and as we know, in the endson,
that was an electionseçim
181
589265
2662
ve bildiğimiz üzere, sonuç olarak
bir seçim yaşandı
10:03
that NetanyahuNetanyahu wonwon by a slimince marginkenar boşluğu,
182
591951
3724
ve Netanyahu küçük bir farkla kazandı.
10:07
and that mayMayıs ayı have been
in some casedurum influencedetkilenmiş by this.
183
595699
2842
Durum, bir açıdan bundan
etkilenmiş olabilir.
10:10
And when you think about
that happeningolay on TwitterTwitter,
184
598565
2615
Bunun Twitter'da olduğunu düşündüğümüzde
10:13
what are the things
that you're doing, specificallyözellikle,
185
601204
2456
buna dair yaptığın şeyler neler,
10:15
to ensuresağlamak you don't have misinformationyanlış bilgilendirme
like this spreadingyayma in this way,
186
603684
3702
bu şekilde yanlış bilginin
yayılmasına engel olmak
10:19
influencingetkileyen people in waysyolları
that could affectetkilemek democracydemokrasi?
187
607410
4181
ve demokrasiyi etkileyecek şekilde
insanları etkilemenin önüne geçmek için?
10:23
JDJD: Just to back up a bitbit,
188
611615
1771
JD: Biraz geriye gidersek
10:25
we askeddiye sordu ourselveskendimizi a questionsoru:
189
613410
2975
kendimize bir soru sormuştuk:
10:28
Can we actuallyaslında measureölçmek
the healthsağlık of a conversationkonuşma,
190
616409
3816
Bir sohbetin sağlığını
gerçekten ölçebilir miyiz
10:32
and what does that mean?
191
620249
1288
ve bu ne anlama geliyor?
10:33
And in the sameaynı way
that you have indicatorsgöstergeler
192
621561
3382
Sizin göstergeleriniz olduğu gibi
10:36
and we have indicatorsgöstergeler as humansinsanlar
in termsşartlar of are we healthysağlıklı or not,
193
624967
3467
biz insanların da sağlıklı olup
olmadığımızı gösteren göstergeler var,
10:40
suchböyle as temperaturesıcaklık,
the flushnessflushness of your faceyüz,
194
628458
4658
vücut ısısı, yüzünüzdeki kızarma gibi,
10:45
we believe that we could find
the indicatorsgöstergeler of conversationalkonuşma healthsağlık.
195
633140
4560
sohbet sağlığı için de göstergeler
bulabileceğimizi düşünüyoruz.
10:49
And we workedişlenmiş with a lablaboratuvar
calleddenilen CorticoCortico at MITMIT
196
637724
3843
MIT'de Cortico adında
bir laboratuvarla çalışarak
10:54
to proposeteklif etmek, önermek fourdört starterbaşlangıç indicatorsgöstergeler
197
642479
6091
sistemde ölçüm yapabilecek
11:00
that we believe we could ultimatelyen sonunda
measureölçmek on the systemsistem.
198
648594
3670
dört başlangıç göstergesi
teklifinde bulunduk.
11:05
And the first one is
what we're callingçağrı sharedpaylaşılan attentionDikkat.
199
653249
5604
Birincisi paylaşımlı dikkat
dediğimiz bir şey.
11:10
It's a measureölçmek of how much
of the conversationkonuşma is attentiveözenli
200
658877
3581
Farklı görüşlere kıyasla
sohbetin aynı konu üzerinde
11:14
on the sameaynı topickonu versuse karşı disparatefarklı.
201
662482
2630
ne kadar dikkat aldığına dair bir ölçüm.
11:17
The secondikinci one is calleddenilen sharedpaylaşılan realitygerçeklik,
202
665739
2783
İkincisi paylaşımlı gerçeklik;
11:21
and this is what percentageyüzde
of the conversationkonuşma
203
669217
2259
bu bize sohbetin yüzde kaçının
11:23
shareshisseleri the sameaynı factsGerçekler --
204
671500
2005
aynı bilgileri paylaştığını gösteriyor,
11:25
not whetherolup olmadığını those factsGerçekler
are truthfuldoğru or not,
205
673529
3113
bu bilgilerin doğru olup olmadığını değil,
11:28
but are we sharingpaylaşım
the sameaynı factsGerçekler as we converseConverse?
206
676666
3009
ama sohbet ederken hepimiz
aynı bilgileri mi paylaşıyoruz?
11:32
The thirdüçüncü is receptivityalıcılığı:
207
680235
2353
Üçüncüsü kabul görürlük:
11:34
How much of the conversationkonuşma
is receptivealıcı or civilsivil
208
682612
3959
Sohbetin ne kadarı kabul görür veya medeni
11:38
or the inverseters, toxictoksik?
209
686595
2944
ya da tam tersi, çirkin?
11:42
And then the fourthdördüncü
is varietyvaryete of perspectiveperspektif.
210
690213
3222
Son olarak dördüncüsü
bakış açısı çeşitliliği.
11:45
So, are we seeinggörme filterfiltre bubbleskabarcıklar
or echoEko chambersChambers'ı,
211
693459
3145
Kendimizi internette
farklı görüşlerden soyutlamış mıyız
11:48
or are we actuallyaslında gettingalma
a varietyvaryete of opinionsgörüşler
212
696628
3057
yoksa sahiden sohbete ilişkin
11:51
withiniçinde the conversationkonuşma?
213
699709
1635
farklı fikirler ediniyor muyuz?
11:53
And implicitörtülü in all fourdört of these
is the understandinganlayış that,
214
701368
4018
Ve dolaylı olarak tüm bu
dört unsurda da var olan şey şu,
11:57
as they increaseartırmak, the conversationkonuşma
getsalır healthierdaha sağlıklı and healthierdaha sağlıklı.
215
705410
3390
bunlar arttıkça sohbet
giderek daha sağlıklı olacaktır.
12:00
So our first stepadım is to see
if we can measureölçmek these onlineinternet üzerinden,
216
708824
4869
O yüzden ilk adım bunları
internette ölçebilir miyiz bunu anlamak,
12:05
whichhangi we believe we can.
217
713717
1308
ki bence yapabiliriz.
12:07
We have the mostçoğu momentummoment
around receptivityalıcılığı.
218
715049
3167
Rn büyük yatkınlığımız
kabul görürlük üzerinde.
12:10
We have a toxicitytoksisite scoreGol,
a toxicitytoksisite modelmodel, on our systemsistem
219
718240
4317
Sistemimizde bir çirkinleşme skoru,
bir çirkinleşme modeli var,
12:14
that can actuallyaslında measureölçmek
whetherolup olmadığını you are likelymuhtemelen to walkyürümek away
220
722581
4124
Twitter'da bir sohbetten
çirkinleştiği için
12:18
from a conversationkonuşma
that you're havingsahip olan on TwitterTwitter
221
726729
2313
çekip gitme eğiliminde olup olmadığımızı
12:21
because you feel it's toxictoksik,
222
729066
1633
öleçebilen bir sistem
12:22
with some prettygüzel highyüksek degreederece.
223
730723
2512
ve doğruluk oranı bayağı yüksek.
12:26
We're workingçalışma to measureölçmek the restdinlenme,
224
734369
2199
Kalanları da ölçmeye çalışıyoruz
12:28
and the nextSonraki stepadım is,
225
736592
1964
ve sonraki adım da
12:30
as we buildinşa etmek up solutionsçözeltiler,
226
738580
3359
çözümler ortaya çıkarırken
12:33
to watch how these measurementsölçümler
trendakım over time
227
741963
3491
bu ölçümlerin zamanla
ne kadar trend olduğuna bakmak
12:37
and continuedevam et to experimentdeney.
228
745478
1873
ve denemeye devam etmek.
12:39
And our goalhedef is to make sure
that these are balanceddengeli,
229
747375
4041
Hedefimiz bunların
dengeli olmasını sağlamak
12:43
because if you increaseartırmak one,
you mightbelki decreaseazaltmak anotherbir diğeri.
230
751440
3066
çünkü birini arttırırken
diğerini azaltabilirsiniz.
12:46
If you increaseartırmak varietyvaryete of perspectiveperspektif,
231
754530
2147
Bakış açısı çeşitliliğini arttırırsanız
12:48
you mightbelki actuallyaslında decreaseazaltmak
sharedpaylaşılan realitygerçeklik.
232
756701
3091
istemeden paylaşımlı
gerçekliği azaltabilirsiniz.
12:51
CACA: Just pickingtoplama up on some
of the questionssorular floodingsu baskını in here.
233
759816
4989
CA: Buraya hızla gelen sorulardan
bazılarını seçmek istiyorum.
12:56
JDJD: ConstantSabit questioningsorgulama.
234
764829
1271
JD: Sürekli sorgulama.
12:58
CACA: A lot of people are puzzledşaşkın why,
235
766996
3620
CA: Pek çok insan neden sorusuna takılmış,
13:02
like, how hardzor is it to get ridkurtulmuş
of NazisNaziler from TwitterTwitter?
236
770640
4247
mesela Twitter'dan Nazileri kaldırmak
ne kadar zor olabilir ki?
13:08
JDJD: (LaughsGülüyor)
237
776309
1322
JD: (Gülüyor)
13:09
So we have policiespolitikaları
around violentşiddetli extremistaşırı groupsgruplar,
238
777655
6995
Şiddetli ekstremist gruplara
yönelik ilkelerimiz var
13:16
and the majorityçoğunluk of our work
and our termsşartlar of servicehizmet
239
784674
4426
ve işimizin, hizmet koşullarımızın
büyük bölümü
13:21
worksEserleri on conductkuralları, not contentiçerik.
240
789124
3729
davranış üzerine, içerik değil.
13:24
So we're actuallyaslında looking for conductkuralları.
241
792877
2551
Bu yüzden de davranış bakıyoruz.
13:27
ConductDavranış beingolmak usingkullanma the servicehizmet
242
795452
3014
Burada davranıştan kasıt
13:30
to repeatedlydefalarca or episodicallybeslemesiyle
harasstaciz someonebirisi,
243
798490
3867
bu hizmeti sürekli veya aralıklarla
birini taciz etmek,
13:34
usingkullanma hatefulnefret dolu imagerygörüntüler
244
802381
2493
KKK ile ilgili
13:36
that mightbelki be associatedilişkili with the KKKKKK
245
804898
2106
veya Amerikan Nazi Partisi ile ilgili
13:39
or the AmericanAmerikan NaziNazi PartyParti.
246
807028
3281
nefret içerikli görsel kullanmak olabilir.
13:42
Those are all things
that we actdavranmak on immediatelyhemen.
247
810333
4156
Tüm bunlara anında müdahele ediyoruz.
13:47
We're in a situationdurum right now
where that termterim is used fairlyoldukça looselygevşek,
248
815002
5452
Şu an bu koşulun biraz fazla rahatlıkla
uygulandığı bir dönemden geçiyoruz
13:52
and we just cannotyapamam take
any one mentionsöz etmek of that wordsözcük
249
820478
5313
ve sırf birisi o kelimeyi kullandığı için,
13:57
accusingitham someonebirisi elsebaşka
250
825815
2117
birini suçladığı için
13:59
as a factualolgusal indicationbelirti that they
should be removedçıkarıldı from the platformplatform.
251
827956
3755
bunu bir gösterge kabul edip
kişiyi platformdan çıkaramayız.
14:03
So a lot of our modelsmodeller
are basedmerkezli around, numbernumara one:
252
831735
2627
Modellerimizin çoğu
şunlar üzerine kurulu, bir:
14:06
Is this accounthesap associatedilişkili
with a violentşiddetli extremistaşırı groupgrup?
253
834386
3140
Bu hesap, şiddet eğilimli
extremist bir grupla ilişkili mi?
14:09
And if so, we can take actionaksiyon.
254
837550
1983
Eğer öyleyse müdahele ediyoruz.
14:11
And we have donetamam so on the KKKKKK
and the AmericanAmerikan NaziNazi PartyParti and othersdiğerleri.
255
839557
3852
KKK veya Amerikan Nazi Partisi
ve başkaları için bunu yaptık da.
14:15
And numbernumara two: Are they usingkullanma
imagerygörüntüler or conductkuralları
256
843433
4183
İki: Kendilerini bu saydıklarımızla
ilişkilendirecek
14:19
that would associateilişkilendirme them as suchböyle as well?
257
847640
2372
davranış veya görsel kullanıyorlar mı?
14:22
CACA: How manyçok people do you have
workingçalışma on contentiçerik moderationılımlılık
258
850416
2932
CA: Bunlara bakmak için
içerik moderasyon departmanında
14:25
to look at this?
259
853372
1250
kaç kişi çalışıyor?
14:26
JDJD: It variesdeğişir.
260
854646
1496
JD: Değişiyor.
14:28
We want to be flexibleesnek on this,
261
856166
1595
Bu konuda esnek olmak istiyoruz
14:29
because we want to make sure
that we're, numbernumara one,
262
857785
2646
çünkü her şeyden önce
algoritma geliştirmek istiyoruz,
14:32
buildingbina algorithmsalgoritmalar insteadyerine of just
hiringişe alıyor massivemasif amountsmiktarlar of people,
263
860455
4424
düzinelerce insan işe almak değil,
14:36
because we need to make sure
that this is scalableölçeklenebilir,
264
864903
2824
çünkü bunun ölçeklendirilebilir
olmasını istiyoruz
14:39
and there are no amounttutar of people
that can actuallyaslında scaleölçek this.
265
867751
3454
ve bunu ölçeklendirebilecek
bir insan sayısı olamaz.
14:43
So this is why we'vebiz ettik donetamam so much work
around proactiveproaktif detectionbulma of abusetaciz
266
871229
6629
Bu yüzden de sonradan insanların
gözden geçirdiği
önlenebilir taciz tesbiti için
çok çalıştık.
14:49
that humansinsanlar can then reviewgözden geçirmek.
267
877882
1391
14:51
We want to have a situationdurum
268
879297
2861
İstediğimiz ortam,
14:54
where algorithmsalgoritmalar are constantlysürekli
scouringTemizleme everyher singletek tweetTweet
269
882182
3741
algoritmaların sürekli olarak
her bir tviti incelemesi
14:57
and bringinggetiren the mostçoğu
interestingilginç onesolanlar to the topüst
270
885947
2342
ve en ilginç olanları en öne çıkarması,
15:00
so that humansinsanlar can bringgetirmek theironların judgmentyargı
to whetherolup olmadığını we should take actionaksiyon or not,
271
888313
3902
böylece insanlar müdahele edip
etmemiz konusunda yorum yapabilirler,
tabii hizmet koşullarına dayanarak.
15:04
basedmerkezli on our termsşartlar of servicehizmet.
272
892239
1524
15:05
WPRWpr: But there's not an amounttutar
of people that are scalableölçeklenebilir,
273
893787
2803
WPR: Ama ölçeklendirilecek
bir insan sayısı yoksa
15:08
but how manyçok people do you currentlyşu anda have
monitoringizleme these accountshesapları,
274
896614
3497
şu anda bu hesapları gözlemleyen
kaç kişi çalışıyor
15:12
and how do you figureşekil out what's enoughyeterli?
275
900135
2546
ve yeterli sayıyı nasıl belirliyorsun?
15:14
JDJD: They're completelytamamen flexibleesnek.
276
902705
2272
JD: Tamamen esnekler.
15:17
SometimesBazen we associateilişkilendirme folksarkadaşlar with spamistenmeyen e.
277
905001
2941
Bazen insanları spam olarak işaretliyoruz.
15:19
SometimesBazen we associateilişkilendirme folksarkadaşlar
with abusetaciz and harassmenttaciz.
278
907966
3845
Bazen taciz ve saldırı olarak.
15:23
We're going to make sure that
we have flexibilityesneklik in our people
279
911835
3062
Çalışanlarımızda da esneklik
olmasını istiyoruz ki
15:26
so that we can directdirekt them
at what is mostçoğu neededgerekli.
280
914921
2350
onları en gerekli şeye yönlendirebilelim.
Bazen, seçimler.
15:29
SometimesBazen, the electionsseçimleri.
281
917295
1204
Meksika'da seçin oldu,
Hindistan'da yakında olacak,
15:30
We'veBiz ettik had a stringsicim of electionsseçimleri
in MexicoMeksika, one cominggelecek up in IndiaHindistan,
282
918523
4927
15:35
obviouslybelli ki, the electionseçim last yearyıl,
the midtermara sınav electionseçim,
283
923474
4447
geçen yılki seçim, dönem ortası seçimleri,
15:39
so we just want to be flexibleesnek
with our resourceskaynaklar.
284
927945
2472
kaynaklarımızla esnek olmak istiyoruz.
15:42
So when people --
285
930441
2129
Yani insanlar --
15:44
just as an exampleörnek, if you go
to our currentşimdiki termsşartlar of servicehizmet
286
932594
6389
örnek olarak şu anki
hizmet koşullarımızı açıyorsunuz
15:51
and you bringgetirmek the pagesayfa up,
287
939007
1641
ve sayfayı görüntülüyorsunuz
15:52
and you're wonderingmerak ediyor about abusetaciz
and harassmenttaciz that you just receivedAlınan
288
940672
3682
ve az önce biri sizi taciz ettiği için
15:56
and whetherolup olmadığını it was againstkarşısında
our termsşartlar of servicehizmet to reportrapor it,
289
944378
3634
bildirmebilmek için hizmet koşullarına
aykırı mı ona bakıyorsunuz,
16:00
the first thing you see
when you openaçık that pagesayfa
290
948036
2559
ancak o sayfayı açtığınızda
ilk gördüğünüz şey
16:02
is around intellectualentellektüel
propertyözellik protectionkoruma.
291
950619
3088
fikri mülkiyetin korunması.
16:06
You scrollkaydırma down and you get to
abusetaciz, harassmenttaciz
292
954504
5323
Aşağı kaydırıyorsunuz ve taciz
ve saldırı kısmına geliyorsunuz
16:11
and everything elsebaşka
that you mightbelki be experiencingyaşandığı.
293
959851
2382
ve başınızdan geçiyor
olabilecek diğer her şey.
16:14
So I don't know how that happenedolmuş
over the company'sŞirket'in historytarih,
294
962257
3195
Şirketin tarihinde neler oldu bilmiyorum
16:17
but we put that aboveyukarıdaki
the thing that people want
295
965476
4797
ama insanların en çok
bilgi sahibi olmak istedikleri
16:24
the mostçoğu informationbilgi on
and to actuallyaslında actdavranmak on.
296
972146
3222
ve bir şeyler yapmak istedikleri
şey olarak onu en üste koyduk.
16:27
And just our orderingsipariş showsgösterileri the worldDünya
what we believedinanılır was importantönemli.
297
975392
5241
Sadece sıralamamız bile dünyaya neyin
bizim için önemli olduğunu gösteriyor.
16:32
So we're changingdeğiştirme all that.
298
980657
2881
Bütün bunları değiştiriyoruz.
16:35
We're orderingsipariş it the right way,
299
983562
1563
Sıralamayı doğru yapıyoruz
16:37
but we're alsoAyrıca simplifyingbasitleştirme the ruleskurallar
so that they're human-readableinsan tarafından okunabilir
300
985149
3451
ama ayrıca kuralları basitleştiriyoruz ki
insan için okunaklı olsun,
16:40
so that people can actuallyaslında
understandanlama themselveskendilerini
301
988624
4067
bir şeyler koşullarımıza aykırı olduğunda
veya olmadığında
16:44
when something is againstkarşısında our termsşartlar
and when something is not.
302
992715
3448
insanlar bunu
kendi başlarına anlayabilsin.
16:48
And then we're makingyapma --
303
996187
2161
Şunu da yapıyoruz --
16:50
again, our bigbüyük focusodak is on removingçıkarmadan
the burdenyük of work from the victimskurbanlar.
304
998372
5200
yeniden söyleyeyim, asıl odağımız
mağdurların üzerinden yükü kaldırmak.
16:55
So that meansanlamına geliyor pushit more
towardskarşı technologyteknoloji,
305
1003596
3734
Bu da işi insanlara yaptırmaktan ziyade
16:59
ratherdaha doğrusu than humansinsanlar doing the work --
306
1007354
1873
teknolojiye daha çok yönelmek demek --
17:01
that meansanlamına geliyor the humansinsanlar receivingkabul the abusetaciz
307
1009251
2413
çünkü aksi hâlde tacize maruz kalan kişi
17:03
and alsoAyrıca the humansinsanlar
havingsahip olan to reviewgözden geçirmek that work.
308
1011688
3026
aynı zamanda bunu
gözden geçirecek kişi oluyor.
17:06
So we want to make sure
309
1014738
1673
Bizim de istediğimiz şey,
17:08
that we're not just encouragingteşvik edici more work
310
1016435
2841
aşırı derecede negatif bir şey konusunda
17:11
around something
that's superSüper, superSüper negativenegatif,
311
1019300
2629
daha fazla teşvik sağlamamak.
17:13
and we want to have a good balancedenge
betweenarasında the technologyteknoloji
312
1021953
2674
İnsanların yaratıcılığı
ve teknoloji arasında
17:16
and where humansinsanlar can actuallyaslında be creativeyaratıcı,
313
1024651
2852
iyi bir denge sağlamak istiyoruz,
17:19
whichhangi is the judgmentyargı of the ruleskurallar,
314
1027527
3090
bu da kuralların yorumlanması,
17:22
and not just all the mechanicalmekanik stuffşey
of findingbulgu and reportingraporlama them.
315
1030641
3267
sadece bir dizi mekanik şeyi bulup
onları bildirmek değil.
17:25
So that's how we think about it.
316
1033932
1530
Düşünce şeklimiz bu yönde.
17:27
CACA: I'm curiousMeraklı to digkazmak in more
about what you said.
317
1035486
2406
CA: Söylediğin şeyin
daha derinine inmek istiyorum.
17:29
I mean, I love that you said
you are looking for waysyolları
318
1037916
2605
Şunu söylemen öok hoşuma gitti,
17:32
to re-tweakyeniden Tweak the fundamentaltemel
designdizayn of the systemsistem
319
1040545
3462
sistemin temel tasarımına
yeni yön verecek yollar arıyorsun,
17:36
to discouragevazgeçirmek some of the reactiveReaktif
behaviordavranış, and perhapsbelki --
320
1044031
4875
insanların reaktif davranışlarını
caydırmak ve belki de --
17:40
to use TristanTristan Harris-typeHarris tipi languagedil --
321
1048930
2705
Tristan Harris gibi konuşursak --
17:43
engagetutmak people'sinsanların more reflectiveyansıtıcı thinkingdüşünme.
322
1051659
4288
insanların reflektif düşüncesini
daha çok dâhil etmek.
17:47
How faruzak advancedileri is that?
323
1055971
1854
Bu ne kadar ileri bir görüş?
17:49
What would alternativesalternatifleri
to that "like" buttondüğme be?
324
1057849
4305
''Beğen'' butonunun alternatifi ne olurdu?
17:55
JDJD: Well, first and foremostbaşta,
325
1063518
3575
JD: Her şeyden önce,
17:59
my personalkişisel goalhedef with the servicehizmet
is that I believe fundamentallyesasen
326
1067117
5753
benim bu hizmetteki kişisel amacım
olan inandığım temel şey;
18:04
that publichalka açık conversationkonuşma is criticalkritik.
327
1072894
2702
toplu konuşma çok önemlidir.
18:07
There are existentialvaroluşsal problemssorunlar
facingkarşı the worldDünya
328
1075620
2647
Dünyayı tehdit eden
var oluşsal sorunlar var,
18:10
that are facingkarşı the entiretüm worldDünya,
not any one particularbelirli nation-stateulus-devlet,
329
1078291
4163
tek bir ulus devleti değil
tüm dünyayı tehdit eden sorunlar
18:14
that globalglobal publichalka açık conversationkonuşma benefitsfaydaları.
330
1082478
2649
ve küresel toplu sohbet
buna fayda sağlıyor.
18:17
And that is one of the uniquebenzersiz
dynamicsdinamik of TwitterTwitter,
331
1085151
2372
Twitter'ın eşsiz dinamiklerinden biri bu,
18:19
that it is completelytamamen openaçık,
332
1087547
1814
tamamen aleni,
18:21
it is completelytamamen publichalka açık,
333
1089385
1596
tamamen hakla açık,
18:23
it is completelytamamen fluidsıvı,
334
1091005
1399
tamamen değişken
18:24
and anyonekimse can see any other conversationkonuşma
and participatekatılmak in it.
335
1092428
4038
ve herkes başka sohbetler görüp
bunlara katılabilir.
18:28
So there are conversationskonuşmaları
like climateiklim changedeğişiklik.
336
1096490
2206
İklim değişikliği gibi sohbetler var.
18:30
There are conversationskonuşmaları
like the displacementdeplasman in the work
337
1098720
2682
İş yerinde yapay zekâ aracılığıyla
18:33
throughvasitasiyla artificialyapay intelligencezeka.
338
1101426
2000
yanlış yerleştirme sohbetleri var.
18:35
There are conversationskonuşmaları
like economicekonomik disparityeşitsizlik.
339
1103450
3006
Ekonomik eşitsizlik sohbetleri var.
18:38
No mattermadde what any one nation-stateulus-devlet does,
340
1106480
2765
Herhangi bir ulus devletin
ne yaptığı önemli değil,
18:41
they will not be ableyapabilmek
to solveçözmek the problemsorun aloneyalnız.
341
1109269
2421
bu sorunu tek başlarına çözemeyecekler.
18:43
It takes coordinationKoordinasyon around the worldDünya,
342
1111714
2643
Bunun için dünya çapında işbirliği lazım
18:46
and that's where I think
TwitterTwitter can playoyun a partBölüm.
343
1114381
3047
ve bu noktada Twitter bir rol oynayabilir.
18:49
The secondikinci thing is that TwitterTwitter,
right now, when you go to it,
344
1117452
5642
İkinci husus da
Twitter şu an öyle bir ortam ki
18:55
you don't necessarilyzorunlu olarak walkyürümek away
feelingduygu like you learnedbilgili something.
345
1123118
3746
bir sohbetten çıkarken her zaman
bir şey öğrenmiş gibi hissetmiyorsunuz.
18:58
Some people do.
346
1126888
1276
Kimi insanlar öğreniyor.
19:00
Some people have
a very, very richzengin network,
347
1128188
3107
Bazı insanların çok zengin bir ağı var,
19:03
a very richzengin communitytoplum
that they learnöğrenmek from everyher singletek day.
348
1131319
3117
o kadar geniş bir ağ ki
her geçen gün bir şeyler öğreniyorlar.
19:06
But it takes a lot of work
and a lot of time to buildinşa etmek up to that.
349
1134460
3691
Ama buna ulaşmak çok emek
ve çok zaman gerektiriyor.
19:10
So we want to get people
to those topicskonular and those interestsilgi
350
1138175
3448
Biz, insanların bu konu ve ilgi alanlarına
19:13
much, much fasterDaha hızlı
351
1141647
1579
çok daha hızlı ulaşmalarını
19:15
and make sure that
they're findingbulgu something that,
352
1143250
2566
ve ulaştıklarında da
19:18
no mattermadde how much time
they spendharcamak on TwitterTwitter --
353
1146728
2360
Twitter'da ne kadar zaman
geçirirlerse geçirsinler --
19:21
and I don't want to maximizeen üst düzeye çıkarmak
the time on TwitterTwitter,
354
1149112
2358
Twitter zamanını
maksimize etmek istemiyorum,
19:23
I want to maximizeen üst düzeye çıkarmak
what they actuallyaslında take away from it
355
1151494
2910
maksimize etmek istediğim şey
bu platformdan edindikleri
19:26
and what they learnöğrenmek from it, and --
356
1154428
2030
ve neler öğrendikleri ve de --
19:29
CACA: Well, do you, thoughgerçi?
357
1157598
1328
CA: Peki yapabiliyor musun?
19:30
Because that's the coreçekirdek questionsoru
that a lot of people want to know.
358
1158950
3244
Çünkü çok insanın merak ettiği
temel bir soru var.
19:34
SurelyKesinlikle, JackJack, you're constrainedzoraki,
to a hugeKocaman extentderece,
359
1162218
3638
Elbette, Jack, büyük ölçüde
elin kolun bağlı,
19:37
by the factgerçek that you're a publichalka açık companyşirket,
360
1165880
2007
nitekim halka açık bir şirket bu,
19:39
you've got investorsyatırımcılar pressingbasma on you,
361
1167911
1774
baskı yapan yatırımcılar var,
19:41
the numbernumara one way you make your moneypara
is from advertisingreklâm --
362
1169709
3559
para kazanmanın
bir numaralı yolu da reklamlar --
19:45
that dependsbağlıdır on userkullanıcı engagementnişan.
363
1173292
2772
bu da kullanıcı katılımına bağlı.
19:48
Are you willingistekli to sacrificekurban
userkullanıcı time, if need be,
364
1176088
4700
Gerektiği takdirde, kullanıcı
zamanını feda eder misin,
19:52
to go for a more reflectiveyansıtıcı conversationkonuşma?
365
1180812
3729
daha reflektif bir sohbet adına?
19:56
JDJD: Yeah; more relevanceilgi meansanlamına geliyor
lessaz time on the servicehizmet,
366
1184565
3111
JD: Evet; daha çok alaka demek
hizmette daha az zaman demek
19:59
and that's perfectlykusursuzca fine,
367
1187700
1937
ve bunun hiçbir sakıncası yok
20:01
because we want to make sure
that, like, you're cominggelecek to TwitterTwitter,
368
1189661
3099
çünkü istiyoruz ki Twitter'a gelin,
20:04
and you see something immediatelyhemen
that you learnöğrenmek from and that you pushit.
369
1192784
4520
bir şey görün ve ondan bir şey öğrenin
ve o şey sizi tekrar getirsin.
20:09
We can still serveservis an adilan againstkarşısında that.
370
1197328
3420
Buna karşı hâlâ bir reklam sunabiliriz.
20:12
That doesn't mean you need to spendharcamak
any more time to see more.
371
1200772
2921
Bu daha fazlasını görmek için
daha çok zaman demek değil.
20:15
The secondikinci thing we're looking at --
372
1203717
1733
Üzerinde durduğumuz ikinci şey de --
20:17
CACA: But just -- on that goalhedef,
dailygünlük activeaktif usagekullanım,
373
1205474
2698
CA: Ama şu hedefe gelirsek,
günlük aktif kullanım,
20:20
if you're measuringölçme that,
that doesn't necessarilyzorunlu olarak mean things
374
1208196
3245
eğer bunu ölçeceksen
bu, insanların her gün değer verdiği
şeyler demek değil.
20:23
that people valuedeğer everyher day.
375
1211465
1738
20:25
It mayMayıs ayı well mean
376
1213227
1161
Şu anlama da gelebilir,
20:26
things that people are drawnçekilmiş to
like a mothgüve to the flamealev, everyher day.
377
1214412
3306
ışığın böceği çekmesi gibi,
bu şeyler insanları her gün de çekebilir.
20:29
We are addictedbağımlı, because we see
something that pisseskızdıran us off,
378
1217742
3022
Bağımlı oluyoruz çünkü bizi
çok sinirlendiren bir şey görüyoruz,
20:32
so we go in and addeklemek fuelyakıt to the fireateş,
379
1220788
3178
yangına körükle gidiyoruz
20:35
and the dailygünlük activeaktif usagekullanım goesgider up,
380
1223990
1927
ve günlük aktif kullanım yukarı çıkıyor,
20:37
and there's more adilan revenuegelir there,
381
1225941
1715
orada daha fazla reklam geliri var
20:39
but we all get angrierdaha sinirli with eachher other.
382
1227680
2752
ama birbirimize sinirlenip duruyoruz.
20:42
How do you definetanımlamak ...
383
1230456
2509
Bunu nasıl tanımlarsın?
20:44
"DailyGünlük activeaktif usagekullanım" seemsgörünüyor like a really
dangeroustehlikeli termterim to be optimizingEn iyi duruma getirme.
384
1232989
4126
''Günlük aktif kullanım'' optimize
etmek için çok tehlikeli bir terim gibi.
20:49
(ApplauseAlkış)
385
1237139
5057
(Alkışlar)
20:54
JDJD: TakenAlınan aloneyalnız, it is,
386
1242220
1268
JD: Tek başına, evet öyle
20:55
but you didn't let me
finishbitiş the other metricmetrik,
387
1243512
2346
ama diğer ölçümü
bitirmeme izin vermediniz,
20:57
whichhangi is, we're watchingseyretme for conversationskonuşmaları
388
1245882
3727
o da şu ki sohbetleri izliyoruz
21:01
and conversationkonuşma chainszincirler.
389
1249633
2129
ve sohbet zincirlerini de.
21:03
So we want to incentivizeteşvik
healthysağlıklı contributionkatkı back to the network,
390
1251786
5076
Sosyal ağa sağlıklı katkıyı
teşvik etmek istiyoruz
21:08
and what we believe that is
is actuallyaslında participatingkatılan in conversationkonuşma
391
1256886
4181
ve inandığımız ölçülerde
gerçekten sağlıklı bir şekilde
21:13
that is healthysağlıklı,
392
1261091
1197
sohbete katılım da
21:14
as definedtanımlanmış by those fourdört indicatorsgöstergeler
I articulatedBelden kırma modeller earlierdaha erken.
393
1262312
5037
biraz önce belirttiğim
dört göstergeyle tanımlanıyor.
21:19
So you can't just optimizeoptimize
around one metricmetrik.
394
1267373
2657
Yani tek bir ölçümü optimize edemezsiniz.
21:22
You have to balancedenge and look constantlysürekli
395
1270054
2752
Denge kurmanız lazım
21:24
at what is actuallyaslında going to createyaratmak
a healthysağlıklı contributionkatkı to the network
396
1272830
4083
ve sosyal ağa sağlıklı katılım
ve insanlar için sağlıklı deneyimi
21:28
and a healthysağlıklı experiencedeneyim for people.
397
1276937
2341
neyin yaratacağına sürekli bakmanız lazım.
21:31
UltimatelySonuçta, we want to get to a metricmetrik
398
1279302
1866
Nihai olarak biz de insanların bize
21:33
where people can tell us,
"Hey, I learnedbilgili something from TwitterTwitter,
399
1281192
3757
''Twtter'dan bir şey öğrendim
ve değerli bir bilgiyle çıkıyorum''
21:36
and I'm walkingyürüme away
with something valuabledeğerli."
400
1284973
2167
diyebileceği bir ölçüme varmak istiyoruz.
21:39
That is our goalhedef ultimatelyen sonunda over time,
401
1287164
2043
Bu bizim zaman içindeki nihai hedefimiz
21:41
but that's going to take some time.
402
1289231
1809
ama bunun için biraz zaman gerek.
21:43
CACA: You come over to manyçok,
I think to me, as this enigmabilmece.
403
1291064
5282
CA: Pek çok insana ve sanırım bana
bir enigma olarak geliyorsun.
21:48
This is possiblybelki unfairhaksız,
but I wokeuyandı up the other night
404
1296370
4396
Muhtemelen adil değil bu,
ama geçen gün kalktığımda
21:52
with this pictureresim of how I foundbulunan I was
thinkingdüşünme about you and the situationdurum,
405
1300790
3879
seni ve bu durumu düşündüğüm
bir resim vardı,
21:56
that we're on this great voyageyolculuk with you
on this shipgemi calleddenilen the "TwittanicTwittanic" --
406
1304693
6903
seninle birlikte büyük bir yolculuktayız
ve geminin adı ''Twittanic'' --
22:03
(LaughterKahkaha)
407
1311620
1281
(Kahkahalar)
22:04
and there are people on boardyazı tahtası in steerageara güvertede
408
1312925
4357
Güvertede dümende insanlar var,
22:09
who are expressingifade eden discomfortrahatsızlık,
409
1317306
2203
rahatsızlıklarını dile getiriyorlar
22:11
and you, unlikeaksine manyçok other captainskaptanları,
410
1319533
2543
ve sen diğer kaptanlardan farklı olarak
22:14
are sayingsöz, "Well, tell me, talk to me,
listen to me, I want to hearduymak."
411
1322100
3431
''Benimle konuşun, beni dinleyin,
duymak istiyorum.'' diyorsun.
22:17
And they talk to you, and they say,
"We're worriedendişeli about the icebergbuzdağı aheadönde."
412
1325555
3619
Seninle konuşuyorlar ve diyorlar ki
''Önümüzdeki buz dağı için endişeliyiz.''
22:21
And you go, "You know,
that is a powerfulgüçlü pointpuan,
413
1329198
2242
Sen de diyorsun ki
"Güçlü bir noktaya değindiniz
22:23
and our shipgemi, franklyaçıkçası,
hasn'tdeğil sahiptir been builtinşa edilmiş properlyuygun şekilde
414
1331464
2430
ve gemimiz, doğrusu, yön değiştirmek için
22:25
for steeringyönetim as well as it mightbelki."
415
1333918
1669
pek sağlam inşa edilmedi.''
22:27
And we say, "Please do something."
416
1335611
1658
Biz "Lütfen bir şey yap" diyoruz.
22:29
And you go to the bridgeköprü,
417
1337293
1411
Sen de dümene gidiyorsun
22:30
and we're waitingbekleme,
418
1338728
2295
ve biz bekliyoruz,
22:33
and we look, and then you're showinggösterme
this extraordinaryolağanüstü calmsakin,
419
1341047
4548
bakıyoruz ve sen inanılmaz
derecede sakin görünüyorsun
22:37
but we're all standingayakta outsidedışında,
sayingsöz, "JackJack, turndönüş the fuckingkahrolası wheeltekerlek!"
420
1345619
3883
ama hepimiz dışarıda duruyoruz,
''Jack, şu lanet dümeni çevir!'' diyoruz.
22:41
You know?
421
1349526
1151
Anlatabildim mi?
22:42
(LaughterKahkaha)
422
1350701
1335
(Kahkahalar)
22:44
(ApplauseAlkış)
423
1352060
2381
(Alkışlar)
22:46
I mean --
424
1354465
1166
Yani --
22:47
(ApplauseAlkış)
425
1355655
1734
(Alkışlar)
22:49
It's democracydemokrasi at stakekazık.
426
1357413
4594
Demokrasi tehdit altında.
22:54
It's our culturekültür at stakekazık.
It's our worldDünya at stakekazık.
427
1362031
2821
Kültürümüz tehdit altında.
Dünyamız tehdit altında.
22:56
And TwitterTwitter is amazingşaşırtıcı and shapesşekiller so much.
428
1364876
4706
Twitter muhteşem
ve çok şeye şekil veriyor.
23:01
It's not as bigbüyük as some
of the other platformsplatformlar,
429
1369606
2233
Diğer bazı platformlar kadar büyük değil
23:03
but the people of influenceetki use it
to setset the agendaGündem,
430
1371863
2804
ama bundan etkilenen insanlar
bunu amaçları için kullanıyor
23:06
and it's just hardzor to imaginehayal etmek a more
importantönemli rolerol in the worldDünya than to ...
431
1374691
6787
ve dünyada bundan daha önemli
bir rol hayal etmek zor...
23:13
I mean, you're doing a brilliantparlak job
of listeningdinleme, JackJack, and hearingişitme people,
432
1381502
3784
Demek istediğim, Jack,
insanları dinleme konusunda harikasın
23:17
but to actuallyaslında dialArama up the urgencyaciliyet
and movehareket on this stuffşey --
433
1385310
4445
ama peki ya durumun aciliyeti
ve tüm bunları harekete geçirmek --
23:21
will you do that?
434
1389779
2201
bunları yapar mısın?
23:24
JDJD: Yes, and we have been
movinghareketli substantiallyesasen.
435
1392750
3815
JD: Evet ve çok büyük çapta ilerliyoruz.
23:28
I mean, there's been
a fewaz dynamicsdinamik in Twitter'sTwitter historytarih.
436
1396589
3225
Twitter'ın tarihinde birkaç dinamik oldu.
23:31
One, when I camegeldi back to the companyşirket,
437
1399838
2083
Birincisi, şirkete geri geldiğimde
23:35
we were in a prettygüzel direkorkunç statebelirtmek, bildirmek
in termsşartlar of our futuregelecek,
438
1403477
6256
geleceğimiz konusunda
oldukça vahim bir durumdaydık
23:41
and not just from how people
were usingkullanma the platformplatform,
439
1409757
4634
ve konu sadece platformu
kullanan insanlar değildi,
23:46
but from a corporatetüzel narrativeöykü as well.
440
1414415
2047
kurumsal olarak da işler kötüydü.
23:48
So we had to fixdüzeltmek
a bunchDemet of the foundationvakıf,
441
1416486
3204
Bu temelin bir kısmını
düzeltmemiz gerekti,
23:51
turndönüş the companyşirket around,
442
1419714
1969
şirketi ayağa kaldırmamız,
23:53
go throughvasitasiyla two crazyçılgın layoffsişten çıkarmalar,
443
1421707
3111
iki büyük işe son verme
döneminden geçmemiz,
23:56
because we just got too bigbüyük
for what we were doing,
444
1424842
3793
çünkü yaptığımız şey için
aşırı büyüdük
24:00
and we focusedodaklı all of our energyenerji
445
1428659
2060
ve tüm enerjimizi
bu konsept için odakladık,
24:02
on this conceptkavram of servingservis
the publichalka açık conversationkonuşma.
446
1430743
3508
halka açık sohbete hizmet etmek.
24:06
And that tookaldı some work.
447
1434275
1451
Bu da biraz iş gerektirdi.
24:07
And as we diveddaldı into that,
448
1435750
2608
Biz de buna yöneldik,
24:10
we realizedgerçekleştirilen some of the issuessorunlar
with the fundamentalsTemelleri.
449
1438382
2992
temel unsurlarla ilgili
bazı sorunlar fark ettik.
24:14
We could do a bunchDemet of superficialyüzeysel things
to addressadres what you're talkingkonuşma about,
450
1442120
4656
Konuştuğunuz şeye yönelmek için
bir sürü üstünkörü şey yapabilirdik
24:18
but we need the changesdeğişiklikler to last,
451
1446800
1790
ama kalıcı değişikliklere ihtiyacımız var
24:20
and that meansanlamına geliyor going really, really deepderin
452
1448614
2459
ve bu da gerçekten derine inmek
24:23
and payingödeme yapan attentionDikkat
to what we startedbaşladı 13 yearsyıl agoönce
453
1451097
4350
ve 13 yıl önce başlattığımız şeye
dikkat vermek
24:27
and really questioningsorgulama
454
1455471
2261
ve gerçekten şunu sorgulamak demek,
24:29
how the systemsistem worksEserleri
and how the frameworkiskelet worksEserleri
455
1457756
2566
sistem nasıl çalışıyor
ve bu altyapı nasıl çalışıyor
24:32
and what is neededgerekli for the worldDünya todaybugün,
456
1460346
3833
ve dünya için bugün ne gerekli,
24:36
givenverilmiş how quicklyhızlı bir şekilde everything is movinghareketli
and how people are usingkullanma it.
457
1464203
4024
her şeyin ne kadar hızlı ilerlediği
ve insanların bunu kullanımı düşünülünce.
24:40
So we are workingçalışma as quicklyhızlı bir şekilde as we can,
but quicknesshız will not get the job donetamam.
458
1468251
6544
Biz de olabildiğince hızlı çalışıyoruz
ama hızlılık işi halletmeyecek.
24:46
It's focusodak, it's prioritizationönceliklendirme,
459
1474819
2611
Önemli olan odak, öncelik,
24:49
it's understandinganlayış
the fundamentalsTemelleri of the network
460
1477454
2946
sosyal ağın temellerini anlamak
24:52
and buildingbina a frameworkiskelet that scalesterazi
461
1480424
2842
ve değişikliğe dayanıklı
24:55
and that is resilientesnek to changedeğişiklik,
462
1483290
2351
ölçeklenebilir bir altyapı yapmak
24:57
and beingolmak openaçık about where we are
and beingolmak transparentşeffaf about where are
463
1485665
5429
ve olduğumuz yer hakkında
açık ve şeffaf olmak,
25:03
so that we can continuedevam et to earnkazanmak trustgüven.
464
1491118
2179
böylece güven kazanmaya devam edebiliriz.
25:06
So I'm proudgururlu of all the frameworksçerçeveler
that we'vebiz ettik put in placeyer.
465
1494141
3331
Sunduğumuz tüm altyapılardan
gurur duyuyorum.
25:09
I'm proudgururlu of our directionyön.
466
1497496
2888
Gidişatımızdan gurur duyuyorum.
25:12
We obviouslybelli ki can movehareket fasterDaha hızlı,
467
1500915
2718
Elbette daha hızlı ilerleyebiliriz
25:15
but that requiredgereklidir just stoppingDurduruluyor a bunchDemet
of stupidaptal stuffşey we were doing in the pastgeçmiş.
468
1503657
4719
ama geçmişte yaptığımız bir dizi
saçna şeyi durdurmayı gerektiriyordu.
25:21
CACA: All right.
469
1509067
1164
CA: Pekâlâ.
25:22
Well, I suspectşüpheli there are manyçok people here
who, if givenverilmiş the chanceşans,
470
1510255
4067
Öyle sanıyorum ki burada,
kendilerine şans verilse
25:26
would love to help you
on this change-makingdeğişim yapma agendaGündem you're on,
471
1514346
3989
bu değişim temalı gidişatında
sana yardım edecek çok insan var,
25:30
and I don't know if WhitneyWhitney --
472
1518359
1542
öyle değil mi Whitney --
25:31
JackJack, thank you for cominggelecek here
and speakingkonuşuyorum so openlyaçıkça.
473
1519925
2761
Jack, buraya geldiğin
ve açıkça konuştuğun çin teşekkürler.
25:34
It tookaldı couragecesaret.
474
1522710
1527
Cesurcaydı.
25:36
I really appreciateanlamak what you said,
and good luckşans with your missionmisyon.
475
1524261
3384
Söylediklerini gerçekten takdir ettim
ve amacında iyi şanslar diliyorum.
25:39
JDJD: Thank you so much.
Thanksteşekkürler for havingsahip olan me.
476
1527669
2095
JD: Çok teşekkür ederim.
Beni ağırladığınız için de.
25:41
(ApplauseAlkış)
477
1529788
3322
(Alkışlar)
25:45
Thank you.
478
1533134
1159
Teşekkürler.
Translated by Cihan Ekmekçi
Reviewed by Figen Ergürbüz

▲Back to top

ABOUT THE SPEAKERS
Jack Dorsey - Entrepreneur, programmer
Jack Dorsey is the CEO of Twitter, CEO & Chairman of Square, and a cofounder of both.

Why you should listen
More profile about the speaker
Jack Dorsey | Speaker | TED.com
Chris Anderson - TED Curator
After a long career in journalism and publishing, Chris Anderson became the curator of the TED Conference in 2002 and has developed it as a platform for identifying and disseminating ideas worth spreading.

Why you should listen

Chris Anderson is the Curator of TED, a nonprofit devoted to sharing valuable ideas, primarily through the medium of 'TED Talks' -- short talks that are offered free online to a global audience.

Chris was born in a remote village in Pakistan in 1957. He spent his early years in India, Pakistan and Afghanistan, where his parents worked as medical missionaries, and he attended an American school in the Himalayas for his early education. After boarding school in Bath, England, he went on to Oxford University, graduating in 1978 with a degree in philosophy, politics and economics.

Chris then trained as a journalist, working in newspapers and radio, including two years producing a world news service in the Seychelles Islands.

Back in the UK in 1984, Chris was captivated by the personal computer revolution and became an editor at one of the UK's early computer magazines. A year later he founded Future Publishing with a $25,000 bank loan. The new company initially focused on specialist computer publications but eventually expanded into other areas such as cycling, music, video games, technology and design, doubling in size every year for seven years. In 1994, Chris moved to the United States where he built Imagine Media, publisher of Business 2.0 magazine and creator of the popular video game users website IGN. Chris eventually merged Imagine and Future, taking the combined entity public in London in 1999, under the Future name. At its peak, it published 150 magazines and websites and employed 2,000 people.

This success allowed Chris to create a private nonprofit organization, the Sapling Foundation, with the hope of finding new ways to tackle tough global issues through media, technology, entrepreneurship and, most of all, ideas. In 2001, the foundation acquired the TED Conference, then an annual meeting of luminaries in the fields of Technology, Entertainment and Design held in Monterey, California, and Chris left Future to work full time on TED.

He expanded the conference's remit to cover all topics, including science, business and key global issues, while adding a Fellows program, which now has some 300 alumni, and the TED Prize, which grants its recipients "one wish to change the world." The TED stage has become a place for thinkers and doers from all fields to share their ideas and their work, capturing imaginations, sparking conversation and encouraging discovery along the way.

In 2006, TED experimented with posting some of its talks on the Internet. Their viral success encouraged Chris to begin positioning the organization as a global media initiative devoted to 'ideas worth spreading,' part of a new era of information dissemination using the power of online video. In June 2015, the organization posted its 2,000th talk online. The talks are free to view, and they have been translated into more than 100 languages with the help of volunteers from around the world. Viewership has grown to approximately one billion views per year.

Continuing a strategy of 'radical openness,' in 2009 Chris introduced the TEDx initiative, allowing free licenses to local organizers who wished to organize their own TED-like events. More than 8,000 such events have been held, generating an archive of 60,000 TEDx talks. And three years later, the TED-Ed program was launched, offering free educational videos and tools to students and teachers.

More profile about the speaker
Chris Anderson | Speaker | TED.com
Whitney Pennington Rodgers - TED Current Affairs Curator
Whitney Pennington Rodgers is an award-winning journalist and media professional.

Why you should listen

Prior to joining TED as current affairs curator, Whitney Pennington Rodgers produced for NBC's primetime news magazine Dateline NBC. She earned a duPont-Columbia award and a News & Documentary Emmy or her contributions to the Dateline NBC hour "The Cosby Accusers Speak" -- an extensive group interview with 27 of the women who accused entertainer Bill Cosby of sexual misconduct.

Pennington Rodgers has worked at NBC's in-house production company Peacock Productions, The Today Show, Nightly News, Rock Center with Brian Williams and New Jersey-centric public affairs shows Caucus: New Jersey and One-on-One with Steve Adubato. Prior to beginning her career in media, she had a short stint as a fourth-grade teacher through the Teach for America program.

Pennington Rodgers received her Bachelor's in journalism and media studies from Rutgers University. She completed her Master's of Journalism at the University of California at Berkeley, where she produced a documentary about recruitment of nonblack students at historically black colleges and universities.

More profile about the speaker
Whitney Pennington Rodgers | Speaker | TED.com