ABOUT THE SPEAKERS
Jack Dorsey - Entrepreneur, programmer
Jack Dorsey is the CEO of Twitter, CEO & Chairman of Square, and a cofounder of both.

Why you should listen
More profile about the speaker
Jack Dorsey | Speaker | TED.com
Chris Anderson - TED Curator
After a long career in journalism and publishing, Chris Anderson became the curator of the TED Conference in 2002 and has developed it as a platform for identifying and disseminating ideas worth spreading.

Why you should listen

Chris Anderson is the Curator of TED, a nonprofit devoted to sharing valuable ideas, primarily through the medium of 'TED Talks' -- short talks that are offered free online to a global audience.

Chris was born in a remote village in Pakistan in 1957. He spent his early years in India, Pakistan and Afghanistan, where his parents worked as medical missionaries, and he attended an American school in the Himalayas for his early education. After boarding school in Bath, England, he went on to Oxford University, graduating in 1978 with a degree in philosophy, politics and economics.

Chris then trained as a journalist, working in newspapers and radio, including two years producing a world news service in the Seychelles Islands.

Back in the UK in 1984, Chris was captivated by the personal computer revolution and became an editor at one of the UK's early computer magazines. A year later he founded Future Publishing with a $25,000 bank loan. The new company initially focused on specialist computer publications but eventually expanded into other areas such as cycling, music, video games, technology and design, doubling in size every year for seven years. In 1994, Chris moved to the United States where he built Imagine Media, publisher of Business 2.0 magazine and creator of the popular video game users website IGN. Chris eventually merged Imagine and Future, taking the combined entity public in London in 1999, under the Future name. At its peak, it published 150 magazines and websites and employed 2,000 people.

This success allowed Chris to create a private nonprofit organization, the Sapling Foundation, with the hope of finding new ways to tackle tough global issues through media, technology, entrepreneurship and, most of all, ideas. In 2001, the foundation acquired the TED Conference, then an annual meeting of luminaries in the fields of Technology, Entertainment and Design held in Monterey, California, and Chris left Future to work full time on TED.

He expanded the conference's remit to cover all topics, including science, business and key global issues, while adding a Fellows program, which now has some 300 alumni, and the TED Prize, which grants its recipients "one wish to change the world." The TED stage has become a place for thinkers and doers from all fields to share their ideas and their work, capturing imaginations, sparking conversation and encouraging discovery along the way.

In 2006, TED experimented with posting some of its talks on the Internet. Their viral success encouraged Chris to begin positioning the organization as a global media initiative devoted to 'ideas worth spreading,' part of a new era of information dissemination using the power of online video. In June 2015, the organization posted its 2,000th talk online. The talks are free to view, and they have been translated into more than 100 languages with the help of volunteers from around the world. Viewership has grown to approximately one billion views per year.

Continuing a strategy of 'radical openness,' in 2009 Chris introduced the TEDx initiative, allowing free licenses to local organizers who wished to organize their own TED-like events. More than 8,000 such events have been held, generating an archive of 60,000 TEDx talks. And three years later, the TED-Ed program was launched, offering free educational videos and tools to students and teachers.

More profile about the speaker
Chris Anderson | Speaker | TED.com
Whitney Pennington Rodgers - TED Current Affairs Curator
Whitney Pennington Rodgers is an award-winning journalist and media professional.

Why you should listen

Prior to joining TED as current affairs curator, Whitney Pennington Rodgers produced for NBC's primetime news magazine Dateline NBC. She earned a duPont-Columbia award and a News & Documentary Emmy or her contributions to the Dateline NBC hour "The Cosby Accusers Speak" -- an extensive group interview with 27 of the women who accused entertainer Bill Cosby of sexual misconduct.

Pennington Rodgers has worked at NBC's in-house production company Peacock Productions, The Today Show, Nightly News, Rock Center with Brian Williams and New Jersey-centric public affairs shows Caucus: New Jersey and One-on-One with Steve Adubato. Prior to beginning her career in media, she had a short stint as a fourth-grade teacher through the Teach for America program.

Pennington Rodgers received her Bachelor's in journalism and media studies from Rutgers University. She completed her Master's of Journalism at the University of California at Berkeley, where she produced a documentary about recruitment of nonblack students at historically black colleges and universities.

More profile about the speaker
Whitney Pennington Rodgers | Speaker | TED.com
TED2019

Jack Dorsey: How Twitter needs to change

Jack Dorsey: Como o Twitter precisa de mudar

Filmed:
2,089,470 views

O Twitter pode ser salvo? Numa conversa abrangente com Chris Anderson e Whitney Pennington Rodgers do TED, o CEO do Twitter, Jack Dorsey, discute o futuro da plataforma, reconhecendo problemas de assédio e moderação e propondo algumas mudanças fundamentais que ele espera que incentivem conversas saudáveis e respeitosas. “Estamos realmente a dar algo que as pessoas valorizam todos os dias?” pergunta Dorsey.
- Entrepreneur, programmer
Jack Dorsey is the CEO of Twitter, CEO & Chairman of Square, and a cofounder of both. Full bio - TED Curator
After a long career in journalism and publishing, Chris Anderson became the curator of the TED Conference in 2002 and has developed it as a platform for identifying and disseminating ideas worth spreading. Full bio - TED Current Affairs Curator
Whitney Pennington Rodgers is an award-winning journalist and media professional. Full bio

Double-click the English transcript below to play the video.

00:13
ChrisChris AndersonAnderson:
What worriespreocupações you right now?
0
1131
2408
Chris Anderson:
O que te preocupa agora?
Foste muito franco acerca
de muitos dos problemas do Twitter.
00:15
You've been very openaberto
about lots of issuesproblemas on TwitterTwitter.
1
3563
2853
00:18
What would be your toptopo worrypreocupação
2
6440
2299
Qual é a tua maior preocupação
00:20
about where things are right now?
3
8763
2049
acerca do estado das coisas neste momento?
00:23
JackJack DorseyDorsey: Right now,
the healthsaúde of the conversationconversação.
4
11447
2929
Jack Dorsey: Neste momento
é a saúde das conversas.
00:26
So, our purposepropósito is to serveservir
the publicpúblico conversationconversação,
5
14400
3660
O nosso propósito é estar ao serviço
das conversas públicas
00:30
and we have seenvisto
a numbernúmero of attacksataques on it.
6
18084
5056
e temos visto muitos ataques a isso.
00:35
We'veTemos seenvisto abuseAbuso, we'venós temos seenvisto harassmentassédio,
7
23164
2425
Temos visto insultos, intimidação,
00:37
we'venós temos seenvisto manipulationmanipulação,
8
25613
3222
temos visto manipulação,
00:40
automationautomação, humanhumano coordinationcoordenação,
misinformationdesinformação.
9
28859
4265
automatização, coordenação humana,
desinformação.
00:46
So these are all dynamicsdinâmica
that we were not expectingesperando
10
34134
4034
Isto são dinâmicas que não esperávamos
00:50
13 yearsanos agoatrás when we were
startinginiciando the companyempresa.
11
38192
3718
há 13 anos, quando começámos a empresa.
00:53
But we do now see them at scaleescala,
12
41934
2664
Vemo-las agora em grande escala.
00:56
and what worriespreocupações me mosta maioria
is just our abilityhabilidade to addressendereço it
13
44622
5278
O que mais me preocupa é a nossa
capacidade de as abordar
01:01
in a systemicsistêmico way that is scalableescalável,
14
49924
3108
de uma forma sistemática
que seja expansível,
01:05
that has a rigorousrigoroso understandingcompreensão
of how we're takinglevando actionaçao,
15
53056
6976
que tenha uma compreensão rigorosa
de como estamos a agir,
01:12
a transparenttransparente understandingcompreensão
of how we're takinglevando actionaçao
16
60056
3105
uma compreensão transparente
de como estamos a agir
01:15
and a rigorousrigoroso appealsapelações processprocesso
for when we're wrongerrado,
17
63185
3101
e um rigoroso processo de recurso
para quando errarmos
01:18
because we will be wrongerrado.
18
66310
2169
porque nós vamos errar.
01:20
WhitneyWhitney PenningtonPennington RodgersRodgers:
I'm really gladfeliz to hearouvir
19
68503
2397
Whitney Pennington Rodgers:
Fico feliz por ouvir
que isso é uma coisa que te preocupa
01:22
that that's something that concernspreocupações you,
20
70924
1928
porque escreveu-se tanto sobre pessoas
01:24
because I think there's been
a lot writtenescrito about people
21
72876
2630
que se sentiram agredidas
e intimidadas no Twitter
01:27
who feel they'veeles têm been abusedabusado
and harassedassediado on TwitterTwitter,
22
75530
2477
em especial, mulheres e mulheres de cor,
01:30
and I think no one more so
than womenmulheres and womenmulheres of colorcor
23
78031
4102
mulheres negras.
01:34
and blackPreto womenmulheres.
24
82157
1170
01:35
And there's been datadados that's come out --
25
83351
1913
Houve dados apresentados.
01:37
AmnestyAnistia InternationalInternacional put out
a reportrelatório a fewpoucos monthsmeses agoatrás
26
85288
2909
A Amnistia Internacional divulgou
um relatório há uns meses
01:40
where they showedmostrou that a subsetsubconjunto
of activeativo blackPreto femalefêmea TwitterTwitter usersComercial
27
88221
4480
em que mostraram que um subgrupo
de utilizadoras negras ativas do Twitter
01:44
were receivingrecebendo, on averagemédia,
one in 10 of theirdeles tweetsTweets
28
92725
3456
em cada 10 "tweets" que recebiam
em média, um deles continha
qualquer tipo de intimidação.
01:48
were some formFormato of harassmentassédio.
29
96205
2099
01:50
And so when you think about healthsaúde
for the communitycomunidade on TwitterTwitter,
30
98328
3907
Por isso, quando pensas na saúde
da comunidade no Twitter,
01:54
I'm interestedinteressado to hearouvir,
"healthsaúde for everyonetodos,"
31
102259
4024
eu gostava de ouvir "saúde para todos".
Especificamente, como estás a tentar
tornar o Twitter um espaço seguro
01:58
but specificallyespecificamente: How are you looking
to make TwitterTwitter a safeseguro spaceespaço
32
106307
3125
para esse subgrupo, para as mulheres,
e para as mulheres de cor?
02:01
for that subsetsubconjunto, for womenmulheres,
for womenmulheres of colorcor and blackPreto womenmulheres?
33
109456
4164
02:05
JDJD: Yeah.
34
113644
1164
JD: Sim, é uma situação terrível
02:06
So it's a prettybonita terribleterrivel situationsituação
35
114832
2643
02:09
when you're comingchegando to a serviceserviço
36
117499
1619
quando nos juntamos a um serviço
02:11
that, ideallyidealmente, you want to learnaprender
something about the worldmundo,
37
119142
4321
em que, idealmente, queremos
aprender algo sobre o mundo
02:15
and you spendgastar the majoritymaioria of your time
reportingrelatórios abuseAbuso, receivingrecebendo abuseAbuso,
38
123487
5443
e passamos a maior parte do tempo
a denunciar insultos, a receber insultos,
02:20
receivingrecebendo harassmentassédio.
39
128954
1804
a receber intimidações.
02:23
So what we're looking mosta maioria deeplyprofundamente at
is just the incentivesincentivos
40
131373
6321
O que nós estamos a analisar
com mais atenção são os incentivos
02:29
that the platformplataforma naturallynaturalmente providesfornece
and the serviceserviço providesfornece.
41
137718
3823
que a plataforma providencia naturalmente
e os serviços que providencia.
02:34
Right now, the dynamicdinâmico of the systemsistema
makesfaz com que it super-easysuper fácil to harassassediar
42
142262
4577
Agora a dinâmica do sistema faz
com que seja muito fácil intimidar
02:38
and to abuseAbuso othersoutras throughatravés the serviceserviço,
43
146863
3664
e insultar os outros através do serviço.
02:42
and unfortunatelyinfelizmente, the majoritymaioria
of our systemsistema in the pastpassado
44
150551
3262
Infelizmente, a maior parte
do nosso sistema no passado
02:45
workedtrabalhou entirelyinteiramente basedSediada on people
reportingrelatórios harassmentassédio and abuseAbuso.
45
153837
5596
baseava-se em que as pessoas reportavam
as intimidações e insultos.
02:51
So about midwaya meio caminho last yearano,
we decideddecidiu that we were going to applyAplique
46
159457
5075
Em meados do ano passado,
decidimos que íamos utilizar
02:56
a lot more machinemáquina learningAprendendo,
a lot more deepprofundo learningAprendendo to the problemproblema,
47
164556
3982
muito mais soluções
de aprendizagem de máquinas
e de aprendizagem profunda
03:00
and try to be a lot more proactiveproativo
around where abuseAbuso is happeningacontecendo,
48
168562
4538
e tentar ser mais proativos
quando os insultos acontecem,
03:05
so that we can take the burdencarga
off the victimvítima completelycompletamente.
49
173124
3960
para tirarmos completamente
o peso de cima da vítima.
03:09
And we'venós temos madefeito some progressprogresso recentlyrecentemente.
50
177108
2435
Fizemos alguns progressos recentemente.
03:11
About 38 percentpor cento of abusiveabusivo tweetsTweets
are now proactivelyproativamente identifiedidentificado
51
179567
6689
Cerca de 38% dos "tweets" insultuosos
são agora identificados proativamente
por algoritmos automáticos
03:18
by machinemáquina learningAprendendo algorithmsalgoritmos
52
186280
1715
03:20
so that people don't actuallyna realidade
have to reportrelatório them.
53
188019
2334
e as pessoas já não têm de os reportar.
03:22
But those that are identifiedidentificado
are still reviewedrevisado by humanshumanos,
54
190377
3305
Mas os que são identificados
ainda são revistos por pessoas,
03:25
so we do not take down contentconteúdo or accountscontas
withoutsem a humanhumano actuallyna realidade reviewingrevendo it.
55
193706
5384
por isso não tiramos conteúdo ou contas
sem a revisão de um ser humano.
03:31
But that was from zerozero percentpor cento
just a yearano agoatrás.
56
199114
2759
Mas isto era 0% há um ano.
03:33
So that meantsignificava, at that zerozero percentpor cento,
57
201897
1931
Ou seja, com 0%,
03:35
everycada singlesolteiro personpessoa who receivedrecebido abuseAbuso
had to actuallyna realidade reportrelatório it,
58
203852
3650
cada pessoa que fosse insultada
tinha de os reportar,
03:39
whichqual was a lot of work for them,
a lot of work for us
59
207526
3579
o que lhes dava muito trabalho,
e nos dava muito trabalho
03:43
and just ultimatelyem última análise unfairinjusto.
60
211129
2018
e, afinal de contas, era injusto.
03:46
The other thing that we're doing
is makingfazer sure that we, as a companyempresa,
61
214528
3780
O outro aspeto é que estamos a assegurar
que nós, como empresa,
03:50
have representationrepresentação of all the communitiescomunidades
that we're tryingtentando to serveservir.
62
218332
3333
temos representadas todas as comunidades
que estamos a tentar servir.
Não podemos construir
um negócio de sucesso
03:53
We can't buildconstruir a businesso negócio
that is successfulbem sucedido
63
221689
2159
03:55
unlessa menos que we have a diversitydiversidade
of perspectiveperspectiva insidedentro of our wallsparedes
64
223872
3300
se não tivermos diversidade
de perspetivas dentro da nossa casa
03:59
that actuallyna realidade feel these issuesproblemas
everycada singlesolteiro day.
65
227196
3732
onde se sentem esses problemas
todos os dias.
04:02
And that's not just with the teamequipe
that's doing the work,
66
230952
3738
E isso não envolve só a equipa
que está a fazer o trabalho
mas também toda a direção.
04:06
it's alsoAlém disso withindentro our leadershipLiderança as well.
67
234714
2096
04:08
So we need to continuecontinuar to buildconstruir empathyempatia
for what people are experiencingexperimentando
68
236834
5757
Temos de continuar a criar empatia
com o que as pessoas estão a experimentar
04:14
and give them better toolsFerramentas to actAja on it
69
242615
3316
e dar-lhes melhores ferramentas
para agirem
04:17
and alsoAlém disso give our customersclientes
a much better and easierMais fácil approachabordagem
70
245955
4252
e também dar aos nossos clientes
uma abordagem melhor e mais fácil
04:22
to handlelidar com some of the things
that they're seeingvendo.
71
250231
2382
para lidar com algumas coisas
que estão a ver.
04:24
So a lot of what we're doing
is around technologytecnologia,
72
252637
3266
Muito do que fazemos
está ligado à tecnologia
04:27
but we're alsoAlém disso looking at
the incentivesincentivos on the serviceserviço:
73
255927
4308
mas também estamos a olhar
para os incentivos do serviço:
04:32
What does TwitterTwitter incentivizeincentivar you to do
when you first openaberto it up?
74
260259
5183
O que é que o Twitter vos incentiva
a fazer quando o abrem?
04:37
And in the pastpassado,
75
265466
1294
No passado,
04:40
it's incentedincentivadas a lot of outrageultraje,
it's incentedincentivadas a lot of mobmáfia behaviorcomportamento,
76
268670
5544
incentivou muita indignação,
incentivou muita violência de grupo,
04:46
it's incentedincentivadas a lot of groupgrupo harassmentassédio.
77
274238
2459
incentivou muita intimidação a grupos.
04:48
And we have to look a lot deeperDeeper
at some of the fundamentalsfundamentos
78
276721
3648
Temos de olhar mais profundamente
para alguns dos princípios
04:52
of what the serviceserviço is doing
to make the biggerMaior shiftsturnos.
79
280393
2958
do que o serviço está a fazer
para conseguir mudanças maiores.
04:55
We can make a bunchgrupo of smallpequeno shiftsturnos
around technologytecnologia, as I just describeddescrito,
80
283375
4031
Podemos fazer pequenas mudanças
a nível tecnológico, como já descrevi,
04:59
but ultimatelyem última análise, we have to look deeplyprofundamente
at the dynamicsdinâmica in the networkrede itselfem si,
81
287430
4386
mas temos de olhar profundamente
para a dinâmica da rede em si
05:03
and that's what we're doing.
82
291840
1368
e é o que estamos a fazer.
05:05
CACA: But what's your sensesentido --
83
293232
2060
CA: Mas o que é que achas?
05:07
what is the kindtipo of thing
that you mightpoderia be ablecapaz to changemudança
84
295316
3963
Que tipo de coisas achas
que vão conseguir mudar
05:11
that would actuallyna realidade
fundamentallyfundamentalmente shiftmudança behaviorcomportamento?
85
299303
2749
que sejam uma mudança
de comportamento fundamental?
05:15
JDJD: Well, one of the things --
86
303386
1480
JD: Bem, uma das coisas, por exemplo.
05:16
we startedcomeçado the serviceserviço
with this conceptconceito of followingSegue an accountconta,
87
304890
5340
Começámos o serviço com o conceito
de seguir uma conta,
05:22
as an exampleexemplo,
88
310254
1725
05:24
and I don't believe that's why
people actuallyna realidade come to TwitterTwitter.
89
312003
4349
mas eu não acredito que seja para isso
que as pessoas usam o Twitter.
05:28
I believe TwitterTwitter is bestmelhor
as an interest-basedcom base em juros networkrede.
90
316376
4857
Acho que o Twitter funciona melhor como
uma rede social baseada em interesses.
05:33
People come with a particularespecial interestinteresse.
91
321257
3453
As pessoas vêm
com um determinado interesse.
05:36
They have to do a tontonelada of work
to find and followSegue the relatedrelacionado accountscontas
92
324734
3487
É trabalhoso encontrar e seguir as contas
relacionadas com esses interesses.
05:40
around those interestsinteresses.
93
328245
1405
05:42
What we could do insteadem vez de
is allowpermitir you to followSegue an interestinteresse,
94
330217
3397
O que nós podemos fazer
é permitir seguir um interesse,
05:45
followSegue a hashtaghashtag, followSegue a trendtendência,
95
333638
2103
seguir uma "hashtag", uma tendência,
05:47
followSegue a communitycomunidade,
96
335765
1754
seguir uma comunidade,
05:49
whichqual gives us the opportunityoportunidade
to showexposição all of the accountscontas,
97
337543
4637
o que nos dá a oportunidade
de mostrar todas as contas,
05:54
all the topicstópicos, all the momentsmomentos,
all the hashtagshashtags
98
342204
3323
todos os temas, todos os momentos,
todas as "hashtags"
05:57
that are associatedassociado with that
particularespecial topictema and interestinteresse,
99
345551
3992
que estão associadas com esse tópico
ou interesse em particular,
06:01
whichqual really opensabre up
the perspectiveperspectiva that you see.
100
349567
4600
o que abre a perspetiva do que vemos.
06:06
But that is a hugeenorme fundamentalfundamental shiftmudança
101
354191
2157
Isto é uma enorme mudança
06:08
to biasviés the entireinteira networkrede
away from just an accountconta biasviés
102
356372
3792
fazer com que toda a rede
deixe de estar ligada às contas
06:12
towardsem direção a topicstópicos and interestinteresse biasviés.
103
360188
2587
e passe a estar ligada
a tópicos e interesses.
06:15
CACA: Because isn't it the casecaso
104
363283
3148
CA: Mas não se dá o caso
de que uma das razões pela qual
vocês têm tanto conteúdo
06:19
that one reasonrazão why you have
so much contentconteúdo on there
105
367375
3541
06:22
is a resultresultado of puttingcolocando millionsmilhões
of people around the worldmundo
106
370940
3591
é o resultado de pôr milhões
de pessoas do mundo inteiro
06:26
in this kindtipo of gladiatorialgladiadores
contestconcurso with eachcada other
107
374555
3142
nesta competição de gladiadores
uns contra os outros
06:29
for followersseguidores, for attentionatenção?
108
377721
2090
para ganhar seguidores,
para conquistar atenção?
06:31
Like, from the pointponto of viewVisão
of people who just readler TwitterTwitter,
109
379835
4117
Do ponto de vista das pessoas
que só leem o Twitter,
isso não é um problema
06:35
that's not an issuequestão,
110
383976
1155
06:37
but for the people who actuallyna realidade createcrio it,
everyone'stodos out there sayingdizendo,
111
385155
3350
mas para quem o criou, todos dizem:
06:40
"You know, I wishdesejo I had
a fewpoucos more 'likes' gostos,' followersseguidores, retweetsretweets."
112
388529
3236
"Gostava de ter mais 'likes',
mais seguidores, mais 'retweets'."
06:43
And so they're constantlyconstantemente experimentingexperimentando,
113
391789
2148
Estão sempre a experimentar,
06:45
tryingtentando to find the pathcaminho to do that.
114
393961
1961
a tentar encontrar um caminho para isso.
06:47
And what we'venós temos all discovereddescobriu
is that the numbernúmero one pathcaminho to do that
115
395946
4126
Descobrimos que o caminho
principal para isso
06:52
is to be some formFormato of provocativeprovocante,
116
400096
3406
é algum tipo de provocação detestável,
eloquentemente detestável.
06:55
obnoxiousdetestável, eloquentlyeloquentemente obnoxiousdetestável,
117
403526
2980
Os insultos eloquentes
são um sonho no Twitter,
06:58
like, eloquenteloquente insultsinsultos
are a dreamSonhe on TwitterTwitter,
118
406530
3516
onde rapidamente se acumulam
07:02
where you rapidlyrapidamente pilepilha up --
119
410070
2603
07:04
and it becomestorna-se this self-fuelingauto abastecimento
processprocesso of drivingdirigindo outrageultraje.
120
412697
4608
e se tornam neste processo
de autoalimentação da indignação.
07:09
How do you defuseDefuse that?
121
417329
2351
Como se pode acabar com isso?
07:12
JDJD: Yeah, I mean, I think you're spotlocal on,
122
420624
2947
JD: Acho que é exatamente isso
07:15
but that goesvai back to the incentivesincentivos.
123
423595
1886
mas voltamos de novo aos incentivos.
07:17
Like, one of the choicesescolhas
we madefeito in the earlycedo daysdias was
124
425505
2632
Uma das nossas escolhas iniciais
foi mostrar o número de pessoas
que nos seguiam.
07:20
we had this numbernúmero that showedmostrou
how manymuitos people followSegue you.
125
428161
4701
07:24
We decideddecidiu that numbernúmero
should be biggrande and boldnegrito,
126
432886
2959
Decidimos que esse número
devia ser grande e destacado
07:27
and anything that's on the pagepágina
that's biggrande and boldnegrito has importanceimportância,
127
435869
3740
e, como tudo o que é grande
e destacado na página. é importante,
07:31
and those are the things
that you want to drivedirigir.
128
439633
2278
essas são as coisas que queremos atingir.
07:33
Was that the right decisiondecisão at the time?
129
441935
1907
Foi a decisão certa na altura?
07:35
ProbablyProvavelmente not.
130
443866
1153
Provavelmente não.
07:37
If I had to startcomeçar the serviceserviço again,
131
445043
1805
Se eu criasse o serviço de novo,
não daria tanta ênfase
ao número de seguidores.
07:38
I would not emphasizeenfatizar
the followerseguidor countcontagem as much.
132
446872
2398
07:41
I would not emphasizeenfatizar
the "like" countcontagem as much.
133
449294
2295
Não daria tanta ênfase aos "likes".
07:43
I don't think I would even
createcrio "like" in the first placeLugar, colocar,
134
451613
3120
Acho que nem criaria os "likes"
07:46
because it doesn't actuallyna realidade pushempurrar
135
454757
3267
porque não leva ao que acreditamos
07:50
what we believe now
to be the mosta maioria importantimportante thing,
136
458048
3179
ser a coisa mais importante,
07:53
whichqual is healthysaudável contributioncontribuição
back to the networkrede
137
461251
3039
isto é, uma contribuição saudável na rede
07:56
and conversationconversação to the networkrede,
138
464314
2652
e conversas na rede,
07:58
participationparticipação withindentro conversationconversação,
139
466990
2072
uma participação nas conversas,
08:01
learningAprendendo something from the conversationconversação.
140
469086
2493
aprender algo com as conversas.
08:03
Those are not things
that we thought of 13 yearsanos agoatrás,
141
471603
2824
Não pensámos nestas coisas há 13 anos
08:06
and we believe are extremelyextremamente
importantimportante right now.
142
474451
2439
e agora acreditamos
que são muito importantes.
08:08
So we have to look at
how we displayexibição the followerseguidor countcontagem,
143
476914
3023
Temos de ver como exibimos
o número de seguidores,
08:11
how we displayexibição retweetretweet countcontagem,
144
479961
2365
como exibimos o número de "retweets",
08:14
how we displayexibição "likesgosta,"
145
482350
1401
como exibimos os "likes"
08:15
and just askpergunte the deepprofundo questionquestão:
146
483775
2254
e perguntar verdadeiramente:
08:18
Is this really the numbernúmero
that we want people to drivedirigir up?
147
486053
3048
É este o número
a que queremos dar ênfase?
08:21
Is this the thing that,
when you openaberto TwitterTwitter,
148
489125
2545
É isto que vemos,
quando abrimos o Twitter:
08:23
you see, "That's the thing
I need to increaseaumentar?"
149
491694
2516
"É isto que eu tenho de reforçar?"
08:26
And I don't believe
that's the casecaso right now.
150
494234
2144
Eu não acredito que agora
seja esse o caso.
08:28
(ApplauseAplausos)
151
496402
2103
(Aplausos)
08:30
WPRWPR: I think we should look at
some of the tweetsTweets
152
498529
2352
WPR: Acho que devíamos ver alguns "tweets"
08:32
that are comingchegando
in from the audiencepúblico as well.
153
500905
2169
que também estão a vir da audiência.
08:35
CACA: Let's see what you guys are askingPerguntando.
154
503868
2436
CA: Vamos ver o que estão a perguntar.
08:38
I mean, this is -- generallygeralmente, one
of the amazingsurpreendente things about TwitterTwitter
155
506328
3294
Isto é uma das coisas fantásticas
do Twitter
é poder usá-lo para saber
a opinião de um grupo,
08:41
is how you can use it for crowdmultidão wisdomsabedoria,
156
509646
2294
08:43
you know, that more knowledgeconhecimento,
more questionsquestões, more pointspontos of viewVisão
157
511964
4840
mais conhecimento, mais questões,
mais pontos de vista
08:48
than you can imagineImagine,
158
516828
1238
do que se pode imaginar
08:50
and sometimesas vezes, manymuitos of them
are really healthysaudável.
159
518090
3689
e às vezes, muito saudáveis.
08:53
WPRWPR: I think one I saw that
passedpassado already quicklyrapidamente down here,
160
521803
2900
WPR: Vi um que passou
rapidamente por aqui:
08:56
"What's Twitter'sTwitter ' s planplano to combatcombate
foreignestrangeiro meddlingintromissão in the 2020 US electioneleição?"
161
524717
3524
"Como vão combater a interferência
estrangeira nas eleições de 2020?"
Penso que é um assunto
09:00
I think that's something
that's an issuequestão we're seeingvendo
162
528265
2571
que estamos a ver na Internet em geral.
09:02
on the internetInternet in generalgeral,
163
530860
1901
09:04
that we have a lot of maliciousmalicioso
automatedautomatizado activityatividade happeningacontecendo.
164
532785
3667
Há muita atividade automatizada
maliciosa.
09:08
And on TwitterTwitter, for exampleexemplo,
in factfacto, we have some work
165
536476
5373
No Twitter, de facto, temos trabalho
09:13
that's come from our friendsamigos
at ZignalZignal LabsLaboratórios,
166
541873
2758
dos nossos amigos na Zignal Labs
09:16
and maybe we can even see that
to give us an exampleexemplo
167
544655
2656
e talvez possamos ver aí
um exemplo do que estou a falar,
09:19
of what exactlyexatamente I'm talkingfalando about,
168
547335
1927
09:21
where you have these botsbots, if you will,
169
549286
3204
em que temos estes "bots"
ou contas com atividade
automatizada maliciosa
09:24
or coordinatedcoordenado automatedautomatizado
maliciousmalicioso accountconta activityatividade,
170
552514
4550
09:29
that is beingser used to influenceinfluência
things like electionseleições.
171
557088
2764
que estão a ser usadas
para influenciar coisas como eleições.
09:31
And in this exampleexemplo we have
from ZignalZignal whichqual they'veeles têm sharedcompartilhado with us
172
559876
3843
Neste exemplo da Zignal
que eles partilharam connosco
09:35
usingusando the datadados that
they have from TwitterTwitter,
173
563743
2198
usando os dados que têm do Twitter,
09:37
you actuallyna realidade see that in this casecaso,
174
565965
2441
podem ver que, neste caso,
09:40
whitebranco representsrepresenta the humanshumanos --
humanhumano accountscontas, eachcada dotponto is an accountconta.
175
568430
4370
o branco representa seres humanos
- contas humanas, cada ponto é uma conta.
09:44
The pinkerPinker it is,
176
572824
1359
Quanto mais cor-de-rosa,
09:46
the more automatedautomatizado the activityatividade is.
177
574207
1740
tanto mais atividade automatizada.
09:47
And you can see how you have
a fewpoucos humanshumanos interactinginteragindo with botsbots.
178
575971
5970
Podemos ver alguns seres humanos
a interagir com "bots".
09:53
In this casecaso, it's relatedrelacionado
to the electioneleição in IsraelIsrael
179
581965
4419
Neste caso, está relacionado
com as eleições em Israel
09:58
and spreadingespalhando misinformationdesinformação
about BennyBenny GantzGantz,
180
586408
2833
e está a espalhar desinformação
acerca de Benny Gantz.
10:01
and as we know, in the endfim,
that was an electioneleição
181
589265
2662
Como sabemos, no fim, as eleições
foram ganhas por Netanyahu
10:03
that NetanyahuNetanyahu wonGanhou by a slimfino marginmargem,
182
591951
3724
por uma pequena margem
10:07
and that maypode have been
in some casecaso influencedinfluenciado by this.
183
595699
2842
que pode ter sido influenciada,
nalguns casos, por isso.
10:10
And when you think about
that happeningacontecendo on TwitterTwitter,
184
598565
2615
Quando pensamos no que está
a acontecer no Twitter,
10:13
what are the things
that you're doing, specificallyespecificamente,
185
601204
2456
o que é que vocês estão a fazer,
especificamente,
10:15
to ensuregarantir you don't have misinformationdesinformação
like this spreadingespalhando in this way,
186
603684
3702
para assegurar que a desinformação
não se espalhe assim,
10:19
influencinginfluenciando people in waysmaneiras
that could affectafetar democracydemocracia?
187
607410
4181
influenciando pessoas de formas
que afetam a democracia?
10:23
JDJD: Just to back up a bitpouco,
188
611615
1771
JD: Voltando um pouco atrás,
10:25
we askedperguntei ourselvesnós mesmos a questionquestão:
189
613410
2975
perguntámo-nos o seguinte:
10:28
Can we actuallyna realidade measurea medida
the healthsaúde of a conversationconversação,
190
616409
3816
Podemos medir a saúde de uma conversa
10:32
and what does that mean?
191
620249
1288
e o que é que isso significa?
10:33
And in the samemesmo way
that you have indicatorsindicadores
192
621561
3382
Tal como temos indicadores
10:36
and we have indicatorsindicadores as humanshumanos
in termstermos of are we healthysaudável or not,
193
624967
3467
e temos indicadores humanos
para ver se estamos saudáveis ou não
10:40
suchtal as temperaturetemperatura,
the flushnessda of your facecara,
194
628458
4658
tais como a temperatura, a cor da cara,
10:45
we believe that we could find
the indicatorsindicadores of conversationalconversação healthsaúde.
195
633140
4560
acreditamos que podíamos encontrar
indicadores da saúde das conversas.
10:49
And we workedtrabalhou with a lablaboratório
calledchamado CorticoCortico at MITMIT
196
637724
3843
Trabalhámos com um laboratório
chamado Cortico no MIT
10:54
to proposepropor fourquatro starteracionador de partida indicatorsindicadores
197
642479
6091
para propor quatro indicadores iniciais
11:00
that we believe we could ultimatelyem última análise
measurea medida on the systemsistema.
198
648594
3670
que acreditamos que podem
fazer medições no sistema.
11:05
And the first one is
what we're callingligando sharedcompartilhado attentionatenção.
199
653249
5604
O primeiro é o que chamamos
"atenção partilhada".
11:10
It's a measurea medida of how much
of the conversationconversação is attentiveatento
200
658877
3581
É uma medida de quanto da conversa
está atenta ao mesmo assunto
e não se dispersa.
11:14
on the samemesmo topictema versusversus disparatedesigual.
201
662482
2630
11:17
The secondsegundo one is calledchamado sharedcompartilhado realityrealidade,
202
665739
2783
O segundo chama-se "realidade partilhada"
11:21
and this is what percentagepercentagem
of the conversationconversação
203
669217
2259
e é a percentagem da conversa
11:23
sharescompartilha the samemesmo factsfatos --
204
671500
2005
que partilha os mesmo factos
11:25
not whetherse those factsfatos
are truthfulverazes or not,
205
673529
3113
- não se esses factos
são verdadeiros ou não
11:28
but are we sharingcompartilhando
the samemesmo factsfatos as we converseConverse?
206
676666
3009
mas se estamos a partilhar os mesmos
factos nas conversas.
11:32
The thirdterceiro is receptivityReceptividade:
207
680235
2353
O terceiro é a "recetividade":
11:34
How much of the conversationconversação
is receptivereceptivo or civilCivil
208
682612
3959
Quanto da conversa é recetivo ou cívico
11:38
or the inverseinverso, toxictóxico?
209
686595
2944
ou, pelo contrário, é tóxico?
11:42
And then the fourthquarto
is varietyvariedade of perspectiveperspectiva.
210
690213
3222
E o quarto é a "variedade de perspetiva".
11:45
So, are we seeingvendo filterfiltro bubblesbolhas
or echoeco chamberscâmaras de,
211
693459
3145
Estaremos a ver bolhas de filtro
ou câmaras de eco,
11:48
or are we actuallyna realidade gettingobtendo
a varietyvariedade of opinionsopiniões
212
696628
3057
ou estaremos a ter
uma variedade de opiniões
11:51
withindentro the conversationconversação?
213
699709
1635
dentro da conversa?
11:53
And implicitimplícita in all fourquatro of these
is the understandingcompreensão that,
214
701368
4018
Implícito nestes quatro é a compreensão
de que, à medida que aumentam,
a conversa torna-se mais saudável.
11:57
as they increaseaumentar, the conversationconversação
getsobtém healthiermais saudável and healthiermais saudável.
215
705410
3390
12:00
So our first stepdegrau is to see
if we can measurea medida these onlineconectados,
216
708824
4869
Então, o primeiro passo
é tentar medi-los "online",
12:05
whichqual we believe we can.
217
713717
1308
o que achamos que conseguimos.
12:07
We have the mosta maioria momentumimpulso
around receptivityReceptividade.
218
715049
3167
A maior dinâmica é em torno
da recetividade.
12:10
We have a toxicitytoxicidade scorePonto,
a toxicitytoxicidade modelmodelo, on our systemsistema
219
718240
4317
Temos uma pontuação de toxicidade
e um modelo de toxicidade, no sistema,
12:14
that can actuallyna realidade measurea medida
whetherse you are likelyprovável to walkandar away
220
722581
4124
que consegue medir se é provável
que alguém se afaste
de uma conversa que está a ter no Twitter
12:18
from a conversationconversação
that you're havingtendo on TwitterTwitter
221
726729
2313
porque sente que é tóxica,
12:21
because you feel it's toxictóxico,
222
729066
1633
12:22
with some prettybonita highAlto degreegrau.
223
730723
2512
a um nível muito alto.
12:26
We're workingtrabalhando to measurea medida the restdescansar,
224
734369
2199
Estamos a tentar medir o resto.
12:28
and the nextPróximo stepdegrau is,
225
736592
1964
O próximo passo é,
12:30
as we buildconstruir up solutionssoluções,
226
738580
3359
enquanto construímos soluções,
12:33
to watch how these measurementsmedições
trendtendência over time
227
741963
3491
ver como estas medidas
se comportam ao longo do tempo
12:37
and continuecontinuar to experimentexperimentar.
228
745478
1873
e continuar a experimentar.
12:39
And our goalobjetivo is to make sure
that these are balancedequilibrado,
229
747375
4041
O nosso objetivo é assegurar
que estão equilibradas
12:43
because if you increaseaumentar one,
you mightpoderia decreasediminuir anotheroutro.
230
751440
3066
porque, se aumentamos uma,
poderemos diminuir a outra.
12:46
If you increaseaumentar varietyvariedade of perspectiveperspectiva,
231
754530
2147
Se aumentarmos a variedade
de perspetiva,
12:48
you mightpoderia actuallyna realidade decreasediminuir
sharedcompartilhado realityrealidade.
232
756701
3091
poderemos diminuir
a realidade partilhada.
12:51
CACA: Just pickingescolhendo up on some
of the questionsquestões floodinginundação in here.
233
759816
4989
CA: Agarrando numa das perguntas
que estão a chegar em massa...
12:56
JDJD: ConstantConstante questioningquestionando.
234
764829
1271
JD: Questionamento constante.
12:58
CACA: A lot of people are puzzledintrigado why,
235
766996
3620
CA: Muitas pessoas estão perplexas
13:02
like, how hardDifícil is it to get ridlivrar
of NazisNazistas from TwitterTwitter?
236
770640
4247
perguntando porque é que é difícil
eliminar os nazis do Twitter?
13:08
JDJD: (LaughsRisos)
237
776309
1322
13:09
So we have policiespolíticas
around violentviolento extremistextremista groupsgrupos,
238
777655
6995
JD: Temos diretrizes relativas
a grupos extremistas violentos
13:16
and the majoritymaioria of our work
and our termstermos of serviceserviço
239
784674
4426
e a maior parte do nosso trabalho
e das nossas condições de funcionamento
13:21
workstrabalho on conductconduta, not contentconteúdo.
240
789124
3729
estão ligados à conduta, não ao conteúdo.
13:24
So we're actuallyna realidade looking for conductconduta.
241
792877
2551
Estamos a olhar para a conduta.
13:27
ConductConduta beingser usingusando the serviceserviço
242
795452
3014
Conduta é usar o serviço
13:30
to repeatedlyrepetidamente or episodicallyepisodicamente
harassassediar someonealguém,
243
798490
3867
para intimidar alguém repetidamente
ou de forma pontual,
13:34
usingusando hatefulodioso imageryimagens
244
802381
2493
usar imagens de ódio
13:36
that mightpoderia be associatedassociado with the KKKKKK
245
804898
2106
que poderão estar associadas ao KKK
13:39
or the AmericanAmericana NaziNazista PartyFesta.
246
807028
3281
ou ao Partido Nazi Americano.
13:42
Those are all things
that we actAja on immediatelyimediatamente.
247
810333
4156
Nós agimos imediatamente
contra estas coisas.
13:47
We're in a situationsituação right now
where that termprazo is used fairlybastante looselyvagamente,
248
815002
5452
Estamos numa situação agora
em que esse termo é usado de forma vaga
13:52
and we just cannotnão podes take
any one mentionmenção of that wordpalavra
249
820478
5313
mas nós não podemos considerar
qualquer pessoa
que use essa palavra
para acusar outra pessoa
13:57
accusingacusando someonealguém elseoutro
250
825815
2117
13:59
as a factualfactual indicationindicação that they
should be removedremovido from the platformplataforma.
251
827956
3755
como uma indicação factual
de que devem ser retirados da plataforma.
14:03
So a lot of our modelsmodelos
are basedSediada around, numbernúmero one:
252
831735
2627
Muitos dos nossos modelos
são baseados em, número um:
14:06
Is this accountconta associatedassociado
with a violentviolento extremistextremista groupgrupo?
253
834386
3140
Esta conta está associada
a um grupo extremista violento?
14:09
And if so, we can take actionaçao.
254
837550
1983
Se sim, podemos agir.
14:11
And we have donefeito so on the KKKKKK
and the AmericanAmericana NaziNazista PartyFesta and othersoutras.
255
839557
3852
Fizemos isto com o KKK,
o Partido Nazi Americano e outros.
14:15
And numbernúmero two: Are they usingusando
imageryimagens or conductconduta
256
843433
4183
Número dois: Estão a usar
imagens ou conduta
14:19
that would associateassociar them as suchtal as well?
257
847640
2372
que também os associaria a tal?
14:22
CACA: How manymuitos people do you have
workingtrabalhando on contentconteúdo moderationmoderação
258
850416
2932
CA: Quantas pessoas têm a trabalhar
na moderação de conteúdos, para ver isso?
14:25
to look at this?
259
853372
1250
14:26
JDJD: It variesvaria.
260
854646
1496
JD: Depende.
14:28
We want to be flexibleflexível on this,
261
856166
1595
Queremos ser flexíveis nisto,
14:29
because we want to make sure
that we're, numbernúmero one,
262
857785
2646
porque queremos ter a certeza
de que estamos, número um,
14:32
buildingconstrução algorithmsalgoritmos insteadem vez de of just
hiringcontratação massivemaciço amountsvalores of people,
263
860455
4424
a construir algoritmos
em vez de contratar imensas pessoas
14:36
because we need to make sure
that this is scalableescalável,
264
864903
2824
porque temos de ter a certeza
que podemos alargar isso
14:39
and there are no amountmontante of people
that can actuallyna realidade scaleescala this.
265
867751
3454
e não há nenhum número de pessoas
que consiga alargar isso.
14:43
So this is why we'venós temos donefeito so much work
around proactiveproativo detectiondetecção of abuseAbuso
266
871229
6629
Foi por isso que fizemos tanto trabalho
à volta da deteção proativa de insultos
14:49
that humanshumanos can then reviewReveja.
267
877882
1391
que possam ser revistos por pessoass.
14:51
We want to have a situationsituação
268
879297
2861
Queremos ter uma situação
em que haja algoritmos
constantemente a filtrar cada "tweet"
14:54
where algorithmsalgoritmos are constantlyconstantemente
scouringde limpeza everycada singlesolteiro tweetTweet
269
882182
3741
e a destacar os mais interessantes
14:57
and bringingtrazendo the mosta maioria
interestinginteressante onesuns to the toptopo
270
885947
2342
15:00
so that humanshumanos can bringtrazer theirdeles judgmentjulgamento
to whetherse we should take actionaçao or not,
271
888313
3902
para que seres humanos possam julgar
se devemos agir ou não,
com base nas nossas condições de serviço.
15:04
basedSediada on our termstermos of serviceserviço.
272
892239
1524
15:05
WPRWPR: But there's not an amountmontante
of people that are scalableescalável,
273
893787
2803
WPR: Não há um número de pessoas
que possa aumentar
15:08
but how manymuitos people do you currentlyatualmente have
monitoringmonitoramento these accountscontas,
274
896614
3497
mas quantas pessoas têm vocês agora
a monitorizar essas contas
15:12
and how do you figurefigura out what's enoughsuficiente?
275
900135
2546
e como conseguem perceber
quando esse número é suficiente?
15:14
JDJD: They're completelycompletamente flexibleflexível.
276
902705
2272
JD: É uma coisa completamente flexível.
15:17
SometimesÀs vezes we associateassociar folkspessoal with spamSpam.
277
905001
2941
Às vezes associamos pessoas a "spam".
15:19
SometimesÀs vezes we associateassociar folkspessoal
with abuseAbuso and harassmentassédio.
278
907966
3845
Às vezes associamos pessoas
a insultos e intimidação.
15:23
We're going to make sure that
we have flexibilityflexibilidade in our people
279
911835
3062
Vamos garantir que temos flexibilidade
quanto às pessoas que temos
15:26
so that we can directdireto them
at what is mosta maioria needednecessário.
280
914921
2350
para as direcionarmos
para onde são precisas.
Às vezes, para as eleições.
15:29
SometimesÀs vezes, the electionseleições.
281
917295
1204
15:30
We'veTemos had a stringcorda of electionseleições
in MexicoMéxico, one comingchegando up in IndiaÍndia,
282
918523
4927
Tivemos uma série de eleições no México,
vai haver uma na Índia.
15:35
obviouslyobviamente, the electioneleição last yearano,
the midtermmédio prazo electioneleição,
283
923474
4447
Obviamente, as eleições do ano passado,
as eleições intercalares
15:39
so we just want to be flexibleflexível
with our resourcesRecursos.
284
927945
2472
por isso queremos ser flexíveis
com os recursos.
15:42
So when people --
285
930441
2129
Quando as pessoas,
15:44
just as an exampleexemplo, if you go
to our currentatual termstermos of serviceserviço
286
932594
6389
por exemplo, forem
aos nossos termos de serviço atuais
15:51
and you bringtrazer the pagepágina up,
287
939007
1641
e abrirem a página
15:52
and you're wonderingperguntando about abuseAbuso
and harassmentassédio that you just receivedrecebido
288
940672
3682
e estiverem a pensar nos insultos
ou intimidações que receberem,
15:56
and whetherse it was againstcontra
our termstermos of serviceserviço to reportrelatório it,
289
944378
3634
se isso vai contra os nossos termos
de serviço, para o denunciarem,
16:00
the first thing you see
when you openaberto that pagepágina
290
948036
2559
a primeira coisa que veem
ao abrir a página
16:02
is around intellectualintelectual
propertypropriedade protectionprotecção.
291
950619
3088
é sobre a proteção
da propriedade intelectual.
16:06
You scrollrolagem down and you get to
abuseAbuso, harassmentassédio
292
954504
5323
A seguir, veem a parte
dos insultos, da intimidação
16:11
and everything elseoutro
that you mightpoderia be experiencingexperimentando.
293
959851
2382
e de tudo a que podem estar sujeitos.
16:14
So I don't know how that happenedaconteceu
over the company'sa empresa historyhistória,
294
962257
3195
Não sei como isso aconteceu
no decorrer da história da empresa
16:17
but we put that aboveacima
the thing that people want
295
965476
4797
mas pusemos isso acima
do que as pessoas querem
16:24
the mosta maioria informationem formação on
and to actuallyna realidade actAja on.
296
972146
3222
ou seja, mais informação
e mais capacidade de ação.
16:27
And just our orderingordenação showsmostra the worldmundo
what we believedacreditava was importantimportante.
297
975392
5241
A nossa ordem mostra ao mundo
o que acreditamos ser mais importante.
16:32
So we're changingmudando all that.
298
980657
2881
Estamos a mudar tudo isso.
16:35
We're orderingordenação it the right way,
299
983562
1563
Estamos a ordenar da forma certa
16:37
but we're alsoAlém disso simplifyinga simplificação the rulesregras
so that they're human-readablelegível por humanos
300
985149
3451
mas também estamos a simplificar
as regras para que sejam compreensíveis
16:40
so that people can actuallyna realidade
understandCompreendo themselvessi mesmos
301
988624
4067
para que as pessoas compreendam
16:44
when something is againstcontra our termstermos
and when something is not.
302
992715
3448
quando algo é contrário
aos nossos termos e quando não é.
16:48
And then we're makingfazer --
303
996187
2161
Estamos a fazer isso.
16:50
again, our biggrande focusfoco is on removingremovendo
the burdencarga of work from the victimsvítimas.
304
998372
5200
De novo, o grande foco é tirar o peso
do trabalho de cima das vítimas.
16:55
So that meanssignifica pushempurrar more
towardsem direção technologytecnologia,
305
1003596
3734
Isso significa mais foco na tecnologia
16:59
ratherem vez than humanshumanos doing the work --
306
1007354
1873
do que em pessoas a trabalharem,
17:01
that meanssignifica the humanshumanos receivingrecebendo the abuseAbuso
307
1009251
2413
ou seja, as pessoas que são insultadas
17:03
and alsoAlém disso the humanshumanos
havingtendo to reviewReveja that work.
308
1011688
3026
e as pessoas que reveem esse trabalho.
17:06
So we want to make sure
309
1014738
1673
Queremos assegurar
17:08
that we're not just encouragingencorajando more work
310
1016435
2841
que não estamos a incentivar mais trabalho
17:11
around something
that's supersuper, supersuper negativenegativo,
311
1019300
2629
à volta de algo extremamente negativo
17:13
and we want to have a good balanceequilibrar
betweenentre the technologytecnologia
312
1021953
2674
e queremos ter um bom equilíbrio
entre a tecnologia
17:16
and where humanshumanos can actuallyna realidade be creativecriativo,
313
1024651
2852
e aquilo em que os seres humanos
podem ser criativos
17:19
whichqual is the judgmentjulgamento of the rulesregras,
314
1027527
3090
que é a julgarem as regras
17:22
and not just all the mechanicalmecânico stuffcoisa
of findingencontrando and reportingrelatórios them.
315
1030641
3267
e não na parte mecânica
de encontrar e denunciar.
17:25
So that's how we think about it.
316
1033932
1530
É assim que nós vemos isto.
17:27
CACA: I'm curiouscurioso to digescavação in more
about what you said.
317
1035486
2406
CA: Gostava de aprofundar
o que acabaste de dizer.
17:29
I mean, I love that you said
you are looking for waysmaneiras
318
1037916
2605
Adoro teres dito
que estão à procura de formas
17:32
to re-tweakRe-Tweak the fundamentalfundamental
designdesenhar of the systemsistema
319
1040545
3462
de mudar o "design" fundamental do sistema
17:36
to discouragedesencorajar some of the reactivereativa
behaviorcomportamento, and perhapspossivelmente --
320
1044031
4875
para desencoraja
comportamento reativo
- e usando uma linguagem do tipo
de Tristan Harris -
17:40
to use TristanTristão Harris-typeHarris-tipo languagelíngua --
321
1048930
2705
envolver talvez um pensamento
mais reflexivo das pessoas.
17:43
engagese empenhar people'spovos more reflectivereflexivo thinkingpensando.
322
1051659
4288
17:47
How farlonge advancedavançado is that?
323
1055971
1854
Em que ponto é que isso está?
17:49
What would alternativesalternativas
to that "like" buttonbotão be?
324
1057849
4305
Quais seriam as alternativas
ao botão do "like"?
17:55
JDJD: Well, first and foremostacima de tudo,
325
1063518
3575
JD: Bem, primeiro que tudo,
17:59
my personalpessoal goalobjetivo with the serviceserviço
is that I believe fundamentallyfundamentalmente
326
1067117
5753
o meu objetivo pessoal com o serviço
é que acredito fundamentalmente
18:04
that publicpúblico conversationconversação is criticalcrítico.
327
1072894
2702
que as conversas públicas são cruciais.
18:07
There are existentialexistencial problemsproblemas
facingvoltado para the worldmundo
328
1075620
2647
Há problemas existenciais no mundo
18:10
that are facingvoltado para the entireinteira worldmundo,
not any one particularespecial nation-stateEstado-nação,
329
1078291
4163
que são enfrentados pelo mundo todo,
não só por um estado-nação,
18:14
that globalglobal publicpúblico conversationconversação benefitsbenefícios.
330
1082478
2649
que as conversas públicas globais beneficiam.
18:17
And that is one of the uniqueúnico
dynamicsdinâmica of TwitterTwitter,
331
1085151
2372
Isto é uma das dinâmicas únicas do Twitter
18:19
that it is completelycompletamente openaberto,
332
1087547
1814
que é completamente aberto,
18:21
it is completelycompletamente publicpúblico,
333
1089385
1596
completamente público,
completamente fluido
18:23
it is completelycompletamente fluidfluido,
334
1091005
1399
18:24
and anyonealguém can see any other conversationconversação
and participateparticipar in it.
335
1092428
4038
e todos podem ver as conversas
e participar nelas.
18:28
So there are conversationsconversas
like climateclima changemudança.
336
1096490
2206
Há conversas sobre a alteração climática.
18:30
There are conversationsconversas
like the displacementdeslocamento in the work
337
1098720
2682
Há conversas sobre
a deslocalização do trabalho
18:33
throughatravés artificialartificial intelligenceinteligência.
338
1101426
2000
devido à inteligência artificial.
18:35
There are conversationsconversas
like economiceconômico disparitydisparidade.
339
1103450
3006
Há conversas sobre
a disparidade económica.
18:38
No matterimportam what any one nation-stateEstado-nação does,
340
1106480
2765
Independentemente
do que um estado-nação faz,
18:41
they will not be ablecapaz
to solveresolver the problemproblema alonesozinho.
341
1109269
2421
não conseguirão resolver
o problema sozinhos.
É necessário coordenação em todo o mundo
18:43
It takes coordinationcoordenação around the worldmundo,
342
1111714
2643
18:46
and that's where I think
TwitterTwitter can playToque a partparte.
343
1114381
3047
e é aí que o Twitter
pode desempenhar um papel.
18:49
The secondsegundo thing is that TwitterTwitter,
right now, when you go to it,
344
1117452
5642
A segunda coisa é que,
quando vamos ao Twitter
18:55
you don't necessarilynecessariamente walkandar away
feelingsentindo-me like you learnedaprendido something.
345
1123118
3746
nem sempre saímos de lá a sentir
que aprendemos alguma coisa.
18:58
Some people do.
346
1126888
1276
Algumas pessoas sim.
19:00
Some people have
a very, very richrico networkrede,
347
1128188
3107
Algumas pessoas têm
uma rede muito rica,
19:03
a very richrico communitycomunidade
that they learnaprender from everycada singlesolteiro day.
348
1131319
3117
uma comunidade muito rica
na qual aprendem todos os dias.
19:06
But it takes a lot of work
and a lot of time to buildconstruir up to that.
349
1134460
3691
Mas é preciso muito trabalho
e muito tempo para construir isso.
19:10
So we want to get people
to those topicstópicos and those interestsinteresses
350
1138175
3448
Então queremos pôr as pessoas
nesses tópicos e nesses interesses
19:13
much, much fasterMais rápido
351
1141647
1579
muito mais rapidamente
19:15
and make sure that
they're findingencontrando something that,
352
1143250
2566
e certificar que elas estão
a encontrar qualquer coisa
que, independentemente do tempo
que estão no Twitter
19:18
no matterimportam how much time
they spendgastar on TwitterTwitter --
353
1146728
2360
19:21
and I don't want to maximizemaximizar o
the time on TwitterTwitter,
354
1149112
2358
- e eu não quero maximizar
o tempo no Twitter,
19:23
I want to maximizemaximizar o
what they actuallyna realidade take away from it
355
1151494
2910
quero maximizar
o que as pessoas tiram dele
19:26
and what they learnaprender from it, and --
356
1154428
2030
e o que aprendem dele.
19:29
CACA: Well, do you, thoughApesar?
357
1157598
1328
CA: Mas queres mesmo?
19:30
Because that's the coretestemunho questionquestão
that a lot of people want to know.
358
1158950
3244
Porque essa é a questão central
que muitas pessoas querem saber.
19:34
SurelyCom certeza, JackJack, you're constrainedconstrangido,
to a hugeenorme extentextensão,
359
1162218
3638
Jack, vocês estão certamente limitados
em grande medida
19:37
by the factfacto that you're a publicpúblico companyempresa,
360
1165880
2007
pelo facto de serem uma empresa pública,
19:39
you've got investorsinvestidores pressingpressionando on you,
361
1167911
1774
têm investidores a pressionarem-vos,
19:41
the numbernúmero one way you make your moneydinheiro
is from advertisingpropaganda --
362
1169709
3559
a maior forma de ganharem dinheiro
é através de publicidade,
19:45
that dependsdepende on userdo utilizador engagementnoivado.
363
1173292
2772
o que depende
do envolvimento do utilizador.
19:48
Are you willingdisposto to sacrificesacrifício
userdo utilizador time, if need be,
364
1176088
4700
Estão prontos a abdicar do tempo
dos utilizadores, se necessário,
19:52
to go for a more reflectivereflexivo conversationconversação?
365
1180812
3729
para conseguirem
uma conversa mais reflexiva?
19:56
JDJD: Yeah; more relevancerelevância meanssignifica
lessMenos time on the serviceserviço,
366
1184565
3111
JD: Sim, mais relevância significa
menos tempo no serviço
19:59
and that's perfectlyperfeitamente fine,
367
1187700
1937
e não tem qualquer problema
20:01
because we want to make sure
that, like, you're comingchegando to TwitterTwitter,
368
1189661
3099
porque queremos garantir
que chegam ao Twitter,
20:04
and you see something immediatelyimediatamente
that you learnaprender from and that you pushempurrar.
369
1192784
4520
e veem imediatamente algo
que aprendem e que passam.
20:09
We can still serveservir an adde Anúncios againstcontra that.
370
1197328
3420
Podemos passar um anúncio na mesma.
20:12
That doesn't mean you need to spendgastar
any more time to see more.
371
1200772
2921
Não significa que temos de gastar
mais tempo para ver mais.
20:15
The secondsegundo thing we're looking at --
372
1203717
1733
O segundo ponto que estamos a ver...
20:17
CACA: But just -- on that goalobjetivo,
dailydiariamente activeativo usageuso,
373
1205474
2698
CA: Relativamente a esse objetivo,
utilização ativa diária,
20:20
if you're measuringmedindo that,
that doesn't necessarilynecessariamente mean things
374
1208196
3245
se estão a medir isso,
não significa necessariamente
coisas que as pessoas
valorizem todos os dias.
20:23
that people valuevalor everycada day.
375
1211465
1738
20:25
It maypode well mean
376
1213227
1161
Pode significar coisas
20:26
things that people are drawndesenhado to
like a mothMariposa to the flameflama, everycada day.
377
1214412
3306
que atraem pessoas
como a luz atrai a traça, todos os dias.
20:29
We are addictedviciado, because we see
something that pissesmija us off,
378
1217742
3022
Estamos viciados porque vemos
algo que nos irrita,
20:32
so we go in and addadicionar fuelcombustível to the firefogo,
379
1220788
3178
entramos ali e deitamos lenha na fogueira,
20:35
and the dailydiariamente activeativo usageuso goesvai up,
380
1223990
1927
e a utilização ativa diária cresce
20:37
and there's more adde Anúncios revenuereceita there,
381
1225941
1715
e há mais receita de anúncios,
20:39
but we all get angriermais irritado with eachcada other.
382
1227680
2752
mas estamos todos zangados
uns com os outros.
20:42
How do you definedefinir ...
383
1230456
2509
Como defines "utilização ativa diária"?
20:44
"DailyDiário activeativo usageuso" seemsparece like a really
dangerousperigoso termprazo to be optimizingOtimizando.
384
1232989
4126
Parece ser um termo
muito perigoso para otimizar.
20:49
(ApplauseAplausos)
385
1237139
5057
(Aplausos)
20:54
JDJD: TakenTomadas alonesozinho, it is,
386
1242220
1268
JD: Visto isoladamente, é,
20:55
but you didn't let me
finishterminar the other metricmétrica,
387
1243512
2346
mas não me deixaram acabar
a outra métrica
20:57
whichqual is, we're watchingassistindo for conversationsconversas
388
1245882
3727
que é estarmos a ver as conversas
21:01
and conversationconversação chainscorrentes.
389
1249633
2129
e as cadeias de conversas.
21:03
So we want to incentivizeincentivar
healthysaudável contributioncontribuição back to the networkrede,
390
1251786
5076
Queremos incentivar contribuições
saudáveis de novo na rede
21:08
and what we believe that is
is actuallyna realidade participatingparticipando in conversationconversação
391
1256886
4181
e o que nós acreditamos ser
participar numa conversa
21:13
that is healthysaudável,
392
1261091
1197
que é saudável,
21:14
as defineddefiniram by those fourquatro indicatorsindicadores
I articulatedarticulada earliermais cedo.
393
1262312
5037
como definida naqueles quatro indicadores
que mencionei antes.
21:19
So you can't just optimizeotimizar
around one metricmétrica.
394
1267373
2657
Não é possível otimizar
à volta de uma só métrica.
21:22
You have to balanceequilibrar and look constantlyconstantemente
395
1270054
2752
É preciso equilibrar
e olhar constantemente
21:24
at what is actuallyna realidade going to createcrio
a healthysaudável contributioncontribuição to the networkrede
396
1272830
4083
para o que vai criar uma contribuição
saudável para a rede
21:28
and a healthysaudável experienceexperiência for people.
397
1276937
2341
e uma experiência saudável
para as pessoas.
21:31
UltimatelyEm última análise, we want to get to a metricmétrica
398
1279302
1866
No fundo, queremos uma métrica
21:33
where people can tell us,
"Hey, I learnedaprendido something from TwitterTwitter,
399
1281192
3757
em que as pessoas nos digam:
"Aprendi uma coisa no Twitter
e levo comigo algo valioso."
21:36
and I'm walkingcaminhando away
with something valuablevalioso."
400
1284973
2167
Este é o nosso objetivo ao longo do tempo
21:39
That is our goalobjetivo ultimatelyem última análise over time,
401
1287164
2043
mas isso vai demorar algum tempo.
21:41
but that's going to take some time.
402
1289231
1809
21:43
CACA: You come over to manymuitos,
I think to me, as this enigmaenigma.
403
1291064
5282
CA: Penso que muitos
veem isso como um enigma.
21:48
This is possiblypossivelmente unfairinjusto,
but I wokeacordou up the other night
404
1296370
4396
Talvez seja injusto
mas acordei uma noite
21:52
with this picturecenário of how I foundencontrado I was
thinkingpensando about you and the situationsituação,
405
1300790
3879
com uma imagem de como pensava
sobre ti e sobre esta situação.
21:56
that we're on this great voyageviagem with you
on this shipnavio calledchamado the "TwittanicTwittanic" --
406
1304693
6903
Estávamos numa grande viagem
num barco chamado "Twittanic"...
(Risos)
22:03
(LaughterRiso)
407
1311620
1281
22:04
and there are people on boardborda in steerageterceira classe
408
1312925
4357
e havia pessoas a bordo na terceira classe
22:09
who are expressingexpressando discomfortdesconforto,
409
1317306
2203
que se queixavam de desconforto.
22:11
and you, unlikeao contrário manymuitos other captainscapitães,
410
1319533
2543
Ao contrário dos outros capitães,
tu dizias:
22:14
are sayingdizendo, "Well, tell me, talk to me,
listen to me, I want to hearouvir."
411
1322100
3431
"Digam-me, falem comigo,
ouçam-me, eu quero ouvir."
22:17
And they talk to you, and they say,
"We're worriedpreocupado about the icebergiceberg aheadadiante."
412
1325555
3619
E eles falam e dizem: "Estamos preocupados
com o icebergue ali à frente."
22:21
And you go, "You know,
that is a powerfulpoderoso pointponto,
413
1329198
2242
E tu dizes: "Sabem, é uma boa observação,
22:23
and our shipnavio, franklyfrancamente,
hasn'tnão tem been builtconstruído properlydevidamente
414
1331464
2430
"o nosso navio não foi construído
adequadamente
22:25
for steeringdireção as well as it mightpoderia."
415
1333918
1669
"para a terceira classe como devia."
22:27
And we say, "Please do something."
416
1335611
1658
Nós dizemos: "Faz algo."
22:29
And you go to the bridgeponte,
417
1337293
1411
Tu vais para a ponte
e nós ficamos à espera,
22:30
and we're waitingesperando,
418
1338728
2295
22:33
and we look, and then you're showingmostrando
this extraordinaryextraordinário calmcalma,
419
1341047
4548
olhamos e tu estás a mostrar
esta calma extraordinária
22:37
but we're all standingparado outsidelado de fora,
sayingdizendo, "JackJack, turnvirar the fuckingfodendo wheelroda!"
420
1345619
3883
mas nós estamos todos cá fora a dizer:
"Jack, gira a porra do leme!"
22:41
You know?
421
1349526
1151
Percebes?
22:42
(LaughterRiso)
422
1350701
1335
(Risos)
22:44
(ApplauseAplausos)
423
1352060
2381
(Aplausos)
22:46
I mean --
424
1354465
1166
Ou seja...
22:47
(ApplauseAplausos)
425
1355655
1734
(Aplausos)
22:49
It's democracydemocracia at stakeestaca.
426
1357413
4594
É a democracia que está em risco.
22:54
It's our culturecultura at stakeestaca.
It's our worldmundo at stakeestaca.
427
1362031
2821
É a nossa cultura em risco.
É o nosso mundo em risco.
22:56
And TwitterTwitter is amazingsurpreendente and shapesformas so much.
428
1364876
4706
O Twitter é fantástico e modela muito.
23:01
It's not as biggrande as some
of the other platformsplataformas,
429
1369606
2233
Não é tão grande como outras plataformas
mas as pessoas com influência
usam-no para definir um programa,
23:03
but the people of influenceinfluência use it
to setconjunto the agendaagenda,
430
1371863
2804
23:06
and it's just hardDifícil to imagineImagine a more
importantimportante roleFunção in the worldmundo than to ...
431
1374691
6787
e é difícil imaginar um papel
mais importante no mundo.
23:13
I mean, you're doing a brilliantbrilhante jobtrabalho
of listeningouvindo, JackJack, and hearingaudição people,
432
1381502
3784
Estás a fazer um trabalho brilhante
a ouvir as pessoas, Jack,
mas vais marcar como urgente e fazer algo?
23:17
but to actuallyna realidade dialdiscagem up the urgencyurgência
and movemover on this stuffcoisa --
433
1385310
4445
23:21
will you do that?
434
1389779
2201
Vais fazer isso?
23:24
JDJD: Yes, and we have been
movingmovendo-se substantiallysubstancialmente.
435
1392750
3815
JD: Sim, nós temos mudado
substancialmente.
23:28
I mean, there's been
a fewpoucos dynamicsdinâmica in Twitter'sTwitter ' s historyhistória.
436
1396589
3225
Houve algumas dinâmicas
na história do Twitter.
23:31
One, when I cameveio back to the companyempresa,
437
1399838
2083
Uma, quando voltei para a empresa,
23:35
we were in a prettybonita direterríveis stateEstado
in termstermos of our futurefuturo,
438
1403477
6256
estávamos num momento difícil
em termos do nosso futuro
23:41
and not just from how people
were usingusando the platformplataforma,
439
1409757
4634
e não só de como as pessoas
estavam a usar a plataforma
23:46
but from a corporatecorporativo narrativenarrativa as well.
440
1414415
2047
mas também quanto
à narrativa corporativa.
23:48
So we had to fixconsertar
a bunchgrupo of the foundationFundação,
441
1416486
3204
Tivemos de reparar grande parte da base,
23:51
turnvirar the companyempresa around,
442
1419714
1969
dar a volta à empresa,
23:53
go throughatravés two crazylouco layoffsdemissões,
443
1421707
3111
passar por duas loucas
reduções de pessoal
23:56
because we just got too biggrande
for what we were doing,
444
1424842
3793
porque éramos grandes demais
para o que estávamos a fazer
24:00
and we focusedfocado all of our energyenergia
445
1428659
2060
e concentrámos toda a nossa energia
24:02
on this conceptconceito of servingservindo
the publicpúblico conversationconversação.
446
1430743
3508
neste conceito de servir
a conversa pública.
24:06
And that tooktomou some work.
447
1434275
1451
Foi preciso algum trabalho.
24:07
And as we divedmergulhou into that,
448
1435750
2608
Quando mergulhámos nisso,
24:10
we realizedpercebi some of the issuesproblemas
with the fundamentalsfundamentos.
449
1438382
2992
reparámos nalguns problemas
com os princípios.
24:14
We could do a bunchgrupo of superficialsuperficial things
to addressendereço what you're talkingfalando about,
450
1442120
4656
Podíamos fazer um monte de coisas
superficiais para tratar do que falaste
24:18
but we need the changesalterar to last,
451
1446800
1790
mas precisamos que as mudanças durem
24:20
and that meanssignifica going really, really deepprofundo
452
1448614
2459
e isso significa ir mesmo ao fundo
24:23
and payingpagando attentionatenção
to what we startedcomeçado 13 yearsanos agoatrás
453
1451097
4350
e prestar atenção
ao que iniciámos há 13 anos
24:27
and really questioningquestionando
454
1455471
2261
e questionar a sério
24:29
how the systemsistema workstrabalho
and how the frameworkestrutura workstrabalho
455
1457756
2566
como o sistema funciona
e como o enquadramento funciona
24:32
and what is needednecessário for the worldmundo todayhoje,
456
1460346
3833
e o que é preciso para o mundo de hoje,
24:36
givendado how quicklyrapidamente everything is movingmovendo-se
and how people are usingusando it.
457
1464203
4024
dada a velocidade com que tudo se move
e como as pessoas estão a usá-lo.
24:40
So we are workingtrabalhando as quicklyrapidamente as we can,
but quicknessRapidez will not get the jobtrabalho donefeito.
458
1468251
6544
Trabalhamos tão depressa quanto possível
mas não é a rapidez
que vai fazer o trabalho.
24:46
It's focusfoco, it's prioritizationpriorização,
459
1474819
2611
É a concentração,
o estabelecimento de prioridades,
24:49
it's understandingcompreensão
the fundamentalsfundamentos of the networkrede
460
1477454
2946
é compreender os princípios da rede
24:52
and buildingconstrução a frameworkestrutura that scalesescalas
461
1480424
2842
e construir um enquadramento
que possa crescer
24:55
and that is resilientresiliente to changemudança,
462
1483290
2351
e que seja resistente à mudança
24:57
and beingser openaberto about where we are
and beingser transparenttransparente about where are
463
1485665
5429
e aberto sobre onde estamos,
transparente sobre onde estamos
25:03
so that we can continuecontinuar to earnGanhe trustConfiar em.
464
1491118
2179
para continuarmos a ganhar confiança.
25:06
So I'm proudorgulhoso of all the frameworksquadros
that we'venós temos put in placeLugar, colocar.
465
1494141
3331
Tenho orgulho em todos os enquadramentos
que implementámos.
25:09
I'm proudorgulhoso of our directiondireção.
466
1497496
2888
Tenho orgulho na nossa direção.
25:12
We obviouslyobviamente can movemover fasterMais rápido,
467
1500915
2718
Claro que podemos andar mais depressa
25:15
but that requiredrequeridos just stoppingparando a bunchgrupo
of stupidestúpido stuffcoisa we were doing in the pastpassado.
468
1503657
4719
mas isto exige abandonar uma série
de coisas parvas que fizemos no passado.
25:21
CACA: All right.
469
1509067
1164
CA: Ok.
25:22
Well, I suspectsuspeito there are manymuitos people here
who, if givendado the chancechance,
470
1510255
4067
Eu suspeito que há muitas pessoas aqui
que, se pudessem,
25:26
would love to help you
on this change-makingmudança de tomada agendaagenda you're on,
471
1514346
3989
adorariam ajudar-te neste plano
de mudanças em que estás
25:30
and I don't know if WhitneyWhitney --
472
1518359
1542
e não sei se a Whitney...
25:31
JackJack, thank you for comingchegando here
and speakingFalando so openlyabertamente.
473
1519925
2761
Jack, obrigado por vires aqui
e falares tão abertamente.
25:34
It tooktomou couragecoragem.
474
1522710
1527
É preciso coragem.
25:36
I really appreciateapreciar what you said,
and good lucksorte with your missionmissão.
475
1524261
3384
Dou muito valor ao que disseste
e boa sorte com a tua missão.
25:39
JDJD: Thank you so much.
ThanksObrigado for havingtendo me.
476
1527669
2095
JD: Muito obrigado. Obrigado pelo convite.
25:41
(ApplauseAplausos)
477
1529788
3322
(Aplausos)
25:45
Thank you.
478
1533134
1159
Obrigado.
Translated by Rita Fabião
Reviewed by Margarida Ferreira

▲Back to top

ABOUT THE SPEAKERS
Jack Dorsey - Entrepreneur, programmer
Jack Dorsey is the CEO of Twitter, CEO & Chairman of Square, and a cofounder of both.

Why you should listen
More profile about the speaker
Jack Dorsey | Speaker | TED.com
Chris Anderson - TED Curator
After a long career in journalism and publishing, Chris Anderson became the curator of the TED Conference in 2002 and has developed it as a platform for identifying and disseminating ideas worth spreading.

Why you should listen

Chris Anderson is the Curator of TED, a nonprofit devoted to sharing valuable ideas, primarily through the medium of 'TED Talks' -- short talks that are offered free online to a global audience.

Chris was born in a remote village in Pakistan in 1957. He spent his early years in India, Pakistan and Afghanistan, where his parents worked as medical missionaries, and he attended an American school in the Himalayas for his early education. After boarding school in Bath, England, he went on to Oxford University, graduating in 1978 with a degree in philosophy, politics and economics.

Chris then trained as a journalist, working in newspapers and radio, including two years producing a world news service in the Seychelles Islands.

Back in the UK in 1984, Chris was captivated by the personal computer revolution and became an editor at one of the UK's early computer magazines. A year later he founded Future Publishing with a $25,000 bank loan. The new company initially focused on specialist computer publications but eventually expanded into other areas such as cycling, music, video games, technology and design, doubling in size every year for seven years. In 1994, Chris moved to the United States where he built Imagine Media, publisher of Business 2.0 magazine and creator of the popular video game users website IGN. Chris eventually merged Imagine and Future, taking the combined entity public in London in 1999, under the Future name. At its peak, it published 150 magazines and websites and employed 2,000 people.

This success allowed Chris to create a private nonprofit organization, the Sapling Foundation, with the hope of finding new ways to tackle tough global issues through media, technology, entrepreneurship and, most of all, ideas. In 2001, the foundation acquired the TED Conference, then an annual meeting of luminaries in the fields of Technology, Entertainment and Design held in Monterey, California, and Chris left Future to work full time on TED.

He expanded the conference's remit to cover all topics, including science, business and key global issues, while adding a Fellows program, which now has some 300 alumni, and the TED Prize, which grants its recipients "one wish to change the world." The TED stage has become a place for thinkers and doers from all fields to share their ideas and their work, capturing imaginations, sparking conversation and encouraging discovery along the way.

In 2006, TED experimented with posting some of its talks on the Internet. Their viral success encouraged Chris to begin positioning the organization as a global media initiative devoted to 'ideas worth spreading,' part of a new era of information dissemination using the power of online video. In June 2015, the organization posted its 2,000th talk online. The talks are free to view, and they have been translated into more than 100 languages with the help of volunteers from around the world. Viewership has grown to approximately one billion views per year.

Continuing a strategy of 'radical openness,' in 2009 Chris introduced the TEDx initiative, allowing free licenses to local organizers who wished to organize their own TED-like events. More than 8,000 such events have been held, generating an archive of 60,000 TEDx talks. And three years later, the TED-Ed program was launched, offering free educational videos and tools to students and teachers.

More profile about the speaker
Chris Anderson | Speaker | TED.com
Whitney Pennington Rodgers - TED Current Affairs Curator
Whitney Pennington Rodgers is an award-winning journalist and media professional.

Why you should listen

Prior to joining TED as current affairs curator, Whitney Pennington Rodgers produced for NBC's primetime news magazine Dateline NBC. She earned a duPont-Columbia award and a News & Documentary Emmy or her contributions to the Dateline NBC hour "The Cosby Accusers Speak" -- an extensive group interview with 27 of the women who accused entertainer Bill Cosby of sexual misconduct.

Pennington Rodgers has worked at NBC's in-house production company Peacock Productions, The Today Show, Nightly News, Rock Center with Brian Williams and New Jersey-centric public affairs shows Caucus: New Jersey and One-on-One with Steve Adubato. Prior to beginning her career in media, she had a short stint as a fourth-grade teacher through the Teach for America program.

Pennington Rodgers received her Bachelor's in journalism and media studies from Rutgers University. She completed her Master's of Journalism at the University of California at Berkeley, where she produced a documentary about recruitment of nonblack students at historically black colleges and universities.

More profile about the speaker
Whitney Pennington Rodgers | Speaker | TED.com