ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.

Why you should listen

We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.

Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.

Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.

More profile about the speaker
Zeynep Tufekci | Speaker | TED.com
TEDGlobal>NYC

Zeynep Tufekci: We're building a dystopia just to make people click on ads

Zeynep Tufekci: Estamos construyendo una distopía solo para que la gente cliquee en los anuncios

Filmed:
2,866,905 views

Estamos construyendo una distopía impulsada por inteligencia artificial, un clic a la vez, dice la tecnosocióloga Zeynep Tufekci. En una charla reveladora, Tufekci detalla cómo los mismos algoritmos que compañías como Facebook, Google y Amazon usan para hacerte cliquear en los anuncios también se utilizan para organizar tu acceso a la información política y social. Y las máquinas ni siquiera son la verdadera amenaza. Lo que necesitamos entender es cómo los poderosos podrían usar la IA para controlarnos... y qué podemos hacer en respuesta.
- Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread. Full bio

Double-click the English transcript below to play the video.

00:12
So when people voicevoz fearsmiedos
of artificialartificial intelligenceinteligencia,
0
760
3536
Cuando la gente manifiesta temor
por la inteligencia artificial,
00:16
very oftena menudo, they invokeinvocar imagesimágenes
of humanoidhumanoide robotsrobots runcorrer amokloco.
1
4320
3976
muchas veces recurre a imágenes
de robots humanoides enloquecidos.
00:20
You know? TerminatorTerminator?
2
8320
1240
Ya saben: Terminator.
00:22
You know, that mightpodría be
something to considerconsiderar,
3
10400
2336
Quizá debamos considerarlo,
00:24
but that's a distantdistante threatamenaza.
4
12760
1856
pero es una amenaza lejana.
00:26
Or, we frettraste about digitaldigital surveillancevigilancia
5
14640
3456
O si no, nos inquietamos
por la vigilancia electrónica
00:30
with metaphorsmetáforas from the pastpasado.
6
18120
1776
con metáforas del pasado.
00:31
"1984," GeorgeJorge Orwell'sOrwell "1984,"
7
19920
2656
"1984", el "1984" de George Orwell,
00:34
it's hittinggolpeando the bestsellerMejor vendido listsliza again.
8
22600
2280
es un libro superventas otra vez.
00:37
It's a great booklibro,
9
25960
1416
Es un gran libro,
00:39
but it's not the correctcorrecto dystopiadistopia
for the 21stst centurysiglo.
10
27400
3880
pero no es la distopía
correcta para el siglo XXI.
00:44
What we need to fearmiedo mostmás
11
32080
1416
Lo que debemos temer más
00:45
is not what artificialartificial intelligenceinteligencia
will do to us on its ownpropio,
12
33520
4776
no es lo que la inteligencia artificial
nos hará por sí misma,
00:50
but how the people in powerpoder
will use artificialartificial intelligenceinteligencia
13
38320
4736
sino cómo la gente en el poder
usará la inteligencia artificial
00:55
to controlcontrolar us and to manipulatemanipular us
14
43080
2816
para controlarnos y manipularnos
00:57
in novelnovela, sometimesa veces hiddenoculto,
15
45920
3136
de maneras nuevas, a veces escondidas,
01:01
subtlesutil and unexpectedinesperado waysformas.
16
49080
3016
sutiles e inesperadas.
01:04
Much of the technologytecnología
17
52120
1856
Mucha de la tecnología
01:06
that threatensamenaza our freedomlibertad
and our dignitydignidad in the near-termtérmino cercano futurefuturo
18
54000
4336
que amenaza nuestra libertad
y dignidad en un futuro cercano
01:10
is beingsiendo developeddesarrollado by companiescompañías
19
58360
1856
la están desarrollando compañías
01:12
in the businessnegocio of capturingcapturando
and sellingde venta our datadatos and our attentionatención
20
60240
4936
que se dedican a capturar y vender
nuestra información y nuestra atención
01:17
to advertisersanunciantes and othersotros:
21
65200
2256
a anunciantes y demás:
01:19
FacebookFacebook, GoogleGoogle, AmazonAmazonas,
22
67480
3416
Facebook, Google, Amazon,
01:22
AlibabaAlibaba, TencentTencent.
23
70920
1880
Alibaba, Tencent.
01:26
Now, artificialartificial intelligenceinteligencia has startedempezado
bolsteringreforzando theirsu businessnegocio as well.
24
74040
5496
La inteligencia artificial ha comenzado
a respaldar esos negocios también.
01:31
And it maymayo seemparecer
like artificialartificial intelligenceinteligencia
25
79560
2096
Y parece que la inteligencia artificial
01:33
is just the nextsiguiente thing after onlineen línea adsanuncios.
26
81680
2856
es lo que le sigue
a los anuncios en línea.
01:36
It's not.
27
84560
1216
Pero no lo es.
01:37
It's a jumpsaltar in categorycategoría.
28
85800
2456
Es un salto de categoría.
01:40
It's a wholetodo differentdiferente worldmundo,
29
88280
2576
Es un mundo totalmente distinto,
01:42
and it has great potentialpotencial.
30
90880
2616
y tiene un gran potencial.
01:45
It could accelerateacelerar our understandingcomprensión
of manymuchos areasáreas of studyestudiar and researchinvestigación.
31
93520
6920
Podría acelerar nuestro entendimiento
de muchas áreas
de estudio e investigación.
01:53
But to paraphraseparáfrasis
a famousfamoso HollywoodHollywood philosopherfilósofo,
32
101120
3496
Pero, parafraseando a un famoso
filósofo hollywoodense,
01:56
"With prodigiousprodigioso potentialpotencial
comesproviene prodigiousprodigioso riskriesgo."
33
104640
3640
"Un enorme potencial
viene con un enorme riesgo".
02:01
Now let's look at a basicBASIC facthecho
of our digitaldigital livesvive, onlineen línea adsanuncios.
34
109120
3936
Ahora hablemos de un hecho básico
de nuestra vida digital: los anuncios.
02:05
Right? We kindtipo of dismissdespedir them.
35
113080
2896
Como que los ignoramos, ¿no?
02:08
They seemparecer crudecrudo, ineffectiveineficaz.
36
116000
1976
Parecen ordinarios, inefectivos.
02:10
We'veNosotros tenemos all had the experienceexperiencia
of beingsiendo followedseguido on the webweb
37
118000
4256
Todos hemos tenido esa experiencia
de ser perseguidos en la web
02:14
by an adanuncio basedbasado on something
we searchedbuscado or readleer.
38
122280
2776
por un anuncio basado en algo
que buscamos o leímos.
02:17
You know, you look up a pairpar of bootsbotas
39
125080
1856
Ya saben, buscas un par de botas
02:18
and for a weeksemana, those bootsbotas are followingsiguiendo
you around everywhereen todos lados you go.
40
126960
3376
y durante una semana, esas botas
te siguen a todos lados donde vayas.
02:22
Even after you succumbsucumbir and buycomprar them,
they're still followingsiguiendo you around.
41
130360
3656
Incluso después de haber sucumbido
a comprarlas, te continúan siguiendo.
02:26
We're kindtipo of inuredinured to that kindtipo
of basicBASIC, cheapbarato manipulationmanipulación.
42
134040
3016
Estamos habituados a ese tipo
de manipulación simple y barata.
02:29
We rollrodar our eyesojos and we think,
"You know what? These things don't work."
43
137080
3400
Ponemos los ojos en blanco y pensamos,
"¿Sabes qué? Esto no funciona".
02:33
ExceptExcepto, onlineen línea,
44
141720
2096
Excepto que, en línea,
02:35
the digitaldigital technologiestecnologías are not just adsanuncios.
45
143840
3600
las tecnologías digitales
no son solo anuncios.
02:40
Now, to understandentender that,
let's think of a physicalfísico worldmundo exampleejemplo.
46
148240
3120
Para entender eso, pensemos
en un ejemplo del mundo físico.
02:43
You know how, at the checkoutrevisa counterscontadores
at supermarketssupermercados, nearcerca the cashiercajero,
47
151840
4656
¿Han visto que en la caja de cobro
del supermercado, cerca del cajero,
02:48
there's candycaramelo and gumchicle
at the eyeojo levelnivel of kidsniños?
48
156520
3480
hay dulces y goma de mascar
a la altura de los ojos de los niños?
02:52
That's designeddiseñado to make them
whinegimoteo at theirsu parentspadres
49
160800
3496
Eso está diseñado para hacerlos
rogar a sus padres
02:56
just as the parentspadres
are about to sortordenar of checkcomprobar out.
50
164320
3080
justo cuando los padres están por pagar.
03:00
Now, that's a persuasionpersuasión architecturearquitectura.
51
168040
2640
Eso es arquitectura de la persuasión.
03:03
It's not nicebonito, but it kindtipo of workstrabajos.
52
171160
3096
No es agradable, pero funciona.
03:06
That's why you see it
in everycada supermarketsupermercado.
53
174280
2040
Por eso se ve en todos los supermercados.
03:08
Now, in the physicalfísico worldmundo,
54
176720
1696
Ahora, en el mundo físico,
la arquitectura de la persuasión
es un poco limitada,
03:10
suchtal persuasionpersuasión architecturesarquitecturas
are kindtipo of limitedlimitado,
55
178440
2496
03:12
because you can only put
so manymuchos things by the cashiercajero. Right?
56
180960
4816
porque solo puedes poner
unas cuantas cosas cerca de la caja, ¿no?
03:17
And the candycaramelo and gumchicle,
it's the samemismo for everyonetodo el mundo,
57
185800
4296
Y los dulces y goma de mascar
son iguales para todos,
03:22
even thoughaunque it mostlyprincipalmente workstrabajos
58
190120
1456
aunque en general funciona
03:23
only for people who have
whinyquejumbroso little humanshumanos besidejunto a them.
59
191600
4040
solo con la gente que va acompañada
de personitas caprichosas.
03:29
In the physicalfísico worldmundo,
we livevivir with those limitationslimitaciones.
60
197160
3920
En el mundo físico,
vivimos con esas limitantes.
03:34
In the digitaldigital worldmundo, thoughaunque,
61
202280
1936
No obstante, en el mundo digital,
03:36
persuasionpersuasión architecturesarquitecturas
can be builtconstruido at the scaleescala of billionsmiles de millones
62
204240
4320
las arquitecturas de la persuasión
pueden tener miles de millones de opciones
03:41
and they can targetobjetivo, inferinferir, understandentender
63
209840
3856
y pueden apuntar, inferir, entender
03:45
and be deployeddesplegada at individualsindividuos
64
213720
2896
y ser aplicadas a cada individuo
03:48
one by one
65
216640
1216
uno por uno
03:49
by figuringfigurando out your weaknessesdebilidades,
66
217880
2136
descubriendo nuestras debilidades,
03:52
and they can be sentexpedido
to everyone'stodos phoneteléfono privateprivado screenpantalla,
67
220040
5616
y pueden ser enviadas directamente
a la pantalla personal de cada teléfono,
03:57
so it's not visiblevisible to us.
68
225680
2256
así que son invisibles para nosotros.
03:59
And that's differentdiferente.
69
227960
1256
Y eso es diferente.
04:01
And that's just one of the basicBASIC things
that artificialartificial intelligenceinteligencia can do.
70
229240
3576
Es solo una de las cosas que puede hacer
la inteligencia artificial.
Pongamos un ejemplo.
04:04
Now, let's take an exampleejemplo.
71
232840
1336
Digamos que quieren vender
boletos de avión a Las Vegas.
04:06
Let's say you want to sellvender
planeavión ticketsEntradas to VegasVegas. Right?
72
234200
2696
04:08
So in the oldantiguo worldmundo, you could think
of some demographicsdatos demográficos to targetobjetivo
73
236920
3496
En el viejo mundo, se dirigirían
a ciertos sectores demográficos
04:12
basedbasado on experienceexperiencia
and what you can guessadivinar.
74
240440
2520
basándose en la experiencia
y lo que podían suponer.
04:15
You mightpodría try to advertiseanunciar to, oh,
75
243560
2816
Podrían tratar de anunciar para
04:18
menhombres betweenEntre the agessiglos of 25 and 35,
76
246400
2496
hombres entre los 25 y 35 años,
04:20
or people who have
a highalto limitlímite on theirsu creditcrédito cardtarjeta,
77
248920
3936
o gente con un límite alto
en la tarjeta de crédito,
04:24
or retiredretirado couplesparejas. Right?
78
252880
1376
o parejas retiradas, ¿no?
04:26
That's what you would do in the pastpasado.
79
254280
1816
Eso es lo que harían en el pasado.
04:28
With biggrande datadatos and machinemáquina learningaprendizaje,
80
256120
2896
Con big data y aprendizaje automático,
04:31
that's not how it workstrabajos anymorenunca más.
81
259040
1524
ya no funciona más así.
04:33
So to imagineimagina that,
82
261320
2176
Así que, para imaginar eso,
04:35
think of all the datadatos
that FacebookFacebook has on you:
83
263520
3856
piensen en todos los datos
que Facebook tiene sobre Uds.:
04:39
everycada statusestado updateactualizar you ever typedmecanografiado,
84
267400
2536
cada actualización de estado
que jamás hayan escrito,
04:41
everycada MessengerMensajero conversationconversacion,
85
269960
2016
cada conversación en el Messenger,
04:44
everycada placelugar you loggedregistrado in from,
86
272000
1880
cada lugar desde donde accedieron,
04:48
all your photographsfotografías
that you uploadedcargado there.
87
276400
3176
todas las fotografías que hayan subido.
04:51
If you startcomienzo typingmecanografía something
and changecambio your mindmente and deleteborrar it,
88
279600
3776
Lo que comenzaron a escribir y borraron
porque cambiaron de opinión;
04:55
FacebookFacebook keepsmantiene those
and analyzesanálisis them, too.
89
283400
3200
Facebook guarda y analiza eso también.
04:59
IncreasinglyCada vez más, it triesintentos
to matchpartido you with your offlinedesconectado datadatos.
90
287160
3936
Cada vez trata de aproximarse más
a los datos de tu vida fuera de línea.
05:03
It alsoademás purchasescompras
a lot of datadatos from datadatos brokerscorredores.
91
291120
3176
También adquiere muchos datos
de los corredores de datos.
05:06
It could be everything
from your financialfinanciero recordsarchivos
92
294320
3416
Podría ser cualquier cosa,
desde registros financieros
05:09
to a good chunkpedazo of your browsinghojeada historyhistoria.
93
297760
2120
hasta una buena parte
de tu historial de búsqueda.
05:12
Right? In the US,
suchtal datadatos is routinelyrutinariamente collectedrecogido,
94
300360
5416
En EE. UU. esos datos
son habitualmente recolectados,
05:17
collatedcotejado and soldvendido.
95
305800
1960
cotejados y vendidos.
05:20
In EuropeEuropa, they have toughermás duro rulesreglas.
96
308320
2440
En Europa tienen reglas más estrictas.
05:23
So what happenssucede then is,
97
311680
2200
Entonces, lo que ocurre es lo siguiente:
05:26
by churningrevolviendo throughmediante all that datadatos,
these machine-learningaprendizaje automático algorithmsAlgoritmos --
98
314920
4016
al procesar todos esos datos,
esos algoritmos de aprendizaje automático,
05:30
that's why they're calledllamado
learningaprendizaje algorithmsAlgoritmos --
99
318960
2896
y por esto se llaman
algoritmos de aprendizaje,
05:33
they learnaprender to understandentender
the characteristicscaracterísticas of people
100
321880
4096
aprenden a entender
las características de la gente
05:38
who purchasedcomprado ticketsEntradas to VegasVegas before.
101
326000
2520
que compró boletos
a Las Vegas anteriormente.
05:41
When they learnaprender this from existingexistente datadatos,
102
329760
3536
Una vez que aprenden esto
de los datos existentes,
05:45
they alsoademás learnaprender
how to applyaplicar this to newnuevo people.
103
333320
3816
también aprenden cómo aplicarlo
a un nuevo grupo de gente.
05:49
So if they're presentedpresentado with a newnuevo personpersona,
104
337160
3056
Entonces, si se encuentran
con una persona nueva,
05:52
they can classifyclasificar whethersi that personpersona
is likelyprobable to buycomprar a ticketboleto to VegasVegas or not.
105
340240
4640
pueden clasificar si esa persona
compraría un boleto a Las Vegas o no.
05:57
Fine. You're thinkingpensando,
an offeroferta to buycomprar ticketsEntradas to VegasVegas.
106
345720
5456
Ahora bien, Uds. están pensando:
"Una oferta para comprar
boletos a Las Vegas... Puedo ignorarlo".
06:03
I can ignoreignorar that.
107
351200
1456
06:04
But the problemproblema isn't that.
108
352680
2216
Pero el problema no es ese.
06:06
The problemproblema is,
109
354920
1576
El problema es
06:08
we no longermás really understandentender
how these complexcomplejo algorithmsAlgoritmos work.
110
356520
4136
que ya no comprendemos realmente
cómo funcionan estos algoritmos complejos.
06:12
We don't understandentender
how they're doing this categorizationcategorización.
111
360680
3456
No entendemos cómo categorizan.
06:16
It's giantgigante matricesmatrices,
thousandsmiles of rowsfilas and columnscolumnas,
112
364160
4416
Son matrices gigantes,
miles de filas y columnas,
06:20
maybe millionsmillones of rowsfilas and columnscolumnas,
113
368600
1960
quizá millones de filas y columnas,
06:23
and not the programmersprogramadores
114
371320
2640
y ya ni los programadores
06:26
and not anybodynadie who looksmiradas at it,
115
374760
1680
ni nadie que los analice,
06:29
even if you have all the datadatos,
116
377440
1496
aun teniendo todos los datos,
06:30
understandsentiende anymorenunca más
how exactlyexactamente it's operatingoperando
117
378960
4616
comprende cómo operan exactamente;
06:35
any more than you'dtu hubieras know
what I was thinkingpensando right now
118
383600
3776
no más de lo que Uds. sabrían
lo que estoy pensado en este momento
06:39
if you were shownmostrado
a crosscruzar sectionsección of my braincerebro.
119
387400
3960
si les enseñaran
una disección de mi cerebro.
06:44
It's like we're not programmingprogramación anymorenunca más,
120
392360
2576
Es como que ya no estamos programando;
06:46
we're growingcreciente intelligenceinteligencia
that we don't trulyverdaderamente understandentender.
121
394960
4400
estamos creando inteligencia
que no comprendemos totalmente.
06:52
And these things only work
if there's an enormousenorme amountcantidad of datadatos,
122
400520
3976
Y estas cosas solo funcionan
con una enorme cantidad de datos,
06:56
so they alsoademás encouragealentar
deepprofundo surveillancevigilancia on all of us
123
404520
5096
así que también fomentan una
vigilancia profunda de todos nosotros
para que los algoritmos
de aprendizaje funcionen.
07:01
so that the machinemáquina learningaprendizaje
algorithmsAlgoritmos can work.
124
409640
2336
Por eso Facebook quiere acumular
todos los datos que pueda sobre Uds.
07:04
That's why FacebookFacebook wants
to collectrecoger all the datadatos it can about you.
125
412000
3176
07:07
The algorithmsAlgoritmos work better.
126
415200
1576
Los algoritmos funcionan mejor.
07:08
So let's pushempujar that VegasVegas exampleejemplo a bitpoco.
127
416800
2696
Así que continuemos
con el ejemplo de Las Vegas.
07:11
What if the systemsistema
that we do not understandentender
128
419520
3680
¿Qué pasaría si ese sistema
que no entendemos
07:16
was pickingcosecha up that it's easiermás fácil
to sellvender VegasVegas ticketsEntradas
129
424200
5136
aprendiera que es más fácil
venderle boletos a Las Vegas
07:21
to people who are bipolarbipolar
and about to enterentrar the manicmaníaco phasefase.
130
429360
3760
a gente bipolar a punto de entrar
en un episodio maníaco?
07:25
SuchTal people tendtender to becomevolverse
overspendersSobrecargados, compulsivecompulsivo gamblersjugadores.
131
433640
4920
Esa gente tiende a gastar de más
y a apostar compulsivamente.
07:31
They could do this, and you'dtu hubieras have no cluepista
that's what they were pickingcosecha up on.
132
439280
4456
Podrían hacerlo y no tendríamos
ni idea de que se fijaron en eso.
07:35
I gavedio this exampleejemplo
to a bunchmanojo of computercomputadora scientistscientíficos onceuna vez
133
443760
3616
Di este ejemplo una vez a un grupo
de científicos de la computación
07:39
and afterwardsdespués, one of them camevino up to me.
134
447400
2056
y después, uno se me acercó.
07:41
He was troubledpreocupado and he said,
"That's why I couldn'tno pudo publishpublicar it."
135
449480
3520
Estaba afligido y dijo:
"Por eso no pude publicarlo".
07:45
I was like, "Couldn'tNo pudo publishpublicar what?"
136
453600
1715
Yo le pregunté: "¿Publicar qué?".
07:47
He had triedintentó to see whethersi you can indeeden efecto
figurefigura out the onsetcomienzo of maniamanía
137
455800
5856
Él había tratado de ver si realmente
se podría predecir el arranque maníaco
07:53
from socialsocial mediamedios de comunicación postspublicaciones
before clinicalclínico symptomssíntomas,
138
461680
3216
en publicaciones de redes sociales
antes de los síntomas clínicos,
07:56
and it had workedtrabajó,
139
464920
1776
y había funcionado,
07:58
and it had workedtrabajó very well,
140
466720
2056
había funcionado muy bien,
08:00
and he had no ideaidea how it workedtrabajó
or what it was pickingcosecha up on.
141
468800
4880
y no tenía idea de cómo funcionaba
o qué había descubierto.
08:06
Now, the problemproblema isn't solvedresuelto
if he doesn't publishpublicar it,
142
474840
4416
El problema no se resuelve
si él no lo publica,
08:11
because there are alreadyya companiescompañías
143
479280
1896
porque ya hay compañías
08:13
that are developingdesarrollando
this kindtipo of technologytecnología,
144
481200
2536
que están desarrollando
este tipo de tecnología,
08:15
and a lot of the stuffcosas
is just off the shelfestante.
145
483760
2800
y muchas de estas cosas
ya están a la venta.
08:19
This is not very difficultdifícil anymorenunca más.
146
487240
2576
Esto ya no es tan difícil.
08:21
Do you ever go on YouTubeYoutube
meaningsentido to watch one videovídeo
147
489840
3456
¿Les ha pasado entrar a YouTube
para ver un video en específico
08:25
and an hourhora laterluego you've watchedmirado 27?
148
493320
2360
y una hora más tarde vieron 27?
08:28
You know how YouTubeYoutube
has this columncolumna on the right
149
496760
2496
¿Vieron que YouTube tiene
una columna a la derecha
08:31
that saysdice, "Up nextsiguiente"
150
499280
2216
que dice: "A continuación"
08:33
and it autoplaysautoajustes something?
151
501520
1816
y que reproduce algo automáticamente?
08:35
It's an algorithmalgoritmo
152
503360
1216
Es un algoritmo
que elige lo que cree que les interesaría
y que quizá no encuentren por sí mismos.
08:36
pickingcosecha what it thinkspiensa
that you mightpodría be interestedinteresado in
153
504600
3616
08:40
and maybe not find on your ownpropio.
154
508240
1536
08:41
It's not a humanhumano editoreditor.
155
509800
1256
No es un editor humano.
08:43
It's what algorithmsAlgoritmos do.
156
511080
1416
Eso hacen los algoritmos.
08:44
It picksselecciones up on what you have watchedmirado
and what people like you have watchedmirado,
157
512520
4736
Se fijan en lo que han mirado
y lo que la gente como Uds. ha mirado,
08:49
and infersinfiere that that mustdebe be
what you're interestedinteresado in,
158
517280
4216
e infiere que eso debe ser
lo que les interesa,
08:53
what you want more of,
159
521520
1255
y de lo que quieren más,
08:54
and just showsmuestra you more.
160
522799
1336
y entonces les muestra más.
08:56
It soundssonidos like a benignbenigno
and usefulútil featurecaracterística,
161
524159
2201
Parece una herramienta benigna y útil,
08:59
exceptexcepto when it isn't.
162
527280
1200
excepto cuando no lo es.
09:01
So in 2016, I attendedatendido ralliesmítines
of then-candidateentonces-candidato DonaldDonald TrumpTriunfo
163
529640
6960
En 2016 asistí a actos electorales
del entonces candidato Donald Trump
09:09
to studyestudiar as a scholarerudito
the movementmovimiento supportingsecundario him.
164
537840
3336
para estudiar, como académica,
el movimiento que lo apoyaba.
09:13
I studyestudiar socialsocial movementsmovimientos,
so I was studyingestudiando it, too.
165
541200
3456
Estudio los movimientos sociales,
así que por eso lo estudiaba también.
09:16
And then I wanted to writeescribir something
about one of his ralliesmítines,
166
544680
3336
Quise escribir algo
sobre uno de sus actos,
09:20
so I watchedmirado it a fewpocos timesveces on YouTubeYoutube.
167
548040
1960
así que lo miré varias veces en YouTube.
09:23
YouTubeYoutube startedempezado recommendingrecomendando to me
168
551240
3096
YouTube comenzó a recomendarme
09:26
and autoplayingreproducción automática to me
whiteblanco supremacistpartidario videosvideos
169
554360
4256
una lista de reproducción de videos
de supremacistas blancos
09:30
in increasingcreciente orderorden of extremismextremismo.
170
558640
2656
en orden de extremismo creciente.
09:33
If I watchedmirado one,
171
561320
1816
Si miraba uno,
09:35
it servedservido up one even more extremeextremo
172
563160
2976
me llevaba a otro incluso más extremo
09:38
and autoplayedreproducido automáticamente that one, too.
173
566160
1424
y se reproducía automáticamente.
09:40
If you watch HillaryHillary ClintonClinton
or BernieBernie SandersLijadoras contentcontenido,
174
568320
4536
Si miran contenido sobre
Hillary Clinton o Bernie Sanders,
09:44
YouTubeYoutube recommendsrecomienda
and autoplaysautoajustes conspiracyconspiración left,
175
572880
4696
YouTube les recomienda y reproduce
conspiraciones de izquierda,
09:49
and it goesva downhillcuesta abajo from there.
176
577600
1760
de ahí hacia abajo.
09:52
Well, you mightpodría be thinkingpensando,
this is politicspolítica, but it's not.
177
580480
3056
Quizá estén pensando
que se trata de política, pero no.
09:55
This isn't about politicspolítica.
178
583560
1256
No se trata de política.
09:56
This is just the algorithmalgoritmo
figuringfigurando out humanhumano behaviorcomportamiento.
179
584840
3096
Es solo el algoritmo
entendiendo la conducta humana.
09:59
I onceuna vez watchedmirado a videovídeo
about vegetarianismvegetarianismo on YouTubeYoutube
180
587960
4776
Una vez miré un video
sobre el vegetarianismo en YouTube
10:04
and YouTubeYoutube recommendedrecomendado
and autoplayedreproducido automáticamente a videovídeo about beingsiendo veganvegano.
181
592760
4936
y YouTube me recomendó y reprodujo
un video sobre veganismo.
10:09
It's like you're never
hardcoreduro enoughsuficiente for YouTubeYoutube.
182
597720
3016
Uno nunca es lo suficientemente
extremo para YouTube.
10:12
(LaughterRisa)
183
600760
1576
(Risas)
10:14
So what's going on?
184
602360
1560
¿Qué está ocurriendo?
10:16
Now, YouTube'sYouTube algorithmalgoritmo is proprietarypropiedad,
185
604520
3536
El algoritmo de YouTube está patentado,
10:20
but here'saquí está what I think is going on.
186
608080
2360
pero esto es lo que creo que está pasando.
10:23
The algorithmalgoritmo has figuredfigurado out
187
611360
2096
El algoritmo ha descubierto
10:25
that if you can enticeatraer people
188
613480
3696
que si puedes persuadir a la gente
10:29
into thinkingpensando that you can
showespectáculo them something more hardcoreduro,
189
617200
3736
haciéndoles pensar que puedes
mostrarles algo más extremo,
10:32
they're more likelyprobable to staypermanecer on the sitesitio
190
620960
2416
son más propensos a quedarse en el sitio
10:35
watchingacecho videovídeo after videovídeo
going down that rabbitConejo holeagujero
191
623400
4416
viendo video tras video
adentrándose en el agujero de conejo
10:39
while GoogleGoogle servessirve them adsanuncios.
192
627840
1680
mientras Google les sirve anuncios.
10:43
Now, with nobodynadie mindingmente
the ethicsética of the storealmacenar,
193
631760
3120
Sin alguien a quien le importe
la ética de la tienda,
10:47
these sitessitios can profileperfil people
194
635720
4240
estos sitios pueden retratar gente
10:53
who are Jewjudío hatersenemigos,
195
641680
1920
que odia a los judíos,
10:56
who think that JewsJudíos are parasitesparásitos
196
644360
2480
que cree que los judíos son parásitos
11:00
and who have suchtal explicitexplícito
anti-Semiticantisemita contentcontenido,
197
648320
4920
y que tiene contenido
antisemita explícito,
11:06
and let you targetobjetivo them with adsanuncios.
198
654080
2000
y permitirte que les envíes anuncios.
11:09
They can alsoademás mobilizemovilizar algorithmsAlgoritmos
199
657200
3536
También pueden movilizar algoritmos
11:12
to find for you look-alikeParecido audiencesaudiencias,
200
660760
3136
para encontrar audiencias parecidas,
11:15
people who do not have suchtal explicitexplícito
anti-Semiticantisemita contentcontenido on theirsu profileperfil
201
663920
5576
gente que no tiene ese contenido
antisemita explícito en su perfil,
11:21
but who the algorithmalgoritmo detectsdetecta
maymayo be susceptiblesusceptible to suchtal messagesmensajes,
202
669520
6176
pero a quien el algoritmo detecta
como susceptible a esos mensajes,
11:27
and letsdeja you targetobjetivo them with adsanuncios, too.
203
675720
1920
y te permite enviarles anuncios también.
11:30
Now, this maymayo soundsonar
like an implausibleincreíble exampleejemplo,
204
678680
2736
Esto puede sonar
como un ejemplo inverosímil,
11:33
but this is realreal.
205
681440
1320
pero es real.
11:35
ProPublicaProPublica investigatedinvestigado this
206
683480
2136
ProPublica lo investigó
11:37
and foundencontró that you can indeeden efecto
do this on FacebookFacebook,
207
685640
3616
y encontró que de hecho
se puede hacer esto en Facebook,
11:41
and FacebookFacebook helpfullyamablemente
offeredOfrecido up suggestionssugerencias
208
689280
2416
y Facebook amablemente
nos ofreció sugerencias
11:43
on how to broadenampliar that audienceaudiencia.
209
691720
1600
de cómo ampliar la audiencia.
11:46
BuzzFeedBuzzFeed triedintentó it for GoogleGoogle,
and very quicklycon rapidez they foundencontró,
210
694720
3016
BuzzFeed lo intentó con Google,
y en seguida vieron que sí,
que se puede hacer en Google también.
11:49
yep, you can do it on GoogleGoogle, too.
211
697760
1736
11:51
And it wasn'tno fue even expensivecostoso.
212
699520
1696
Y no fue ni siquiera costoso.
11:53
The ProPublicaProPublica reporterreportero
spentgastado about 30 dollarsdólares
213
701240
4416
El reportero de ProPublica
gastó alrededor de 30 dólares
11:57
to targetobjetivo this categorycategoría.
214
705680
2240
para anunciarle a esa categoría.
12:02
So last yearaño, DonaldDonald Trump'sTrump
socialsocial mediamedios de comunicación managergerente disclosedrevelado
215
710600
5296
El año pasado, el asesor de medios
de Donald Trump reveló
12:07
that they were usingutilizando FacebookFacebook darkoscuro postspublicaciones
to demobilizedesmovilizar people,
216
715920
5336
que usaban publicaciones de página oculta
en Facebook para desmovilizar gente.
12:13
not to persuadepersuadir them,
217
721280
1376
No para persuadirlos,
12:14
but to convinceconvencer them not to votevotar at all.
218
722680
2800
sino para convencerlos de no votar.
12:18
And to do that,
they targetedapuntado specificallyespecíficamente,
219
726520
3576
Y para lograr eso,
se dirigieron a grupos específicos,
12:22
for exampleejemplo, African-AmericanAfroamericano menhombres
in keyllave citiesciudades like PhiladelphiaFiladelfia,
220
730120
3896
por ejemplo, hombres afroamericanos
en ciudades clave como Filadelfia,
12:26
and I'm going to readleer
exactlyexactamente what he said.
221
734040
2456
y voy a leer exactamente lo que dijo.
12:28
I'm quotingcitando.
222
736520
1216
Cito.
12:29
They were usingutilizando "nonpublicno público postspublicaciones
223
737760
3016
Estaban usando "publicaciones no públicas
12:32
whosecuyo viewershipaudiencia the campaignCampaña controlscontroles
224
740800
2176
cuya audiencia controla la campaña
12:35
so that only the people
we want to see it see it.
225
743000
3776
para que solo la gente
que queremos pueda verlas".
12:38
We modeledmodelado this.
226
746800
1216
"Modelamos esto".
12:40
It will dramaticallydramáticamente affectafectar her abilitycapacidad
to turngiro these people out."
227
748040
4720
"Esto afectará dramáticamente la habilidad
de ella para llevar votantes a las urnas".
12:45
What's in those darkoscuro postspublicaciones?
228
753720
2280
¿Qué hay en esas publicaciones
de página oculta?
12:48
We have no ideaidea.
229
756480
1656
No tenemos idea.
12:50
FacebookFacebook won'tcostumbre tell us.
230
758160
1200
Facebook no nos lo dirá.
12:52
So FacebookFacebook alsoademás algorithmicallyalgorítmicamente
arrangesarregla the postspublicaciones
231
760480
4376
Facebook también organiza
con un algoritmo las publicaciones
12:56
that your friendsamigos put on FacebookFacebook,
or the pagespáginas you followseguir.
232
764880
3736
que nuestros amigos ponen en Facebook,
o las páginas que seguimos.
13:00
It doesn't showespectáculo you
everything chronologicallycronológicamente.
233
768640
2216
No nos muestra todo cronológicamente.
13:02
It putspone the orderorden in the way
that the algorithmalgoritmo thinkspiensa will enticeatraer you
234
770880
4816
Ordena según la manera en que el algoritmo
piensa que nos va a persuadir
13:07
to staypermanecer on the sitesitio longermás.
235
775720
1840
para quedarnos más tiempo en el sitio.
13:11
Now, so this has a lot of consequencesConsecuencias.
236
779040
3376
Esto tiene muchas consecuencias.
13:14
You maymayo be thinkingpensando
somebodyalguien is snubbingdesaire you on FacebookFacebook.
237
782440
3800
Quizá estén pensando que alguien
los está desairando en Facebook.
13:18
The algorithmalgoritmo maymayo never
be showingdemostración your postenviar to them.
238
786800
3256
Pero quizá el algoritmo nunca
les muestra su publicación a ellos.
13:22
The algorithmalgoritmo is prioritizingpriorizando
some of them and buryingenterrar the othersotros.
239
790080
5960
El algoritmo prioriza
algunas publicaciones e ignora otras.
13:29
ExperimentsExperimentos showespectáculo
240
797320
1296
Los experimentos muestran
13:30
that what the algorithmalgoritmo picksselecciones to showespectáculo you
can affectafectar your emotionsemociones.
241
798640
4520
que lo que el algoritmo escoge
para mostrar, puede afectar las emociones.
13:36
But that's not all.
242
804600
1200
Pero eso no es todo.
13:38
It alsoademás affectsafecta politicalpolítico behaviorcomportamiento.
243
806280
2360
También afecta la conducta política.
13:41
So in 2010, in the midtermMediano plazo electionselecciones,
244
809360
4656
Así que en 2010, en la votación
a mitad de legislatura,
13:46
FacebookFacebook did an experimentexperimentar
on 61 millionmillón people in the US
245
814040
5896
Facebook hizo un experimento
con 61 millones de personas en EE. UU.
13:51
that was disclosedrevelado after the facthecho.
246
819960
1896
y lo dio a conocer después.
13:53
So some people were shownmostrado,
"TodayHoy is electionelección day,"
247
821880
3416
A algunas personas les mostraron
la publicación "Hoy es día de votación",
13:57
the simplermás simple one,
248
825320
1376
la más sencilla,
13:58
and some people were shownmostrado
the one with that tinyminúsculo tweakretocar
249
826720
3896
y a otras personas les mostraron
la que tiene esa pequeña modificación,
14:02
with those little thumbnailsminiaturas
250
830640
2096
con esas miniaturas
14:04
of your friendsamigos who clickedclickeado on "I votedvotado."
251
832760
2840
de tus amigos que cliquearon "Voté".
14:09
This simplesencillo tweakretocar.
252
837000
1400
Solo esa pequeña modificación.
14:11
OK? So the picturesimágenes were the only changecambio,
253
839520
4296
Así que las fotos
fueron el único cambio,
14:15
and that postenviar shownmostrado just onceuna vez
254
843840
3256
y esa publicación
que fue mostrada solo una vez
14:19
turnedconvertido out an additionaladicional 340,000 votersvotantes
255
847120
6056
añadió 340 000 votantes
14:25
in that electionelección,
256
853200
1696
en esa elección,
14:26
accordingconforme to this researchinvestigación
257
854920
1696
según este estudio
14:28
as confirmedconfirmado by the votervotante rollsrollos.
258
856640
2520
confirmado por los padrones electorales.
14:32
A flukeplatija? No.
259
860920
1656
¿Suerte? No.
14:34
Because in 2012,
they repeatedrepetido the samemismo experimentexperimentar.
260
862600
5360
Porque en 2012, repitieron el experimento.
14:40
And that time,
261
868840
1736
Y esa vez,
14:42
that civiccívico messagemensaje shownmostrado just onceuna vez
262
870600
3296
ese mensaje cívico mostrado una sola vez
14:45
turnedconvertido out an additionaladicional 270,000 votersvotantes.
263
873920
4440
añadió 270 000 votantes.
14:51
For referencereferencia, the 2016
US presidentialpresidencial electionelección
264
879160
5216
Como referencia, la elección
presidencial de 2016 en EE. UU.
14:56
was decideddecidido by about 100,000 votesvotos.
265
884400
3520
se decidió por unos 100 000 votos.
15:01
Now, FacebookFacebook can alsoademás
very easilyfácilmente inferinferir what your politicspolítica are,
266
889360
4736
Facebook también puede inferir
muy fácilmente sus opiniones políticas,
15:06
even if you've never
disclosedrevelado them on the sitesitio.
267
894120
2256
aun si nunca las han revelado en el sitio.
15:08
Right? These algorithmsAlgoritmos
can do that quitebastante easilyfácilmente.
268
896400
2520
Estos algoritmos pueden
lograrlo de manera sencilla.
15:11
What if a platformplataforma with that kindtipo of powerpoder
269
899960
3896
¿Qué pasaría si una plataforma
con ese tipo de poder
15:15
decidesdecide to turngiro out supporterspartidarios
of one candidatecandidato over the other?
270
903880
5040
decide ganar seguidores
para un candidato y no para el otro?
15:21
How would we even know about it?
271
909680
2440
¿Cómo lo sabríamos?
15:25
Now, we startedempezado from someplaceen algún lugar
seeminglyaparentemente innocuousinocuo --
272
913560
4136
Comenzamos en un lugar
aparentemente inocuo,
15:29
onlineen línea addsagrega followingsiguiendo us around --
273
917720
2216
anuncios en línea
siguiéndonos a todas partes,
15:31
and we'venosotros tenemos landedaterrizado someplaceen algún lugar elsemás.
274
919960
1840
y hemos terminado en otro lugar.
15:35
As a publicpúblico and as citizenslos ciudadanos,
275
923480
2456
Como público y como ciudadanos,
15:37
we no longermás know
if we're seeingviendo the samemismo informationinformación
276
925960
3416
no sabemos ya si estamos viendo
la misma información
15:41
or what anybodynadie elsemás is seeingviendo,
277
929400
1480
o qué es lo que los demás ven,
15:43
and withoutsin a commoncomún basisbase of informationinformación,
278
931680
2576
y sin una base común de información,
15:46
little by little,
279
934280
1616
poco a poco,
15:47
publicpúblico debatedebate is becomingdevenir impossibleimposible,
280
935920
3216
el debate público
se está volviendo imposible,
15:51
and we're just at
the beginningcomenzando stagesetapas of this.
281
939160
2976
y eso que solo estamos
en las etapas iniciales de esto.
15:54
These algorithmsAlgoritmos can quitebastante easilyfácilmente inferinferir
282
942160
3456
Estos algoritmos pueden inferir fácilmente
15:57
things like your people'sla gente ethnicityetnicidad,
283
945640
3256
cosas como el origen étnico de la gente,
las ideas religiosas y políticas,
16:00
religiousreligioso and politicalpolítico viewspuntos de vista,
personalitypersonalidad traitsrasgos,
284
948920
2336
la personalidad,
16:03
intelligenceinteligencia, happinessfelicidad,
use of addictiveadictivo substancessustancias,
285
951280
3376
la inteligencia, la felicidad,
el uso de sustancias adictivas,
16:06
parentalde los padres separationseparación, ageaños and gendersgéneros,
286
954680
3136
la separación de los padres,
la edad y género,
16:09
just from FacebookFacebook likesgustos.
287
957840
1960
solo con los "me gusta" de Facebook.
16:13
These algorithmsAlgoritmos can identifyidentificar protestersmanifestantes
288
961440
4056
Estos algoritmos pueden
identificar manifestantes
16:17
even if theirsu facescaras
are partiallyparcialmente concealedexcusado.
289
965520
2760
incluso si sus caras están
parcialmente cubiertas.
16:21
These algorithmsAlgoritmos maymayo be ablepoder
to detectdetectar people'sla gente sexualsexual orientationorientación
290
969720
6616
Estos algoritmos podrían detectar
la orientación sexual de la gente
16:28
just from theirsu datingcitas profileperfil picturesimágenes.
291
976360
3200
solo con sus fotos de perfil.
16:33
Now, these are probabilisticprobabilístico guessesconjeturas,
292
981560
2616
Estas son especulaciones probables
16:36
so they're not going
to be 100 percentpor ciento right,
293
984200
2896
así que no serán 100 % atinadas,
16:39
but I don't see the powerfulpoderoso resistingresistiendo
the temptationtentación to use these technologiestecnologías
294
987120
4896
pero yo no me imagino a los poderosos
resistiendo la tentación
de usar estas tecnologías
16:44
just because there are
some falsefalso positivespositivos,
295
992040
2176
solo porque haya algunos falsos positivos,
16:46
whichcual will of coursecurso createcrear
a wholetodo other layercapa of problemsproblemas.
296
994240
3256
lo cual creará, por supuesto,
otra oleada de problemas.
16:49
ImagineImagina what a stateestado can do
297
997520
2936
Imaginen lo que puede hacer un estado
16:52
with the immenseinmenso amountcantidad of datadatos
it has on its citizenslos ciudadanos.
298
1000480
3560
con la enorme cantidad de datos
que tiene de sus ciudadanos.
16:56
ChinaChina is alreadyya usingutilizando
facecara detectiondetección technologytecnología
299
1004680
4776
China ya está usando
tecnología de detección de rostros
17:01
to identifyidentificar and arrestarrestar people.
300
1009480
2880
para identificar y arrestar gente.
17:05
And here'saquí está the tragedytragedia:
301
1013280
2136
Y esta es la tragedia:
17:07
we're buildingedificio this infrastructureinfraestructura
of surveillancevigilancia authoritarianismautoritarismo
302
1015440
5536
Estamos construyendo esta infraestructura
de vigilancia y autoritarismo
17:13
merelysimplemente to get people to clickhacer clic on adsanuncios.
303
1021000
2960
solo para obtener
más clics en los anuncios.
17:17
And this won'tcostumbre be
Orwell'sOrwell authoritarianismautoritarismo.
304
1025240
2576
Este no será el autoritarismo de Orwell.
17:19
This isn't "1984."
305
1027839
1897
Esto no es "1984".
17:21
Now, if authoritarianismautoritarismo
is usingutilizando overtabierto fearmiedo to terrorizeaterrorizar us,
306
1029760
4576
Si el autoritarismo usa
el miedo para aterrorizarnos,
17:26
we'llbien all be scaredasustado, but we'llbien know it,
307
1034359
2897
todos estaremos asustados,
pero lo sabremos,
17:29
we'llbien hateodio it and we'llbien resistresistir it.
308
1037280
2200
lo odiaremos y lo resistiremos.
17:32
But if the people in powerpoder
are usingutilizando these algorithmsAlgoritmos
309
1040880
4416
Pero si la gente en el poder
está usando estos algoritmos
17:37
to quietlytranquilamente watch us,
310
1045319
3377
para vigilarnos calladamente,
17:40
to judgejuez us and to nudgeempujar us,
311
1048720
2080
para juzgarnos y empujarnos,
17:43
to predictpredecir and identifyidentificar
the troublemakersalborotadores and the rebelsrebeldes,
312
1051720
4176
para predecir e identificar
a los agitadores y a los rebeldes,
17:47
to deploydesplegar persuasionpersuasión
architecturesarquitecturas at scaleescala
313
1055920
3896
para desplegar arquitecturas
de persuasión a escala
17:51
and to manipulatemanipular individualsindividuos one by one
314
1059840
4136
y para manipularnos uno por uno
17:56
usingutilizando theirsu personalpersonal, individualindividual
weaknessesdebilidades and vulnerabilitiesvulnerabilidades,
315
1064000
5440
usando las debilidades y vulnerabilidades
personales e individuales de cada uno,
18:02
and if they're doing it at scaleescala
316
1070720
2200
y si lo están haciendo a escala
con nuestras pantallas personales
18:06
throughmediante our privateprivado screenspantallas
317
1074080
1736
18:07
so that we don't even know
318
1075840
1656
para que ni siquiera sepamos
18:09
what our fellowcompañero citizenslos ciudadanos
and neighborsvecinos are seeingviendo,
319
1077520
2760
lo que ven nuestros
compañeros ciudadanos y vecinos,
18:13
that authoritarianismautoritarismo
will envelopenvolver us like a spider'saraña webweb
320
1081560
4816
ese autoritarismo nos atrapará
como una telaraña
18:18
and we maymayo not even know we're in it.
321
1086400
2480
y quizá ni siquiera sepamos
que estamos en ella.
18:22
So Facebook'sFacebook marketmercado capitalizationcapitalización
322
1090440
2936
Así que la capitalización
de mercado de Facebook
18:25
is approachingque se acerca halfmitad a trilliontrillón dollarsdólares.
323
1093400
3296
se acerca a medio billón de dólares.
18:28
It's because it workstrabajos great
as a persuasionpersuasión architecturearquitectura.
324
1096720
3120
Es porque funciona muy bien
como arquitectura de persuasión.
18:33
But the structureestructura of that architecturearquitectura
325
1101760
2816
Pero la estructura de esa arquitectura
18:36
is the samemismo whethersi you're sellingde venta shoesZapatos
326
1104600
3216
es la misma, sea que vendan zapatos
18:39
or whethersi you're sellingde venta politicspolítica.
327
1107840
2496
o sea que vendan política.
18:42
The algorithmsAlgoritmos do not know the differencediferencia.
328
1110360
3120
Los algoritmos no ven la diferencia.
18:46
The samemismo algorithmsAlgoritmos setconjunto loosesuelto uponsobre us
329
1114240
3296
Los mismos algoritmos
utilizados en nosotros
18:49
to make us more pliableflexible for adsanuncios
330
1117560
3176
para hacernos más receptivos
a los anuncios,
18:52
are alsoademás organizingorganizar our politicalpolítico,
personalpersonal and socialsocial informationinformación flowsflujos,
331
1120760
6736
también organizan nuestros flujos
de información política, social y personal
18:59
and that's what's got to changecambio.
332
1127520
1840
y eso debe cambiar.
19:02
Now, don't get me wrongincorrecto,
333
1130240
2296
No me malinterpreten,
19:04
we use digitaldigital platformsplataformas
because they provideproporcionar us with great valuevalor.
334
1132560
3680
usamos plataformas digitales
porque nos ofrecen muchísimo.
19:09
I use FacebookFacebook to keep in touchtoque
with friendsamigos and familyfamilia around the worldmundo.
335
1137120
3560
Yo uso Facebook para estar en contacto
con amigos y familia alrededor del mundo.
19:14
I've writtenescrito about how crucialcrucial
socialsocial mediamedios de comunicación is for socialsocial movementsmovimientos.
336
1142000
5776
He escrito acerca lo cruciales que son
las redes para los movimientos sociales.
19:19
I have studiedestudió how
these technologiestecnologías can be used
337
1147800
3016
He estudiado cómo pueden
usarse estas tecnologías
19:22
to circumventevitar censorshipcensura around the worldmundo.
338
1150840
2480
para eludir la censura en todo el mundo.
19:27
But it's not that the people who runcorrer,
you know, FacebookFacebook or GoogleGoogle
339
1155280
6416
Pero no es que la gente
que administra Facebook o Google
19:33
are maliciouslycon malevolencia and deliberatelydeliberadamente tryingmolesto
340
1161720
2696
esté tratando maliciosa y deliberadamente
19:36
to make the countrypaís
or the worldmundo more polarizedpolarizado
341
1164440
4456
de polarizar un país o el mundo
19:40
and encouragealentar extremismextremismo.
342
1168920
1680
y promover el extremismo.
19:43
I readleer the manymuchos
well-intentionedbien intencionado statementsdeclaraciones
343
1171440
3976
He leído las muchas y
bien intencionadas afirmaciones
19:47
that these people put out.
344
1175440
3320
que esa gente publica.
19:51
But it's not the intentintención or the statementsdeclaraciones
people in technologytecnología make that matterimportar,
345
1179600
6056
Pero no son sus intenciones
ni las afirmaciones lo que importa,
19:57
it's the structuresestructuras
and businessnegocio modelsmodelos they're buildingedificio.
346
1185680
3560
son las estructuras y modelos de negocio
que están construyendo.
20:02
And that's the corenúcleo of the problemproblema.
347
1190360
2096
Y ese es el meollo del problema.
20:04
EitherYa sea FacebookFacebook is a giantgigante con
of halfmitad a trilliontrillón dollarsdólares
348
1192480
4720
O Facebook es una estafa gigante
de medio billón de dólares,
20:10
and adsanuncios don't work on the sitesitio,
349
1198200
1896
los avisos en el sitio no funcionan
20:12
it doesn't work
as a persuasionpersuasión architecturearquitectura,
350
1200120
2696
y no sirve como
arquitectura de persuasión,
20:14
or its powerpoder of influenceinfluencia
is of great concernpreocupación.
351
1202840
4120
o su poder de influencia
es altamente preocupante.
20:20
It's eitherya sea one or the other.
352
1208560
1776
Debe ser una o la otra.
20:22
It's similarsimilar for GoogleGoogle, too.
353
1210360
1600
Es similar también para Google.
20:24
So what can we do?
354
1212880
2456
Así que, ¿qué podemos hacer?
20:27
This needsnecesariamente to changecambio.
355
1215360
1936
Esto necesita cambiar.
20:29
Now, I can't offeroferta a simplesencillo recipereceta,
356
1217320
2576
No puedo ofrecerles una receta simple,
20:31
because we need to restructurereestructurar
357
1219920
2256
porque necesitamos reestructurar
20:34
the wholetodo way our
digitaldigital technologytecnología operatesopera.
358
1222200
3016
completamente cómo opera
nuestra tecnología digital.
20:37
Everything from the way
technologytecnología is developeddesarrollado
359
1225240
4096
Todo, desde la manera
en que se desarrolla la tecnología
20:41
to the way the incentivesincentivos,
economiceconómico and otherwisede otra manera,
360
1229360
3856
hasta la manera en que los incentivos,
económicos y demás,
20:45
are builtconstruido into the systemsistema.
361
1233240
2280
están incorporados al sistema.
20:48
We have to facecara and try to dealacuerdo with
362
1236480
3456
Tenemos que encarar y tratar de lidiar
con la falta de transparencia
20:51
the lackausencia of transparencytransparencia
createdcreado by the proprietarypropiedad algorithmsAlgoritmos,
363
1239960
4656
creada por los algoritmos patentados,
20:56
the structuralestructural challengereto
of machinemáquina learning'saprendiendo opacityopacidad,
364
1244640
3816
el desafío estructural en la opacidad
del aprendizaje automático,
21:00
all this indiscriminateindistinto datadatos
that's beingsiendo collectedrecogido about us.
365
1248480
3400
todos estos datos sobre nosotros
recolectados indiscriminadamente.
21:05
We have a biggrande tasktarea in frontfrente of us.
366
1253000
2520
Tenemos una gran tarea por delante.
21:08
We have to mobilizemovilizar our technologytecnología,
367
1256160
2680
Tenemos que movilizar nuestra tecnología,
21:11
our creativitycreatividad
368
1259760
1576
nuestra creatividad
21:13
and yes, our politicspolítica
369
1261360
1880
y sí, nuestra política,
21:16
so that we can buildconstruir
artificialartificial intelligenceinteligencia
370
1264240
2656
para que podamos construir
inteligencia artificial
21:18
that supportsapoyos us in our humanhumano goalsmetas
371
1266920
3120
que apoye nuestros objetivos humanos,
21:22
but that is alsoademás constrainedconstreñido
by our humanhumano valuesvalores.
372
1270800
3920
pero que también esté limitada
por nuestros valores humanos.
21:27
And I understandentender this won'tcostumbre be easyfácil.
373
1275600
2160
Entiendo que esto no será sencillo.
21:30
We mightpodría not even easilyfácilmente agreede acuerdo
on what those termscondiciones mean.
374
1278360
3600
Quizá ni siquiera acordemos fácilmente
qué significan esos términos.
21:34
But if we take seriouslyseriamente
375
1282920
2400
Pero si nos tomamos en serio
21:38
how these systemssistemas that we
dependdepender on for so much operatefuncionar,
376
1286240
5976
cómo operan estos sistemas
de los que dependemos para tantas cosas,
21:44
I don't see how we can postponeposponer
this conversationconversacion anymorenunca más.
377
1292240
4120
no veo cómo podemos seguir
posponiendo esta conversación.
21:49
These structuresestructuras
378
1297200
2536
Estas estructuras
21:51
are organizingorganizar how we functionfunción
379
1299760
4096
están organizando cómo funcionamos
21:55
and they're controllingcontrolador
380
1303880
2296
y están controlando
21:58
what we can and we cannotno poder do.
381
1306200
2616
lo que podemos y no podemos hacer.
22:00
And manymuchos of these ad-financedfinanciado por publicidad platformsplataformas,
382
1308840
2456
Muchas de estas plataformas
financiadas por anuncios
22:03
they boastalarde that they're freegratis.
383
1311320
1576
presumen de ser gratuitas.
22:04
In this contextcontexto, it meansmedio
that we are the productproducto that's beingsiendo soldvendido.
384
1312920
4560
En este contexto, eso significa
que nosotros somos el producto de venta.
22:10
We need a digitaldigital economyeconomía
385
1318840
2736
Necesitamos una economía digital
22:13
where our datadatos and our attentionatención
386
1321600
3496
donde nuestros datos y nuestra atención
22:17
is not for saleventa to the highest-biddingla mejor oferta
authoritarianautoritario or demagoguedemagogo.
387
1325120
5080
no estén a la venta para el autoritario
o demagogo que pague más.
22:23
(ApplauseAplausos)
388
1331160
3800
(Aplausos)
22:30
So to go back to
that HollywoodHollywood paraphraseparáfrasis,
389
1338480
3256
Así que, volviendo
a la paráfrasis de Hollywood:
22:33
we do want the prodigiousprodigioso potentialpotencial
390
1341760
3736
Sí, queremos que el enorme potencial
22:37
of artificialartificial intelligenceinteligencia
and digitaldigital technologytecnología to blossomflor,
391
1345520
3200
de la inteligencia artificial
y la tecnología digital florezca,
22:41
but for that, we mustdebe facecara
this prodigiousprodigioso menaceamenaza,
392
1349400
4936
pero para eso debemos enfrentar
esta enorme amenaza,
22:46
open-eyedojos abiertos and now.
393
1354360
1936
con los ojos abiertos y ahora.
22:48
Thank you.
394
1356320
1216
Gracias.
22:49
(ApplauseAplausos)
395
1357560
4640
(Aplausos)
Translated by Claudia Viveros
Reviewed by Analia Padin

▲Back to top

ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.

Why you should listen

We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.

Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.

Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.

More profile about the speaker
Zeynep Tufekci | Speaker | TED.com