ABOUT THE SPEAKER
Margaret Mitchell - AI research scientist
Margaret Mitchell is a senior research scientist in Google's Research & Machine Intelligence group, working on artificial intelligence.

Why you should listen

Margaret Mitchell's research involves vision-language and grounded language generation, focusing on how to evolve artificial intelligence towards positive goals. Her work combines computer vision, natural language processing, social media as well as many statistical methods and insights from cognitive science. Before Google, Mitchell was a founding member of Microsoft Research's "Cognition" group, focused on advancing artificial intelligence, and a researcher in Microsoft Research's Natural Language Processing group.

More profile about the speaker
Margaret Mitchell | Speaker | TED.com
TED@BCG Milan

Margaret Mitchell: How we can build AI to help humans, not hurt us

Margaret Mitchell: Cómo podemos construir la IA que nos ayude sin perjudicarnos

Filmed:
1,154,210 views

Como investigadora científica de Google, Margaret Mitchell ayuda a desarrollar computadoras que puedan comunicarse sobre lo que ven y entienden. Ella advierte sobre las lagunas, los puntos ciegos y los sesgos que codificamos inconscientemente en la IA, y nos pide que consideremos qué significará para el mañana la tecnología que creamos hoy. "Todo lo que vemos ahora es una instantánea de la evolución de la inteligencia artificial", dice Mitchell. "Si queremos que la IA evolucione de una manera que ayude a los humanos, entonces debemos definir los objetivos y las estrategias que permitan ese camino ahora".
- AI research scientist
Margaret Mitchell is a senior research scientist in Google's Research & Machine Intelligence group, working on artificial intelligence. Full bio

Double-click the English transcript below to play the video.

00:13
I work on helpingración computersordenadores
communicatecomunicar about the worldmundo around us.
0
1381
4015
Trabajo para ayudar a las computadoras
a comunicarse en el mundo que nos rodea.
00:17
There are a lot of waysformas to do this,
1
5754
1793
Hay muchas maneras de hacer esto,
00:19
and I like to focusatención on helpingración computersordenadores
2
7571
2592
y yo me centro en
ayudar a las computadoras
00:22
to talk about what they see
and understandentender.
3
10187
2874
a que hablen sobre lo que ven y entienden.
00:25
GivenDado a sceneescena like this,
4
13514
1571
Ante una escena como esta,
00:27
a modernmoderno computer-visionvisión por computador algorithmalgoritmo
5
15109
1905
un algoritmo moderno
de visión por computadora
00:29
can tell you that there's a womanmujer
and there's a dogperro.
6
17038
3095
puedo decir que hay
una mujer y un perro.
00:32
It can tell you that the womanmujer is smilingsonriente.
7
20157
2706
Puede decir que la mujer está sonriendo.
00:34
It mightpodría even be ablepoder to tell you
that the dogperro is incrediblyincreíblemente cutelinda.
8
22887
3873
Incluso podría decir que
el perro es muy lindo.
00:38
I work on this problemproblema
9
26784
1349
Yo trabajo en este problema
00:40
thinkingpensando about how humanshumanos
understandentender and processproceso the worldmundo.
10
28157
4212
pensando en cómo los humanos
entienden y procesan el mundo.
00:45
The thoughtspensamientos, memoriesrecuerdos and storiescuentos
11
33577
2952
Los pensamientos, recuerdos e historias
00:48
that a sceneescena like this
mightpodría evokeevocar for humanshumanos.
12
36553
2818
que una escena como esta
pueda evocar a los humanos.
00:51
All the interconnectionsinterconexiones
of relatedrelacionado situationssituaciones.
13
39395
4285
Todas las interconexiones
de situaciones relacionadas.
00:55
Maybe you've seenvisto
a dogperro like this one before,
14
43704
3126
Tal vez hayan visto
un perro como este antes,
00:58
or you've spentgastado time
runningcorriendo on a beachplaya like this one,
15
46854
2969
o han estado tiempo corriendo
en una playa como esta,
01:01
and that furtherpromover evokesevoca thoughtspensamientos
and memoriesrecuerdos of a pastpasado vacationvacaciones,
16
49847
4778
y eso además evoca pensamientos
y recuerdos de vacaciones pasadas,
01:06
pastpasado timesveces to the beachplaya,
17
54649
1920
tiempos pasados ​​a la playa,
01:08
timesveces spentgastado runningcorriendo around
with other dogsperros.
18
56593
2603
tiempos pasados
​​corriendo con otros perros.
01:11
One of my guidingestrella de guía principlesprincipios
is that by helpingración computersordenadores to understandentender
19
59688
5207
Uno de mis principios rectores
al ayudar a las computadoras a entender,
01:16
what it's like to have these experiencesexperiencias,
20
64919
2896
lo que significan estas experiencias,
01:19
to understandentender what we sharecompartir
and believe and feel,
21
67839
5176
para que entiendan lo que
compartimos, creemos y sentimos.
01:26
then we're in a great positionposición
to startcomienzo evolvingevolucionando computercomputadora technologytecnología
22
74094
4310
Estamos en una excelente posición para
hacer crecer la tecnología informática
01:30
in a way that's complementarycomplementario
with our ownpropio experiencesexperiencias.
23
78428
4587
de manera complementaria a
nuestras propias experiencias.
01:35
So, diggingexcavación more deeplyprofundamente into this,
24
83539
3387
Y profundizando más en esto,
01:38
a fewpocos yearsaños agohace I beganempezó workingtrabajando on helpingración
computersordenadores to generategenerar human-likehumano storiescuentos
25
86950
5905
hace algunos años comencé a trabajar
para ayudar a las computadoras a generar
historias similares a las humanas
de secuencias de imágenes.
01:44
from sequencessecuencias of imagesimágenes.
26
92879
1666
01:47
So, one day,
27
95427
1904
Un día trabajando con mi computadora
01:49
I was workingtrabajando with my computercomputadora to askpedir it
what it thought about a tripviaje to AustraliaAustralia.
28
97355
4622
le pregunté qué pensaba
acerca de un viaje a Australia.
Echó un vistazo
a las imágenes y vio un koala.
01:54
It tooktomó a look at the picturesimágenes,
and it saw a koalacoala.
29
102768
2920
La computadora no sabía
qué era un koala,
01:58
It didn't know what the koalacoala was,
30
106236
1643
01:59
but it said it thought
it was an interesting-lookingaspecto interesante creaturecriatura.
31
107903
2999
pero dijo que creía que era
una criatura de aspecto interesante.
02:04
Then I sharedcompartido with it a sequencesecuencia of imagesimágenes
about a housecasa burningardiente down.
32
112053
4004
Luego compartí con ella una secuencia
de imágenes sobre una casa ardiendo.
02:09
It tooktomó a look at the imagesimágenes and it said,
33
117704
3285
Echó un vistazo a las imágenes y dijo:
02:13
"This is an amazingasombroso viewver!
This is spectacularespectacular!"
34
121013
3500
"¡Esta es una vista increíble!
¡Esto es espectacular!"
02:17
It sentexpedido chillsresfriado down my spineespina.
35
125450
2095
Me produjo escalofríos.
02:20
It saw a horriblehorrible, life-changingcambio de vida
and life-destroyingdestrucción de la vida eventevento
36
128983
4572
Vio un evento horrible,
que cambia y que destruye la vida
02:25
and thought it was something positivepositivo.
37
133579
2382
y la computadora pensó
que era algo positivo.
02:27
I realizeddio cuenta that it recognizedReconocido
the contrastcontraste,
38
135985
3441
Me di cuenta de que reconocía el contraste
02:31
the redsrojos, the yellowsamarillos,
39
139450
2699
los rojos, los amarillos,
02:34
and thought it was something
worthvalor remarkingcambio de nomenclatura on positivelyafirmativamente.
40
142173
3078
y pensó que era algo digno
de comentar positivamente.
Y en parte la razón del porqué hacía esto
02:37
And partparte of why it was doing this
41
145928
1615
02:39
was because mostmás
of the imagesimágenes I had givendado it
42
147577
2945
era porque la mayoría de
las imágenes que le había dado
02:42
were positivepositivo imagesimágenes.
43
150546
1840
eran imágenes positivas,
02:44
That's because people
tendtender to sharecompartir positivepositivo imagesimágenes
44
152903
3658
Eso es porque la gente tiende
a compartir imágenes positivas
02:48
when they talk about theirsu experiencesexperiencias.
45
156585
2190
cuando hablan de sus experiencias.
02:51
When was the last time
you saw a selfieselfie at a funeralfuneral?
46
159267
2541
¿Cuándo fue la última vez que vieron
un selfie en un funeral?
02:55
I realizeddio cuenta that,
as I workedtrabajó on improvingmejorando AIAI
47
163434
3095
Mientras trabajaba en la mejora de la IA
02:58
tasktarea by tasktarea, datasetconjunto de datos by datasetconjunto de datos,
48
166553
3714
tarea por tarea,
grupo de datos tras grupo de datos,
03:02
that I was creatingcreando massivemasivo gapsbrechas,
49
170291
2897
Me di cuenta de que
estaba creando lagunas masivas,
03:05
holesagujeros and blindciego spotsmanchas
in what it could understandentender.
50
173212
3999
agujeros y puntos ciegos
en lo que podría entender.
03:10
And while doing so,
51
178307
1334
Y al hacerlo,
03:11
I was encodingcodificación all kindsclases of biasessesgos.
52
179665
2483
estaba codificando
todo tipo de prejuicios.
03:15
BiasesSesgos that reflectreflejar a limitedlimitado viewpointpunto de vista,
53
183029
3318
Sesgos que reflejan
un punto de vista limitado
03:18
limitedlimitado to a singlesoltero datasetconjunto de datos --
54
186371
2261
limitado a un solo conjunto de datos.
03:21
biasessesgos that can reflectreflejar
humanhumano biasessesgos foundencontró in the datadatos,
55
189283
3858
Sesgos que pueden reflejar
sesgos humanos encontrados en los datos,
03:25
suchtal as prejudiceperjudicar and stereotypingestereotipos.
56
193165
3104
como los prejuicios y los estereotipos.
03:29
I thought back to the evolutionevolución
of the technologytecnología
57
197554
3057
Pensé en la evolución de la tecnología
03:32
that broughttrajo me to where I was that day --
58
200635
2502
eso me llevó a donde estaba ese día.
03:35
how the first colorcolor imagesimágenes
59
203966
2233
Las primeras imágenes en color
03:38
were calibratedcalibrado againsten contra
a whiteblanco woman'smujer skinpiel,
60
206223
3048
fueron calibradas
contra la piel de una mujer blanca,
03:41
meaningsentido that colorcolor photographyfotografía
was biasedparcial againsten contra blacknegro facescaras.
61
209665
4145
lo que significa que la foto en color
estaba sesgada contra las caras negras.
03:46
And that samemismo biasparcialidad, that samemismo blindciego spotlugar
62
214514
2925
Y ese mismo sesgo, ese mismo punto ciego
03:49
continuedcontinuado well into the '90s.
63
217463
1867
continuó hasta bien entrada
la década de los 90.
03:51
And the samemismo blindciego spotlugar
continuescontinúa even todayhoy
64
219701
3154
Y el mismo punto ciego
continúa incluso hoy
03:54
in how well we can recognizereconocer
differentdiferente people'sla gente facescaras
65
222879
3698
al intentar reconocer
las caras de las personas
03:58
in facialfacial recognitionreconocimiento technologytecnología.
66
226601
2200
mediante tecnología
de reconocimiento facial.
Pensé en el estado de la cuestión
en la investigación en la actualidad
04:01
I thoughaunque about the stateestado of the artart
in researchinvestigación todayhoy,
67
229323
3143
04:04
where we tendtender to limitlímite our thinkingpensando
to one datasetconjunto de datos and one problemproblema.
68
232490
4514
donde se tiende a
ceñir nuestro pensamiento
a un solo conjunto de datos
y a un problema.
04:09
And that in doing so, we were creatingcreando
more blindciego spotsmanchas and biasessesgos
69
237688
4881
Y al hacerlo, creamos
aún más puntos ciegos y sesgos
04:14
that the AIAI could furtherpromover amplifyamplificar.
70
242593
2277
que la propia IA podría generar.
Me di cuenta de que
había que pensar profundamente
04:17
I realizeddio cuenta then
that we had to think deeplyprofundamente
71
245712
2079
04:19
about how the technologytecnología we work on todayhoy
looksmiradas in fivecinco yearsaños, in 10 yearsaños.
72
247815
5519
en cómo será la tecnología en la que
trabajamos hoy en cinco o en 10 años.
Los humanos evolucionan lentamente,
con tiempo para corregir problemas
04:25
HumansHumanos evolveevolucionar slowlydespacio,
with time to correctcorrecto for issuescuestiones
73
253990
3142
04:29
in the interactionInteracción of humanshumanos
and theirsu environmentambiente.
74
257156
3534
en la interacción de
los humanos y su entorno.
04:33
In contrastcontraste, artificialartificial intelligenceinteligencia
is evolvingevolucionando at an incrediblyincreíblemente fastrápido ratetarifa.
75
261276
5429
Por el contrario,
la inteligencia artificial evoluciona
a un ritmo increíblemente rápido.
04:39
And that meansmedio that it really mattersasuntos
76
267013
1773
Y eso significa que realmente importa
04:40
that we think about this
carefullycuidadosamente right now --
77
268810
2317
que pensemos en esto
cuidadosamente ya.
04:44
that we reflectreflejar on our ownpropio blindciego spotsmanchas,
78
272180
3008
Que reflexionemos sobre
nuestros propios puntos ciegos,
04:47
our ownpropio biasessesgos,
79
275212
2317
nuestros propios sesgos.
04:49
and think about how that's informinginformando
the technologytecnología we're creatingcreando
80
277553
3857
Y que pensemos en cómo eso alimenta
la tecnología que estamos creando
04:53
and discussdiscutir what the technologytecnología of todayhoy
will mean for tomorrowmañana.
81
281434
3902
y que discutamos qué significará
la tecnología de hoy para mañana.
04:58
CEOsCEOs and scientistscientíficos have weighedpesado in
on what they think
82
286593
3191
CEOs y científicos han influido
en lo que piensan
05:01
the artificialartificial intelligenceinteligencia technologytecnología
of the futurefuturo will be.
83
289808
3325
que será la tecnología de
inteligencia artificial del futuro.
05:05
StephenStephen HawkingHawking warnsadvierte that
84
293157
1618
Stephen Hawking advierte que
05:06
"ArtificialArtificial intelligenceinteligencia
could endfin mankindhumanidad."
85
294799
3007
"La inteligencia artificial podría
acabar con la humanidad".
05:10
ElonElon MuskAlmizcle warnsadvierte
that it's an existentialexistencial riskriesgo
86
298307
2683
Elon Musk advierte que
es un riesgo existencial
05:13
and one of the greatestmejor risksriesgos
that we facecara as a civilizationcivilización.
87
301014
3574
y uno de los mayores riesgos
que enfrentamos como civilización.
05:17
BillCuenta GatesPuertas has madehecho the pointpunto,
88
305665
1452
Bill Gates ha señalado:
05:19
"I don't understandentender
why people aren'tno son more concernedpreocupado."
89
307141
3185
"No entiendo por qué la gente
no está más preocupada".
Pero estos puntos de vista,
05:23
But these viewspuntos de vista --
90
311412
1318
05:25
they're partparte of the storyhistoria.
91
313618
1734
son parte de la historia.
05:28
The mathmates, the modelsmodelos,
92
316079
2420
Las matemáticas, los modelos,
los bloques de construcción básicos
de la inteligencia artificial
05:30
the basicBASIC buildingedificio blocksbloques
of artificialartificial intelligenceinteligencia
93
318523
3070
05:33
are something that we call accessacceso
and all work with.
94
321617
3135
son algo a lo que llamamos acceso
y con el que todos trabajamos.
05:36
We have open-sourcefuente abierta toolsherramientas
for machinemáquina learningaprendizaje and intelligenceinteligencia
95
324776
3785
Tenemos herramientas de código abierto
para el aprendizaje automático
05:40
that we can contributecontribuir to.
96
328585
1734
y la inteligencia artificial
a lo que podemos contribuir.
05:42
And beyondmás allá that,
we can sharecompartir our experienceexperiencia.
97
330919
3340
Y más allá de eso, podemos
compartir nuestra experiencia.
05:46
We can sharecompartir our experiencesexperiencias
with technologytecnología and how it concernspreocupaciones us
98
334760
3468
Podemos compartir nuestras experiencias
con la tecnología, cómo nos concierne
05:50
and how it excitesexcita us.
99
338252
1467
y cómo nos entusiasma
05:52
We can discussdiscutir what we love.
100
340251
1867
Podemos discutir sobre lo que amamos.
05:55
We can communicatecomunicar with foresightprevisión
101
343244
2031
Podemos comunicarnos con previsión
05:57
about the aspectsaspectos of technologytecnología
that could be more beneficialbeneficioso
102
345299
4857
sobre los aspectos de la tecnología
que podrían ser más beneficiosos
06:02
or could be more problematicproblemático over time.
103
350180
2600
o más problemáticos con el tiempo.
06:05
If we all focusatención on openingapertura up
the discussiondiscusión on AIAI
104
353799
4143
Si todos nos enfocamos
en abrir la discusión sobre la IA
06:09
with foresightprevisión towardshacia the futurefuturo,
105
357966
1809
con visión de futuro,
06:13
this will help createcrear a generalgeneral
conversationconversacion and awarenessconciencia
106
361093
4270
esto ayudará a crear
una conversación y conciencia general
06:17
about what AIAI is now,
107
365387
2513
sobre lo que es la AI ahora,
en qué puede llegar a convertirse
06:21
what it can becomevolverse
108
369212
2001
y sobre todas las cosas
que tenemos que hacer
06:23
and all the things that we need to do
109
371237
1785
06:25
in orderorden to enablehabilitar that outcomeSalir
that bestmejor suitstrajes us.
110
373046
3753
para permitir ese resultado
que mejor nos convenga.
06:29
We alreadyya see and know this
in the technologytecnología that we use todayhoy.
111
377490
3674
Ya vemos y sabemos esto
en la tecnología que usamos hoy.
06:33
We use smartinteligente phonesteléfonos
and digitaldigital assistantsasistentes and RoombasRoombas.
112
381767
3880
Usamos teléfonos inteligentes y
asistentes digitales y Roombas.
06:38
Are they evilmal?
113
386457
1150
¿Son malvados?
06:40
Maybe sometimesa veces.
114
388268
1547
Quizá algunas veces.
06:42
Are they beneficialbeneficioso?
115
390664
1333
¿Son beneficiosos?
06:45
Yes, they're that, too.
116
393005
1533
Sí, también lo son también.
06:48
And they're not all the samemismo.
117
396236
1761
Y no son todos lo mismo.
06:50
And there you alreadyya see
a lightligero shiningbrillante on what the futurefuturo holdssostiene.
118
398489
3540
Y allí ya ves una luz que brilla
en lo que depara el futuro.
06:54
The futurefuturo continuescontinúa on
from what we buildconstruir and createcrear right now.
119
402942
3619
El futuro continúa en base a lo que
construimos y creamos ahora.
06:59
We setconjunto into motionmovimiento that dominodominó effectefecto
120
407165
2642
Ponemos en movimiento ese efecto dominó
07:01
that carvestallar out AI'sDe AI evolutionaryevolutivo pathcamino.
121
409831
2600
que esculpe el camino evolutivo de la AI.
07:05
In our time right now,
we shapeforma the AIAI of tomorrowmañana.
122
413173
2871
Ahora en este momento,
damos forma a la IA del mañana.
07:08
TechnologyTecnología that immersessumerge us
in augmentedaumentado realitiesrealidades
123
416566
3699
Tecnología que nos sumerge
en realidades aumentadas
07:12
bringingtrayendo to life pastpasado worldsmundos.
124
420289
2566
dando vida a mundos pasados.
07:15
TechnologyTecnología that helpsayuda people
to sharecompartir theirsu experiencesexperiencias
125
423844
4312
Tecnología que ayuda a las personas
a compartir sus experiencias
07:20
when they have difficultydificultad communicatingcomunicado.
126
428180
2262
cuando tienen dificultad para comunicarse.
07:23
TechnologyTecnología builtconstruido on understandingcomprensión
the streamingtransmisión visualvisual worldsmundos
127
431323
4532
Tecnología basada en la comprensión
de la transmisión de mundos visuales
07:27
used as technologytecnología for self-drivingconducción autónoma carscarros.
128
435879
3079
utilizado como tecnología
automóviles sin conductor.
07:32
TechnologyTecnología builtconstruido on understandingcomprensión imagesimágenes
and generatinggenerando languageidioma,
129
440490
3413
Tecnología basada en entender
imágenes y generar lenguaje,
07:35
evolvingevolucionando into technologytecnología that helpsayuda people
who are visuallyvisualmente impaireddañado
130
443927
4063
evolucionando hacia tecnología que ayuda
a las personas con discapacidad visual
07:40
be better ablepoder to accessacceso the visualvisual worldmundo.
131
448014
2800
a tener mayor acceso al mundo visual.
07:42
And we alsoademás see how technologytecnología
can leaddirigir to problemsproblemas.
132
450838
3261
Y también vemos cómo la tecnología
puede generar problemas.
07:46
We have technologytecnología todayhoy
133
454885
1428
Tenemos tecnología hoy
07:48
that analyzesanálisis physicalfísico
characteristicscaracterísticas we're bornnacido with --
134
456337
3835
que analiza las características físicas
con las que nacemos,
07:52
suchtal as the colorcolor of our skinpiel
or the look of our facecara --
135
460196
3272
como el color de nuestra piel
o el aspecto de nuestra cara
07:55
in orderorden to determinedeterminar whethersi or not
we mightpodría be criminalscriminales or terroriststerroristas.
136
463492
3804
para determinar
si somos o no criminales o terroristas.
07:59
We have technologytecnología
that crunchesabdominales throughmediante our datadatos,
137
467688
2905
Tenemos tecnología que
cruje a través de nuestros datos,
08:02
even datadatos relatingrelativo
to our gendergénero or our racecarrera,
138
470617
2896
incluso datos relacionados
con nuestro género o nuestra raza,
08:05
in orderorden to determinedeterminar whethersi or not
we mightpodría get a loanpréstamo.
139
473537
2865
para determinar
si podemos o no obtener un préstamo.
Todo lo que vemos ahora
08:09
All that we see now
140
477494
1579
08:11
is a snapshotinstantánea in the evolutionevolución
of artificialartificial intelligenceinteligencia.
141
479097
3617
es una instantánea de la evolución
de la inteligencia artificial.
08:15
Because where we are right now,
142
483763
1778
Porque donde estamos ahora,
08:17
is withindentro a momentmomento of that evolutionevolución.
143
485565
2238
está dentro de
un momento de esa evolución.
08:20
That meansmedio that what we do now
will affectafectar what happenssucede down the linelínea
144
488690
3802
Eso significa que lo que hacemos
ahora afectará lo que sucede
inmediatamente y en el futuro
08:24
and in the futurefuturo.
145
492516
1200
08:26
If we want AIAI to evolveevolucionar
in a way that helpsayuda humanshumanos,
146
494063
3951
Si queremos que la IA evolucione
de una manera que ayude a los humanos,
08:30
then we need to definedefinir
the goalsmetas and strategiesestrategias
147
498038
2801
debemos definir
los objetivos y estrategias
08:32
that enablehabilitar that pathcamino now.
148
500863
1733
que habilita ese camino ahora.
08:35
What I'd like to see is something
that fitsencaja well with humanshumanos,
149
503680
3738
Lo que me gustaría ver es algo
que se adapte bien a los humanos,
08:39
with our culturecultura and with the environmentambiente.
150
507442
2800
a nuestra cultura y medio ambiente.
08:43
TechnologyTecnología that aidsSIDA and assistsayuda
those of us with neurologicalneurológico conditionscondiciones
151
511435
4484
Tecnología que ayuda y asiste a aquellos
de nosotros con alteraciones neurológicas
08:47
or other disabilitiesdiscapacidades
152
515943
1721
u otras discapacidades
08:49
in orderorden to make life
equallyIgualmente challengingdesafiante for everyonetodo el mundo.
153
517688
3216
para hacer la vida igualmente
desafiante para todos.
08:54
TechnologyTecnología that workstrabajos
154
522097
1421
Tecnología que funciona
08:55
regardlessindependientemente of your demographicsdatos demográficos
or the colorcolor of your skinpiel.
155
523542
3933
independientemente de
su demografía o su color de piel.
09:00
And so todayhoy, what I focusatención on
is the technologytecnología for tomorrowmañana
156
528383
4742
Y hoy, en lo que me enfoco es
en la tecnología para el mañana
09:05
and for 10 yearsaños from now.
157
533149
1733
y para los próximos 10 años
a partir de ahora.
09:08
AIAI can turngiro out in manymuchos differentdiferente waysformas.
158
536530
2634
La IA puede aparecer
de muchas maneras diferentes.
09:11
But in this casecaso,
159
539688
1225
Pero en este caso,
09:12
it isn't a self-drivingconducción autónoma carcoche
withoutsin any destinationdestino.
160
540937
3328
no es un auto sin conductor y sin destino.
09:16
This is the carcoche that we are drivingconducción.
161
544884
2400
Este es el auto que estamos manejando.
09:19
We chooseescoger when to speedvelocidad up
and when to slowlento down.
162
547953
3595
Elegimos cuándo acelerar y
cuándo disminuir la velocidad.
09:23
We chooseescoger if we need to make a turngiro.
163
551572
2400
Elegimos si necesitamos dar un giro.
09:26
We chooseescoger what the AIAI
of the futurefuturo will be.
164
554868
3000
Elegimos cuál será la IA del futuro.
09:31
There's a vastvasto playingjugando fieldcampo
165
559186
1337
Hay un vasto campo de juego
09:32
of all the things that artificialartificial
intelligenceinteligencia can becomevolverse.
166
560547
2965
de todas las cosas que la inteligencia
artificial puede llegar a ser.
09:36
It will becomevolverse manymuchos things.
167
564064
1800
Se convertirá en muchas cosas.
09:39
And it's up to us now,
168
567694
1732
Y depende de nosotros ahora,
09:41
in orderorden to figurefigura out
what we need to put in placelugar
169
569450
3061
descubrir lo que debemos poner en marcha
09:44
to make sure the outcomesresultados
of artificialartificial intelligenceinteligencia
170
572535
3807
para asegurarnos de que los resultados
de la inteligencia artificial
09:48
are the onesunos that will be
better for all of us.
171
576366
3066
son los que serán mejores
para todos nosotros.
09:51
Thank you.
172
579456
1150
Gracias.
09:52
(ApplauseAplausos)
173
580630
2187
(Aplausos)

▲Back to top

ABOUT THE SPEAKER
Margaret Mitchell - AI research scientist
Margaret Mitchell is a senior research scientist in Google's Research & Machine Intelligence group, working on artificial intelligence.

Why you should listen

Margaret Mitchell's research involves vision-language and grounded language generation, focusing on how to evolve artificial intelligence towards positive goals. Her work combines computer vision, natural language processing, social media as well as many statistical methods and insights from cognitive science. Before Google, Mitchell was a founding member of Microsoft Research's "Cognition" group, focused on advancing artificial intelligence, and a researcher in Microsoft Research's Natural Language Processing group.

More profile about the speaker
Margaret Mitchell | Speaker | TED.com