ABOUT THE SPEAKER
Margaret Mitchell - AI research scientist
Margaret Mitchell is a senior research scientist in Google's Research & Machine Intelligence group, working on artificial intelligence.

Why you should listen

Margaret Mitchell's research involves vision-language and grounded language generation, focusing on how to evolve artificial intelligence towards positive goals. Her work combines computer vision, natural language processing, social media as well as many statistical methods and insights from cognitive science. Before Google, Mitchell was a founding member of Microsoft Research's "Cognition" group, focused on advancing artificial intelligence, and a researcher in Microsoft Research's Natural Language Processing group.

More profile about the speaker
Margaret Mitchell | Speaker | TED.com
TED@BCG Milan

Margaret Mitchell: How we can build AI to help humans, not hurt us

Margaret Mitchell: Hoe kunnen we AI zo maken dat ze ons helpt en geen pijn doet

Filmed:
1,154,210 views

Als onderzoekswetenschapper bij Google helpt Margaret Mitchell computers te ontwikkelen die kunnen communiceren over wat ze zien en begrijpen. Ze vertelt een waarschuwend verhaal over de hiaten, blinde vlekken en vooroordelen die we onbewust in AI coderen -- en vraagt ons om na te denken over wat de technologie, die we vandaag creëren, morgen zal betekenen. "Alles wat we nu zien, is een momentopname in de evolutie van kunstmatige intelligentie," zegt Mitchell. "Als we willen dat AI evolueert op een manier die mensen helpt, dan moeten we de doelen en strategieën definiëren die dat pad nu mogelijk maken."
- AI research scientist
Margaret Mitchell is a senior research scientist in Google's Research & Machine Intelligence group, working on artificial intelligence. Full bio

Double-click the English transcript below to play the video.

00:13
I work on helpinghelpen computerscomputers
communicatecommuniceren about the worldwereld- around us.
0
1381
4015
Ik help computers communiceren
over de wereld om ons heen.
00:17
There are a lot of waysmanieren to do this,
1
5754
1793
Er zijn veel manieren om dit te doen
00:19
and I like to focusfocus on helpinghelpen computerscomputers
2
7571
2592
en ik help computers
00:22
to talk about what they see
and understandbegrijpen.
3
10187
2874
om te praten over
wat ze zien en begrijpen.
00:25
GivenGegeven a scenetafereel like this,
4
13514
1571
In een scène als deze
00:27
a modernmodern computer-visioncomputer-visie algorithmalgoritme
5
15109
1905
kan een modern computer-visie-algoritme
00:29
can tell you that there's a womanvrouw
and there's a doghond.
6
17038
3095
je vertellen dat er een vrouw
en een hond is te zien.
00:32
It can tell you that the womanvrouw is smilingglimlachen.
7
20157
2706
Het kan je vertellen dat de vrouw lacht.
00:34
It mightmacht even be ablein staat to tell you
that the doghond is incrediblyongelooflijk cuteschattig.
8
22887
3873
Het kan je misschien vertellen
dat de hond ongelooflijk schattig is.
00:38
I work on this problemprobleem
9
26784
1349
Ik werk aan dit probleem
00:40
thinkinghet denken about how humansmensen
understandbegrijpen and processwerkwijze the worldwereld-.
10
28157
4212
door na te denken over hoe mensen
de wereld begrijpen en verwerken.
00:45
The thoughtsgedachten, memoriesherinneringen and storiesverhalen
11
33577
2952
De gedachten, herinneringen en verhalen
00:48
that a scenetafereel like this
mightmacht evokeoproepen for humansmensen.
12
36553
2818
die een scène als deze voor de mens
zou kunnen oproepen.
00:51
All the interconnectionsinterconnecties
of relatedverwant situationssituaties.
13
39395
4285
Al de verwevenheid van verwante situaties.
00:55
Maybe you've seengezien
a doghond like this one before,
14
43704
3126
Misschien heb je een hond
als deze al eerder gezien
00:58
or you've spentdoorgebracht time
runninglopend on a beachstrand like this one,
15
46854
2969
of was je ooit op een strand als dit,
01:01
and that furtherverder evokesroept thoughtsgedachten
and memoriesherinneringen of a pastverleden vacationvakantie,
16
49847
4778
wat dan weer gedachten en herinneringen
aan een voorbije vakantie oproept,
01:06
pastverleden timestijden to the beachstrand,
17
54649
1920
tijd doorgebracht op het strand
01:08
timestijden spentdoorgebracht runninglopend around
with other dogshonden.
18
56593
2603
of tijd doorgebracht met andere honden.
01:11
One of my guidingleidend principlesprincipes
is that by helpinghelpen computerscomputers to understandbegrijpen
19
59688
5207
Een van mijn uitgangspunten
is computers helpen begrijpen
01:16
what it's like to have these experienceservaringen,
20
64919
2896
hoe het is om deze ervaringen te hebben,
01:19
to understandbegrijpen what we sharedelen
and believe and feel,
21
67839
5176
om te begrijpen wat
we delen, geloven en voelen.
01:26
then we're in a great positionpositie
to startbegin evolvingevoluerende computercomputer technologytechnologie
22
74094
4310
We kunnen dan
computertechnologie ontwikkelen
01:30
in a way that's complementarycomplementair
with our owneigen experienceservaringen.
23
78428
4587
op een manier die complementair is
met onze eigen ervaringen.
01:35
So, digginghet graven more deeplydiep into this,
24
83539
3387
Ik verdiepte me hier verder in
01:38
a fewweinig yearsjaar agogeleden I beganbegon workingwerkend on helpinghelpen
computerscomputers to generatevoortbrengen human-likemensachtige storiesverhalen
25
86950
5905
en begon een paar jaar geleden
computers te helpen
om menselijke verhalen
te genereren vanuit beeldsequenties.
01:44
from sequencessequenties of imagesafbeeldingen.
26
92879
1666
01:47
So, one day,
27
95427
1904
Op een dag
01:49
I was workingwerkend with my computercomputer to askvragen it
what it thought about a tripreis to AustraliaAustralië.
28
97355
4622
vroeg ik mijn computer wat hij dacht
over een reis naar Australië.
01:54
It tooknam a look at the picturesafbeeldingen,
and it saw a koalaKoala.
29
102768
2920
Hij bekeek de foto's en zag een koala.
01:58
It didn't know what the koalaKoala was,
30
106236
1643
Het wist niet wat een koala was,
01:59
but it said it thought
it was an interesting-lookinginteressant ogende creatureschepsel.
31
107903
2999
maar vond het
een interessant uitziend wezen.
02:04
Then I sharedgedeelde with it a sequencevolgorde of imagesafbeeldingen
about a househuis burningbrandend down.
32
112053
4004
Toen toonde ik een opeenvolging
van beelden over een afbrandend huis.
02:09
It tooknam a look at the imagesafbeeldingen and it said,
33
117704
3285
Hij bekeek de beelden en zei:
02:13
"This is an amazingverbazingwekkend viewuitzicht!
This is spectacularspectaculaire!"
34
121013
3500
"Dit is een geweldig uitzicht!
Dit is spectaculair!"
02:17
It sentverzonden chillskoude rillingen down my spinewervelkolom.
35
125450
2095
Dat gaf me koude rillingen.
02:20
It saw a horribleverschrikkelijk, life-changingleven-veranderende
and life-destroyingleven vernietigen eventevenement
36
128983
4572
Hij zag een afschuwelijke, ingrijpende,
het leven vernietigende gebeurtenis
02:25
and thought it was something positivepositief.
37
133579
2382
en dacht dat het iets positiefs was.
02:27
I realizedrealiseerde that it recognizederkend
the contrastcontrast,
38
135985
3441
Ik besefte dat hij het contrast herkende,
02:31
the redsReds, the yellowsgeel,
39
139450
2699
het rood, het geel,
02:34
and thought it was something
worthwaard remarkingmerken on positivelypositief.
40
142173
3078
en vond dat hij er positief
op moest reageren.
02:37
And partdeel of why it was doing this
41
145928
1615
Voor een deel kwam dat
02:39
was because mostmeest
of the imagesafbeeldingen I had givengegeven it
42
147577
2945
omdat de meeste beelden die ik had getoond
02:42
were positivepositief imagesafbeeldingen.
43
150546
1840
over positieve zaken gingen.
02:44
That's because people
tendde neiging hebben to sharedelen positivepositief imagesafbeeldingen
44
152903
3658
Dat komt omdat mensen de neiging hebben
om positieve beelden te delen
02:48
when they talk about theirhun experienceservaringen.
45
156585
2190
als ze praten over hun ervaringen.
02:51
When was the last time
you saw a selfieselfie at a funeralbegrafenis?
46
159267
2541
Wanneer zag je de laatste keer
een selfie op een begrafenis?
02:55
I realizedrealiseerde that,
as I workedwerkte on improvingverbeteren AIAI
47
163434
3095
Ik realiseerde me dat, terwijl
ik werkte aan het verbeteren van AI,
02:58
tasktaak by tasktaak, datasetDataset by datasetDataset,
48
166553
3714
taak voor taak, dataset voor dataset,
03:02
that I was creatinghet creëren van massivemassief gapshiaten,
49
170291
2897
ik enorme gaten creëerde,
03:05
holesgaten and blindBlind spotsvlekken
in what it could understandbegrijpen.
50
173212
3999
gaten en blinde vlekken
in wat hij zou kunnen begrijpen.
03:10
And while doing so,
51
178307
1334
En zodoende codeerde
ik allerlei vooroordelen.
03:11
I was encodingcodering all kindssoorten of biasesbiases.
52
179665
2483
03:15
BiasesVooroordelen that reflectreflecteren a limitedbeperkt viewpointgezichtspunt,
53
183029
3318
Vooroordelen die
een beperkt standpunt weergaven,
03:18
limitedbeperkt to a singlesingle datasetDataset --
54
186371
2261
beperkt tot één enkele dataset --
03:21
biasesbiases that can reflectreflecteren
humanmenselijk biasesbiases foundgevonden in the datagegevens,
55
189283
3858
vooroordelen die menselijke vooroordelen
in de data kunnen reflecteren,
03:25
suchzodanig as prejudiceafbreuk te doen and stereotypingstereotypering.
56
193165
3104
zoals vooringenomenheid
en stereotypering.
03:29
I thought back to the evolutionevolutie
of the technologytechnologie
57
197554
3057
Ik overdacht
de evolutie van de technologie
03:32
that broughtbracht me to where I was that day --
58
200635
2502
die me zover had gebracht --
03:35
how the first colorkleur imagesafbeeldingen
59
203966
2233
hoe de eerste afbeeldingen in kleur
03:38
were calibratedgekalibreerd againsttegen
a whitewit woman'svrouw's skinhuid,
60
206223
3048
werden geijkt op
de huid van een blanke vrouw,
03:41
meaningbetekenis that colorkleur photographyfotografie
was biasedvooringenomen againsttegen blackzwart facesgezichten.
61
209665
4145
wat betekende dat de kleurenfotografie
vooringenomen was tegen zwarte gezichten.
Datzelfde vooroordeel,
diezelfde blinde vlek
03:46
And that samedezelfde biasvooroordeel, that samedezelfde blindBlind spotplek
62
214514
2925
duurde voort tot in de jaren 90.
03:49
continuedvervolgd well into the '90s.
63
217463
1867
03:51
And the samedezelfde blindBlind spotplek
continuesblijft even todayvandaag
64
219701
3154
En dezelfde blinde vlek werkt
zelfs vandaag nog door
03:54
in how well we can recognizeherken
differentverschillend people'sPeople's facesgezichten
65
222879
3698
in hoe goed we de gezichten
van verschillende mensen kunnen herkennen
03:58
in facialFacial recognitionerkenning technologytechnologie.
66
226601
2200
met gezichtsherkenningtechnologie.
04:01
I thoughhoewel about the statestaat of the artkunst
in researchOnderzoek todayvandaag,
67
229323
3143
Ik dacht na over de stand van de techniek
in hedendaags onderzoek,
04:04
where we tendde neiging hebben to limitbegrenzing our thinkinghet denken
to one datasetDataset and one problemprobleem.
68
232490
4514
waar we ons denken neigen te beperken
tot één dataset en één probleem.
04:09
And that in doing so, we were creatinghet creëren van
more blindBlind spotsvlekken and biasesbiases
69
237688
4881
Daardoor creëren we
meer blinde vlekken en vooroordelen
die de AI dan verder kan versterken.
04:14
that the AIAI could furtherverder amplifyAmplify.
70
242593
2277
04:17
I realizedrealiseerde then
that we had to think deeplydiep
71
245712
2079
Ik realiseerde me dat we
diep moesten nadenken
04:19
about how the technologytechnologie we work on todayvandaag
lookslooks in fivevijf yearsjaar, in 10 yearsjaar.
72
247815
5519
over hoe de technologie
waar we vandaag aan werken
er over vijf of tien jaar zal uitzien.
04:25
HumansMensen evolveevolueren slowlylangzaam,
with time to correctcorrect for issueskwesties
73
253990
3142
Mensen evolueren langzaam
met tijd om problemen te corrigeren
04:29
in the interactionwisselwerking of humansmensen
and theirhun environmentmilieu.
74
257156
3534
bij de interactie tussen
mensen en hun omgeving.
04:33
In contrastcontrast, artificialkunstmatig intelligenceintelligentie-
is evolvingevoluerende at an incrediblyongelooflijk fastsnel ratetarief.
75
261276
5429
Kunstmatige intelligentie daarentegen
ontwikkelt zich ongelooflijk snel.
04:39
And that meansmiddelen that it really mattersaangelegenheden
76
267013
1773
Daarom is het echt belangrijk
04:40
that we think about this
carefullyvoorzichtig right now --
77
268810
2317
dat we er zorgvuldig over nadenken –
04:44
that we reflectreflecteren on our owneigen blindBlind spotsvlekken,
78
272180
3008
dat we nadenken
over onze eigen blinde vlekken,
04:47
our owneigen biasesbiases,
79
275212
2317
onze eigen vooroordelen,
04:49
and think about how that's informinginformeren
the technologytechnologie we're creatinghet creëren van
80
277553
3857
en nadenken over hoe dat inwerkt
op de technologie die we maken,
en dat we bespreken wat de technologie
van vandaag zal betekenen voor morgen.
04:53
and discussbespreken what the technologytechnologie of todayvandaag
will mean for tomorrowmorgen.
81
281434
3902
04:58
CEOsCEO 's and scientistswetenschappers have weighedgewogen in
on what they think
82
286593
3191
CEO's en wetenschappers
hebben laten weten hoe ze dachten
05:01
the artificialkunstmatig intelligenceintelligentie- technologytechnologie
of the futuretoekomst will be.
83
289808
3325
over de kunstmatige intelligentie
technologie van de toekomst.
05:05
StephenStephen HawkingHawking warnswaarschuwt that
84
293157
1618
Stephen Hawking waarschuwt:
"Kunstmatige intelligentie kan
het einde van de mensheid betekenen."
05:06
"ArtificialKunstmatige intelligenceintelligentie-
could endeinde mankindmensheid."
85
294799
3007
05:10
ElonElon MuskMuskus warnswaarschuwt
that it's an existentialexistentiële riskrisico
86
298307
2683
Elon Musk waarschuwt dat het
een existentieel risico is
05:13
and one of the greatestbeste risksrisico's
that we facegezicht as a civilizationbeschaving.
87
301014
3574
en een van de grootste risico's waarmee
wij als beschaving worden geconfronteerd.
05:17
BillBill GatesGates has madegemaakt the pointpunt,
88
305665
1452
Bill Gates maakte het punt:
05:19
"I don't understandbegrijpen
why people aren'tzijn niet more concernedbezorgd."
89
307141
3185
"Ik begrijp niet waarom dit
de mensen niet méér bezighoudt."
05:23
But these viewskeer bekeken --
90
311412
1318
Maar deze opvattingen --
05:25
they're partdeel of the storyverhaal.
91
313618
1734
maken deel uit van het verhaal.
05:28
The mathwiskunde, the modelsmodellen,
92
316079
2420
De wiskunde, de modellen,
05:30
the basicbasis- buildinggebouw blocksblokken
of artificialkunstmatig intelligenceintelligentie-
93
318523
3070
de bouwstenen
van kunstmatige intelligentie,
we hebben er allemaal toegang toe
en kunnen ermee werken.
05:33
are something that we call accesstoegang
and all work with.
94
321617
3135
We hebben opensourcesoftware
05:36
We have open-sourceopen source toolsgereedschap
for machinemachine learningaan het leren and intelligenceintelligentie-
95
324776
3785
voor machinaal leren
en kunstmatige intelligentie,
05:40
that we can contributebijdragen to.
96
328585
1734
waar we aan kunnen bijdragen.
05:42
And beyondvoorbij that,
we can sharedelen our experienceervaring.
97
330919
3340
Daarenboven kunnen we onze ervaring delen.
Onze ervaringen met de technologie,
05:46
We can sharedelen our experienceservaringen
with technologytechnologie and how it concernszorgen us
98
334760
3468
hoe we ermee te maken hebben
en hoe ze ons boeit.
05:50
and how it excitesprikkelt us.
99
338252
1467
We kunnen bespreken waar we van houden.
05:52
We can discussbespreken what we love.
100
340251
1867
05:55
We can communicatecommuniceren with foresightToekomstverkenning
101
343244
2031
We kunnen communiceren
met vooruitziende blik
05:57
about the aspectsaspecten of technologytechnologie
that could be more beneficialgunstig
102
345299
4857
over aspecten van de technologie
die mettertijd ofwel gunstiger
06:02
or could be more problematicproblematisch over time.
103
350180
2600
ofwel problematischer
zouden kunnen uitvallen.
06:05
If we all focusfocus on openingopening up
the discussiondiscussie on AIAI
104
353799
4143
Als we ons allemaal focussen op
het opentrekken van de discussie over AI
06:09
with foresightToekomstverkenning towardsnaar the futuretoekomst,
105
357966
1809
met vooruitziende blik naar de toekomst,
06:13
this will help createcreëren a generalalgemeen
conversationgesprek and awarenessbewustzijn
106
361093
4270
zal dit bijdragen aan het creëren
van een algemeen gesprek en bewustwording
06:17
about what AIAI is now,
107
365387
2513
over wat AI nu is,
06:21
what it can becomeworden
108
369212
2001
wat het kan worden
06:23
and all the things that we need to do
109
371237
1785
en alle dingen die we moeten doen
06:25
in orderbestellen to enablein staat stellen that outcomeresultaat
that bestbeste suitspast bij us.
110
373046
3753
om het resultaat te krijgen
dat ons het beste past.
06:29
We alreadynu al see and know this
in the technologytechnologie that we use todayvandaag.
111
377490
3674
We zien en kennen dit al
in de technologie van vandaag.
06:33
We use smartslim phonestelefoons
and digitaldigitaal assistantsassistenten and RoombasRoombas.
112
381767
3880
We maken gebruik van smartphones,
pda's en Roomba’s.
06:38
Are they evilonheil?
113
386457
1150
Zijn ze kwaadaardig?
06:40
Maybe sometimessoms.
114
388268
1547
Misschien af en toe.
06:42
Are they beneficialgunstig?
115
390664
1333
Zijn ze nuttig?
06:45
Yes, they're that, too.
116
393005
1533
Ja, dat ook.
06:48
And they're not all the samedezelfde.
117
396236
1761
En ze zijn niet allemaal hetzelfde.
06:50
And there you alreadynu al see
a lightlicht shiningschijnend on what the futuretoekomst holdshoudt.
118
398489
3540
Daar zie je al wat de toekomst belooft.
06:54
The futuretoekomst continuesblijft on
from what we buildbouwen and createcreëren right now.
119
402942
3619
De toekomst bouwt verder op
wat we op dit moment maken.
06:59
We setreeks into motionbeweging that dominoDomino effecteffect
120
407165
2642
We hebben een domino-effect in gang gezet
07:01
that carvesCarves out AI'sAI's evolutionaryevolutionaire pathpad.
121
409831
2600
dat het evolutionaire pad van AI uitzet.
07:05
In our time right now,
we shapevorm the AIAI of tomorrowmorgen.
122
413173
2871
Nu geven we vorm aan de AI van morgen.
07:08
TechnologyTechnologie that immersesdompelt us
in augmentedaangevuld realitiesrealiteiten
123
416566
3699
Technologie die ons onderdompelt
in toegevoegde realiteit
die vergane werelden tot leven brengen.
07:12
bringingbrengen to life pastverleden worldswerelden.
124
420289
2566
07:15
TechnologyTechnologie that helpshelpt people
to sharedelen theirhun experienceservaringen
125
423844
4312
Technologie die mensen helpt
om hun ervaringen te delen
wanneer ze moeite hebben
om te communiceren.
07:20
when they have difficultymoeilijkheid communicatingcommuniceren.
126
428180
2262
07:23
TechnologyTechnologie builtgebouwd on understandingbegrip
the streamingstreaming visualzichtbaar worldswerelden
127
431323
4532
Technologie gebouwd op het begrijpen
van continu veranderende beeldsituaties,
07:27
used as technologytechnologie for self-drivingzelf rijden carsauto's.
128
435879
3079
die gebruikt wordt als technologie
voor zelfrijdende auto's.
07:32
TechnologyTechnologie builtgebouwd on understandingbegrip imagesafbeeldingen
and generatingopwekkende languagetaal,
129
440490
3413
Technologie gebouwd voor het begrijpen
van beelden en het genereren van taal,
07:35
evolvingevoluerende into technologytechnologie that helpshelpt people
who are visuallyvisueel impairedverzwakt
130
443927
4063
evoluerend naar technologie
die mensen met een visuele beperking
07:40
be better ablein staat to accesstoegang the visualzichtbaar worldwereld-.
131
448014
2800
betere toegang verschaft
tot de visuele wereld.
Daarnaast zien we hoe technologie
tot problemen kan leiden.
07:42
And we alsoook see how technologytechnologie
can leadlood to problemsproblemen.
132
450838
3261
We hebben vandaag technologie
07:46
We have technologytechnologie todayvandaag
133
454885
1428
07:48
that analyzesanalyseert physicalfysiek
characteristicskenmerken we're borngeboren with --
134
456337
3835
die fysieke kenmerken waarmee
we zijn geboren analyseert --
07:52
suchzodanig as the colorkleur of our skinhuid
or the look of our facegezicht --
135
460196
3272
zoals de kleur van onze huid
of hoe ons gezicht eruitziet --
07:55
in orderbestellen to determinebepalen whetherof or not
we mightmacht be criminalscriminelen or terroriststerroristen.
136
463492
3804
om te bepalen of we misschien
criminelen of terroristen zijn.
07:59
We have technologytechnologie
that crunchescrunches throughdoor our datagegevens,
137
467688
2905
We hebben technologie
die onze data doorspit,
08:02
even datagegevens relatingin verband
to our gendergeslacht or our racerace,
138
470617
2896
zelfs gegevens die betrekking
hebben op geslacht of ras,
08:05
in orderbestellen to determinebepalen whetherof or not
we mightmacht get a loanlening.
139
473537
2865
om te bepalen of we al dan niet
een lening kunnen krijgen.
08:09
All that we see now
140
477494
1579
Alles wat we nu zien
08:11
is a snapshotmomentopname in the evolutionevolutie
of artificialkunstmatig intelligenceintelligentie-.
141
479097
3617
is een momentopname in de ontwikkeling
van kunstmatige intelligentie.
08:15
Because where we are right now,
142
483763
1778
Want waar we nu zijn,
08:17
is withinbinnen a momentmoment of that evolutionevolutie.
143
485565
2238
is één moment in die evolutie.
08:20
That meansmiddelen that what we do now
will affectaantasten what happensgebeurt down the linelijn
144
488690
3802
Dat betekent dat wat we nu doen
beïnvloedt wat als volgende gebeurt,
08:24
and in the futuretoekomst.
145
492516
1200
en in de toekomst.
08:26
If we want AIAI to evolveevolueren
in a way that helpshelpt humansmensen,
146
494063
3951
Als we willen dat AI evolueert
op een manier die de mens helpt,
08:30
then we need to definebepalen
the goalsdoelen and strategiesstrategieën
147
498038
2801
moeten we nu de doelstellingen
en strategieën definiëren
08:32
that enablein staat stellen that pathpad now.
148
500863
1733
die dat mogelijk zullen maken.
08:35
What I'd like to see is something
that fitspast bij well with humansmensen,
149
503680
3738
Wat ik graag zou willen zien
is iets dat goed past bij de mens,
08:39
with our culturecultuur and with the environmentmilieu.
150
507442
2800
bij onze cultuur en onze omgeving.
08:43
TechnologyTechnologie that aidsAIDS and assistshelpt
those of us with neurologicalneurologische conditionsvoorwaarden
151
511435
4484
Technologie die mensen
met neurologische aandoeningen
of andere handicaps helpt en begeleidt
08:47
or other disabilitieseen handicap
152
515943
1721
08:49
in orderbestellen to make life
equallyeven challenginguitdagend for everyoneiedereen.
153
517688
3216
om het leven voor iedereen
even uitdagend te maken.
08:54
TechnologyTechnologie that workswerken
154
522097
1421
Technologie die werkt
08:55
regardlessachteloos of your demographicsdemografie
or the colorkleur of your skinhuid.
155
523542
3933
ongeacht je demografie
of de kleur van je huid.
09:00
And so todayvandaag, what I focusfocus on
is the technologytechnologie for tomorrowmorgen
156
528383
4742
Vandaag richt ik mij
op de technologie voor morgen
en voor over tien jaar.
09:05
and for 10 yearsjaar from now.
157
533149
1733
09:08
AIAI can turnbeurt out in manyveel differentverschillend waysmanieren.
158
536530
2634
AI kan zich op veel verschillende
manieren realiseren.
09:11
But in this casegeval,
159
539688
1225
Maar in dit geval
09:12
it isn't a self-drivingzelf rijden carauto
withoutzonder any destinationbestemming.
160
540937
3328
is het geen zelfrijdende
auto zonder bestemming.
09:16
This is the carauto that we are drivinghet rijden.
161
544884
2400
Het is een auto die wij zelf besturen.
09:19
We chooseKiezen when to speedsnelheid up
and when to slowlangzaam down.
162
547953
3595
Wij kiezen wanneer we gaan
versnellen of vertragen.
09:23
We chooseKiezen if we need to make a turnbeurt.
163
551572
2400
Wij beslissen om een ​​bocht te maken.
09:26
We chooseKiezen what the AIAI
of the futuretoekomst will be.
164
554868
3000
Wij kiezen wat de AI
van de toekomst zal zijn.
09:31
There's a vastgroot playingspelen fieldveld-
165
559186
1337
Er is een groot speelveld
09:32
of all the things that artificialkunstmatig
intelligenceintelligentie- can becomeworden.
166
560547
2965
van alle dingen die kunstmatige
intelligentie kan worden.
09:36
It will becomeworden manyveel things.
167
564064
1800
Het zal véél dingen worden.
09:39
And it's up to us now,
168
567694
1732
Het is nu aan ons
09:41
in orderbestellen to figurefiguur out
what we need to put in placeplaats
169
569450
3061
om te bepalen wat we moeten regelen
om ervoor te zorgen
dat kunstmatige intelligentie
09:44
to make sure the outcomesuitkomsten
of artificialkunstmatig intelligenceintelligentie-
170
572535
3807
zo uitpakt dat we er allemaal
beter van worden.
09:48
are the onesdegenen that will be
better for all of us.
171
576366
3066
09:51
Thank you.
172
579456
1150
Dank je.
09:52
(ApplauseApplaus)
173
580630
2187
(Applaus)
Translated by Rik Delaet
Reviewed by Axel Saffran

▲Back to top

ABOUT THE SPEAKER
Margaret Mitchell - AI research scientist
Margaret Mitchell is a senior research scientist in Google's Research & Machine Intelligence group, working on artificial intelligence.

Why you should listen

Margaret Mitchell's research involves vision-language and grounded language generation, focusing on how to evolve artificial intelligence towards positive goals. Her work combines computer vision, natural language processing, social media as well as many statistical methods and insights from cognitive science. Before Google, Mitchell was a founding member of Microsoft Research's "Cognition" group, focused on advancing artificial intelligence, and a researcher in Microsoft Research's Natural Language Processing group.

More profile about the speaker
Margaret Mitchell | Speaker | TED.com