ABOUT THE SPEAKER
Margaret Mitchell - AI research scientist
Margaret Mitchell is a senior research scientist in Google's Research & Machine Intelligence group, working on artificial intelligence.

Why you should listen

Margaret Mitchell's research involves vision-language and grounded language generation, focusing on how to evolve artificial intelligence towards positive goals. Her work combines computer vision, natural language processing, social media as well as many statistical methods and insights from cognitive science. Before Google, Mitchell was a founding member of Microsoft Research's "Cognition" group, focused on advancing artificial intelligence, and a researcher in Microsoft Research's Natural Language Processing group.

More profile about the speaker
Margaret Mitchell | Speaker | TED.com
TED@BCG Milan

Margaret Mitchell: How we can build AI to help humans, not hurt us

માર્ગરેટ મિશેલ: કેવી રીતે આપણે માનવજાતની મદદ માટે AI ની રચના કરી શકીએ, કોઈ નુકશાન વગર

Filmed:
1,154,210 views

ગૂગલના એક સંશોધન વૈજ્ઞાનિક તરીકે, માર્ગરેટ મિશેલ એ કમ્પ્યુટરના વિકાસમાં મદદ કરે છે જેથી તે જે જોવે છે અને સમજે છે તેના વિશે વાતચીત કરી શકે. તેઓ આપણે જે AI માં પૂર્વગ્રહો લાવ્યાં છીએ તેના વિશે વાત કરે છે -- અને આજે આપણે જે ટેક્નોલોજી બનાવીએ છીએ તે કાલ માટે શું મહત્વ ધરાવે છે તે જણાવે છે. "અત્યારે આપણે જે જોઈએ છીએ તે AI ની ઉત્ક્રાંતિનો એક ભાગ છે," મિશેલ એ કહ્યું. "જો આપણે AI નો વિકાસ માનવજાતને મદદ કરવા માટે કરવા માંગીએ છીએ તો આપણે લક્ષ્યો અને વ્યૂરચનાઓ નિર્ધારિત કરવાની જરૂર છે જે વિકાસનો માર્ગ સરળ બનાવી શકે."
- AI research scientist
Margaret Mitchell is a senior research scientist in Google's Research & Machine Intelligence group, working on artificial intelligence. Full bio

Double-click the English transcript below to play the video.

હું કમ્પ્યુટરને આપણી દુનિયા વિશે
વાતચીત કરવામાં મદદ કરું છું.
00:13
I work on helping computers
communicate about the world around us.
0
1381
4015
00:17
There are a lot of ways to do this,
1
5754
1793
આ કરવાનાં ઘણાં રસ્તાઓ છે.
00:19
and I like to focus on helping computers
2
7571
2592
અને હું કમ્પ્યુટરને મદદ કરવા પર
ધ્યાન આપવા માંગું છું
00:22
to talk about what they see
and understand.
3
10187
2874
જેથી તેઓ જે જુએ છે અને સમજે છે તેનાં
વિશે વાતચીત કરી શકે.
00:25
Given a scene like this,
4
13514
1571
જો આવું દ્રશ્ય આપ્યું હોય,
00:27
a modern computer-vision algorithm
5
15109
1905
તો આધુનિક કમ્પ્યુટરનો દ્રષ્ટિ એલ્ગોરિધમ
00:29
can tell you that there's a woman
and there's a dog.
6
17038
3095
તમને કહી શકે છે કે ત્યાં
એક સ્ત્રી અને કૂતરો છે.
00:32
It can tell you that the woman is smiling.
7
20157
2706
તે તમને કહી શકે છે કે સ્ત્રી હસી રહી છે.
00:34
It might even be able to tell you
that the dog is incredibly cute.
8
22887
3873
તે તમને કદાચ એ પણ કહી શકશે
કે કૂતરો ખૂબ જ સુંદર છે.
00:38
I work on this problem
9
26784
1349
હું આ સમસ્યા પર કામ કરું છું
00:40
thinking about how humans
understand and process the world.
10
28157
4212
કે મનુષ્યો કંઈ રીતે વિશ્વને
જોવે છે અને સમજે છે.
00:45
The thoughts, memories and stories
11
33577
2952
વિચારો, યાદો અને વાર્તાઓ
00:48
that a scene like this
might evoke for humans.
12
36553
2818
આ પ્રકારના દ્રશ્યો મનુષ્યોને
ઉત્તેજીત કરે છે.
00:51
All the interconnections
of related situations.
13
39395
4285
આ બધી જ એકબીજા સાથે જોડાયેલી
સંબંધિત પરિસ્થિતિઓ છે.
00:55
Maybe you've seen
a dog like this one before,
14
43704
3126
કદાચ તમે પહેલાં આવો કૂતરો જોયો હશે,
00:58
or you've spent time
running on a beach like this one,
15
46854
2969
અથવા આવી રીતે બીચ પર દોડીને
સમય પસાર કર્યો હશે,
01:01
and that further evokes thoughts
and memories of a past vacation,
16
49847
4778
તો આ દ્રશ્યો તમારાં પાછલાં વેકેશનની
યાદોને તાજા કરશે.
01:06
past times to the beach,
17
54649
1920
બીચ પર વિતાવેલો સમય,
01:08
times spent running around
with other dogs.
18
56593
2603
બીજા કૂતરાઓ સાથે દોડવામાં
વીતેલો સમય.
01:11
One of my guiding principles
is that by helping computers to understand
19
59688
5207
મારો એક માર્ગદર્શક સિદ્ધાંત એ છે
કે હું કમ્પ્યુટર્સને સમજવામાં મદદ કરું
01:16
what it's like to have these experiences,
20
64919
2896
જેથી તેઓ અનુભવોને સમજી શકે,
01:19
to understand what we share
and believe and feel,
21
67839
5176
આપણે જે માનીએ અને
અનુભવીએ છીએ તે સમજી શકે,
01:26
then we're in a great position
to start evolving computer technology
22
74094
4310
તો પછી આપણે એક વિકસતી
કમ્પ્યુટર ટેકનોલોજીની શરૂઆત કરી શકીશું.
01:30
in a way that's complementary
with our own experiences.
23
78428
4587
આ રીતે તે આપણાં અનુભવો માટે
પૂરક સાબિત થશે.
01:35
So, digging more deeply into this,
24
83539
3387
તેથી, આમાં વધું ઉંડાણપૂર્વક જઈને,
01:38
a few years ago I began working on helping
computers to generate human-like stories
25
86950
5905
થોડાં વર્ષો પહેલાં મેં, કમ્પ્યુટર
માનવીની જેમ તસવીરો જોઈને વાર્તાઓ બનાવી શકે
01:44
from sequences of images.
26
92879
1666
તેનાં પર કામ કરવાનું શરૂ કર્યું.
01:47
So, one day,
27
95427
1904
તેથી, એક દિવસ,
01:49
I was working with my computer to ask it
what it thought about a trip to Australia.
28
97355
4622
હું કમ્પ્યુટર સાથે તે પૂછવા કામ કરતી હતી
કે તેનો ઓસ્ટ્રેલિયા જવા વિશે શું વિચાર છે.
01:54
It took a look at the pictures,
and it saw a koala.
29
102768
2920
તેણે ચિત્રો પર એક નજર કરી,
અને તેણે કોઆલા જોયું.
01:58
It didn't know what the koala was,
30
106236
1643
તેને કોઆલા શું છે તે ખબર ન હતી,
01:59
but it said it thought
it was an interesting-looking creature.
31
107903
2999
પણ તેણે કહ્યું કે તે
એક રસપ્રદ દેખાતું પ્રાણી છે.
02:04
Then I shared with it a sequence of images
about a house burning down.
32
112053
4004
પછી મેં તેને કેટલીક
સળગતા ઘરોની છબીઓ બતાવી.
02:09
It took a look at the images and it said,
33
117704
3285
તેણે છબીઓ પર એક નજર કરી અને કહ્યું,
02:13
"This is an amazing view!
This is spectacular!"
34
121013
3500
"આ એક અદભૂત દૃશ્ય છે!
આ જોવાલાયક છે! "
02:17
It sent chills down my spine.
35
125450
2095
તે મારી કરોડરજ્જુને ઠંડક આપે છે.
02:20
It saw a horrible, life-changing
and life-destroying event
36
128983
4572
તેણે એક ભયાનક, જીવન બદલનાર
અને વિનાશક ઘટના જોઈ
02:25
and thought it was something positive.
37
133579
2382
અને વિચાર્યું કે તે કંઈક સકારાત્મક છે.
02:27
I realized that it recognized
the contrast,
38
135985
3441
મને સમજાયું કે તેને પરિવર્તન જોયું,
02:31
the reds, the yellows,
39
139450
2699
લાલ અને પીળા રંગોનું,
02:34
and thought it was something
worth remarking on positively.
40
142173
3078
અને વિચાર્યું આનાં પર
કઈક સકારાત્મક બોલવું જોઈએ.
02:37
And part of why it was doing this
41
145928
1615
અને તેને એટલા માટે આવું કહ્યું
02:39
was because most
of the images I had given it
42
147577
2945
કારણ કે મોટા ભાગની તસવીરો
જે મે તેને બતાવી હતી
02:42
were positive images.
43
150546
1840
તે સકારાત્મક તસવીરો હતી.
02:44
That's because people
tend to share positive images
44
152903
3658
કારણ કે લોકો સકારાત્મક તસવીરો
વહેંચવાનું વલણ ધરાવે છે
02:48
when they talk about their experiences.
45
156585
2190
જ્યારે તેઓ તેમના અનુભવો વિશે
વાત કરતાં હોય છે.
02:51
When was the last time
you saw a selfie at a funeral?
46
159267
2541
તમે ક્યારેય અંતિમ સંસ્કાર વખતે
સેલ્ફી જોઈ છે?
02:55
I realized that,
as I worked on improving AI
47
163434
3095
મને સમજાયું કે, જેમ કે હું AI સુધારવા પર
કામ કરી રહી હતી
02:58
task by task, dataset by dataset,
48
166553
3714
એક પછી એક કાર્યો દ્વારા અને
માહિતીઓની મદદથી,
03:02
that I was creating massive gaps,
49
170291
2897
હું બહું મોટો અંતર અને
જગ્યા પેદા કરી રહી હતી,
03:05
holes and blind spots
in what it could understand.
50
173212
3999
તેઓ જે સમજી શકે છે તેમાં.
03:10
And while doing so,
51
178307
1334
અને તે કરતી વખતે,
03:11
I was encoding all kinds of biases.
52
179665
2483
હું AI માં તમામ પ્રકારના
પૂર્વગ્રહોને ઉમેરતી હતી.
03:15
Biases that reflect a limited viewpoint,
53
183029
3318
પૂર્વગ્રહો જે મર્યાદિત દ્રષ્ટિકોણ આપે છે.
03:18
limited to a single dataset --
54
186371
2261
જે એક જ માહિતી સુધી મર્યાદિત હોય છે --
03:21
biases that can reflect
human biases found in the data,
55
189283
3858
જે માહિતીમાં મળેલા
માનવીય પૂર્વગ્રહોને દર્શાવે છે,
03:25
such as prejudice and stereotyping.
56
193165
3104
જેમ કે પક્ષપાત અને રૂઢિબદ્ધ ધારણાંઓ.
03:29
I thought back to the evolution
of the technology
57
197554
3057
મેં ટેકનોલોજીની ઉત્ક્રાંતિ વિશે
ફરી વિચાર્યું
03:32
that brought me to where I was that day --
58
200635
2502
તે દિવસો વિશે --
03:35
how the first color images
59
203966
2233
જ્યારે સૌપ્રથમ રંગીન છબીઓને
03:38
were calibrated against
a white woman's skin,
60
206223
3048
સફેદ ત્વચાવાળી સ્ત્રી સાથે
માપાંકિત કરવામાં આવી હતી,
03:41
meaning that color photography
was biased against black faces.
61
209665
4145
એટલે કે કલર ફોટોગ્રાફી કાળી ત્વચાનાં
પ્રમાણે બનાવવામાં આવી જ ન હતી
03:46
And that same bias, that same blind spot
62
214514
2925
એને તે જ પૂર્વગ્રહ, તે જ અંતર
03:49
continued well into the '90s.
63
217463
1867
૯૦ ના દાયકામાં પણ ચાલું રહ્યું.
03:51
And the same blind spot
continues even today
64
219701
3154
અને તે અંતર હાલમાં પણ ચાલુ જ છે
03:54
in how well we can recognize
different people's faces
65
222879
3698
જેમાં આપણે કઈ વધું સારી રીતે
વિભિન્ન લોકોના ચહેરાઓને ઓળખી શકીએ
03:58
in facial recognition technology.
66
226601
2200
ચહેરાને ઓળખવાની ટેકનોલોજી દ્વારા.
04:01
I though about the state of the art
in research today,
67
229323
3143
મેં હાલના સંશોધનોની
સ્થિતિ વિશે વિચાર્યું,
04:04
where we tend to limit our thinking
to one dataset and one problem.
68
232490
4514
જ્યાં આપણે પોતાની વિચારસરણી એક સમસ્યા અને
એક માહિતી સુધી જ મર્યાદિત રાખી છે.
04:09
And that in doing so, we were creating
more blind spots and biases
69
237688
4881
અને આમ કરવાથી, આપણે વધુ અંતર અને
પૂર્વગ્રહો પેદા કરી રહ્યા છીએ
04:14
that the AI could further amplify.
70
242593
2277
જેથી AI વધુ વિસ્તૃત થઈ શકે છે.
04:17
I realized then
that we had to think deeply
71
245712
2079
મને લાગ્યું કે,
આપણે ગહન વિચાર કરવો જોઈએ
04:19
about how the technology we work on today
looks in five years, in 10 years.
72
247815
5519
કે આપણે જે ટેકનોલોજી પર કામ કરીએ છીએ,
તે ૫ કે ૧૦ વર્ષ પછી કેવી હશે.
04:25
Humans evolve slowly,
with time to correct for issues
73
253990
3142
મનુષ્યો ધીરે ધીરે વિકસે છે,
જેથી તેઓ પૂરતા સમયમાં
04:29
in the interaction of humans
and their environment.
74
257156
3534
પર્યાવરણ સાથે પોતાની
સમતુલા જાળવી શકે છે.
04:33
In contrast, artificial intelligence
is evolving at an incredibly fast rate.
75
261276
5429
તેનાથી વિપરિત,
AI ઝડપી દરે વિકસી રહ્યું છે.
04:39
And that means that it really matters
76
267013
1773
તેથી તે ખરેખર અગત્યનું છે કે
04:40
that we think about this
carefully right now --
77
268810
2317
અત્યારે આપણે તેના વિશે
ધ્યાનપૂર્વક વિચારીએ --
04:44
that we reflect on our own blind spots,
78
272180
3008
અને પોતાના મતભેદો અને પૂર્વગ્રહો પર
04:47
our own biases,
79
275212
2317
ચિંતન કરીએ,
04:49
and think about how that's informing
the technology we're creating
80
277553
3857
અને આજની વિકસિત થતી ટેકનોલોજીમાં
તેને કઈ રીતે શામેલ કરીએ
04:53
and discuss what the technology of today
will mean for tomorrow.
81
281434
3902
અને આજની ટેકનોલોજી કાલ માટે
કઈ રીતે ઉપયોગી બને તે વિચારીએ.
04:58
CEOs and scientists have weighed in
on what they think
82
286593
3191
CEOs અને વૈજ્ઞાનિકોએ પોતાનાં
વિચારો વ્યક્ત કર્યા છે કે
05:01
the artificial intelligence technology
of the future will be.
83
289808
3325
AI ની ટેકનોલોજી ભવિષ્યમાં કેવી હશે.
05:05
Stephen Hawking warns that
84
293157
1618
સ્ટીફન હોકિંગ સચેત કરે છે કે
05:06
"Artificial intelligence
could end mankind."
85
294799
3007
"AI માનવજાતને ખતમ કરી શકે છે."
05:10
Elon Musk warns
that it's an existential risk
86
298307
2683
એલોન મસ્ક સચેત કરે છે કે
તે અસ્તિત્વનું જોખમ છે
05:13
and one of the greatest risks
that we face as a civilization.
87
301014
3574
અને આપણી સંસ્કૃતિ સામેનો
સૌથી મોટો ખતરો છે.
05:17
Bill Gates has made the point,
88
305665
1452
બીલ ગેટ્સ એ કહ્યું છે કે,
05:19
"I don't understand
why people aren't more concerned."
89
307141
3185
"મને નથી સમજાતું કે શાં માટે
લોકો વધુ ચિંતિત નથી."
05:23
But these views --
90
311412
1318
પણ આ બધાં જ મંતવ્યો --
05:25
they're part of the story.
91
313618
1734
આ પ્રક્રિયાનો એક ભાગ છે.
05:28
The math, the models,
92
316079
2420
એ ગણિત, એ પદ્ધતિઓ,
05:30
the basic building blocks
of artificial intelligence
93
318523
3070
અને AI ના મૂળભૂત ખંડો
05:33
are something that we call access
and all work with.
94
321617
3135
જેની સાથે આપણે કામ કરીએ છીએ
અને જેનો ઉપયોગ કરીએ છીએ.
05:36
We have open-source tools
for machine learning and intelligence
95
324776
3785
આપણી પાસે મશીન લર્નિંગ અને ઇન્ટેલિજન્સ માટે
ઓપન-સોર્સ સોફ્ટવેરના સાધનો છે
05:40
that we can contribute to.
96
328585
1734
જેમાં આપણે યોગદાન આપી શકીએ છીએ.
05:42
And beyond that,
we can share our experience.
97
330919
3340
અને તે ઉપરાંત, આપણે પોતાનાં અનુભવ
વ્યક્ત કરી શકીએ છીએ.
05:46
We can share our experiences
with technology and how it concerns us
98
334760
3468
ટેકનોલોજી પર પોતાના અનુભવો વહેંચી શકીએ
કે તે કઈ રીતે આપણને ચિંતિત કરે છે
05:50
and how it excites us.
99
338252
1467
અને કઈ રીતે ઉત્તેજિત કરે છે.
05:52
We can discuss what we love.
100
340251
1867
આપણને ગમતા વિષય પર
ચર્ચા કરી શકીએ છીએ.
05:55
We can communicate with foresight
101
343244
2031
આપણે દૂરદ્રષ્ટિ રાખી શકીએ છીએ
05:57
about the aspects of technology
that could be more beneficial
102
345299
4857
કે ટેકનોલોજીના કયા પાસાઓ
વધુ લાભદાયી નીવડી શકે છે
06:02
or could be more problematic over time.
103
350180
2600
અથવા સમય જતાં વધુ
સમસ્યારૂપ થઈ શકે છે.
06:05
If we all focus on opening up
the discussion on AI
104
353799
4143
જો આપણે બધા જ AI પર
ચર્ચા-વિચારણા કરવાનું શરૂ કરીએ
06:09
with foresight towards the future,
105
357966
1809
ભવિષ્યને ધ્યાનમાં રાખીને,
06:13
this will help create a general
conversation and awareness
106
361093
4270
તો તેનાથી AI વિશે
જાગૃતિ આવવાની શરૂ થશે
06:17
about what AI is now,
107
365387
2513
કે AI અત્યારે શું છે,
06:21
what it can become
108
369212
2001
અને તે શું બની શકે છે
06:23
and all the things that we need to do
109
371237
1785
અને એ બધી જ વસ્તુઓ કરી શકીએ છીએ
06:25
in order to enable that outcome
that best suits us.
110
373046
3753
જેનાંથી ઇચ્છિત પરિણામ આવી શકે.
06:29
We already see and know this
in the technology that we use today.
111
377490
3674
આપણે આજની ટેક્નોલોજીમાં
આ પહેલેથી જ જોઈએ છીએ.
06:33
We use smart phones
and digital assistants and Roombas.
112
381767
3880
આપણે બધાં જ સ્માર્ટ ફોન, ડિજિટલ આસિસ્ટન્ટ
અને રોમ્બાસ ઉપયોગ કરીએ છીએ.
06:38
Are they evil?
113
386457
1150
શું તેઓ બહુ ખરાબ છે?
06:40
Maybe sometimes.
114
388268
1547
ક્યારેક હોઈ શકે.
06:42
Are they beneficial?
115
390664
1333
શું તેઓ ફાયદાકારક છે?
06:45
Yes, they're that, too.
116
393005
1533
હા, તે પણ છે.
06:48
And they're not all the same.
117
396236
1761
અને તે બધા સરખા નથી.
06:50
And there you already see
a light shining on what the future holds.
118
398489
3540
તેના દ્વારા તમે ભવિષ્ય વિશે
અનુમાન લગાવી શકો છો.
06:54
The future continues on
from what we build and create right now.
119
402942
3619
ભવિષ્ય એ આપણે અત્યારે જે નિર્માણ કરીએ છીએ
તેના પર આધાર રાખે છે.
06:59
We set into motion that domino effect
120
407165
2642
આપણે જે બદલાવ લાવીએ છીએ
07:01
that carves out AI's evolutionary path.
121
409831
2600
તે AI નો વિકાસવાદી માર્ગ બનાવે છે.
07:05
In our time right now,
we shape the AI of tomorrow.
122
413173
2871
આજનાં સમયમાં, આપણે કાલના
AI ને ઘડી શકીએ છીએ.
07:08
Technology that immerses us
in augmented realities
123
416566
3699
ટેકનોલોજી જે વિકાસની
વાસ્તવિકતાઓની જાણ કરાવે છે
07:12
bringing to life past worlds.
124
420289
2566
ભૂતકાળના વિશ્વ સાથે પરિચય કરાવે છે.
07:15
Technology that helps people
to share their experiences
125
423844
4312
ટેકનોલોજી જે લોકોને પોતાના અનુભવો
વ્યક્ત કરવામાં મદદ કરે છે
07:20
when they have difficulty communicating.
126
428180
2262
જ્યારે તેઓ સરળતાથી પોતાની વાત
કહી શકતા ન હોય.
07:23
Technology built on understanding
the streaming visual worlds
127
431323
4532
ટેક્નોલોજી જે દુનિયાને ધ્યાનમાં રાખીને
બનાવવામાં આવે છે
07:27
used as technology for self-driving cars.
128
435879
3079
જેનો સ્વ-ચાલીત ગાડીઓમાં
ઉપયોગ થાય છે.
07:32
Technology built on understanding images
and generating language,
129
440490
3413
ટેકનોલોજી જે છબીઓને સમજવા અને
ભાષાઓ બનાનવામાં મદદ કરે છે,
07:35
evolving into technology that helps people
who are visually impaired
130
443927
4063
ટેકનોલોજીનો વિકાસ એ
દ્રષ્ટિહીન લોકોને
07:40
be better able to access the visual world.
131
448014
2800
વાસ્તવિક દુનિયા જોવા માટે
સક્ષમ બનાવે છે.
07:42
And we also see how technology
can lead to problems.
132
450838
3261
આપણે જોઈએ છીએ કે ટેકનોલોજી
મુશ્કેલીઓ પણ સર્જે છે.
07:46
We have technology today
133
454885
1428
આજની ટેકનોલોજી
07:48
that analyzes physical
characteristics we're born with --
134
456337
3835
આપણી શારીરિક લાક્ષણિકતાઓનું
વિશ્લેષણ કરી શકે છે
07:52
such as the color of our skin
or the look of our face --
135
460196
3272
આપણી ત્વચાના રંગ અથવા
આપણા ચહેરાના દેખાવ પરથી --
07:55
in order to determine whether or not
we might be criminals or terrorists.
136
463492
3804
નક્કી કરી શકે છે કે આપણે ગુનેગાર
કે આતંકવાદી છીએ કે નહી.
07:59
We have technology
that crunches through our data,
137
467688
2905
આજની ટેકનોલોજી એ
આપણી માહિતી દ્વારા,
08:02
even data relating
to our gender or our race,
138
470617
2896
અથવા આપણી જાતિને લગતી
માહિતી દ્વારા,
08:05
in order to determine whether or not
we might get a loan.
139
473537
2865
એ નક્કી કરી શકે છે કે આપણે
લોન મેળવી શકીએ છીએ કે નહિ.
08:09
All that we see now
140
477494
1579
અત્યારે આપણે જે જોઈએ છીએ
08:11
is a snapshot in the evolution
of artificial intelligence.
141
479097
3617
તે AI ની ઉત્ક્રાંતિ સૂચવે છે.
08:15
Because where we are right now,
142
483763
1778
કારણ કે આપણે અત્યારે જ્યાં છીએ,
08:17
is within a moment of that evolution.
143
485565
2238
તે ઉત્ક્રાંતિના લીધે જ છીએ.
08:20
That means that what we do now
will affect what happens down the line
144
488690
3802
એટલે કે આપણે જે અત્યારે
કરીએ છીએ તે ચોક્કપણે
08:24
and in the future.
145
492516
1200
ભવિષ્યને અસર કરશે.
08:26
If we want AI to evolve
in a way that helps humans,
146
494063
3951
જો આપણે માનવજાતને મદદ કરી શકે તે રીતે
AI નો વિકાસ કરવા માંગીએ છીએ,
08:30
then we need to define
the goals and strategies
147
498038
2801
તો આપણે લક્ષ્યો અને
વ્યૂરચનાઓ નક્કી કરવી જોઈએ
08:32
that enable that path now.
148
500863
1733
જે AI ને શસકત બનાવી શકે.
08:35
What I'd like to see is something
that fits well with humans,
149
503680
3738
હું ઇચ્છું છું કે AI માનવજાત સાથે,
આપણાં પર્યાવરણ સાથે,
08:39
with our culture and with the environment.
150
507442
2800
અને આપણી સંસ્કૃતિ સાથે સુમેળ સાધી શકે.
08:43
Technology that aids and assists
those of us with neurological conditions
151
511435
4484
ટેક્નોલોજી જે બીમારીથી
પીડાતા લોકોની મદદ કરે
08:47
or other disabilities
152
515943
1721
અથવા વિકલાંગોની
08:49
in order to make life
equally challenging for everyone.
153
517688
3216
જેથી દરેક લોકોનું જીવન સરળ બની રહે.
08:54
Technology that works
154
522097
1421
AI એવી ટેક્નોલોજી હોય જે
08:55
regardless of your demographics
or the color of your skin.
155
523542
3933
તમારી ત્વચાના રંગને
ધ્યાનમાં લીધા વગર કામ કરે.
09:00
And so today, what I focus on
is the technology for tomorrow
156
528383
4742
તેથી અત્યારે, હું આવતી કાલની ટેક્નોલોજી
અને આજથી ૧૦ વર્ષ પછીની ટેક્નોલોજી પર
09:05
and for 10 years from now.
157
533149
1733
ધ્યાન કેન્દ્રિત કરુ છું.
09:08
AI can turn out in many different ways.
158
536530
2634
AI ઘણી રીતે વિકસિત થઈ શકે છે.
09:11
But in this case,
159
539688
1225
પણ ત્યાં,
09:12
it isn't a self-driving car
without any destination.
160
540937
3328
કોઈ મંજિલ વગરની
સ્વ-ચાલીત ગાડીઓ ન હોઈ શકે.
09:16
This is the car that we are driving.
161
544884
2400
તે કારને આપણે ચલાવી રહ્યાં છીએ.
09:19
We choose when to speed up
and when to slow down.
162
547953
3595
તેને ક્યારે ઝડપી અને ધીમે ચલાવવી
તે આપણે નક્કી કરીએ છીએ.
09:23
We choose if we need to make a turn.
163
551572
2400
આપણે નક્કી કરીએ છીએ
કે ક્યારે વળાંક લેવાનો છે.
09:26
We choose what the AI
of the future will be.
164
554868
3000
આપણે નક્કી કરીએ છીએ
કે ભવિષ્યનું AI કેવું હશે.
09:31
There's a vast playing field
165
559186
1337
ત્યાં ઘણાં બધાં ક્ષેત્રો છે
09:32
of all the things that artificial
intelligence can become.
166
560547
2965
જ્યાં AI વિવિધ સ્વરૂપો
ધારણ કરી શકે છે.
09:36
It will become many things.
167
564064
1800
તે ઘણાં બધાં સ્વરૂપ લઈ શકે છે.
09:39
And it's up to us now,
168
567694
1732
અને હવે તે આપણા ઉપર છે,
09:41
in order to figure out
what we need to put in place
169
569450
3061
કે આપણે એવું શું કરીએ
09:44
to make sure the outcomes
of artificial intelligence
170
572535
3807
જેથી આપણને AI ના
ચોક્કસ પરિણામો મળે
09:48
are the ones that will be
better for all of us.
171
576366
3066
જે આપણા બધાં માટે ઉપયોગી બને.
09:51
Thank you.
172
579456
1150
આભાર.
09:52
(Applause)
173
580630
2187
(અભિવાદન)
Translated by Divya Vasani
Reviewed by Keyur Thakkar

▲Back to top

ABOUT THE SPEAKER
Margaret Mitchell - AI research scientist
Margaret Mitchell is a senior research scientist in Google's Research & Machine Intelligence group, working on artificial intelligence.

Why you should listen

Margaret Mitchell's research involves vision-language and grounded language generation, focusing on how to evolve artificial intelligence towards positive goals. Her work combines computer vision, natural language processing, social media as well as many statistical methods and insights from cognitive science. Before Google, Mitchell was a founding member of Microsoft Research's "Cognition" group, focused on advancing artificial intelligence, and a researcher in Microsoft Research's Natural Language Processing group.

More profile about the speaker
Margaret Mitchell | Speaker | TED.com