ABOUT THE SPEAKER
Margaret Mitchell - AI research scientist
Margaret Mitchell is a senior research scientist in Google's Research & Machine Intelligence group, working on artificial intelligence.

Why you should listen

Margaret Mitchell's research involves vision-language and grounded language generation, focusing on how to evolve artificial intelligence towards positive goals. Her work combines computer vision, natural language processing, social media as well as many statistical methods and insights from cognitive science. Before Google, Mitchell was a founding member of Microsoft Research's "Cognition" group, focused on advancing artificial intelligence, and a researcher in Microsoft Research's Natural Language Processing group.

More profile about the speaker
Margaret Mitchell | Speaker | TED.com
TED@BCG Milan

Margaret Mitchell: How we can build AI to help humans, not hurt us

मार्गारेट मिशेल: कैसे हम कृत्रिम बुद्धिमत्ता की रचना कर सकते हैं, बिना नुकसान के, मनुष्यों की मदद के लिए.

Filmed:
1,154,210 views

गूगल में वैज्ञानिक के तौर पर मार्गरेट मिशेल ऐसे कंप्यूटर विकसित करती हैं, जो देख और समझ कर उसके बारे में बातें कर सकते हैं. वह एक सचेत करनेवाली कहानी कहती हैं, जिसमे वे उन कमियों, कमजोरियों और पूर्वाग्रहों की बात कर रही हैं, जो वैज्ञानिक अवचेतन रूप से AI में सम्मिलित कर देते हैं, और सोचने के लिए कहती हैं कि आज रची जानेवाली तकनीक के कल क्या मायने होंगे. "आज जो भी हम देख रहे हैं वह AI तकनीक के विकास में फोटो के जैसा है." मिशेल कहती हैं "अगर हम AI तकनीक का विकास मानवता कि भलाई के लिए करना चाहते हैं, तो हमें इसका लक्ष्य और रणनीति अभी से तय करनी होंगी, ताकि हमारी राह सही हो"
- AI research scientist
Margaret Mitchell is a senior research scientist in Google's Research & Machine Intelligence group, working on artificial intelligence. Full bio

Double-click the English transcript below to play the video.

00:13
I work on helpingमदद कर रहा है computersकंप्यूटर
communicateसंवाद about the worldविश्व around us.
0
1381
4015
मैं कम्प्यूटर्स को हमारी दुनिया के बारे
में बातचीत करने में मदद करती हूँ.
00:17
There are a lot of waysतरीके to do this,
1
5754
1793
ये करने के कई सारे तरीके हैं,
00:19
and I like to focusफोकस on helpingमदद कर रहा है computersकंप्यूटर
2
7571
2592
मैं कम्प्यूटर्स को उन चीजों के बारे में
00:22
to talk about what they see
and understandसमझना.
3
10187
2874
बात करना सिखाती हूँ, जिन्हें वे
देखते और समझते हैं.
00:25
Givenदिया a sceneस्थल like this,
4
13514
1571
ये तस्वीर दिखाने पर, एक आधुनिक
00:27
a modernआधुनिक computer-visionकंप्यूटर विजन algorithmएल्गोरिथ्म
5
15109
1905
कम्प्यूटर का दृष्टि अल्गोरिदम आपको
00:29
can tell you that there's a womanमहिला
and there's a dogकुत्ता.
6
17038
3095
ये बता सकता है कि तस्वीर में
एक महिला और कुत्ता हैं.
00:32
It can tell you that the womanमहिला is smilingमुस्कराते हुए.
7
20157
2706
ये आपको बता सकता है कि वह महिला
मुस्कुरा रही है.
00:34
It mightपराक्रम even be ableयोग्य to tell you
that the dogकुत्ता is incrediblyअविश्वसनीय रूप से cuteआकर्षक.
8
22887
3873
ये आपको बता सकता है कि
वह कुत्ता बहुत क्यूट है.
00:38
I work on this problemमुसीबत
9
26784
1349
मैं इस प्रश्न पर विचार करती
00:40
thinkingविचारधारा about how humansमनुष्य
understandसमझना and processप्रक्रिया the worldविश्व.
10
28157
4212
हूँ, कि मनुष्य विश्व को कैसे देखते
और समझते हैं.
00:45
The thoughtsविचार, memoriesयादें and storiesकहानियों
11
33577
2952
ऐसे चित्र को देखकर इंसान को किस तरह
00:48
that a sceneस्थल like this
mightपराक्रम evokeपुकारना for humansमनुष्य.
12
36553
2818
के विचार, यादें और कहानियां याद आएँगी.
00:51
All the interconnectionsअंतर सम्बन्ध
of relatedसम्बंधित situationsस्थितियों.
13
39395
4285
इससे ताल्लुक रखने वाली सब परिस्थितियाँ.
00:55
Maybe you've seenदेखा
a dogकुत्ता like this one before,
14
43704
3126
शायद आपने ऐसा कुत्ता कहीं देखा हो,
00:58
or you've spentखर्च किया time
runningदौड़ना on a beachसमुद्र तट like this one,
15
46854
2969
या बीच पर ऐसे दौड़ लगायी हो,
01:01
and that furtherआगे की evokesevokes thoughtsविचार
and memoriesयादें of a pastअतीत vacationछुट्टी,
16
49847
4778
और पुरानी छुट्टियों की यादें
ताज़ा हो गयी हों,
01:06
pastअतीत timesटाइम्स to the beachसमुद्र तट,
17
54649
1920
बीच पर बिताया हुआ समय,
01:08
timesटाइम्स spentखर्च किया runningदौड़ना around
with other dogsकुत्ते की.
18
56593
2603
दूसरे कुत्तों के साथ भागते हुए.
01:11
One of my guidingमार्गदर्शक principlesसिद्धांतों
is that by helpingमदद कर रहा है computersकंप्यूटर to understandसमझना
19
59688
5207
मेरा एक निर्देशक सिद्धांत ये है कि, अगर
हम कंप्यूटर को इन अनुभवों
01:16
what it's like to have these experiencesअनुभवों,
20
64919
2896
को समझने के काबिल बना सकें,
और ये सिखा सकें
01:19
to understandसमझना what we shareशेयर
and believe and feel,
21
67839
5176
कि हमारे विचार और भावनाएं क्या हैं,
और हम क्या साझा करना चाहते हैं,
01:26
then we're in a great positionपद
to startप्रारंभ evolvingउद्विकासी computerकंप्यूटर technologyप्रौद्योगिकी
22
74094
4310
तो हम कम्प्यूटर तकनीक को उस तरह से
विकसित करने की स्तिथि में होंगे
01:30
in a way that's complementaryपूरक
with our ownअपना experiencesअनुभवों.
23
78428
4587
जो हमारे अनुभवों के लिए पूरक सिद्ध होगी.
01:35
So, diggingखुदाई more deeplyगहरा into this,
24
83539
3387
इस विषय पर गहराई में जाने के लिए,
01:38
a fewकुछ yearsवर्षों agoपूर्व I beganशुरू हुआ workingकाम कर रहे on helpingमदद कर रहा है
computersकंप्यूटर to generateउत्पन्न human-likeमानव की तरह storiesकहानियों
25
86950
5905
कुछ साल पहले, मैंने कम्प्यूटर को,
तस्वीरों की श्रृंखला से, मनुष्यों जैसे
01:44
from sequencesदृश्यों of imagesइमेजिस.
26
92879
1666
कहानियां बनाना सिखाया.
01:47
So, one day,
27
95427
1904
एक दिन,
01:49
I was workingकाम कर रहे with my computerकंप्यूटर to askपूछना it
what it thought about a tripयात्रा to Australiaऑस्ट्रेलिया.
28
97355
4622
मैंने अपने कम्प्यूटर से पुछा कि उसका,
ऑस्ट्रेलिया जाने के बारेमें क्या विचार है.
01:54
It tookलिया a look at the picturesचित्रों,
and it saw a koalaकोअला.
29
102768
2920
उसने तस्वीरों में कोआला को देखा.
01:58
It didn't know what the koalaकोअला was,
30
106236
1643
उसे नहीं पता था कि कोआला क्या है
01:59
but it said it thought
it was an interesting-lookingदिलचस्प दिखने creatureजंतु.
31
107903
2999
पर उसने कहा कि यह एक दिलचस्प जीव है.
02:04
Then I sharedसाझा with it a sequenceअनुक्रम of imagesइमेजिस
about a houseमकान burningजलता हुआ down.
32
112053
4004
फिर मैंने एक जलते हुए घर की तस्वीर दिखाई.
02:09
It tookलिया a look at the imagesइमेजिस and it said,
33
117704
3285
उसको देखकर उसने कहा,
02:13
"This is an amazingगजब का viewराय!
This is spectacularबहुत शानदार!"
34
121013
3500
"ये एक विस्मयकारी एवं विहंगम दृश्य है!"
02:17
It sentभेज दिया chillsठंड लग रही down my spineरीढ़ की हड्डी.
35
125450
2095
यह सुनकर मुझे बहुत डर लगा.
02:20
It saw a horribleभयंकर, life-changingजीवन बदलने
and life-destroyingजीवन को नष्ट eventघटना
36
128983
4572
ये एक भयानक, जीवन-विध्वंसक, जीवन-परिवर्तक
घटना को
02:25
and thought it was something positiveसकारात्मक.
37
133579
2382
देखकर सोच रहा है कि यह सकारात्मक है.
02:27
I realizedएहसास हुआ that it recognizedपहचान लिया
the contrastविरोध,
38
135985
3441
मुझे समझ आया कि उसने तस्वीर के कंट्रास्ट
02:31
the redsलाल, the yellowsYellows,
39
139450
2699
को देखा, लाल और पीले रंग, और सोचा
02:34
and thought it was something
worthलायक remarkingटिप्पणी on positivelyसकारात्मक.
40
142173
3078
कि इस पर सकारात्मक बोलना चाहिए.
02:37
And partअंश of why it was doing this
41
145928
1615
और ये ऐसे इसलिए कर रहा था क्यूँकि
02:39
was because mostअधिकांश
of the imagesइमेजिस I had givenदिया हुआ it
42
147577
2945
मैंने जो भी तस्वीरें उसको दी थीं, ज्यादातर
02:42
were positiveसकारात्मक imagesइमेजिस.
43
150546
1840
सकारात्मक थीं.
02:44
That's because people
tendदेते हैं to shareशेयर positiveसकारात्मक imagesइमेजिस
44
152903
3658
लोग हमेशा अपने अनुभवों पर बात करते हुए,
02:48
when they talk about theirजो अपने experiencesअनुभवों.
45
156585
2190
सकारात्मक तस्वीरें ही साझा करते हैं.
02:51
When was the last time
you saw a selfieस्वफ़ोटो at a funeralअंतिम संस्कार?
46
159267
2541
क्या आपने कभी शवयात्रा पर
ली हुई सेल्फी देखी है?
02:55
I realizedएहसास हुआ that,
as I workedकाम on improvingमें सुधार AIएअर इंडिया
47
163434
3095
मैंने जाना कि जैसे मैं AI के विकास पर
02:58
taskकार्य by taskकार्य, datasetडेटासेट by datasetडेटासेट,
48
166553
3714
कार्य कर रही थी, मैं उसमें पाठ-दर-पाठ,
03:02
that I was creatingबनाना massiveबड़ा gapsअंतराल,
49
170291
2897
बड़ी कमियाँ पैदा कर रही थी,
03:05
holesछेद and blindअंधा spotsस्पॉट
in what it could understandसमझना.
50
173212
3999
उसकी समझने की क्षमता में
बड़ी कमी छोड़ रही थी.
03:10
And while doing so,
51
178307
1334
ऐसा करते हुए, मैं उसमे
03:11
I was encodingएन्कोडिंग all kindsप्रकार of biasesपूर्वाग्रहों.
52
179665
2483
कई तरह के पूर्वाग्रह डाल रही थी.
03:15
BiasesBiases that reflectप्रतिबिंबित a limitedसीमित viewpointदृष्टिकोण,
53
183029
3318
पूर्वाग्रह जो सीमित दृष्टिकोण दर्शाते हैं,
03:18
limitedसीमित to a singleएक datasetडेटासेट --
54
186371
2261
जो सिर्फ़ एक तथ्य तक सीमित हैं -
03:21
biasesपूर्वाग्रहों that can reflectप्रतिबिंबित
humanमानव biasesपूर्वाग्रहों foundमिल गया in the dataजानकारी,
55
189283
3858
लोगों के पूर्वाग्रह दर्शाते हैं, जो डेटा
से मिलते हैं, जैसे कि
03:25
suchऐसा as prejudiceपूर्वाग्रह and stereotypingstereotyping.
56
193165
3104
पक्षपात और विचार बद्धता.
03:29
I thought back to the evolutionक्रमागत उन्नति
of the technologyप्रौद्योगिकी
57
197554
3057
मैंने विचार किया कि तकनीकि विकास
03:32
that broughtलाया me to where I was that day --
58
200635
2502
कैसे हुआ
03:35
how the first colorरंग imagesइमेजिस
59
203966
2233
और कैसे, प्रथम रंगीन तस्वीरों में
03:38
were calibratedकैलिब्रेटेड againstविरुद्ध
a whiteसफेद woman'sमहिला के skinत्वचा,
60
206223
3048
त्वचा के रंग को पश्चिमी देशोंकी गोरी महिला
के रंग से नापा गया,
03:41
meaningअर्थ that colorरंग photographyफोटोग्राफी
was biasedझुका हुआ againstविरुद्ध blackकाली facesचेहरे के.
61
209665
4145
मतलब, रंगीन तस्वीरें काली चमड़ी के
हिसाब से नहीं बनायी गयीं थी.
03:46
And that sameवही biasपक्षपात, that sameवही blindअंधा spotस्थान
62
214514
2925
और यह पूर्वाग्रह,
03:49
continuedनिरंतर well into the '90s.
63
217463
1867
90 के दशक में भी विद्यमान था.
03:51
And the sameवही blindअंधा spotस्थान
continuesकायम है even todayआज
64
219701
3154
और यही पूर्वाग्रह आज भी मौजूद है,
03:54
in how well we can recognizeपहचानना
differentविभिन्न people'sलोगों की facesचेहरे के
65
222879
3698
चेहरा पहचान करनेवाली तकनीक में, कैसे
03:58
in facialचेहरे recognitionमान्यता technologyप्रौद्योगिकी.
66
226601
2200
विभिन्न रंग के चेहरों की पहचान होती है.
04:01
I thoughहालांकि about the stateराज्य of the artकला
in researchअनुसंधान todayआज,
67
229323
3143
मैंने सोचा - कैसे हम आधुनिक खोजों में भी,
04:04
where we tendदेते हैं to limitसीमा our thinkingविचारधारा
to one datasetडेटासेट and one problemमुसीबत.
68
232490
4514
अपनी सोच को एक समस्या के हिसाब
से सीमित रखते हैं.
04:09
And that in doing so, we were creatingबनाना
more blindअंधा spotsस्पॉट and biasesपूर्वाग्रहों
69
237688
4881
ऐसे में, हम कई कमियों और पूर्वाग्रहों
को छोड़ रहे हैं
04:14
that the AIएअर इंडिया could furtherआगे की amplifyबढ़ाना.
70
242593
2277
जो AI से अधिक विस्तारित हो जायेंगी.
04:17
I realizedएहसास हुआ then
that we had to think deeplyगहरा
71
245712
2079
मुझे लगा कि हमें यह विचार करना चाहिए
04:19
about how the technologyप्रौद्योगिकी we work on todayआज
looksदिखता है in fiveपंज yearsवर्षों, in 10 yearsवर्षों.
72
247815
5519
कि जिस तकनीक को हम आज विकसित कर रहे हैं,
वह 5-10 साल बाद कैसी होगी.
04:25
Humansमनुष्य evolveविकसित करना slowlyधीरे से,
with time to correctसही बात for issuesमुद्दे
73
253990
3142
मनुष्य का विकास धीरे होता है, और पर्यावरण
के साथ सामंजस्य बिठाने
04:29
in the interactionबातचीत of humansमनुष्य
and theirजो अपने environmentवातावरण.
74
257156
3534
में होने वाली समस्याओं को सुलझाने
का पर्याप्त समय होता है.
04:33
In contrastविरोध, artificialकृत्रिम intelligenceबुद्धि
is evolvingउद्विकासी at an incrediblyअविश्वसनीय रूप से fastउपवास rateमूल्यांकन करें.
75
261276
5429
इसके विपरीत, AI तेजी से विकसित हो रहा है.
04:39
And that meansमाध्यम that it really mattersमामलों
76
267013
1773
इसका मतलब यह है कि, हमें आज
04:40
that we think about this
carefullyसावधानी से right now --
77
268810
2317
ही इस विषय पर ध्यान देने की जरुरत है -
04:44
that we reflectप्रतिबिंबित on our ownअपना blindअंधा spotsस्पॉट,
78
272180
3008
कि हम अपने पूर्वाग्रहों के बारे में
04:47
our ownअपना biasesपूर्वाग्रहों,
79
275212
2317
सोच विचार करें, और देखें कि
04:49
and think about how that's informingसूचना
the technologyप्रौद्योगिकी we're creatingबनाना
80
277553
3857
कैसे हम आज विकसित होने वाली
तकनीक में इसको सम्मिलित कर रहे हैं,
04:53
and discussचर्चा कर what the technologyप्रौद्योगिकी of todayआज
will mean for tomorrowआने वाला कल.
81
281434
3902
और तर्क करें कि भविष्य में इस तकनीक
का कैसे इस्तेमाल होगा.
04:58
CEOsसीईओ and scientistsवैज्ञानिकों have weighedतौला in
on what they think
82
286593
3191
वैज्ञानिकों और CEOs ने AI तकनीक पर
05:01
the artificialकृत्रिम intelligenceबुद्धि technologyप्रौद्योगिकी
of the futureभविष्य will be.
83
289808
3325
गहन चिंतन किया हुआ है.
05:05
Stephenस्टीफन HawkingHawking warnsचेतावनी दी that
84
293157
1618
स्टीफन हौकिंग सावधान करते हैं -
05:06
"Artificialकृत्रिम intelligenceबुद्धि
could endसमाप्त mankindमानव जाति."
85
294799
3007
"AI मानव जाति को खत्म कर सकती है"
05:10
Elonएलोन Muskकस्तूरी warnsचेतावनी दी
that it's an existentialअस्तित्व riskजोखिम
86
298307
2683
एलोन मस्क इसे अस्तित्व सम्बन्धी
05:13
and one of the greatestमहानतम risksजोखिम
that we faceचेहरा as a civilizationसभ्यता.
87
301014
3574
सबसे बड़ा खतरा बताते हैं.
05:17
Billबिल Gatesगेट्स has madeबनाया गया the pointबिंदु,
88
305665
1452
बिल गेट्स का कहना है -
05:19
"I don't understandसमझना
why people aren'tनहीं कर रहे हैं more concernedचिंतित."
89
307141
3185
"मुझे समझ नहीं आता की लोग इस
बारे में चिंतित क्यों नहीं हैं."
05:23
But these viewsविचारों --
90
311412
1318
यह सब विचार -
05:25
they're partअंश of the storyकहानी.
91
313618
1734
इस प्रक्रिया का भाग हैं.
05:28
The mathगणित, the modelsमॉडल के,
92
316079
2420
वह गणित, वह तंत्र, जो AI
05:30
the basicबुनियादी buildingइमारत blocksब्लॉक
of artificialकृत्रिम intelligenceबुद्धि
93
318523
3070
तकनीक के मूलभूत खंड हैं,
जिनपर हमारी पहुँच है
05:33
are something that we call accessपहुंच
and all work with.
94
321617
3135
और जिसपर हम काम कर रहे हैं.
05:36
We have open-sourceखुला स्त्रोत toolsउपकरण
for machineमशीन learningसीख रहा हूँ and intelligenceबुद्धि
95
324776
3785
मशीनों को सिखाने के लिए ओपन-सोर्स सॉफ्टवेर
05:40
that we can contributeयोगदान to.
96
328585
1734
में हम सब योगदान दे सकते हैं.
05:42
And beyondपरे that,
we can shareशेयर our experienceअनुभव.
97
330919
3340
और हम अपने अनुभव साझा कर सकते हैं.
05:46
We can shareशेयर our experiencesअनुभवों
with technologyप्रौद्योगिकी and how it concernsचिंताओं us
98
334760
3468
तकनीक को लेकर हमारे अनुभव साझा कर सकते हैं
कि हमें कैसे चिंतित करता है,
05:50
and how it excitesउत्तेजित us.
99
338252
1467
अथवा कैसे हमें जोश दिलाता है.
05:52
We can discussचर्चा कर what we love.
100
340251
1867
पसंद के विषय पर संवाद कर सकते हैं.
05:55
We can communicateसंवाद with foresightदूरदर्शिता
101
343244
2031
दूरदृष्टि रखते हुए, तकनीक के
05:57
about the aspectsपहलुओं of technologyप्रौद्योगिकी
that could be more beneficialफायदेमंद
102
345299
4857
फायदेमंद और समस्याजनक पहलुओं
06:02
or could be more problematicसमस्यात्मक over time.
103
350180
2600
पर विचार कर सकते हैं.
06:05
If we all focusफोकस on openingप्रारंभिक up
the discussionविचार-विमर्श on AIएअर इंडिया
104
353799
4143
भविष्य के बारे में सोचते हुए
06:09
with foresightदूरदर्शिता towardsकी ओर the futureभविष्य,
105
357966
1809
अगर हम AI पर संवाद करें
06:13
this will help createसर्जन करना a generalसामान्य
conversationबातचीत and awarenessजागरूकता
106
361093
4270
तो सामान्यजन को इस तकनीक
06:17
about what AIएअर इंडिया is now,
107
365387
2513
के आज के स्वरुप और भविष्य
06:21
what it can becomeबनना
108
369212
2001
की संभावनाओ से अवगत कराया जा सकता है,
06:23
and all the things that we need to do
109
371237
1785
और विचार किया जा सकता है
06:25
in orderक्रम to enableसक्षम that outcomeपरिणाम
that bestश्रेष्ठ suitsसूट us.
110
373046
3753
कि कैसे उपयोगी परिणाम खोजे जाएँ.
06:29
We alreadyपहले से see and know this
in the technologyप्रौद्योगिकी that we use todayआज.
111
377490
3674
हम समझते हैं कि कैसे इस तकनीक
का आज इस्तेमाल हो रहा है.
06:33
We use smartहोशियार phonesफोन
and digitalडिजिटल assistantsसहायकों and RoombasRoombas.
112
381767
3880
हम स्मार्ट फोन, डिजिटल असिस्टेंट (सीरी)
और रूम्बा का इस्तेमाल करते हैं.
06:38
Are they evilबुराई?
113
386457
1150
क्या वे बुरे हैं?
06:40
Maybe sometimesकभी कभी.
114
388268
1547
कभी कभी, शायद हाँ.
06:42
Are they beneficialफायदेमंद?
115
390664
1333
क्या वे फायदेमंद हैं?
06:45
Yes, they're that, too.
116
393005
1533
हाँ, वह भी है.
06:48
And they're not all the sameवही.
117
396236
1761
और ये पहले जैसे नहीं हैं.
06:50
And there you alreadyपहले से see
a lightरोशनी shiningचमकदार on what the futureभविष्य holdsरखती है.
118
398489
3540
आप सोच सकते हैं कि भविष्य में
ये कैसे होंगे.
06:54
The futureभविष्य continuesकायम है on
from what we buildनिर्माण and createसर्जन करना right now.
119
402942
3619
हम आज जो निर्माण कर रहे हैं,
भविष्य उसपर निर्भर करता है.
06:59
We setसेट into motionप्रस्ताव that dominoDomino effectप्रभाव
120
407165
2642
हमें आगे की चाल तय करनी है,
07:01
that carvesCarves out AI'sऐ के evolutionaryविकासवादी pathपथ.
121
409831
2600
कि AI तकनीक में आगे क्या होगा.
07:05
In our time right now,
we shapeआकार the AIएअर इंडिया of tomorrowआने वाला कल.
122
413173
2871
हम आज तय करेंगे कि,
भविष्य में AI कैसा होगा.
07:08
Technologyप्रौद्योगिकी that immersesडूबे us
in augmentedसंवर्धित realitiesवास्तविकताओं
123
416566
3699
वह तकनीक जो संवर्धित सत्यता
(ऑगमेंटेड रियलिटी)
07:12
bringingलाना to life pastअतीत worldsदुनिया.
124
420289
2566
से पुरानी दुनिया से हमें अवगत कराती है.
07:15
Technologyप्रौद्योगिकी that helpsमदद करता है people
to shareशेयर theirजो अपने experiencesअनुभवों
125
423844
4312
वह तकनीक जो लोगों को अनुभव साझा
करने में मदद करती है,
07:20
when they have difficultyकठिनाई communicatingसंवाद स्थापित.
126
428180
2262
जब वह बात करने कि स्थिति में नहीं होते.
07:23
Technologyप्रौद्योगिकी builtबनाया on understandingसमझ
the streamingस्ट्रीमिंग visualदृश्य worldsदुनिया
127
431323
4532
वह तकनीक, जो कैमरे से दुनिया को समझ कर,
07:27
used as technologyप्रौद्योगिकी for self-drivingसेल्फ ड्राइविंग carsकारों.
128
435879
3079
बिना ड्राईवर के चलने वाली कार का
निर्माण करने में मदद करती है.
07:32
Technologyप्रौद्योगिकी builtबनाया on understandingसमझ imagesइमेजिस
and generatingउत्पादक languageभाषा,
129
440490
3413
वह तकनीक, जो तस्वीरों को समझ कर,
07:35
evolvingउद्विकासी into technologyप्रौद्योगिकी that helpsमदद करता है people
who are visuallyनेत्रहीन impairedबिगड़ा हुआ
130
443927
4063
भाषा में परिवर्तित करती है,
07:40
be better ableयोग्य to accessपहुंच the visualदृश्य worldविश्व.
131
448014
2800
जिससे नेत्रहीन
व्यक्तियों का जीवन आसान हो पायेगा.
07:42
And we alsoभी see how technologyप्रौद्योगिकी
can leadनेतृत्व to problemsसमस्याएँ.
132
450838
3261
हम ये देख रहे हैं कि तकनीक समस्याएं
भी पैदा कर रही है.
07:46
We have technologyप्रौद्योगिकी todayआज
133
454885
1428
हमारे पास तकनीक है
07:48
that analyzesका विश्लेषण करती है physicalभौतिक
characteristicsविशेषताओं we're bornउत्पन्न होने वाली with --
134
456337
3835
जो हमारी पैदाईशी प्राकृतिक गुणों, जैसे -
07:52
suchऐसा as the colorरंग of our skinत्वचा
or the look of our faceचेहरा --
135
460196
3272
चमड़ी का रंग या चेहरे की बनावट - का अध्ययन
07:55
in orderक्रम to determineनिर्धारित whetherकि क्या or not
we mightपराक्रम be criminalsअपराधियों or terroristsआतंकवादियों.
136
463492
3804
करके बताती है कि हम अपराधी या
आतंकवादी तो नहीं.
07:59
We have technologyप्रौद्योगिकी
that crunchesCrunches throughके माध्यम से our dataजानकारी,
137
467688
2905
हमारे पास तकनीक है जो हमारे
व्यक्तिगत आंकड़ों से
08:02
even dataजानकारी relatingसंबंधित
to our genderलिंग or our raceदौड़,
138
470617
2896
जैसे- लिंग अथवा प्रजाति- से यह तय करती है,
08:05
in orderक्रम to determineनिर्धारित whetherकि क्या or not
we mightपराक्रम get a loanऋण.
139
473537
2865
कि हम लोन के हकदार हैं या नहीं.
08:09
All that we see now
140
477494
1579
आज जैसे आप जनते हो ,
08:11
is a snapshotस्नैपशॉट in the evolutionक्रमागत उन्नति
of artificialकृत्रिम intelligenceबुद्धि.
141
479097
3617
वह भविष्य में इसके विकास का संकेतक है.
08:15
Because where we are right now,
142
483763
1778
क्यूँकि हम आज जहाँ हैं, वहाँ से
08:17
is withinअंदर a momentपल of that evolutionक्रमागत उन्नति.
143
485565
2238
कृत्रिम बुद्धिमत्ता का विकास तेजी से होगा.
08:20
That meansमाध्यम that what we do now
will affectको प्रभावित what happensहो जाता down the lineलाइन
144
488690
3802
इसलिए आज हम जो करेंगे वह भविष्य के लिए
08:24
and in the futureभविष्य.
145
492516
1200
अत्यंत महत्त्वपूर्ण होगा.
08:26
If we want AIएअर इंडिया to evolveविकसित करना
in a way that helpsमदद करता है humansमनुष्य,
146
494063
3951
अगर हम AI को मानवता की भलाई के लिए
08:30
then we need to defineपरिभाषित
the goalsलक्ष्य and strategiesरणनीतियाँ
147
498038
2801
इस्तेमाल होता देखना चाहते हैं तो हमें
इसके लक्ष्य और रणनीति
08:32
that enableसक्षम that pathपथ now.
148
500863
1733
अभी तय करने होंगे.
08:35
What I'd like to see is something
that fitsफिट well with humansमनुष्य,
149
503680
3738
मैं देखना पसंद करुँगी कि AI, मानवता,
08:39
with our cultureसंस्कृति and with the environmentवातावरण.
150
507442
2800
सभ्यता और पर्यावरण के साथ घुलमिल जाए.
08:43
Technologyप्रौद्योगिकी that aidsएड्स and assistsसहायता
those of us with neurologicalस्नायविक conditionsशर्तेँ
151
511435
4484
AI वह तकनीक हो, जो गंभीर रूप से
08:47
or other disabilitiesविकलांग
152
515943
1721
बीमार या विकलांगों
08:49
in orderक्रम to make life
equallyसमान रूप से challengingचुनौतीपूर्ण for everyoneहर कोई.
153
517688
3216
का जीवन सहज कर सके.
08:54
Technologyप्रौद्योगिकी that worksकाम करता है
154
522097
1421
AI वह तकनीक हो, जो चमड़ी के
08:55
regardlessपरवाह किए बिना of your demographicsजनसांख्यिकी
or the colorरंग of your skinत्वचा.
155
523542
3933
रंग या प्रजाति के आधार पर
भेद किये बिना काम करे.
09:00
And so todayआज, what I focusफोकस on
is the technologyप्रौद्योगिकी for tomorrowआने वाला कल
156
528383
4742
आज मेरा ध्यान है कि यह तकनीक 10 साल
09:05
and for 10 yearsवर्षों from now.
157
533149
1733
बाद कैसे इस्तेमाल होगी.
09:08
AIएअर इंडिया can turnमोड़ out in manyअनेक differentविभिन्न waysतरीके.
158
536530
2634
AI कई दिशाओं में विकसित हो सकती है.
09:11
But in this caseमामला,
159
539688
1225
पर यह ऐसी अपने-आप
09:12
it isn't a self-drivingसेल्फ ड्राइविंग carगाड़ी
withoutके बग़ैर any destinationगंतव्य.
160
540937
3328
चलनेवाली कार न हो, जिसकी कोई मंजिल नहीं.
09:16
This is the carगाड़ी that we are drivingड्राइव.
161
544884
2400
इस कार को हम चला रहे हैं.
09:19
We chooseचुनें when to speedगति up
and when to slowधीमा down.
162
547953
3595
हम तय करेंगे कि कब तेज या धीरे चलानी है.
09:23
We chooseचुनें if we need to make a turnमोड़.
163
551572
2400
हम तय करेंगे कि कब मुड़ना है.
09:26
We chooseचुनें what the AIएअर इंडिया
of the futureभविष्य will be.
164
554868
3000
हम तय करेंगे कि AI का भविष्य कैसा होगा.
09:31
There's a vastव्यापक playingखेल रहे हैं fieldखेत
165
559186
1337
भविष्य में AI
09:32
of all the things that artificialकृत्रिम
intelligenceबुद्धि can becomeबनना.
166
560547
2965
कैसा होगा, इसकी कई संभावनाएं हैं.
09:36
It will becomeबनना manyअनेक things.
167
564064
1800
ये कई रूप ले सकता है.
09:39
And it's up to us now,
168
567694
1732
और ये हमें तय करना है,
09:41
in orderक्रम to figureआकृति out
what we need to put in placeजगह
169
569450
3061
कि AI का उपयोग कैसे हो,
09:44
to make sure the outcomesपरिणामों
of artificialकृत्रिम intelligenceबुद्धि
170
572535
3807
और इसके परिणाम ऐसे हों,
09:48
are the onesलोगों that will be
better for all of us.
171
576366
3066
जो हम सबके लिए बेहतर हो.
09:51
Thank you.
172
579456
1150
धन्यवाद.
09:52
(Applauseप्रशंसा)
173
580630
2187
(तालियाँ और प्रशंसा)
Translated by Amol P Pachchhapurkar
Reviewed by arvind patil

▲Back to top

ABOUT THE SPEAKER
Margaret Mitchell - AI research scientist
Margaret Mitchell is a senior research scientist in Google's Research & Machine Intelligence group, working on artificial intelligence.

Why you should listen

Margaret Mitchell's research involves vision-language and grounded language generation, focusing on how to evolve artificial intelligence towards positive goals. Her work combines computer vision, natural language processing, social media as well as many statistical methods and insights from cognitive science. Before Google, Mitchell was a founding member of Microsoft Research's "Cognition" group, focused on advancing artificial intelligence, and a researcher in Microsoft Research's Natural Language Processing group.

More profile about the speaker
Margaret Mitchell | Speaker | TED.com