ABOUT THE SPEAKER
Sam Rodriques - Neuroengineer
Sam Rodriques invents new technologies to help neuroscientists understand how the brain works.

Why you should listen

Sam Rodriques has designed a new nanofabrication method and a new approach to sensing neural activity with probes in the bloodstream, and his forthcoming technologies are aimed at understanding the spatial organization of cells in the brain and the transcriptional activity of neurons over time. He is a graduate student in Physics at the Massachusetts Institute of Technology, with affiliations at the MIT Media Lab, the MIT Department of Brain and Cognitive Sciences and the Broad Institute of Harvard and MIT. He graduated summa cum laude with highest honors in Physics from Haverford College, where he worked on new methods for calculating quantum entanglement in multipartite quantum systems. He has received numerous national awards and fellowships to support his research, including the Hertz Foundation Graduate Fellowship, an NSF Graduate Research Fellowship and a Churchill Scholarship.

More profile about the speaker
Sam Rodriques | Speaker | TED.com
TEDxBeaconStreet

Sam Rodriques: What we'll learn about the brain in the next century

सैम रोड्रिक्स: अगले शताब्दी में हम मस्तिष्क के बारे में क्या सीखेंगे

Filmed:
1,621,715 views

इस कल्पनाशील बात में, न्यूरोइंजिनर सैम रोड्रिक्स हमें मस्तिष्क विज्ञान में अगले 100 वर्षों के रोमांचकारी दौरे पर ले जाता है। वह अजीब (और कभी-कभी डरावना) नवाचारों की कल्पना करते हैं जो मस्तिष्क की बीमारी को समझने और उनका इलाज करने की कुंजी हो सकती है - जैसे लेजर जो हमारी खोपड़ी में छोटे छेद ड्रिल करते हैं और जांच को हमारे न्यूरॉन्स की विद्युत गतिविधि का अध्ययन करने की अनुमति देते हैं।
- Neuroengineer
Sam Rodriques invents new technologies to help neuroscientists understand how the brain works. Full bio

Double-click the English transcript below to play the video.

00:13
I want to tell you guys
something about neuroscienceतंत्रिका विज्ञान.
0
1040
2507
मैं आपको तंत्रिका विज्ञान के
बारे में बताना चाहता हूँ.
00:16
I'm a physicistभौतिक विज्ञानी by trainingप्रशिक्षण.
1
4040
1800
मैं प्रशिक्षण से भौतिक वैज्ञानिक हूँ।
00:18
About threeतीन yearsवर्षों agoपूर्व, I left physicsभौतिक विज्ञान
2
6230
2206
लगभग तीन साल पहले,
मैंने भौतिकी विज्ञान छोड़ी
00:20
to come and try to understandसमझना
how the brainदिमाग worksकाम करता है.
3
8460
2349
और मस्तिष्क कैसे काम करता है,
यह समझने की कोशिश की।
00:22
And this is what I foundमिल गया.
4
10833
1474
और यह मैंने पाया।
00:24
Lots of people are workingकाम कर रहे on depressionडिप्रेशन.
5
12331
2064
बहुत से लोग अवसाद पर काम कर रहे हैं।
00:26
And that's really good,
6
14419
1159
और यह बहुत अच्छा है,
00:27
depressionडिप्रेशन is something
that we really want to understandसमझना.
7
15602
2721
अवसाद के बारे में
हम वास्तव में समझना चाहते हैं।
00:30
Here'sयहां के how you do it:
8
18347
1167
आप इस तरह कर सकते है
00:31
you take a jarजार and you fillभरना it up,
about halfwayआधे रास्ते, with waterपानी.
9
19538
4161
एक घड़ा लें और इसे आधा भरें
00:35
And then you take a mouseमाउस,
and you put the mouseमाउस in the jarजार, OK?
10
23723
4182
और फिर आप एक चूहा
घङे में डाल दें, ठीक है?
00:39
And the mouseमाउस swimsतैरती around
for a little while
11
27929
2350
चूहा थोड़ी देर के लिए चारों ओर तैरता है
00:42
and then at some pointबिंदु,
the mouseमाउस getsहो जाता है tiredथका हुआ
12
30303
2388
कुछ समय बाद, चूहा थक जाता है
00:44
and decidesफैसला करता है to stop swimmingतैराकी.
13
32715
1934
और फिर चूहा तैरना
रोकने का फैसला करता है।
00:46
And when it stopsबंद हो जाता है swimmingतैराकी,
that's depressionडिप्रेशन.
14
34673
3133
और जब यह तैराकी बंद कर देता है,
वह अवसाद है।
00:50
OK?
15
38696
1150
ठीक है?
00:52
And I'm from theoreticalसैद्धांतिक physicsभौतिक विज्ञान,
16
40291
3380
मैं सैद्धांतिक भौतिकी से हूं,
00:55
so I'm used to people makingनिर्माण
very sophisticatedजटिल mathematicalगणितीय modelsमॉडल के
17
43695
3668
इसलिए मैं जानता हूँ कि लोग अक्सर
जटिल गणितीय मॉडल का प्रयोग करते हैं
00:59
to preciselyठीक describeवर्णन physicalभौतिक phenomenaघटना,
18
47387
2881
भौतिक घटनाओं का सटीक वर्णन करने के लिए
01:02
so when I saw that this
is the modelआदर्श for depressionडिप्रेशन,
19
50292
2452
इसलिए जब मैंने अवसाद के लिए
बनाया गया मॉडल देखा,
01:04
I thoughहालांकि to myselfखुद, "Oh my God,
we have a lot of work to do."
20
52768
2937
मैंने खुद से कहा, "हे भगवान,
हमें बहुत सारा काम करना है।"
01:07
(Laughterहँसी)
21
55729
1370
(हंसी)
01:09
But this is a kindमेहरबान of generalसामान्य
problemमुसीबत in neuroscienceतंत्रिका विज्ञान.
22
57123
2951
लेकिन यह न्यूरोसाइंस में सामान्य समस्या है
01:12
So for exampleउदाहरण, take emotionभावना.
23
60377
2111
तो उदाहरण के लिए, 'भावना' लें।
01:14
Lots of people want to understandसमझना emotionभावना.
24
62512
2459
बहुत से लोग 'भावनाओं' को समझना चाहते हैं।
01:17
But you can't studyअध्ययन emotionभावना
in miceचूहों or monkeysबंदरों
25
65352
3313
लेकिन आप 'भावना' का अध्ययन
चूहों या बंदरों में नहीं कर सकते हैं
क्योंकि आप उनसे
पूछ नहीं सकते
01:20
because you can't askपूछना them
26
68689
1254
01:21
how they're feelingअनुभूति
or what they're experiencingका सामना.
27
69967
2317
वे क्या महसूस या अनुभव कर रहे हैं।
01:24
So insteadबजाय, people who want
to understandसमझना emotionभावना,
28
72308
2357
इसलिए, जो लोग 'भावना' समझना चाहते हैं
01:26
typicallyआम तौर पर endसमाप्त up studyingपढ़ते पढ़ते
what's calledबुलाया motivatedप्रेरित behaviorव्यवहार,
29
74689
2777
आमतौर पर वे 'प्रेरित व्यवहार'
का अध्ययन कर रहे होते हैं
01:29
whichकौन कौन से is codeकोड for "what the mouseमाउस does
when it really, really wants cheeseपनीर."
30
77490
3658
ये कोड है "चूहा क्या करता है
जब यह वास्तव में, पनीर चाहता है। "
01:33
OK, I could go on and on.
31
81839
1675
मैं इस विषय पर बहुत कुछ कह सकता हूं
01:35
I mean, the pointबिंदु is, the NIHNih
spendsबिताता about 5.5 billionएक अरब dollarsडॉलर a yearसाल
32
83538
6316
परंतु, महत्वपूर्ण है की, एनआईएच
सालाना 5.5 अरब डॉलर
01:41
on neuroscienceतंत्रिका विज्ञान researchअनुसंधान.
33
89878
1532
न्यूरोसाइंस शोध पर खर्च करता है।
01:43
And yetअभी तक there have been almostलगभग
no significantमहत्वपूर्ण improvementsसुधार in outcomesपरिणामों
34
91434
3603
और फिर भी, अभी तक, परिणामों में
महत्वपूर्ण सुधार नहीं है,
01:47
for patientsरोगियों with brainदिमाग diseasesरोगों
in the pastअतीत 40 yearsवर्षों.
35
95061
3491
मस्तिष्क रोगों के रोगियों के लिए,
पिछले 40 वर्षों में।
01:51
And I think a lot of that
is basicallyमूल रूप से dueदेय to the factतथ्य
36
99015
2540
मुझे लगता है कि ये
मूल रूप से इस तथ्य के कारण है
01:53
that miceचूहों mightपराक्रम be OK as a modelआदर्श
for cancerकैंसर or diabetesमधुमेह,
37
101579
4151
चूहों का प्रयोग कैंसर या मधुमेह के
लिए मॉडल के रूप में ठीक हो सकता है
01:57
but the mouseमाउस brainदिमाग
is just not sophisticatedजटिल enoughपर्याप्त
38
105754
2687
लेकिन चूहों का मस्तिष्क
पर्याप्त विवेकीनहीं है
02:00
to reproduceप्रतिलिपि प्रस्तुत करना humanमानव psychologyमनोविज्ञान
or humanमानव brainदिमाग diseaseरोग.
39
108465
3175
मानव मस्तिष्क रोग या मानव मनोविज्ञान
को पुनरुत्पादित करने के लिए।
02:04
OK?
40
112379
1225
ठीक है?
02:05
So if the mouseमाउस modelsमॉडल के are so badखराब,
why are we still usingका उपयोग करते हुए them?
41
113628
3634
इसलिए यदि चूहों का मॉडल इतने खराब हैं,
हम अभी भी उनका उपयोग क्यों कर रहे हैं?
02:10
Well, it basicallyमूल रूप से boilsफोड़े down to this:
42
118143
2103
यह मूल रूप से इस कारण है:
02:12
the brainदिमाग is madeबनाया गया up of neuronsन्यूरॉन्स
43
120270
2556
मस्तिष्क न्यूरॉन्स से बना है
02:14
whichकौन कौन से are these little cellsकोशिकाओं that sendभेजना
electricalविद्युतीय signalsसंकेत to eachसे प्रत्येक other.
44
122850
3447
ये छोटी कोशिकाऐं ऐक दूसरे
को विद्युत सिग्नल भेजती हैं।
02:18
If you want to understandसमझना
how the brainदिमाग worksकाम करता है,
45
126680
2144
मस्तिष्क कैसे काम करता है,समझने के लिए
02:20
you have to be ableयोग्य to measureमाप
the electricalविद्युतीय activityगतिविधि of these neuronsन्यूरॉन्स.
46
128848
3808
इन न्यूरॉन्स की विद्युत गतिविधि
मापने में सक्षम होना आवश्यक है।
02:25
But to do that, you have to get
really closeबंद करे to the neuronsन्यूरॉन्स
47
133339
2992
लेकिन ऐसा करने के लिए, आपको
न्यूरॉन्स के करीब पहुंचना होगा
02:28
with some kindमेहरबान of electricalविद्युतीय
recordingरिकॉर्डिंग deviceयुक्ति or a microscopeमाइक्रोस्कोप.
48
136355
2928
बिजली रिकॉर्डिंग डिवाइस या
माइक्रोस्कोप के द्वारा।
आप चूहों और बंदरों में ऐसा कर सकते हैं
02:31
And so you can do that in miceचूहों
and you can do it in monkeysबंदरों,
49
139563
2810
क्योंकि आप भौतिक रूप से
चीजों को उनके मस्तिष्क में डाल सकते हैं
02:34
because you can physicallyशारीरिक रूप से
put things into theirजो अपने brainदिमाग
50
142397
2548
02:36
but for some reasonकारण we still
can't do that in humansमनुष्य, OK?
51
144969
3046
लेकिन कुछ कारणों से हम अभी भी
इंसानों में ऐसा नहीं कर सकते ।
02:40
So insteadबजाय, we'veहमने inventedआविष्कार
all these proxiesपरदे.
52
148533
3370
इसके बजाए, हमने आविष्कार किया है
इनको मानव का अधिकार देकर
02:43
So the mostअधिकांश popularलोकप्रिय one is probablyशायद this,
53
151927
2515
तो सबसे लोकप्रिय एक शायद यह है,
02:46
functionalकार्यात्मक MRIएमआरआई, fMRIFmri,
54
154466
2397
कार्यात्मक एमआरआई, एफएमआरआई,
02:48
whichकौन कौन से allowsकी अनुमति देता है you to make these
prettyसुंदर picturesचित्रों like this,
55
156887
2692
जो आपको इस तरह की सुंदर
तस्वीरें बनाने देता है
यह दिखाता है कि आपके दिमाग के
कौन से हिस्से में रोशनी है
02:51
that showदिखाना whichकौन कौन से partsभागों
of your brainदिमाग lightरोशनी up
56
159603
2056
02:53
when you're engagedव्यस्त
in differentविभिन्न activitiesगतिविधियों.
57
161683
2126
जब आप व्यस्त हैं
विभिन्न गतिविधियों में।
02:55
But this is a proxyप्रॉक्सी.
58
163833
1920
लेकिन यह एक परॉक्सी है।
आप वास्तव में यहाँ तंत्रिका
गतिविधि माप नहीं रहे हैं।
02:57
You're not actuallyवास्तव में measuringमापने
neuralतंत्रिका activityगतिविधि here.
59
165777
3292
03:01
What you're doing
is you're measuringमापने, essentiallyअनिवार्य रूप से,
60
169093
2842
आप माप रहे हैं,
03:03
like, bloodरक्त flowबहे in the brainदिमाग.
61
171959
1832
मस्तिष्क में रक्त प्रवाह।
03:05
Where there's more bloodरक्त.
62
173815
1238
जहां अधिक खून है।
03:07
It's actuallyवास्तव में where there's more oxygenऑक्सीजन,
but you get the ideaविचार, OK?
63
175077
3103
यह वास्तव में है जहां अधिक ऑक्सीजन है!
आप विचार समझे, ठीक है?
03:10
The other thing that you can do
is you can do this --
64
178204
2519
दूसरी चीज जो आप कर सकते हैं
03:12
electroencephalographyelectroencephalography -- you can put
these electrodesइलेक्ट्रोड on your headसिर, OK?
65
180747
3591
इलेक्ट्रोएन्सफ्लोग्राफी - आप
सिर पर ये इलेक्ट्रोड डाल सकते हैं,
03:16
And then you can measureमाप your brainदिमाग wavesलहर की.
66
184362
2143
और फिरअपने मस्तिष्क
तरंगों को माप सकते हैं।
03:19
And here, you're actuallyवास्तव में measuringमापने
electricalविद्युतीय activityगतिविधि.
67
187125
3079
और यहां, आप वास्तव में
विद्युत गतिविधि माप रहे हैं
03:22
But you're not measuringमापने
the activityगतिविधि of neuronsन्यूरॉन्स.
68
190228
2365
लेकिन आप न्यूरॉन्स की गतिविधि
माप नहीं रहे हैं।
03:24
You're measuringमापने
these electricalविद्युतीय currentsधाराओं,
69
192911
2444
आप माप रहे हैं
इन विद्युत धाराओं को,
03:27
sloshingsloshing back and forthआगे in your brainदिमाग.
70
195379
2299
आपके दिमाग में आगे पीछे जाते हुऐ।
03:30
So the pointबिंदु is just
that these technologiesप्रौद्योगिकियों that we have
71
198157
2674
तो मुद्दा बस है,
कि हमारे पास ये तकनीकें हैं जो
03:32
are really measuringमापने the wrongगलत thing.
72
200855
2436
वास्तव में गलत चीज़ को माप रही हैं।
03:35
Because, for mostअधिकांश of the diseasesरोगों
that we want to understandसमझना --
73
203315
2953
क्योंकि अधिकांश बीमारियों के लिए
हम समझना चाहते हैं -
03:38
like, Parkinson'sपार्किंसंस is the classicक्लासिक exampleउदाहरण.
74
206292
2198
जैसे, पार्किंसंस क्लासिक उदाहरण है।
03:40
In Parkinson'sपार्किंसंस, there's one particularविशेष
kindमेहरबान of neuronन्यूरॉन deepगहरा in your brainदिमाग
75
208514
3554
पार्किंसंस में, एक विशेष न्यूरॉन है
आपके मस्तिष्क में गहराई में
03:44
that is responsibleउत्तरदायी for the diseaseरोग,
76
212092
1731
यह रोग के लिए ज़िम्मेदार है,
03:45
and these technologiesप्रौद्योगिकियों just don't have
the resolutionसंकल्प that you need
77
213847
3182
और ये प्रौद्योगिकि विकसित नहीं हैं
03:49
to get at that.
78
217053
1373
उस गहराई तक पहुचने के लिऐ।
03:50
And so that's why
we're still stuckअटक with the animalsजानवरों.
79
218450
3974
यही कारण है हम अभी भी
जानवरों के साथ अटक गए हैं।
03:54
Not that anyoneकिसी को wants
to be studyingपढ़ते पढ़ते depressionडिप्रेशन
80
222448
2533
कोई भी अवसाद का अध्ययन
03:57
by puttingडाल miceचूहों into jarsजार, right?
81
225005
2262
चूहों को घडा में डालकर
नहीं करना चाहता है।
03:59
It's just that there's this pervasiveव्यापक
senseसमझ that it's not possibleमुमकिन
82
227291
3753
यह सिर्फ इतना है कि यह व्यापक है
समझो कि यह संभव नहीं है
04:03
to look at the activityगतिविधि of neuronsन्यूरॉन्स
in healthyस्वस्थ humansमनुष्य.
83
231068
3847
न्यूरॉन्स की गतिविधि को देखने के लिए
स्वस्थ मनुष्यों में।
04:08
So here'sयहाँ है what I want to do.
84
236180
1492
इसलिए मैं यह करना चाहता हूं।
04:09
I want to take you into the futureभविष्य.
85
237974
2521
मैं आपको भविष्य में ले जाना चाहता हूं।
04:12
To have a look at one way in whichकौन कौन से
I think it could potentiallyसंभावित be possibleमुमकिन.
86
240519
4482
एक तरह देखने से मुझे लगता है कि
यह संभवतः संभव हो सकता है।
04:17
And I want to prefaceप्रस्तावना this by sayingकह रही है,
I don't have all the detailsविवरण.
87
245526
3298
इसलिए मैं आपको आरंभ में
ही कहना चाहता हूं,
मेरे पास सभी विवरण नहीं हैं।
04:21
So I'm just going to provideप्रदान करें you
with a kindमेहरबान of outlineबाह्यरेखा.
88
249272
2967
इसलिए मैं आपको एक रूपरेखा
प्रदान करने जा रहा हूं।
04:24
But we're going to go the yearसाल 2100.
89
252263
2400
हम साल 2100 जा रहे हैं।
04:27
Now what does the yearसाल 2100 look like?
90
255732
2299
अब वर्ष 2100 कैसा दिखता है?
04:30
Well, to startप्रारंभ with, the climateजलवायु
is a bitबिट warmerगर्म that what you're used to.
91
258055
3518
जलवायु के साथ शुरू करें,
सामान्य से थोड़ा गर्म है।
04:33
(Laughterहँसी)
92
261597
3583
(हंसी) ¶
04:37
And that roboticरोबोट vacuumशून्य स्थान cleanerसफाई वाला
that you know and love
93
265204
4952
और वह रोबोट वैक्यूम क्लीनर,
जो आप जानते हैं
04:42
wentचला गया throughके माध्यम से a fewकुछ generationsपीढ़ियों,
94
270180
1514
कुछ पीढ़ियों के माध्यम से,
04:43
and the improvementsसुधार
were not always so good.
95
271718
2843
और सुधार हमेशा इतने अच्छे नहीं थे।
04:46
(Laughterहँसी)
96
274585
1595
(हंसी) ¶
04:48
It was not always for the better.
97
276530
2310
यह हमेशा बेहतर नहीं होता है।
04:52
But actuallyवास्तव में, in the yearसाल 2100
mostअधिकांश things are surprisinglyहैरानी की बात है recognizableपहचानने योग्य.
98
280221
4538
लेकिन वास्तव में, वर्ष 2100
में ज्यादातर चीजें
आश्चर्यजनक रूप से
पहचाने जाने योग्य हैं।
04:57
It's just the brainदिमाग is totallyपूरी तरह से differentविभिन्न.
99
285458
2734
सिर्फ मस्तिष्क बिल्कुल अलग है।
05:00
For exampleउदाहरण, in the yearसाल 2100,
100
288740
2547
उदाहरण के लिए, वर्ष 2100 में,
05:03
we understandसमझना the rootजड़ causesका कारण बनता है
of Alzheimer'sअल्जाइमर.
101
291311
2857
हम अल्जाइमर के मूल कारणों को समझते हैं।
05:06
So we can deliverउद्धार targetedलक्षित
geneticआनुवंशिक therapiesउपचारों or drugsदवाओं
102
294192
3714
इसलिए हम लक्षित तरीके से
अनुवांशिक उपचार या दवाएं दें सकते हैं
05:09
to stop the degenerativeअपक्षयी processप्रक्रिया
before it beginsशुरू करना.
103
297930
2876
अपजनन सम्बन्धी प्रक्रिया को रोकने के लिए,
इससे पहले कि यह शुरू होता है।
05:13
So how did we do it?
104
301629
1333
तो हमने यह कैसे किया?
05:15
Well, there were essentiallyअनिवार्य रूप से threeतीन stepsकदम.
105
303898
2238
अनिवार्य रूप से तीन कदम थे।
05:18
The first stepकदम was
that we had to figureआकृति out
106
306589
2814
पहला कदम हमें पता लगाना था
05:21
some way to get electricalविद्युतीय
connectionsकनेक्शन throughके माध्यम से the skullखोपड़ी
107
309427
3293
खोपड़ी के माध्यम से बिजली पाने का तरीका
05:24
so we could measureमाप
the electricalविद्युतीय activityगतिविधि of neuronsन्यूरॉन्स.
108
312744
3015
ताकि हम माप सकें
न्यूरॉन्स की विद्युत गतिविधि।
05:28
And not only that,
it had to be easyआसान and risk-freeजोखिम मुक्त.
109
316339
4349
और यह आसान और जोखिम मुक्त होना था।
05:32
Something that basicallyमूल रूप से anyoneकिसी को
would be OK with,
110
320712
2378
जिसे मूल रूप से सभी स्वीकार करेंगे,
05:35
like gettingमिल रहा a piercingभेदी.
111
323114
1600
जैसे, शरीर भेदी की तरह
05:37
Because back in 2017,
112
325156
2747
क्योंकि 2017 में ,
05:39
the only way that we knewजानता था of
to get throughके माध्यम से the skullखोपड़ी
113
327927
2913
खोपड़ी तक पहूॅंचने का एकमात्र
तरीका जिसे हम जानते थे,
05:42
was to drillड्रिल these holesछेद
the sizeआकार of quartersतिमाहियों.
114
330864
2817
वह था, इन क्वार्टर आकार छेद ड्रिल करके
05:46
You would never let
someoneकोई व्यक्ति do that to you.
115
334015
2039
आप कभी नहीं चाहेंगे
कोई आपके साथ ऐसा करे।
05:48
So in the 2020s,
116
336967
2253
तो 2020 में, ¶
05:51
people beganशुरू हुआ to experimentप्रयोग --
ratherबल्कि than drillingड्रिलिंग these giganticविशाल holesछेद,
117
339244
3381
लोगों ने प्रयोग करना शुरू किया -
इन विशाल छेद ड्रिल करने के बजाय,
05:54
drillingड्रिलिंग microscopicसूक्ष्म holesछेद,
no thickerमोटा than a pieceटुकड़ा of hairकेश.
118
342649
3115
माइक्रोस्कोपिक छेद ड्रिलिंग,
बालों के टुकड़े से मोटा नहीं।
05:58
And the ideaविचार here
was really for diagnosisनिदान --
119
346735
2096
और यहां विचार
वास्तव में निदान के लिए था -
06:00
there are lots of timesटाइम्स in the diagnosisनिदान
of brainदिमाग disordersविकारों
120
348855
2786
मस्तिष्क विकारों के निदान में कई बार
06:03
when you would like to be ableयोग्य to look
at the neuralतंत्रिका activityगतिविधि beneathनीचे the skullखोपड़ी
121
351665
4872
आप खोपड़ी के नीचे तंत्रिका
गतिविधि देखना चाहते हैं
06:08
and beingकिया जा रहा है ableयोग्य to drillड्रिल
these microscopicसूक्ष्म holesछेद
122
356561
3191
और ड्रिल करने में सक्षम होना
इन सूक्ष्म छेद
06:11
would make that much easierआसान
for the patientमरीज.
123
359776
2142
इसे इतना आसान बना देगा
रोगी के लिए।
06:13
In the endसमाप्त, it would be
like gettingमिल रहा a shotशॉट.
124
361942
2349
अंत में, यह एक शॉट प्राप्त
करने की तरह होगा।
06:16
You just go in and you sitबैठिये down
125
364315
1580
आप बस अंदर जाते हैं
और आप बैठते हैं
06:17
and there's a thing
that comesआता हे down on your headसिर,
126
365919
2301
और यह आपके सिर पर आता है,
06:20
and a momentaryक्षणिक stingडंक and then it's doneकिया हुआ,
127
368244
1953
और एक क्षणिक डंक और फिर यह हो गया,
06:22
and you can go back about your day.
128
370221
1864
और आप अपने दिनचर्या
में वापस जा सकते हैं।
06:24
So we're eventuallyअंत में ableयोग्य to do it
129
372736
4793
इसलिए हम अंततः इसे करने में सक्षम हैं
06:29
usingका उपयोग करते हुए lasersपराबैंगनीकिरण to drillड्रिल the holesछेद.
130
377553
2667
छेद ड्रिल करने के लिए लेजर का उपयोग करके।
06:32
And with the lasersपराबैंगनीकिरण,
it was fastउपवास and extremelyअत्यंत reliableविश्वसनीय,
131
380244
2620
और लेजर के साथ,
यह तेज़ और बेहद विश्वसनीय था,
06:34
you couldn'tनहीं कर सका even tell
the holesछेद were there,
132
382888
2213
आप भी बता नहीं सकते थे छेद वहां थे,
06:37
any more than you could tell
that one of your hairsबाल was missingलापता.
133
385125
3000
आपको कुछ पता नहीं चलेगा
और मुझे पता है कि यह
पागल लग सकता है,
06:40
And I know it mightपराक्रम soundध्वनि crazyपागल,
usingका उपयोग करते हुए lasersपराबैंगनीकिरण to drillड्रिल holesछेद in your skullखोपड़ी,
134
388753
4738
अपनी खोपड़ी में छेद ड्रिल
करने के लिए लेजर का उपयोग करना,
06:45
but back in 2017,
135
393515
1366
लेकिन 2017 में ,
06:46
people were OK with surgeonsसर्जन
shootingशूटिंग lasersपराबैंगनीकिरण into theirजो अपने eyesआंखें
136
394905
4109
सर्जन लोगों की आंखों
में लेजर का उपयोग करते थे,
06:51
for correctiveसुधारात्मक surgeryसर्जरी
137
399038
1214
सुधारात्मक सर्जरी के लिए।
06:52
So when you're alreadyपहले से here,
it's not that bigबड़े of a stepकदम.
138
400276
3887
तो जब आप पहले से ही यहां हैं,
यह एक कदम का बड़ा नहीं है।
06:57
OK?
139
405561
1151
ओके?
06:58
So the nextआगामी stepकदम,
that happenedहो गई in the 2030s,
140
406736
3571
अगले चरण में,जो 2030 के दशक में हुआ, ¶
07:02
was that it's not just about
gettingमिल रहा throughके माध्यम से the skullखोपड़ी.
141
410331
3086
कि यह सिर्फ खोपड़ी के
माध्यम से हो नहीं रही है।
07:05
To measureमाप the activityगतिविधि of neuronsन्यूरॉन्स,
142
413441
1700
न्यूरॉन्स की गतिविधि
को मापने के लिए
07:07
you have to actuallyवास्तव में make it
into the brainदिमाग tissueऊतक itselfअपने आप.
143
415165
3825
आपको इसे वास्तव में
मस्तिष्क ऊतक में पहुँचना है।
07:11
And the riskजोखिम, wheneverजब कभी
you put something into the brainदिमाग tissueऊतक,
144
419344
2968
और जब भी आप मस्तिष्क ऊतक
में कुछ डालते हैं,
07:14
is essentiallyअनिवार्य रूप से that of strokeआघात.
145
422336
1439
स्ट्रोक का जोखिम है।
07:15
That you would hitमारो
a bloodरक्त vesselपतीला and burstविस्फोट it,
146
423799
2196
रक्त वाहिका को चोट लग सकता है
07:18
and that causesका कारण बनता है a strokeआघात.
147
426019
1519
और यह स्ट्रोक का कारण बनता है।
07:19
So, by the midमध्य 2030s,
we had inventedआविष्कार these flexibleलचीला probesजांच
148
427916
3725
तो, 2030 के मध्य तक,
हमने इन लचीली जांच का आविष्कार किया था।
07:23
that were capableसक्षम of going
around bloodरक्त vesselsजहाजों,
149
431665
2278
वें रक्त वाहिकाओं
के चारों ओर जाने में सक्षम थे।
07:25
ratherबल्कि than throughके माध्यम से them.
150
433967
1476
और उनके माध्यम से,
07:27
And thusइस प्रकार, we could put
hugeविशाल batteriesबैटरी of these probesजांच
151
435467
5697
इन जांच की विशाल जांच उपकरण
बैटरी हम डाल सकते थे
07:33
into the brainsदिमाग of patientsरोगियों
152
441188
1357
रोगियों के दिमाग में
07:34
and recordअभिलेख from thousandsहजारों of theirजो अपने neuronsन्यूरॉन्स
withoutके बग़ैर any riskजोखिम to them.
153
442569
3270
और उनके हजारों न्यूरॉन्स से रिकॉर्ड
कर सकते थे, बिना किसी जोखिम के।
07:39
And what we discoveredकी खोज की,
sortतरह of to our surpriseअचरज,
154
447458
4061
और जो प्रकट हुआ, उसने
हमें आश्चर्यचकित कर दिया
07:43
is that the neuronsन्यूरॉन्स that we could identifyकी पहचान
155
451543
2190
कि न्यूरॉन्स जिन्हें हम पहचान सकते हैं
07:45
were not respondingजवाब
to things like ideasविचारों or emotionभावना,
156
453757
3524
विचारों या भावनाओं जैसी चीजों के लिए,
जवाब नहीं दे रहे हैं
07:49
whichकौन कौन से was what we had expectedअपेक्षित होना.
157
457305
1627
..... जो हमने आशा की थी।
07:50
They were mostlyअधिकतर respondingजवाब
to things like Jenniferजेनिफर AnistonAniston
158
458956
3796
वे ज्यादातर प्रतिक्रिया दे रहे थे
चीज़ों के लिए, जैसे कि, जेनिफर एनिस्टन
07:54
or Halleहाले Berryबेरी
159
462776
2404
या हेले बेरी
07:57
or Justinजस्टिन TrudeauTrudeau.
160
465204
1310
या जस्टिन ट्रूडू।
07:58
I mean --
161
466538
1253
मेरा मतलब है -
07:59
(Laughterहँसी)
162
467815
2326
(हंसी) ¶
08:02
In hindsightमसा, we shouldn'tनहीं करना चाहिए
have been that surprisedआश्चर्य चकित.
163
470165
2437
हिंडसाइट में, हमें
आश्चर्यचकित नहीं होना चाहिए था।
08:04
I mean, what do your neuronsन्यूरॉन्स
spendबिताना mostअधिकांश of theirजो अपने time thinkingविचारधारा about?
164
472626
3262
मेरा मतलब है, आपके न्यूरॉन्स
ज्यादातर समय में क्या सोचते हैं?
(हंसी) ¶
08:07
(Laughterहँसी)
165
475912
1150
08:09
But really, the pointबिंदु is that
166
477380
2040
लेकिन वास्तव में, मुद्दा यह है कि
08:11
this technologyप्रौद्योगिकी enabledसक्षम us to beginशुरू
studyingपढ़ते पढ़ते neuroscienceतंत्रिका विज्ञान in individualsव्यक्तियों.
167
479444
4430
इस तकनीक ने हमें व्यक्तियों में तंत्रिका
विज्ञान का अध्ययन करने में सक्षम बनाया।
08:15
So much like the transitionसंक्रमण to geneticsआनुवंशिकी,
at the singleएक cellसेल levelस्तर,
168
483898
4230
आनुवंशिकी में संक्रमण की तरह,
एकल सेल स्तर पर,
08:20
we startedशुरू कर दिया है to studyअध्ययन neuroscienceतंत्रिका विज्ञान,
at the singleएक humanमानव levelस्तर.
169
488152
3206
हमने तंत्रिका विज्ञान का अध्ययन
करना शुरू किया, एक मानव स्तर पर।
08:23
But we weren'tनहीं थे quiteकाफी there yetअभी तक.
170
491890
1618
लेकिन हमें अभी और प्रगति की जरूरत थी।
08:25
Because these technologiesप्रौद्योगिकियों
171
493895
1642
इन प्रौद्योगिकियों के साथ,
08:27
were still restrictedवर्जित
to medicalमेडिकल applicationsअनुप्रयोगों,
172
495561
3056
अभी भी हम सीमित थे,
चिकित्सा अनुप्रयोगों के लिए,
08:30
whichकौन कौन से meantमतलब that we were studyingपढ़ते पढ़ते
sickबीमार brainsदिमाग, not healthyस्वस्थ brainsदिमाग.
173
498641
3391
जिसका मतलब था कि हम पढ़ रहे थे
बीमार मस्तिष्क, स्वस्थ दिमाग नहीं।
08:35
Because no matterमामला how safeसुरक्षित
your technologyप्रौद्योगिकी is,
174
503235
3754
क्योंकि आपकी तकनीक कितनी भी सुरक्षित हो,
08:39
you can't stickछड़ी something
into someone'sकिसी को है brainदिमाग
175
507013
2730
आप कोई छड़ी किसी के
दिमाग में नहीं डाल सकते हैं
08:41
for researchअनुसंधान purposesप्रयोजनों.
176
509767
1420
अनुसंधान उद्देश्यों के लिए।
08:43
They have to want it.
177
511211
1549
इसे खुद आजमाने की
इच्छा होनी चाहिए।
08:44
And why would they want it?
178
512784
1460
और इसे कोई क्यों आजमाना चाहे?
08:46
Because as soonशीघ्र as you have
an electricalविद्युतीय connectionसंबंध to the brainदिमाग,
179
514268
3571
जैसे ही आपके पास है
मस्तिष्क के लिए एक विद्युत कनेक्शन,
08:49
you can use it to hookअंकुड़ा
the brainदिमाग up to a computerकंप्यूटर.
180
517863
2444
आप मस्तिष्क को
कंप्यूटर से हुक कर सकते हैं।
08:53
Oh, well, you know, the generalसामान्य publicजनता
was very skepticalउलझन में at first.
181
521061
3429
ओह..., आप जानते हैं, आम जनता
पहले बहुत संशयात्मक थी।
08:56
I mean, who wants to hookअंकुड़ा
theirजो अपने brainदिमाग up to theirजो अपने computersकंप्यूटर?
182
524514
2869
मेरा मतलब है, कौन हुक करना चाहता है
अपने दिमाग को कंप्यूटर पर?
08:59
Well just imagineकल्पना कीजिए beingकिया जा रहा है ableयोग्य
to sendभेजना an emailईमेल with a thought.
183
527926
4236
कल्पना करें की आप विचार से
ईमेल भेजने में सक्षम हैं ।
09:04
(Laughterहँसी)
184
532186
2253
(हंसी) ¶
09:06
Imagineकल्पना beingकिया जा रहा है ableयोग्य to take
a pictureचित्र with your eyesआंखें, OK?
185
534463
4500
कल्पना करें की आप आंखों से
तस्वीर लेने में सक्षम हैं
09:10
(Laughterहँसी)
186
538987
1230
(हंसी) ¶
09:12
Imagineकल्पना never forgettingभूल anything anymoreअब,
187
540241
2963
कल्पना करें कि अब और कुछ भी नहीं भूलना, ¶
09:15
because anything
that you chooseचुनें to rememberयाद है
188
543228
2159
कुछ भी जो आप याद रखना चाहते हैं
09:17
will be storedसंग्रहीत permanentlyहमेशा
on a hardकठिन driveचलाना somewhereकहीं,
189
545411
2477
स्थायी रूप से संग्रहीत किया जाएगा
कहीं एक हार्ड ड्राइव पर,
09:19
ableयोग्य to be recalledको याद किया at will.
190
547912
2029
इच्छा पर स्मरण कर सकते हैं।
09:21
(Laughterहँसी)
191
549965
3366
(हंसी) ¶
09:25
The lineलाइन here
betweenके बीच crazyपागल and visionaryकाल्पनिक
192
553355
3381
यहां पागल और दूरदर्शी के बीच की रेखा
09:28
was never quiteकाफी clearस्पष्ट.
193
556760
1467
कभी स्पष्ट नहीं थी।
09:30
But the systemsसिस्टम were safeसुरक्षित.
194
558720
1857
लेकिन सिस्टम सुरक्षित थे।
09:32
So when the FDAएफडीए decidedनिर्णय लिया to deregulatederegulate
these laser-drillingलेजर ड्रिलिंग systemsसिस्टम, in 2043,
195
560879
5016
इसलिए जब एफडीए ने 2043 में, लेजर ड्रिलिंग
सिस्टम का विनियमन करने का फैसला किया
09:37
commercialव्यावसायिक demandमांग just explodedविस्फोट.
196
565919
2357
वाणिज्यिक मांग में विस्फोट हुआ।
09:40
People startedशुरू कर दिया है signingहस्ताक्षर करने के theirजो अपने emailsईमेल,
197
568300
1888
लोगों ने ईमेल हस्ताक्षर करना शुरू किया,
"कृपया टाइपो के लिए क्षमा करें,
09:42
"Please excuseबहाना any typosTypos.
198
570212
1341
09:43
Sentभेजा from my brainदिमाग."
199
571577
1333
मेरे दिमाग द्वारा भेजा गया।"¶
09:44
(Laughterहँसी)
200
572934
1001
(हंसी)
09:45
Commercialवाणिज्यिक systemsसिस्टम
poppedपॉपअप up left and right,
201
573959
2072
नए वाणिज्यिक सिस्टम बनाए गए,
09:48
offeringप्रस्ताव the latestनवीनतम and greatestमहानतम
in neuralतंत्रिका interfacingInterfacing technologyप्रौद्योगिकी.
202
576055
3238
नवीनतम और महानतम तंत्रिका
इंटरफेसिंग प्रौद्योगिकी का उपयोग कर।
09:51
There were 100 electrodesइलेक्ट्रोड.
203
579792
1753
सौ इलेक्ट्रोड थे।
09:53
A thousandहज़ार electrodesइलेक्ट्रोड.
204
581569
1911
एक हजार इलेक्ट्रोड।
एक महीने में केवल 99.99 में उच्च बैंडविथ।
09:55
Highउच्च bandwidthबैंडविड्थ for only 99.99 a monthमहीना.
205
583504
2476
09:58
(Laughterहँसी)
206
586004
1539
(हंसी) ¶
09:59
Soonजल्द ही, everyoneहर कोई had them.
207
587567
1534
जल्द, हर किसी के पास था।
10:01
And that was the keyकुंजी.
208
589694
1571
और वह कुंजी थी।
10:03
Because, in the 2050s,
if you were a neuroscientistneuroscientist,
209
591289
2923
क्योंकि, 2050 के दशक में,
यदि आप एक न्यूरोसायटिस्ट थे,
10:06
you could have someoneकोई व्यक्ति come into your labप्रयोगशाला
essentiallyअनिवार्य रूप से from off the streetसड़क.
210
594236
3939
कोई भी सड़क से आपकी
प्रयोगशाला में आ सकता है
10:10
And you could have them engagedव्यस्त
in some emotionalभावुक taskकार्य
211
598792
2864
और आप उन्हें भावनात्मक कार्य में
व्यस्त कर सकते थे
10:13
or socialसामाजिक behaviorव्यवहार or abstractसार reasoningविचार,
212
601680
2437
या सामाजिक व्यवहार या अमूर्त तर्क,
10:16
things you could never studyअध्ययन in miceचूहों.
213
604141
2531
चीजें आप कभी चूहों में अध्ययन
नहीं कर सकते थे।
10:18
And you could recordअभिलेख
the activityगतिविधि of theirजो अपने neuronsन्यूरॉन्स
214
606696
3111
और आप उनके न्यूरॉन्स
की गतिविधि रिकॉर्ड कर सकते हैं
10:21
usingका उपयोग करते हुए the interfacesइंटरफेस
that they alreadyपहले से had.
215
609831
3191
मौजूदा इंटरफ़ेस का उपयोग करके।
10:25
And then you could alsoभी askपूछना them
about what they were experiencingका सामना.
216
613046
3189
और फिर आप उन्हें पूछ भी सकते हैं,
वे क्या अनुभव कर रहे थे।
10:28
So this linkसंपर्क betweenके बीच
psychologyमनोविज्ञान and neuroscienceतंत्रिका विज्ञान
217
616259
3349
मनोविज्ञान और तंत्रिका विज्ञान
के बीच इस लिंक
10:31
that you could never make
in the animalsजानवरों, was suddenlyअचानक से there.
218
619632
3381
जो आप कभी जानवरों में नहीं कर
सकते थे, अचानक, अब था।
10:35
So perhapsशायद the classicक्लासिक exampleउदाहरण of this
219
623695
2184
शायद इस के क्लासिक उदाहरण
10:37
was the discoveryखोज
of the neuralतंत्रिका basisआधार for insightअंतर्दृष्टि.
220
625903
3523
तंत्रिका अंतर्दृष्टि के आधार
पर खोज है।
10:41
That "Ahaअहा!" momentपल, the momentपल
it all comesआता हे togetherसाथ में, it clicksक्लिक्स.
221
629450
3600
"आह!" पल, पल
जब सब एक साथ आता है, यह क्लिक करता है।
10:45
And this was discoveredकी खोज की
by two scientistsवैज्ञानिकों in 2055,
222
633593
4056
और यह खोजा गया था
2055 में दो वैज्ञानिकों द्वारा,
10:49
Barryबैरी and Lateदेर,
223
637673
1372
बेरी और लेट,
10:51
who observedदेखे गए, in the dorsalपृष्ठीय
prefrontalआकडे cortexप्रांतस्था,
224
639069
3663
जिन्होने पृष्ठीय प्रीफ्रंटल
कॉर्टेक्स में देखा
किसी के दिमाग में किस तरह
एक विचार को समझने की कोशिश होति है,
10:54
how in the brainदिमाग of someoneकोई व्यक्ति
tryingकोशिश कर रहे हैं to understandसमझना an ideaविचार,
225
642756
5222
11:00
how differentविभिन्न populationsआबादी of neuronsन्यूरॉन्स
would reorganizeपुनर्निर्माण themselvesअपने --
226
648002
3369
न्यूरॉन्स की विभिन्न आबादी
खुद को पुनर्गठित कैसे करते हैं-
11:03
you're looking at neuralतंत्रिका
activityगतिविधि here in orangeनारंगी --
227
651395
2436
आप तंत्रिका गतिविधि को
देख रहे हैं, नारंगी रंग में -
11:05
untilजब तक finallyआखिरकार theirजो अपने activityगतिविधि alignsसंरेखित
in a way that leadsसुराग to positiveसकारात्मक feedbackप्रतिक्रिया.
228
653855
3738
अंततः उनकी गतिविधि संरेखित होती है
एक तरह से सकारात्मक
प्रतिक्रिया की ओर जाती है।
11:10
Right there.
229
658339
1150
वहाँ।
11:12
That is understandingसमझ.
230
660723
1467
यह है समझना।
11:15
So finallyआखिरकार, we were ableयोग्य to get
at the things that make us humanमानव.
231
663413
4437
आखिर में, हम समझने में सक्षम थे,
उन चीज़ों को, जो हमें मानव बनाते हैं।
और यही वह तरीका है जिसने
वास्तव में रास्ता खोला
11:21
And that's what really openedखुल गया the way
to majorप्रमुख insightsअंतर्दृष्टि from medicineदवा.
232
669871
4578
दवा से प्रमुख अंतर्दृष्टि के लिए।
11:27
Because, startingशुरुआत में in the 2060s,
233
675465
2755
क्योंकि 2060 के दशक से शुरूआत हुई
11:30
with the abilityयोग्यता to recordअभिलेख
the neuralतंत्रिका activityगतिविधि
234
678244
2484
तंत्रिका गतिविधि रिकॉर्ड
करने की क्षमता
11:32
in the brainsदिमाग of patientsरोगियों
with these differentविभिन्न mentalमानसिक diseasesरोगों,
235
680752
3587
विभिन्न मानसिक बीमारियों
के रोगियों के मस्तिष्क में,
बीमारियों को परिभाषित करने के बजाय
उनके लक्षणों के आधार पर,
11:36
ratherबल्कि than definingपरिभाषित करने the diseasesरोगों
on the basisआधार of theirजो अपने symptomsलक्षण,
236
684363
4690
जैसे हम सदी की शुरुआत में थे,
11:41
as we had at the beginningशुरू of the centuryसदी,
237
689077
2040
हमने उन्हें परिभाषित
करना शुरू कर दिया
11:43
we startedशुरू कर दिया है to defineपरिभाषित them
238
691141
1222
11:44
on the basisआधार of the actualवास्तविक pathologyविकृति विज्ञान
that we observedदेखे गए at the neuralतंत्रिका levelस्तर.
239
692387
3539
वास्तविक पैथोलॉजी
के आधार पर,
जो तंत्रिका स्तर पर
असल में देखा गया।
11:48
So for exampleउदाहरण, in the caseमामला of ADHDएडीएचडी,
240
696768
3825
उदाहरण के लिए, एडीएचडी के मामले में,
11:52
we discoveredकी खोज की that there are
dozensदर्जनों of differentविभिन्न diseasesरोगों,
241
700617
3174
हमने पाया कि वहां
दर्जनों बीमारियॉं हैं ,
सदी की शुरुआत में,
सभी को एडीएचडी कहा गया था
11:55
all of whichकौन कौन से had been calledबुलाया ADHDएडीएचडी
at the startप्रारंभ of the centuryसदी,
242
703815
3009
वास्तव में, वे सभी अलग थे
11:58
that actuallyवास्तव में had nothing
to do with eachसे प्रत्येक other,
243
706848
2301
सिर्फ़ उनके लक्षण समान थे।
12:01
exceptके सिवाय that they had similarसमान symptomsलक्षण.
244
709173
2118
12:03
And they neededजरूरत है to be treatedइलाज किया
in differentविभिन्न waysतरीके.
245
711625
2372
उन्हें अलग तरीकों से
इलाज करने की ज़रूरत थी।
12:06
So it was kindमेहरबान of incredibleअविश्वसनीय,
in retrospectपुनरावलोकन,
246
714307
2247
तो पुनरावलोकन करने पर,
यह अविश्वसनीय था,
12:08
that at the beginningशुरू of the centuryसदी,
247
716578
1777
की शताब्दी की शुरुआत में,
12:10
we had been treatingइलाज
all those differentविभिन्न diseasesरोगों
248
718379
2317
हम उन सभी अलग-अलग
बीमारियों
12:12
with the sameवही drugदवा,
249
720720
1183
का इलाज एक ही दवा,
एमफिटामीन से कर रहे थे,
12:13
just by givingदे रही है people amphetamineएम्फ़ैटेमिन,
basicallyमूल रूप से is what we were doing.
250
721927
3214
स्किज़ोफ्रेनिया और अवसाद
वैसे ही हैं।
12:17
And schizophreniaएक प्रकार का पागलपन and depressionडिप्रेशन
are the sameवही way.
251
725165
2488
अतीत जैसे, लोगों को यादृच्छिक रूप से दवा
निर्धारित करने के बजाय,
12:19
So ratherबल्कि than prescribingनिर्धारित drugsदवाओं to people
essentiallyअनिवार्य रूप से at randomबिना सोचे समझे,
252
727677
4032
12:23
as we had,
253
731733
1150
हमने सीखा कि कैसे भविष्यवाणी की जाए
कौन सी दवाएं सबसे प्रभावी होंगी
12:24
we learnedसीखा how to predictभविष्यवाणी
whichकौन कौन से drugsदवाओं would be mostअधिकांश effectiveप्रभावी
254
732907
3511
किस रोगी के लिए
12:28
in whichकौन कौन से patientsरोगियों,
255
736442
1183
12:29
and that just led to this hugeविशाल
improvementसुधार की in outcomesपरिणामों.
256
737649
2756
और सिर्फ इससे परिणामों
में विशाल सुधार हुआ
12:33
OK, I want to bringलाओ you back now
to the yearसाल 2017.
257
741498
3476
मैं अब आपको वापस ले जाना चाहता हूं
वर्ष 2017 तक
12:38
Some of this mayहो सकता है soundध्वनि satiricalव्यंग्य
or even farदूर fetchedकौड़ी.
258
746117
3373
इनमें से कुछ व्यंग्यात्मक
अौर कुछ क्लिष्ट व असुगम लग सकते हैं।
12:41
And some of it is.
259
749514
1293
और इनमें से कुछ हैं भी।
12:43
I mean, I can't actuallyवास्तव में
see into the futureभविष्य.
260
751291
2651
मेरा मतलब है, मैं वास्तव में
भविष्य में नहीं देखें सकता।
12:45
I don't actuallyवास्तव में know
261
753966
1366
मैं वास्तव में नहीं जानता
12:47
if we're going to be drillingड्रिलिंग hundredsसैकड़ों
or thousandsहजारों of microscopicसूक्ष्म holesछेद
262
755356
3667
हम 30 वर्षों में हमारे
सिर में सैकड़ों ड्रिलिग
12:51
in our headsसिर in 30 yearsवर्षों.
263
759047
1667
करने जा रहे हैं या
हजारों माइक्रोस्कोपिक छेद
12:53
But what I can tell you
264
761762
1706
लेकिन मैं आपको यह बता सकता हूं
12:55
is that we're not going
to make any progressप्रगति
265
763492
2175
कि हम कोई प्रगति
नहीं करने जा रहे हैं
12:57
towardsकी ओर understandingसमझ the humanमानव brainदिमाग
or humanमानव diseasesरोगों
266
765691
3727
मानव मस्तिष्क या मानव रोग को समझने के लिए
13:01
untilजब तक we figureआकृति out how to get
at the electricalविद्युतीय activityगतिविधि of neuronsन्यूरॉन्स
267
769442
4516
जब तक हम स्वस्थ इंसानों में न्यूरॉन्स
की विद्युत गतिविधि नहीं समझते हैं!
13:05
in healthyस्वस्थ humansमनुष्य.
268
773982
1200
13:07
And almostलगभग no one is workingकाम कर रहे
on figuringलगाना out how to do that todayआज.
269
775918
3239
और ईस दिशा में अभी कोई शोध नहीं कर रहा है।
13:12
That is the futureभविष्य of neuroscienceतंत्रिका विज्ञान.
270
780077
2334
यह न्यूरोसाइंस का भविष्य है।
13:14
And I think it's time for neuroscientistsneuroscientists
to put down the mouseमाउस brainदिमाग
271
782752
4393
और मुझे लगता है कि अब समय आ गया है
न्यूरोसाइस्टिक्स के लिए कि
चूहे के मस्तिष्क पर शोध बंद करें
13:19
and to dedicateसमर्पित करना the thought
and investmentनिवेश necessaryज़रूरी
272
787169
2754
और आवश्यक विचार व निवेश समर्पित करें
13:21
to understandसमझना the humanमानव brainदिमाग
and humanमानव diseaseरोग.
273
789947
3267
मानव मस्तिष्क व मानव रोग को समझने के लिए।
13:27
Thank you.
274
795629
1151
धन्यवाद।
13:28
(Applauseप्रशंसा)
275
796804
1172
(तालियां)
Translated by Pratibha Sinha
Reviewed by arvind patil

▲Back to top

ABOUT THE SPEAKER
Sam Rodriques - Neuroengineer
Sam Rodriques invents new technologies to help neuroscientists understand how the brain works.

Why you should listen

Sam Rodriques has designed a new nanofabrication method and a new approach to sensing neural activity with probes in the bloodstream, and his forthcoming technologies are aimed at understanding the spatial organization of cells in the brain and the transcriptional activity of neurons over time. He is a graduate student in Physics at the Massachusetts Institute of Technology, with affiliations at the MIT Media Lab, the MIT Department of Brain and Cognitive Sciences and the Broad Institute of Harvard and MIT. He graduated summa cum laude with highest honors in Physics from Haverford College, where he worked on new methods for calculating quantum entanglement in multipartite quantum systems. He has received numerous national awards and fellowships to support his research, including the Hertz Foundation Graduate Fellowship, an NSF Graduate Research Fellowship and a Churchill Scholarship.

More profile about the speaker
Sam Rodriques | Speaker | TED.com