ABOUT THE SPEAKER
Sam Rodriques - Neuroengineer
Sam Rodriques invents new technologies to help neuroscientists understand how the brain works.

Why you should listen

Sam Rodriques has designed a new nanofabrication method and a new approach to sensing neural activity with probes in the bloodstream, and his forthcoming technologies are aimed at understanding the spatial organization of cells in the brain and the transcriptional activity of neurons over time. He is a graduate student in Physics at the Massachusetts Institute of Technology, with affiliations at the MIT Media Lab, the MIT Department of Brain and Cognitive Sciences and the Broad Institute of Harvard and MIT. He graduated summa cum laude with highest honors in Physics from Haverford College, where he worked on new methods for calculating quantum entanglement in multipartite quantum systems. He has received numerous national awards and fellowships to support his research, including the Hertz Foundation Graduate Fellowship, an NSF Graduate Research Fellowship and a Churchill Scholarship.

More profile about the speaker
Sam Rodriques | Speaker | TED.com
TEDxBeaconStreet

Sam Rodriques: What we'll learn about the brain in the next century

سام رودریگز: مطالبی که راجع به مغز در قرن بعدی خواهیم آموخت

Filmed:
1,621,715 views

در این صحبت پر اوهام، متخصص اعصاب سام رودریگرز ما را به سفر هیجان انگیز علم مغز در صد سال آینده می‌برد. او اختراعات عجیب و گاهی ترسناک راا که ممکن است برای درمان بیماری های مغزی و تشخیص آ‌ن‌ها مهم باشد، بیان می‌کند. مثل لیزرها که حفره‌های کوچکی را در جمجمه ما حفر می‌کنند و به محققان اجازه می‌دهند تا فعالیت‌های الکتریکی عصب‌های ما را مطالعه کنند.
- Neuroengineer
Sam Rodriques invents new technologies to help neuroscientists understand how the brain works. Full bio

Double-click the English transcript below to play the video.

00:13
I want to tell you guys
something about neuroscienceعلوم اعصاب.
0
1040
2507
می‌خواهم که به شما چیزهایی راجع به
علوم اعصاب بگویم.
00:16
I'm a physicistفیزیکدان by trainingآموزش.
1
4040
1800
من رشته‌ی فیزیک را آموزش دیده‌ام.
00:18
About threeسه yearsسالها agoپیش, I left physicsفیزیک
2
6230
2206
حدود ۳ سال پیش، فیزیک را رها کردم
00:20
to come and try to understandفهمیدن
how the brainمغز worksآثار.
3
8460
2349
تا بیایم و برای درک چگونگی رفتار مغز
تلاش کنم.
00:22
And this is what I foundپیدا شد.
4
10833
1474
و این چیزی است که من یافتم.
00:24
Lots of people are workingکار کردن on depressionافسردگی.
5
12331
2064
بسیاری از افراد در حال کار
روی افسردگی‌اند.
00:26
And that's really good,
6
14419
1159
و این واقعا خوب است،
00:27
depressionافسردگی is something
that we really want to understandفهمیدن.
7
15602
2721
افسردگی چیزی است که واقعاً
می‌خواهیم درکش کنیم.
00:30
Here'sاینجاست how you do it:
8
18347
1167
اینجوری انجامش می‌دهید:
00:31
you take a jarشیشه and you fillپر کن it up,
about halfwayنیمه راه, with waterاب.
9
19538
4161
یک شیشه می‌گیرید و با آب تا نصفه
پُرش می‌کنید.
00:35
And then you take a mouseموش,
and you put the mouseموش in the jarشیشه, OK?
10
23723
4182
بعد یک موش می‌آورید و در شیشه قرار می‌دهید
درست؟
00:39
And the mouseموش swimsشنا می کند around
for a little while
11
27929
2350
و موش برای مدتی به اطراف شنا می‌کند.
00:42
and then at some pointنقطه,
the mouseموش getsمی شود tiredخسته شدم
12
30303
2388
ودر نقطه‌ای، موش خسته می‌شود
00:44
and decidesتصمیم میگیرد to stop swimmingشنا كردن.
13
32715
1934
و تصمیم می‌گیرد شنا نکند.
00:46
And when it stopsمتوقف می شود swimmingشنا كردن,
that's depressionافسردگی.
14
34673
3133
و وقتی از شنا کردن دست می‌کشد،
این افسردگی است.
00:50
OK?
15
38696
1150
درست؟
00:52
And I'm from theoreticalنظری physicsفیزیک,
16
40291
3380
و من از بخش فیزیک نظری هستم،
00:55
so I'm used to people makingساخت
very sophisticatedپیچیده mathematicalریاضی modelsمدل ها
17
43695
3668
پس من با افرادی آشنا بودم که
مدل‌های ریاضی سطح بالایی
00:59
to preciselyدقیقا describeتوصیف کردن physicalفیزیکی phenomenaپدیده ها,
18
47387
2881
برای تشریح دقیق پدیده‌های فیزیکی
می‌ساختند.
01:02
so when I saw that this
is the modelمدل for depressionافسردگی,
19
50292
2452
پس وقتی دیدم که این مدل افسردگی است،
01:04
I thoughگرچه to myselfخودم, "Oh my God,
we have a lot of work to do."
20
52768
2937
فکر کردم که "اُه خدای من، کار خیلی
زیادی در پیش داریم."
01:07
(Laughterخنده)
21
55729
1370
(خنده حضار)
01:09
But this is a kindنوع of generalعمومی
problemمسئله in neuroscienceعلوم اعصاب.
22
57123
2951
اما این یک نوع مشکل عمومی
در علوم اعصاب است.
01:12
So for exampleمثال, take emotionهیجانی.
23
60377
2111
بعنوان مثال، درک احساس.
01:14
Lots of people want to understandفهمیدن emotionهیجانی.
24
62512
2459
بسیاری از افراد می‌خواهند
که احساس را بفهمند.
01:17
But you can't studyمطالعه emotionهیجانی
in miceموش or monkeysمیمون ها
25
65352
3313
اما شما نمی‌توانید احساس را در
موش‌ها یا میمون‌ها مطالعه کنید
01:20
because you can't askپرسیدن them
26
68689
1254
چون نمی‌توانید بپرسید
01:21
how they're feelingاحساس
or what they're experiencingتجربه کردن.
27
69967
2317
که چه حسی دارند یا
چه چیزی تجربه می‌کنند.
در عوض، افرادی که می‌خواهند احساس
را درک کنند،
01:24
So insteadبجای, people who want
to understandفهمیدن emotionهیجانی,
28
72308
2357
01:26
typicallyمعمولا endپایان up studyingدر حال مطالعه
what's calledبه نام motivatedانگیزه behaviorرفتار,
29
74689
2777
معمولًا مطالعاتی می‌کنند که
رفتار تحریک شده نامیده ‌می‌شود،
01:29
whichکه is codeکد for "what the mouseموش does
when it really, really wants cheeseپنیر."
30
77490
3658
که کُدی هست برای "موش چه می‌کند
وقتی واقعاً و واقعاً پنیر را می‌خواهد".
01:33
OK, I could go on and on.
31
81839
1675
درست، حال می‌توانم ادامه دهم.
01:35
I mean, the pointنقطه is, the NIHNIH
spendsصرف می کند about 5.5 billionبیلیون dollarsدلار a yearسال
32
83538
6316
یعنی این که نکته این هست که "NIH"
سالانه حدود ۵/۵ میلیارد دلار
01:41
on neuroscienceعلوم اعصاب researchپژوهش.
33
89878
1532
بر روی تحقیقات علوم اعصاب هزینه می‌کند.
01:43
And yetهنوز there have been almostتقریبا
no significantقابل توجه improvementsپیشرفت ها in outcomesنتایج
34
91434
3603
و هنوز هیچ پیشرفت چشمگیری در خروجی‌ها
برای بیماران
01:47
for patientsبیماران with brainمغز diseasesبیماری ها
in the pastگذشته 40 yearsسالها.
35
95061
3491
با بیماری‌های مغزی در
۴۰ سال گذشته وجود نداشته است.
01:51
And I think a lot of that
is basicallyاساسا dueناشی از to the factواقعیت
36
99015
2540
و فکر می‌کنم بخش بزرگی از آن مربوط به
این حقیقت است
01:53
that miceموش mightممکن be OK as a modelمدل
for cancerسرطان or diabetesدیابت,
37
101579
4151
که موش‌ها شاید برای سرطان و دیابت
مد‌ل‌های خوبی باشند،
01:57
but the mouseموش brainمغز
is just not sophisticatedپیچیده enoughکافی
38
105754
2687
اما مغز موش به اندازه کافی
02:00
to reproduceتکثیر humanانسان psychologyروانشناسی
or humanانسان brainمغز diseaseمرض.
39
108465
3175
برای بازسازی روانشناسی آدم‌ها و یا
بیماری مغز انسان مناسب نیست.
02:04
OK?
40
112379
1225
درست؟
02:05
So if the mouseموش modelsمدل ها are so badبد,
why are we still usingاستفاده كردن them?
41
113628
3634
پس اگرمدل‌های موش این قدر بد
هستند، چرا هنوز از آن‌ها استفاده می‌کنیم؟
02:10
Well, it basicallyاساسا boilsجوش می زند down to this:
42
118143
2103
خُب، بطور اساسی مربوط به این مورد است:
02:12
the brainمغز is madeساخته شده up of neuronsنورون ها
43
120270
2556
مغز از رشته‌های عصب تشکیل شده است
02:14
whichکه are these little cellsسلول ها that sendارسال
electricalالکتریکی signalsسیگنال ها to eachهر یک other.
44
122850
3447
که این سلول‌های کوچک هستند که پیغام‌های
الکتریکی را به یکدیگر می‌رسانند.
02:18
If you want to understandفهمیدن
how the brainمغز worksآثار,
45
126680
2144
اگر می‌خواهید بفهمید که مغز چگونه
کار می‌کند،
02:20
you have to be ableتوانایی to measureاندازه گرفتن
the electricalالکتریکی activityفعالیت of these neuronsنورون ها.
46
128848
3808
مجبور هستید که بتوانید میزان فعالیت
الکتریکی این عصب‌ها را اندازه بگیرید.
02:25
But to do that, you have to get
really closeبستن to the neuronsنورون ها
47
133339
2992
اما برای انجام آن، باید خیلی
به عصب‌ها با نوعی
02:28
with some kindنوع of electricalالکتریکی
recordingضبط deviceدستگاه or a microscopeمیکروسکوپ.
48
136355
2928
ثبت کننده الکتریکی
یا یک میکروسکوپ نزدیک شوید.
02:31
And so you can do that in miceموش
and you can do it in monkeysمیمون ها,
49
139563
2810
و شما می‌توانید آن را درموش‌ها و میمون‌ها
اجرا کنید،
02:34
because you can physicallyاز لحاظ جسمی
put things into theirخودشان brainمغز
50
142397
2548
چون شما بصورت فیزیکی می‌توانید
چیزها را وارد مغز کنید
02:36
but for some reasonدلیل we still
can't do that in humansانسان, OK?
51
144969
3046
اما بنابر دلایلی هنوز نمی‌توان این کار
را با انسان‌ها کنیم، درست؟
02:40
So insteadبجای, we'veما هستیم inventedاختراع شده است
all these proxiesپروکسی ها.
52
148533
3370
در عوض، ما تمام این جایگزین‌ها را
درست کرده‌ایم.
02:43
So the mostاکثر popularمحبوب one is probablyشاید this,
53
151927
2515
واحتمالًا معروف‌ترین آن‌ها این است،
02:46
functionalعملکردی MRIMRI, fMRIfMRI,
54
154466
2397
MRI تابعی ، fMRI،
02:48
whichکه allowsاجازه می دهد you to make these
prettyبسیار picturesتصاویر like this,
55
156887
2692
که اجازه می‌دهد این شکل‌های زیبا
را طوری ترسیم کنید که
02:51
that showنشان بده whichکه partsقطعات
of your brainمغز lightسبک up
56
159603
2056
نشان دهد کدام بخش‌های مغرتان
فعال می‌‌شود
02:53
when you're engagedنامزد شده
in differentناهمسان activitiesفعالیت ها.
57
161683
2126
وقتی‌ مشغول فعالیت‌های متنوعی باشید.
02:55
But this is a proxyپروکسی.
58
163833
1920
اما این یک جایگزین است.
02:57
You're not actuallyدر واقع measuringاندازه گیری
neuralعصبی activityفعالیت here.
59
165777
3292
اینجا در واقع فعالیت عصبی را
اندازه نمی‌گیرید.
03:01
What you're doing
is you're measuringاندازه گیری, essentiallyاساسا,
60
169093
2842
شما در حال اندازه‌گیری هستید،
اساساً،
03:03
like, bloodخون flowجریان in the brainمغز.
61
171959
1832
شبیه، جریان خون درمغز.
03:05
Where there's more bloodخون.
62
173815
1238
جایی‌که خون بیشتری هست.
03:07
It's actuallyدر واقع where there's more oxygenاکسیژن,
but you get the ideaاندیشه, OK?
63
175077
3103
در واقع اکسیژن بیشتری حضور دارد،
اما شما ایده را گرفتید، درست؟
03:10
The other thing that you can do
is you can do this --
64
178204
2519
کار دیگری که می‌توانید انجام دهید
این هست
03:12
electroencephalographyالکتروانسفالوگرافی -- you can put
these electrodesالکترود on your headسر, OK?
65
180747
3591
"مغز نگاری الکتریکی" شما می‌توانید این
الکترود‌ها را سرتان بگذارید، درست؟
03:16
And then you can measureاندازه گرفتن your brainمغز wavesامواج.
66
184362
2143
سپس قادرید امواج مغزتان را اندازه بگیرید.
03:19
And here, you're actuallyدر واقع measuringاندازه گیری
electricalالکتریکی activityفعالیت.
67
187125
3079
و اینجا، در واقع در حال ثبت
فعالیت الکتریکی هستید.
03:22
But you're not measuringاندازه گیری
the activityفعالیت of neuronsنورون ها.
68
190228
2365
اما فعالیت عصب‌هارا اندازه نمی‌گیرید.
03:24
You're measuringاندازه گیری
these electricalالکتریکی currentsجريان,
69
192911
2444
شما در حال ثبت این جریان‌های
الکتریکی هستید،
03:27
sloshingشلاق زدن back and forthچهارم in your brainمغز.
70
195379
2299
که در مغزتان عقب و جلو می‌روند.
03:30
So the pointنقطه is just
that these technologiesفن آوری ها that we have
71
198157
2674
پس نکته تنها این هست که این تکنولوژی‌ها
که ما داریم
03:32
are really measuringاندازه گیری the wrongاشتباه thing.
72
200855
2436
در واقع درحال ثبت اطلاعات غلط هستند.
03:35
Because, for mostاکثر of the diseasesبیماری ها
that we want to understandفهمیدن --
73
203315
2953
چون، برای بسیاری از بیماری‌ها
که می‌خواهیم درک کنیم
03:38
like, Parkinson'sپارکینسون is the classicکلاسیک exampleمثال.
74
206292
2198
مثلاً، مرض پارکینسن یک نمونه کلاسیک است.
03:40
In Parkinson'sپارکینسون, there's one particularخاص
kindنوع of neuronنورون deepعمیق in your brainمغز
75
208514
3554
در پارکینسن، در یک نوع از رشته عصبی
عمیق درمغز شما وجود دارد
03:44
that is responsibleمسئول for the diseaseمرض,
76
212092
1731
که مسئول این بیماری است،
03:45
and these technologiesفن آوری ها just don't have
the resolutionوضوح that you need
77
213847
3182
و این تکنولوژی‌ها وضوح لازم را ندارند
03:49
to get at that.
78
217053
1373
برای دستیابی به آن.
03:50
And so that's why
we're still stuckگیر with the animalsحیوانات.
79
218450
3974
و بنابراین این دلیلی است که ما همچنان
به حیوانات متصل هستیم.
03:54
Not that anyoneهر کسی wants
to be studyingدر حال مطالعه depressionافسردگی
80
222448
2533
نه این که هر کسی که می‌خواهد
افسردگی را مطالعه کند
03:57
by puttingقرار دادن miceموش into jarsشیشه ها, right?
81
225005
2262
بوسیله گذاشتن موش‌ها در لیوان است، درست؟
03:59
It's just that there's this pervasiveفراگیر
senseاحساس that it's not possibleامکان پذیر است
82
227291
3753
بلکه تنها بخاطر این است که یک احساس
فراگیر وجود دارد که این غیرممکن است
04:03
to look at the activityفعالیت of neuronsنورون ها
in healthyسالم humansانسان.
83
231068
3847
که به فعالیت عصب‌ها در انسان‌های سالم
نگاه شود.
04:08
So here'sاینجاست what I want to do.
84
236180
1492
و این کاری است که می‌خواهم بکنم
04:09
I want to take you into the futureآینده.
85
237974
2521
می‌خواهم شما را به آینده ببرم.
04:12
To have a look at one way in whichکه
I think it could potentiallyبالقوه be possibleامکان پذیر است.
86
240519
4482
تا نگاهی به راهی که من فکر می‌کنم
بصورت بالقوه امکان‌پذیر است، بیندازید.
04:17
And I want to prefaceمقدمه this by sayingگفت:,
I don't have all the detailsجزئیات.
87
245526
3298
و می‌خواهم که با این مقدمه
بگویم من جزئیات دقیقی ندارم.
04:21
So I'm just going to provideفراهم کند you
with a kindنوع of outlineطرح کلی.
88
249272
2967
پس من تنها سرخط مطالب را برای
شما آماده می‌کنم.
04:24
But we're going to go the yearسال 2100.
89
252263
2400
اما ما به سال ۲۱۰۰ می‌خواهیم برویم.
04:27
Now what does the yearسال 2100 look like?
90
255732
2299
حالا سال ۲۱۰۰ چه شکلی است؟
04:30
Well, to startشروع کن with, the climateآب و هوا
is a bitبیت warmerگرمتر that what you're used to.
91
258055
3518
خُب، برای شروع، هوا از چیزی که الان
استفاده می‌کنید کمی گرم‌تراست.
04:33
(Laughterخنده)
92
261597
3583
(خنده حضار)
04:37
And that roboticروباتیک vacuumخلاء cleanerپاک کننده
that you know and love
93
265204
4952
و آن ربات پاک کننده خلا که شما
می‌دانید و دوستش دارید
04:42
wentرفتی throughاز طریق a fewتعداد کمی generationsنسل ها,
94
270180
1514
بین چند نسل گذشته است،
04:43
and the improvementsپیشرفت ها
were not always so good.
95
271718
2843
و پیشرفت‌ها همیشه خوب نبودند.
04:46
(Laughterخنده)
96
274585
1595
(خنده حضار)
04:48
It was not always for the better.
97
276530
2310
آن همیشه برای بهتر بودن نبوده است.
04:52
But actuallyدر واقع, in the yearسال 2100
mostاکثر things are surprisinglyشگفت آور recognizableقابل تشخیص است.
98
280221
4538
اما درواقع، در سال ۲۱۰۰ خیلی از چیزها
بطور شگفت‌انگیزی قابل درک هستند.
04:57
It's just the brainمغز is totallyکاملا differentناهمسان.
99
285458
2734
تنها این است که مغز است
که کاملاً متفاوت است.
05:00
For exampleمثال, in the yearسال 2100,
100
288740
2547
برای مثال در سال ۲۱۰۰،
05:03
we understandفهمیدن the rootریشه causesعلل
of Alzheimer'sآلزایمر.
101
291311
2857
ما به علت‌های اصلی آلزایمر پی برده‌ایم.
05:06
So we can deliverارائه targetedهدفمند
geneticژنتیک therapiesدرمان ها or drugsمواد مخدر
102
294192
3714
پس می‌توانیم که درمان‌های ژنتیکی هدفمند
و یا داروها را
05:09
to stop the degenerativeدژنراتیو processروند
before it beginsشروع می شود.
103
297930
2876
برای متوقف کردن فرآیندهای مخرب،
پیش از وقوع، ارائه دهیم.
05:13
So how did we do it?
104
301629
1333
خُب چطوراین کار را می‌کنیم؟
05:15
Well, there were essentiallyاساسا threeسه stepsمراحل.
105
303898
2238
خب، سه گام حیاتی وجود داشته است.
05:18
The first stepگام was
that we had to figureشکل out
106
306589
2814
گام اول این بود که ما مجبور
به یافتنِ
05:21
some way to get electricalالکتریکی
connectionsارتباطات throughاز طریق the skullجمجمه
107
309427
3293
چند راه برای دستیابی به اتصال الکتریکی
در بین جمجمه بودیم،
05:24
so we could measureاندازه گرفتن
the electricalالکتریکی activityفعالیت of neuronsنورون ها.
108
312744
3015
پس توانستیم که فعالیت الکتریکی عصب‌ها
را اندازه گیری کنیم.
05:28
And not only that,
it had to be easyآسان and risk-freeبی خطر.
109
316339
4349
و نه فقط آن، باید آسان و بدون ریسک باشد.
05:32
Something that basicallyاساسا anyoneهر کسی
would be OK with,
110
320712
2378
چیزی که بطور پایه‌ای هر کس با آن
راحت باشد.
05:35
like gettingگرفتن a piercingپر سر و صدا.
111
323114
1600
شبیه زدن پیِرسینگ !
05:37
Because back in 2017,
112
325156
2747
چون مشابه سال ۲۰۱۷،
05:39
the only way that we knewمی دانست of
to get throughاز طریق the skullجمجمه
113
327927
2913
تنها راهی که برای دسترسی به داخل
جمجمه می‌دانیم
05:42
was to drillمته these holesحفره ها
the sizeاندازه of quartersچهارم.
114
330864
2817
این بود که حفره‌های به اندازه یک کوارتر
ایجاد کنیم.
05:46
You would never let
someoneکسی do that to you.
115
334015
2039
شما هرگز به کسی اجازه این کار را نمی‌دهید.
05:48
So in the 2020s,
116
336967
2253
پس در دهه ۲۰۲۰،
05:51
people beganآغاز شد to experimentآزمایشی --
ratherنسبتا than drillingحفاری these giganticغول پیکر holesحفره ها,
117
339244
3381
افراد بجای حفر چنین سوراخ‌های بزرگی
شروع به،
05:54
drillingحفاری microscopicمیکروسکوپیک holesحفره ها,
no thickerضخیم تر than a pieceقطعه of hairمو.
118
342649
3115
حفرسوراخ‌های میکروسکوپی به ضخامت
کمتر از یک تار مو کردند.
05:58
And the ideaاندیشه here
was really for diagnosisتشخیص --
119
346735
2096
و ایده اینجا واقعاً برای تشخیص بود.
06:00
there are lots of timesبار in the diagnosisتشخیص
of brainمغز disordersاختلالات
120
348855
2786
زمان‌های زیادی در تشخیص نارسایی‌های مغز
وجود دارد
06:03
when you would like to be ableتوانایی to look
at the neuralعصبی activityفعالیت beneathدر زیر the skullجمجمه
121
351665
4872
وقتی که شما تمایل دارید که قادر به دیدن
فعالیت عصب‌ها درداخل جمجمه باشید
06:08
and beingبودن ableتوانایی to drillمته
these microscopicمیکروسکوپیک holesحفره ها
122
356561
3191
و قادر به حفر چنین سوراخ‌های
میکروسکوپی باشید
06:11
would make that much easierآسان تر
for the patientصبور.
123
359776
2142
که آن را برای بیمار بسیار آسان‌تر می‌کند.
06:13
In the endپایان, it would be
like gettingگرفتن a shotشات.
124
361942
2349
در انتها، ممکن است شبیه یک تزریق باشد.
06:16
You just go in and you sitنشستن down
125
364315
1580
شما فقط می‌روید و می‌نشینید
06:17
and there's a thing
that comesمی آید down on your headسر,
126
365919
2301
و چیزی هست که بر روی سرتان پایین می‌آید،
06:20
and a momentaryانی stingنیش and then it's doneانجام شده,
127
368244
1953
و یک لحظه متصل می‌شود و بعد تمام می‌شود،
06:22
and you can go back about your day.
128
370221
1864
و می‌توانید به ادامه روزتان بپردازید.
06:24
So we're eventuallyدر نهایت ableتوانایی to do it
129
372736
4793
پس ما درنهایت قادر به انجام آن-
06:29
usingاستفاده كردن lasersلیزرها to drillمته the holesحفره ها.
130
377553
2667
برای حفر سوراخ‌ها توسط لیزرها هستیم.
06:32
And with the lasersلیزرها,
it was fastسریع and extremelyفوق العاده reliableقابل اعتماد,
131
380244
2620
و با این لیزرها، سریع و کاملاً
قابل اعتماد بود،
06:34
you couldn'tنمی توانستم even tell
the holesحفره ها were there,
132
382888
2213
شما حتی نمی‌توانستید
بگوئید سوراخ‌ها آنجاست،
06:37
any more than you could tell
that one of your hairsموها was missingگم شده.
133
385125
3000
و بیشتراینکه می‌توانستید بگوئید
یک تار موی‌تان را از دست می‌دهید
06:40
And I know it mightممکن soundصدا crazyدیوانه,
usingاستفاده كردن lasersلیزرها to drillمته holesحفره ها in your skullجمجمه,
134
388753
4738
و می‌دانم شاید عجیب به نظربیاید، که از
لیزرها برای حفرجمجمه‌ی شما استفاده شود،
06:45
but back in 2017,
135
393515
1366
اما مشابه سال ۲۰۱۷،
06:46
people were OK with surgeonsجراحان
shootingتیراندازی کردن lasersلیزرها into theirخودشان eyesچشم ها
136
394905
4109
افراد با جراحی چشم‌شان توسط لیزرها
راحت بودند
06:51
for correctiveاصلاحیه surgeryعمل جراحي
137
399038
1214
برای عمل جراحی اصلاحی
06:52
So when you're alreadyقبلا here,
it's not that bigبزرگ of a stepگام.
138
400276
3887
پس وقتی شما اکنون اینجائید،
پس این یک قدم بزرگ نخواهد بود.
06:57
OK?
139
405561
1151
درست؟
06:58
So the nextبعد stepگام,
that happenedاتفاق افتاد in the 2030s,
140
406736
3571
پس قدم بعدی که در دهه ۳۰ رخ داد،
07:02
was that it's not just about
gettingگرفتن throughاز طریق the skullجمجمه.
141
410331
3086
این بود که تنها، موضوع دسترسی به
داخل جمجمه نیست.
07:05
To measureاندازه گرفتن the activityفعالیت of neuronsنورون ها,
142
413441
1700
برای اندازه‌گیری فعالیت عصب‌ها،
07:07
you have to actuallyدر واقع make it
into the brainمغز tissueبافت itselfخودش.
143
415165
3825
شما در واقع باید که به
بافت خود مغز برسید .
07:11
And the riskخطر, wheneverهر زمان که
you put something into the brainمغز tissueبافت,
144
419344
2968
و خطر، اینکه هر زمان چیزی
درون بافت مغز قرار دهید،
07:14
is essentiallyاساسا that of strokeسکته مغزی.
145
422336
1439
اساساً ضربه مغزی است.
07:15
That you would hitاصابت
a bloodخون vesselکشتی and burstپشت سر هم it,
146
423799
2196
که ممکن است یک رگ خون را بزنید
و از بین برود،
07:18
and that causesعلل a strokeسکته مغزی.
147
426019
1519
و منجر به ضربه مغزی شود.
07:19
So, by the midاواسط 2030s,
we had inventedاختراع شده است these flexibleقابل انعطاف probesپروب ها
148
427916
3725
پس، در اواسط دهه‌ی ۳۰،
ما این کاوشگران انعطاف‌پذیر رادرست کردیم
07:23
that were capableقادر به of going
around bloodخون vesselsعروق,
149
431665
2278
که قادر به حرکت در اطراف
رگ‌های خونی بودند،
07:25
ratherنسبتا than throughاز طریق them.
150
433967
1476
بجای آنکه از درونشان حرکت کنند.
07:27
And thusبدین ترتیب, we could put
hugeبزرگ batteriesباتری ها of these probesپروب ها
151
435467
5697
وبنابراین، ما می‌توانستیم باتری‌های
بزرگی ازاین کاوشگران را
07:33
into the brainsمغز of patientsبیماران
152
441188
1357
درون مغز بیمار قرار دهیم
07:34
and recordرکورد from thousandsهزاران نفر of theirخودشان neuronsنورون ها
withoutبدون any riskخطر to them.
153
442569
3270
وبدون هیچ خطری برای بیمار از هزاران عصب
اطلاعات دریافت کنیم.
07:39
And what we discoveredکشف شده,
sortمرتب سازی of to our surpriseتعجب,
154
447458
4061
و چیزی که کشف کردیم،
که نوعی سورپرایز بود،
07:43
is that the neuronsنورون ها that we could identifyشناسایی
155
451543
2190
این هست که عصب‌هایی که می‌توانستیم
شناسائی کنیم
07:45
were not respondingپاسخ دادن
to things like ideasایده ها or emotionهیجانی,
156
453757
3524
به احساسات و ایده‌ها واکنش نشان نمی‌دهند،
07:49
whichکه was what we had expectedانتظار می رود.
157
457305
1627
که ما آن را انتظار داشتیم.
07:50
They were mostlyاغلب respondingپاسخ دادن
to things like Jenniferجنیفر Anistonآنیستون
158
458956
3796
آن‌ها بیشتر به "جنیفر آنیستون"
واکنش نشان می‌دهند
07:54
or Halleهاله Berryبری
159
462776
2404
و یا "هِیل بری"
07:57
or Justinجاستین TrudeauTrudeau.
160
465204
1310
یا " جاستین ترادو"
07:58
I mean --
161
466538
1253
منظورم اینه
07:59
(Laughterخنده)
162
467815
2326
(خنده حضار)
08:02
In hindsightادراک, we shouldn'tنباید
have been that surprisedغافلگیر شدن.
163
470165
2437
در درک آن، ما نباید
اینقدر سورپرایز می‌شدیم.
08:04
I mean, what do your neuronsنورون ها
spendخرج کردن mostاکثر of theirخودشان time thinkingفكر كردن about?
164
472626
3262
یعنی، عصب‌ها اکثر اوقات را به فکر کردن
راجع به چه چیزی سپری می‌کنند؟
08:07
(Laughterخنده)
165
475912
1150
(خنده حضار)
08:09
But really, the pointنقطه is that
166
477380
2040
اما در واقع، نکته این است که
08:11
this technologyتکنولوژی enabledفعال شده است us to beginشروع
studyingدر حال مطالعه neuroscienceعلوم اعصاب in individualsاشخاص حقیقی.
167
479444
4430
این تکنولوژی ما را قادر به شروع مطالعه
علوم اعصاب بصورت مجزا کرد.
08:15
So much like the transitionگذار to geneticsژنتیک,
at the singleتنها cellسلول levelسطح,
168
483898
4230
پس بسیار شبیه به انتقال ژنتیک،
در سطح یک سلول واحد،
08:20
we startedآغاز شده to studyمطالعه neuroscienceعلوم اعصاب,
at the singleتنها humanانسان levelسطح.
169
488152
3206
ما شروع به مطالعه علوم اعصاب،
در سطح یک انسان واحد کردیم.
08:23
But we weren'tنبودند quiteکاملا there yetهنوز.
170
491890
1618
اما بصورت کامل هنوز موفق نبودیم.
08:25
Because these technologiesفن آوری ها
171
493895
1642
زیرا این تکنولوژی‌ها
08:27
were still restrictedمحصور
to medicalپزشکی applicationsبرنامه های کاربردی,
172
495561
3056
همچنان برای کاربردهای درمانی
محدود بودند،
08:30
whichکه meantبه معنای that we were studyingدر حال مطالعه
sickبیمار brainsمغز, not healthyسالم brainsمغز.
173
498641
3391
که یعنی ما مغز‌های بیمار را
و نه مغز های سالم را بررسی می‌کردیم.
08:35
Because no matterموضوع how safeبی خطر
your technologyتکنولوژی is,
174
503235
3754
زیرا هرچقدر هم که فناوری شما
ایمن باشد،
08:39
you can't stickچوب something
into someone'sکسی هست brainمغز
175
507013
2730
نمی‌توانید چیزی به مغز فردی متصل کنید
08:41
for researchپژوهش purposesاهداف.
176
509767
1420
برای اهداف تحقیقاتی.
08:43
They have to want it.
177
511211
1549
آن‌هاباید که مایل باشند.
08:44
And why would they want it?
178
512784
1460
و چرا باید آن را بخواهند؟
08:46
Because as soonبه زودی as you have
an electricalالکتریکی connectionارتباط to the brainمغز,
179
514268
3571
زیرا به محض اتصال جریان الکتریکی
به مغز،
08:49
you can use it to hookقلاب
the brainمغز up to a computerکامپیوتر.
180
517863
2444
می‌توانید که مغز را به یارانه متصل کنید.
08:53
Oh, well, you know, the generalعمومی publicعمومی
was very skepticalشکاکانه at first.
181
521061
3429
اُه، خُب، می‌دونید، عموم مردم
در ابتدا بسیار دیرباور بودند.
08:56
I mean, who wants to hookقلاب
theirخودشان brainمغز up to theirخودشان computersکامپیوترها?
182
524514
2869
منظورم اینه که، کی می‌خواست که مغزش
را به رایانه متصل کند؟
08:59
Well just imagineتصور کن beingبودن ableتوانایی
to sendارسال an emailپست الکترونیک with a thought.
183
527926
4236
خیلی خب فقط تصور کنید که قادرید
تنها با یک فکر، ایمیل ارسال کنید.
09:04
(Laughterخنده)
184
532186
2253
(خنده حضار)
09:06
Imagineتصور کن beingبودن ableتوانایی to take
a pictureعکس with your eyesچشم ها, OK?
185
534463
4500
تصور کنید که قادر هستید
بوسیله‌ی چشم‌تان عکس بگیرید، درسته؟
09:10
(Laughterخنده)
186
538987
1230
(خنده حضار)
09:12
Imagineتصور کن never forgettingفراموش کردن anything anymoreدیگر,
187
540241
2963
تصور کنید دیگر هرگز چیزی را مجدد
فراموش نمی‌کنید،
09:15
because anything
that you chooseانتخاب کنید to rememberیاد آوردن
188
543228
2159
زیرهرچیزی که انتخاب کنید که
به یاد بیاورید
09:17
will be storedذخیره شده است permanentlyدائمی
on a hardسخت driveراندن somewhereجایی,
189
545411
2477
به صورت دائمی در یک سخت‌افزار
در جائی ذخیره می‌شود،
09:19
ableتوانایی to be recalledفراخوانده شد at will.
190
547912
2029
که در زمان مورد نیاز قادر به یادآوری باشد.
09:21
(Laughterخنده)
191
549965
3366
(خنده‌ حضار)
09:25
The lineخط here
betweenبین crazyدیوانه and visionaryچشم انداز
192
553355
3381
اینجا مرز بین جنون و رویاپردازی
09:28
was never quiteکاملا clearروشن است.
193
556760
1467
هرگز کاملاً واضح نبود.
09:30
But the systemsسیستم های were safeبی خطر.
194
558720
1857
اما سیستم‌ها بی‌خطر بودند.
09:32
So when the FDAFDA decidedقرار بر این شد to deregulateتنظیم مقررات
these laser-drillingلیزر حفاری systemsسیستم های, in 2043,
195
560879
5016
زمانی که سازمان غذا و دارو خواست در ۲۰۴۳
این سیستم‌های حفاری لیزری را قانونی کند،
09:37
commercialتجاری demandتقاضا just explodedمنفجر شد.
196
565919
2357
تقاضای تجاری به انفجار رسید.
09:40
People startedآغاز شده signingامضاء theirخودشان emailsایمیل ها,
197
568300
1888
افراد شروع به امضا کردن ایمیل‌ها
کردند،
09:42
"Please excuseبهانه any typosاشتباهات.
198
570212
1341
" لطفاً اشتباهات را ببخشید
09:43
Sentارسال شد from my brainمغز."
199
571577
1333
ارسال شده از مغزم."
09:44
(Laughterخنده)
200
572934
1001
(خنده حضار)
09:45
Commercialتجاری systemsسیستم های
poppedظاهر شد up left and right,
201
573959
2072
سیستم‌های بازرگانی چپ و راست
منتشر شدند،
09:48
offeringارائه the latestآخرین and greatestبزرگترین
in neuralعصبی interfacingتعامل technologyتکنولوژی.
202
576055
3238
که آخرین و بزرگ‌ترین تکنولوژی
رابط عصبی را پیشنهاد می‌کردند.
09:51
There were 100 electrodesالکترود.
203
579792
1753
۱۰۰ الکترود وجود داشت.
09:53
A thousandهزار electrodesالکترود.
204
581569
1911
هزاران الکترود.
09:55
Highبالا bandwidthپهنای باند for only 99.99 a monthماه.
205
583504
2476
پهنای باند بالا، فقط ۹۹/۹۹ دلار در ماه.
09:58
(Laughterخنده)
206
586004
1539
(خنده حضار)
09:59
Soonبه زودی, everyoneهر کس had them.
207
587567
1534
خیلی زود، همه آن‌ها را داشتند.
10:01
And that was the keyکلیدی.
208
589694
1571
و نکته همان بود.
10:03
Because, in the 2050s,
if you were a neuroscientistعصب شناس,
209
591289
2923
زیرا در دهه ۵۰، اگر یک متخصص اعصاب
بودید
10:06
you could have someoneکسی come into your labآزمایشگاه
essentiallyاساسا from off the streetخیابان.
210
594236
3939
شما می‌توانستید فردی ازخیابان
اساساً به آزمایشگاه شما بیاید
10:10
And you could have them engagedنامزد شده
in some emotionalعاطفی taskوظیفه
211
598792
2864
و شما آن‌ها را مشغول کارهای
عاطفی کنید
10:13
or socialاجتماعی behaviorرفتار or abstractچکیده reasoningاستدلال,
212
601680
2437
و یا رفتار اجتماعی یا
استدلال انتزاعی،
10:16
things you could never studyمطالعه in miceموش.
213
604141
2531
چیزهایی که هرگز با موش‌ها نمی‌توانستید
مطالعه کنید.
10:18
And you could recordرکورد
the activityفعالیت of theirخودشان neuronsنورون ها
214
606696
3111
و شما قادر بودید که فعالیت عصب‌هایشان
را اندازه گیری کنید
10:21
usingاستفاده كردن the interfacesرابط ها
that they alreadyقبلا had.
215
609831
3191
بوسیله ی رابط هایی که هم اکنون
داشتند.
10:25
And then you could alsoهمچنین askپرسیدن them
about what they were experiencingتجربه کردن.
216
613046
3189
و آنگاه می‌توانستید ازآن‌ها بپرسید
که چه چیزی را تجربه می‌کنند.
10:28
So this linkارتباط دادن betweenبین
psychologyروانشناسی and neuroscienceعلوم اعصاب
217
616259
3349
بنابراین این رابط بین روانشناسی و
علوم اعصاب
10:31
that you could never make
in the animalsحیوانات, was suddenlyناگهان there.
218
619632
3381
که هرگز نمی‌توانید در حیوانات ایجاد کنید،
ناگهان آنجا دراختیار بود.
10:35
So perhapsشاید the classicکلاسیک exampleمثال of this
219
623695
2184
پس شاید نمونه کلاسیک این
10:37
was the discoveryکشف
of the neuralعصبی basisپایه for insightبینش، بصیرت، درون بینی.
220
625903
3523
اکتشاف پایه عصبی برای بینش بود.
10:41
That "Ahaآه!" momentلحظه, the momentلحظه
it all comesمی آید togetherبا یکدیگر, it clicksکلیک کنید.
221
629450
3600
آن لحظه‌ی "آها"، لحظه‌ای که همه چیز
به هم می‌رسد،کلیک می‌کند.
10:45
And this was discoveredکشف شده
by two scientistsدانشمندان in 2055,
222
633593
4056
و این در سال ۲۰۵۵ توسط ۲ دانشمند
کشف شد،
10:49
Barryبری and Lateاواخر,
223
637673
1372
"بَری" و " لِیت "
10:51
who observedمشاهده شده, in the dorsalعقب
prefrontalمقدمه cortexقشر,
224
639069
3663
که در قشرفوقانی جلوی مغز مشاهده کردند،
10:54
how in the brainمغز of someoneکسی
tryingتلاش کن to understandفهمیدن an ideaاندیشه,
225
642756
5222
که چگونه مغز یک فرد برای درک
یک ایده تلاش می‌کند،
11:00
how differentناهمسان populationsجمعیت ها of neuronsنورون ها
would reorganizeسازماندهی مجدد themselvesخودشان --
226
648002
3369
چگونه گروه‌های مختلف عصب‌ها
ممکن بود خود را بشناسند
11:03
you're looking at neuralعصبی
activityفعالیت here in orangeنارنجی --
227
651395
2436
شما اینجا به فعالیت عصبی
به رنگ نارنجی نگاه می‌کنید
11:05
untilتا زمان finallyسرانجام theirخودشان activityفعالیت alignsaligns
in a way that leadsمنجر می شود to positiveمثبت feedbackبازخورد.
228
653855
3738
تا نهایتاً فعالیت‌شان به گونه‌ای که
به بازخورد مثبتی منجر شوند، هم‌تراز شود.
11:10
Right there.
229
658339
1150
دقیقاً اینجا.
11:12
That is understandingدرك كردن.
230
660723
1467
که درحال درک است
11:15
So finallyسرانجام, we were ableتوانایی to get
at the things that make us humanانسان.
231
663413
4437
پس نهایتاً، ما قادر به دریافت چیزهایی
بودیم که ما را انسان می‌کرد.
11:21
And that's what really openedافتتاح شد the way
to majorعمده insightsبینش from medicineدارو.
232
669871
4578
و آن چیزی بود که واقعاً راه را به
بینش‌های مهم در پزشکی، گشود.
11:27
Because, startingراه افتادن in the 2060s,
233
675465
2755
زیرا، در شروع دهه ۲۰۶۰،
11:30
with the abilityتوانایی to recordرکورد
the neuralعصبی activityفعالیت
234
678244
2484
با توانایی ثبت فعالیت عصبی
11:32
in the brainsمغز of patientsبیماران
with these differentناهمسان mentalذهنی diseasesبیماری ها,
235
680752
3587
در مغز بیمار، با این بیماری‌های
ذهنی متفاوت،
11:36
ratherنسبتا than definingتعریف کردن the diseasesبیماری ها
on the basisپایه of theirخودشان symptomsعلائم,
236
684363
4690
بجای تعریف بیماری‌ها بر اساس
علائم آن‌ها،
11:41
as we had at the beginningشروع of the centuryقرن,
237
689077
2040
به شکلی که در شروع قرن صورت می‌گرفت،
11:43
we startedآغاز شده to defineتعريف كردن them
238
691141
1222
ما شروع تعریف آن‌ها کردیم
11:44
on the basisپایه of the actualواقعی pathologyآسيب شناسي
that we observedمشاهده شده at the neuralعصبی levelسطح.
239
692387
3539
بر اساس آسیب‌شناسی واقعی که در
سطح عصب‌ها مشاهده می‌شد.
11:48
So for exampleمثال, in the caseمورد of ADHDبیش فعالی,
240
696768
3825
پس بعنوان مثال، در مورد ADHD،
11:52
we discoveredکشف شده that there are
dozensده ها of differentناهمسان diseasesبیماری ها,
241
700617
3174
ما دریاقتیم که ده‌ها نوع بیماری
متفاوت وجود دارد،
11:55
all of whichکه had been calledبه نام ADHDبیش فعالی
at the startشروع کن of the centuryقرن,
242
703815
3009
که همگی درابتدای قرن، ADHD نامیده می‌شدند،
11:58
that actuallyدر واقع had nothing
to do with eachهر یک other,
243
706848
2301
که در واقع هیچ ربطی به هم نداشتند،
12:01
exceptبجز that they had similarمشابه symptomsعلائم.
244
709173
2118
بجز آنکه نشانه‌‌های مشابهی داشتند.
12:03
And they neededمورد نیاز است to be treatedتحت درمان
in differentناهمسان waysراه ها.
245
711625
2372
و نیازمند درمان به روش‌های متفاوتی، بودند.
12:06
So it was kindنوع of incredibleباور نکردنی,
in retrospectنگاهی به گذشته,
246
714307
2247
پس یک نوعِ باورنکردنی،
در مقایسه با گذشته،
12:08
that at the beginningشروع of the centuryقرن,
247
716578
1777
که در ابتدای قرن،
12:10
we had been treatingدرمان
all those differentناهمسان diseasesبیماری ها
248
718379
2317
تمام آن بیماری‌ها متفاوت را با
یک داروی مشابه،
12:12
with the sameیکسان drugدارو,
249
720720
1183
درمان می‌کردیم،
12:13
just by givingدادن people amphetamineمحرك هاي,
basicallyاساسا is what we were doing.
250
721927
3214
تنها با دادن آمفیتامین به افراد،
اساساً کاری بود که می‌کردیم.
12:17
And schizophreniaجنون جوانی and depressionافسردگی
are the sameیکسان way.
251
725165
2488
و شیزوفرنی و افسردگی به روش‌های مشابه.
12:19
So ratherنسبتا than prescribingتجویز drugsمواد مخدر to people
essentiallyاساسا at randomتصادفی,
252
727677
4032
بنابراین بجای تجویز دارو برای افراد
اساساً به صورت تصادفی،
12:23
as we had,
253
731733
1150
که ما داشتیم،
12:24
we learnedیاد گرفتم how to predictپیش بینی
whichکه drugsمواد مخدر would be mostاکثر effectiveتاثير گذار
254
732907
3511
آموخیتم که چگونه حدس بزنیم که چه داروهایی
ممکن است موثرترباشند.
12:28
in whichکه patientsبیماران,
255
736442
1183
در چه بیمارانی،
12:29
and that just led to this hugeبزرگ
improvementبهبود in outcomesنتایج.
256
737649
2756
و آن تنها به بهبود بزرگی در
نتایج منجر شد.
12:33
OK, I want to bringآوردن you back now
to the yearسال 2017.
257
741498
3476
درست، می‎خواهم که شما را به سال ۲۰۱۷
بازگردانم.
12:38
Some of this mayممکن است soundصدا satiricalطنز
or even farدور fetchedآوردن.
258
746117
3373
برخی از این ممکن است طنز
باشد و یا اینکه خیلی دور از دسترس.
12:41
And some of it is.
259
749514
1293
و بعضی‌ها هم هست.
12:43
I mean, I can't actuallyدر واقع
see into the futureآینده.
260
751291
2651
یعنی، نمی‌توانم بطور
واقعی آینده را ببینم.
12:45
I don't actuallyدر واقع know
261
753966
1366
واقعاً نمی‌دانم
12:47
if we're going to be drillingحفاری hundredsصدها
or thousandsهزاران نفر of microscopicمیکروسکوپیک holesحفره ها
262
755356
3667
که آیا ما صدها یا هزاران حفره
میکروسکوپی را در
12:51
in our headsسر in 30 yearsسالها.
263
759047
1667
سرهایمان در ۳۰ سال بعد حفر می‌کنیم.
12:53
But what I can tell you
264
761762
1706
اما چیزی که می‌توانم بگویم به شما
12:55
is that we're not going
to make any progressپیش رفتن
265
763492
2175
این است که هیچ پیشرفتی نخواهیم داشت
12:57
towardsبه سمت understandingدرك كردن the humanانسان brainمغز
or humanانسان diseasesبیماری ها
266
765691
3727
در ادراک مغز انسان و یا بیماری‌های انسان
13:01
untilتا زمان we figureشکل out how to get
at the electricalالکتریکی activityفعالیت of neuronsنورون ها
267
769442
4516
تا زمانی‌که بفهمیم چگونه می‌توانیم
فعالیت الکتریکی عصب‌ها را بدست آوریم.
13:05
in healthyسالم humansانسان.
268
773982
1200
در انسان‌های سالم.
13:07
And almostتقریبا no one is workingکار کردن
on figuringبدانید out how to do that todayامروز.
269
775918
3239
و تقریباً هیچکس امروز برای درک آن
کارنمی‌کند.
13:12
That is the futureآینده of neuroscienceعلوم اعصاب.
270
780077
2334
آن آینده‌ی علوم اعصاب است.
13:14
And I think it's time for neuroscientistsدانشمندان علوم اعصاب
to put down the mouseموش brainمغز
271
782752
4393
و فکر می‌کنم که وقت آن است که متخصصین
علوم اعصاب مغز موش را رها کنند
13:19
and to dedicateاختصاص دادن the thought
and investmentسرمایه گذاری necessaryلازم است
272
787169
2754
و اینکه افکار و بررسی‌های ضروری را
13:21
to understandفهمیدن the humanانسان brainمغز
and humanانسان diseaseمرض.
273
789947
3267
برای درک مغز انسان و بیماری‌های
انسان، اختصاص دهند.
13:27
Thank you.
274
795629
1151
متشکرم.
13:28
(Applauseتشویق و تمجید)
275
796804
1172
(تشویق حضار)
Translated by Marshal BiBaker
Reviewed by Leila Ataei

▲Back to top

ABOUT THE SPEAKER
Sam Rodriques - Neuroengineer
Sam Rodriques invents new technologies to help neuroscientists understand how the brain works.

Why you should listen

Sam Rodriques has designed a new nanofabrication method and a new approach to sensing neural activity with probes in the bloodstream, and his forthcoming technologies are aimed at understanding the spatial organization of cells in the brain and the transcriptional activity of neurons over time. He is a graduate student in Physics at the Massachusetts Institute of Technology, with affiliations at the MIT Media Lab, the MIT Department of Brain and Cognitive Sciences and the Broad Institute of Harvard and MIT. He graduated summa cum laude with highest honors in Physics from Haverford College, where he worked on new methods for calculating quantum entanglement in multipartite quantum systems. He has received numerous national awards and fellowships to support his research, including the Hertz Foundation Graduate Fellowship, an NSF Graduate Research Fellowship and a Churchill Scholarship.

More profile about the speaker
Sam Rodriques | Speaker | TED.com