ABOUT THE SPEAKER
Jeremy Howard - Data scientist
Jeremy Howard imagines how advanced machine learning can improve our lives.

Why you should listen

Jeremy Howard is the CEO of Enlitic, an advanced machine learning company in San Francisco. Previously, he was the president and chief scientist at Kaggle, a community and competition platform of over 200,000 data scientists. Howard is a faculty member at Singularity University, where he teaches data science. He is also a Young Global Leader with the World Economic Forum, and spoke at the World Economic Forum Annual Meeting 2014 on "Jobs for the Machines."

Howard advised Khosla Ventures as their Data Strategist, identifying opportunities for investing in data-driven startups and mentoring portfolio companies to build data-driven businesses. He was the founding CEO of two successful Australian startups, FastMail and Optimal Decisions Group.

More profile about the speaker
Jeremy Howard | Speaker | TED.com
TEDxBrussels

Jeremy Howard: The wonderful and terrifying implications of computers that can learn

جِرِمی هووارد: پیامدهای شگفت انگیز و هولناک رایانه هایی که می توانند یاد بگیرند

Filmed:
2,532,971 views

اگر به یک رایانه یاد بدهیم چگونه یاد بگیرد، چه روی می دهد؟ جِرِمی هووارد، متخصص فناوری، به بیان برخی دستاوردهای جدید در زمینه به سرعت در حال پیشرفت یادگیری عمیق می پردازد، تکنیکی که می تواند به رایانه ها توانایی یادگیری زبان چینی، یا تشخیص تصاویر، یا تشخیص پزشکی را یاد بدهد. (یکی از ابزارهای یادگیری عمیق، توانسته پس از ساعتها تماشای یوتیوب، مفهوم گربه ها را به خود آموزش بدهد.) به موضوعی توجه کنید که نحوه ی عملکرد رایانه های اطراف شما را تغییر خواهد داد... زودتر از آنچه شاید فکرش را بکنید.
- Data scientist
Jeremy Howard imagines how advanced machine learning can improve our lives. Full bio

Double-click the English transcript below to play the video.

00:12
It used to be that if you wanted
to get a computerکامپیوتر to do something newجدید,
0
880
4013
در گذشته اگه می خواستین یه رایانه
کار جدیدی انجام بده،
باید برنامه اش رو بهش می دادین.
00:16
you would have to programبرنامه it.
1
4893
1554
00:18
Now, programmingبرنامه نويسي, for those of you here
that haven'tنه doneانجام شده it yourselfخودت,
2
6447
3411
خوب، برای اونایی که
تا حالا برنامه ننوشتن،
00:21
requiresنیاز دارد layingتخمگذار out in excruciatingتعجب آور است detailجزئیات
3
9858
3502
این کار نیاز به تعریف جزئیات طاقت فرسای
00:25
everyهرکدام singleتنها stepگام that you want
the computerکامپیوتر to do
4
13360
3367
تک تک مراحلی داره که می‌خواین
رایانه انجام بده
00:28
in orderسفارش to achieveرسیدن your goalهدف.
5
16727
2362
تا به هدف مورد نظر شما برسه.
00:31
Now, if you want to do something
that you don't know how to do yourselfخودت,
6
19089
3496
حالا، اگه بخواین کاری انجام بدین که
خودتون نمی دونین چطور انجام میشه،
00:34
then this is going
to be a great challengeچالش.
7
22585
2063
با چالش بزرگی روبرو میشین.
00:36
So this was the challengeچالش facedدر مواجهه
by this man, Arthurآرتور Samuelساموئل.
8
24648
3483
خوب، این چالشی بود که رو در روی این مرد، آرتور ساموئل،
قرار داشت.
00:40
In 1956, he wanted to get this computerکامپیوتر
9
28131
4077
او در سال ۱۹۵۶، می خواست این رایانه
بتونه اونو تو بازی چکرز (دام، جنگ نادر)
شکست بده.
00:44
to be ableتوانایی to beatضرب و شتم him at checkersچکرز.
10
32208
2340
00:46
How can you writeنوشتن a programبرنامه,
11
34548
2040
چطور می‌تونین برنامه‌ای بنویسین،
00:48
layغیر روحانی out in excruciatingتعجب آور است detailجزئیات,
how to be better than you at checkersچکرز?
12
36588
3806
که با تمام جزئیات طاقت فرسا، به رایانه بگه
چجوری می تونه تو بازی چکرز از شما بهتر باشه؟
00:52
So he cameآمد up with an ideaاندیشه:
13
40394
1722
خوب، ایده ای به ذهنش رسید:
00:54
he had the computerکامپیوتر playبازی
againstدر برابر itselfخودش thousandsهزاران نفر of timesبار
14
42116
3724
اجازه داد رایانه هزاران بار
با خودش بازی کنه،
00:57
and learnیاد گرفتن how to playبازی checkersچکرز.
15
45840
2524
و یاد بگیره چطور چکرز بازی کنه.
01:00
And indeedدر واقع it workedکار کرد,
and in factواقعیت, by 1962,
16
48364
3180
و در واقع موفق شد،
و در عمل، تا سال ۱۹۶۲،
01:03
this computerکامپیوتر had beatenمورد ضرب و شتم
the Connecticutکانتیکت stateحالت championقهرمان.
17
51544
4017
این رایانه تونسته بود
قهرمان ایالت کانکتیکات رو شکست بده.
01:07
So Arthurآرتور Samuelساموئل was
the fatherپدر of machineدستگاه learningیادگیری,
18
55561
2973
پس آرتور ساموئل
پدر یادگیری ماشینی بود،
01:10
and I have a great debtبدهی to him,
19
58534
1717
و من دین بزرگی بهش دارم،
01:12
because I am a machineدستگاه
learningیادگیری practitionerمتخصص.
20
60251
2763
چون کارم یادگیری ماشینیه.
01:15
I was the presidentرئيس جمهور of KaggleKaggle,
21
63014
1465
من رئیس کاگل بودم،
01:16
a communityجامعه of over 200,000
machineدستگاه learningیادگیری practictionersتمرینکنندگان.
22
64479
3388
با بیش از دویست هزار نفر
که کارشون یادگیری ماشینیه.
01:19
KaggleKaggle putsقرار می دهد up competitionsمسابقات
23
67867
2058
کاگل مسابقاتی برگزار می کنه
01:21
to try and get them to solveحل
previouslyقبلا unsolvedحل نشده problemsمشکلات,
24
69925
3708
و از شرکت کننده ها می خواد
مسئله هایی رو که قبلاً حل نشده ن حل کنن،
01:25
and it's been successfulموفق شدن
hundredsصدها of timesبار.
25
73633
3837
و این رقابت صدها بار موفق بوده.
01:29
So from this vantageمزیت pointنقطه,
I was ableتوانایی to find out
26
77470
2470
پس به دلیل همین امتیاز،
تونستم چیزای زیادی
01:31
a lot about what machineدستگاه learningیادگیری
can do in the pastگذشته, can do todayامروز,
27
79940
3950
درباره کارهایی بفهمم که یادگیری ماشینی
در گذشته می تونست بکنه، امروز می تونه بکنه،
01:35
and what it could do in the futureآینده.
28
83890
2362
و در آینده می تونه بکنه.
01:38
Perhapsشاید the first bigبزرگ successموفقیت of
machineدستگاه learningیادگیری commerciallyبه صورت تجاری was Googleگوگل.
29
86252
4423
احتمالاً اولین موفقیت بزرگ تجاری
یادگیری ماشینی گوگل بود،
01:42
Googleگوگل showedنشان داد that it is
possibleامکان پذیر است to find informationاطلاعات
30
90675
3109
گوگل نشون داد یافتن اطلاعات
01:45
by usingاستفاده كردن a computerکامپیوتر algorithmالگوریتم,
31
93784
1752
از راه الگوریتم رایانه امکان پذیره،
01:47
and this algorithmالگوریتم is basedمستقر
on machineدستگاه learningیادگیری.
32
95536
2901
و اساس این الگوریتم، یادگیری ماشینیه.
01:50
Sinceاز آنجا که that time, there have been manyبسیاری
commercialتجاری successesموفقیت ها of machineدستگاه learningیادگیری.
33
98437
3886
از اون هنگام، یادگیری ماشینی
به موفقیتهای تجاری بسیاری دست یافته.
01:54
Companiesشرکت ها like Amazonآمازون and NetflixNetflix
34
102323
1837
شرکت هایی مانند آمازون و نتفلیکس
01:56
use machineدستگاه learningیادگیری to suggestپیشنهاد می دهد
productsمحصولات that you mightممکن like to buyخرید,
35
104160
3716
برای پیشنهاد محصولاتی که احتمالاً دوست دارین بخرین
از یادگیری ماشینی استفاده می کنن،
01:59
moviesفیلم ها that you mightممکن like to watch.
36
107876
2020
یا فیلمهایی که احتمالاً دوست دارین ببینین.
02:01
Sometimesگاهی, it's almostتقریبا creepyخزنده.
37
109896
1807
گاهی این کار به طور نامحسوس انجام می شه.
02:03
Companiesشرکت ها like LinkedInLinkedIn and Facebookفیس بوک
38
111703
1954
شرکتهایی مانند لینکدین و فیسبوک
02:05
sometimesگاه گاهی will tell you about
who your friendsدوستان mightممکن be
39
113657
2594
گاهی به شما درباره دوستهاتون می گن
02:08
and you have no ideaاندیشه how it did it,
40
116251
1977
و شما نمی دونین این کارو چجوری انجام میدن،
02:10
and this is because it's usingاستفاده كردن
the powerقدرت of machineدستگاه learningیادگیری.
41
118228
2967
و دلیلش اینه که
از قدرت یادگیری ماشینی استفاده می کنن.
02:13
These are algorithmsالگوریتم ها that have
learnedیاد گرفتم how to do this from dataداده ها
42
121195
2957
اینها الگوریتم هایی هستن که
یاد گرفتن این کار رو با داده ها انجام بدن
02:16
ratherنسبتا than beingبودن programmedبرنامه ریزی شده by handدست.
43
124152
3247
به جای اینکه با دست برنامه ربزی بشن.
02:19
This is alsoهمچنین how IBMآی بی ام was successfulموفق شدن
44
127399
2478
آی بی ام هم به همین ترتیب موفق شد
02:21
in gettingگرفتن Watsonواتسون to beatضرب و شتم
the two worldجهان championsقهرمانان at "Jeopardyریشخند,"
45
129877
3862
کاری بکنه که واتسون در مسابقه تلویزیونی "محک"
دو نفر از قهرمانان جهان رو شکست بده،
02:25
answeringپاسخ دادن incrediblyطور باور نکردنی subtleنامحسوس
and complexپیچیده questionsسوالات like this one.
46
133739
3225
با پاسخ به پرسشهای بسیار ریز
و پیچیده مانند این یکی.
02:28
["The ancientباستانی 'Lion'شیر نر of Nimrud'Nimrud ' wentرفتی missingگم شده
from this city'sشهرستان nationalملی museumموزه in 2003
(alongدر امتداد with a lot of other stuffچیز)"]
47
136964
2835
[شیء باستانی "شیر نیمرود" در سال ۲۰۰۳
(به همراه اشیای دیگر) از موزه ملی این شهر به سرقت رفت]
02:31
This is alsoهمچنین why we are now ableتوانایی
to see the first self-drivingخود رانندگی carsماشین ها.
48
139799
3235
همچنین به همین دلیله که حالا می تونیم
اولین خودروهای بدون راننده رو ببینیم.
02:35
If you want to be ableتوانایی to tell
the differenceتفاوت betweenبین, say,
49
143034
2822
اگه بخواین تفاوت
02:37
a treeدرخت and a pedestrianعابر پیاده,
well, that's prettyبسیار importantمهم.
50
145856
2632
یه درخت و یه عابر پیاده رو تشخیص بدین،
خوب، این خیلی مهمه.
02:40
We don't know how to writeنوشتن
those programsبرنامه ها by handدست,
51
148488
2587
نمی دونیم چطور این برنامه ها رو با دست بنویسیم،
02:43
but with machineدستگاه learningیادگیری,
this is now possibleامکان پذیر است.
52
151075
2997
اما حالا با یادگیری ماشینی،
این کار امکان پذیره.
02:46
And in factواقعیت, this carماشین has drivenرانده
over a millionمیلیون milesمایل
53
154072
2608
و در واقع، این ماشین
بیش از یک و نیم میلیون کیلومتر
02:48
withoutبدون any accidentsحوادث on regularمنظم roadsجاده ها.
54
156680
3506
بدون هیچ تصادفی
در جاده های عادی راه رفته.
02:52
So we now know that computersکامپیوترها can learnیاد گرفتن,
55
160196
3914
پس حالا می دونیم که رایانه ها
می تونن یاد بگیرن،
02:56
and computersکامپیوترها can learnیاد گرفتن to do things
56
164110
1900
و رایانه ها می تونن کارهایی رو یاد بگیرن
02:58
that we actuallyدر واقع sometimesگاه گاهی
don't know how to do ourselvesخودمان,
57
166010
2838
که در واقع خود ما گاهی
نمی تونیم انجام بدیم،
03:00
or maybe can do them better than us.
58
168848
2885
یا شاید اونا بهتر از ما انجام می دن.
03:03
One of the mostاکثر amazingحیرت آور examplesمثال ها
I've seenمشاهده گردید of machineدستگاه learningیادگیری
59
171733
4195
یکی از عجیب ترین نمونه های
یادگیری ماشینی که دیده ام
03:07
happenedاتفاق افتاد on a projectپروژه that I ranفرار کرد at KaggleKaggle
60
175928
2392
در پروژه ای بود
که در کاگل داشتم
03:10
where a teamتیم runاجرا کن by a guy
calledبه نام Geoffreyجفری Hintonهینتون
61
178320
3591
و در اون گروهی به سرپرستی جفری هینتون
03:13
from the Universityدانشگاه of Torontoتورنتو
62
181911
1552
از دانشگاه تورونتو
03:15
wonبرنده شد a competitionرقابت for
automaticاتوماتیک drugدارو discoveryکشف.
63
183463
2677
برنده مسابقه ی کشف خودکار دارو شد.
03:18
Now, what was extraordinaryخارق العاده here
is not just that they beatضرب و شتم
64
186140
2847
خوب، نکته فوق العاده فقط این نبود که اونها
03:20
all of the algorithmsالگوریتم ها developedتوسعه یافته by MerckMerck
or the internationalبین المللی academicعلمی communityجامعه,
65
188987
4013
همه الگوریتم های طراحی شده توسط مِرک یا
دانشگاههای بین المللی رو شکست دادن،
03:25
but nobodyهيچ كس on the teamتیم had any backgroundزمینه
in chemistryعلم شیمی or biologyزیست شناسی or life sciencesعلوم,
66
193000
5061
بلکه این بود که هیچ یک از اعضای گروه، هیچ زمینه ای
از شیمی یا زیست شناسی یا علوم زیستی نداشتن،
03:30
and they did it in two weeksهفته ها.
67
198061
2169
و این کار رو در دو هفته انجام دادن.
03:32
How did they do this?
68
200230
1381
چطور این کار رو کردن؟
03:34
They used an extraordinaryخارق العاده algorithmالگوریتم
calledبه نام deepعمیق learningیادگیری.
69
202421
2921
اونها از الگوریتم فوق العاده ای
به نام یادگیری عمیق استفاده کردن.
03:37
So importantمهم was this that in factواقعیت
the successموفقیت was coveredپوشش داده شده
70
205342
2949
این خبر چنان مهم بود که موفقیت اونها
03:40
in The Newجدید Yorkیورک Timesبار in a frontجلوی pageصفحه
articleمقاله a fewتعداد کمی weeksهفته ها laterبعد.
71
208291
3121
چند هفته بعد روی جلد نیویورک تایمز منعکس شد.
03:43
This is Geoffreyجفری Hintonهینتون
here on the left-handدست چپ sideسمت.
72
211412
2735
این جفری هینتونه
اینجا سمت چپ.
03:46
Deepعمیق learningیادگیری is an algorithmالگوریتم
inspiredالهام گرفته by how the humanانسان brainمغز worksآثار,
73
214147
4341
یادگیری عمیق الگوریتمی بر اساس
نحوه کار مغز انسانه،
03:50
and as a resultنتيجه it's an algorithmالگوریتم
74
218488
1812
و در نتیجه الگوریتمیه
03:52
whichکه has no theoreticalنظری limitationsمحدودیت ها
on what it can do.
75
220300
3841
که از نظر تئوری هیچ محدودیتی
در توانایی انجام کار نداره.
03:56
The more dataداده ها you give it and the more
computationمحاسبات time you give it,
76
224141
2823
هر چه داده بیشتری به اون بدین،
و با گذشت زمان
03:58
the better it getsمی شود.
77
226964
1312
بهتر می شه.
04:00
The Newجدید Yorkیورک Timesبار alsoهمچنین
showedنشان داد in this articleمقاله
78
228276
2339
همچنین نیویورک تایمز در این مطلب
04:02
anotherیکی دیگر extraordinaryخارق العاده
resultنتيجه of deepعمیق learningیادگیری
79
230615
2242
به یه نتیجه خارق العاده دیگه
از یادگیری عمیق اشاره کرد
04:04
whichکه I'm going to showنشان بده you now.
80
232857
2712
که حالا به شما نشون میدم.
04:07
It showsنشان می دهد that computersکامپیوترها
can listen and understandفهمیدن.
81
235569
4941
اینجا می بینین که رایانه ها
می تونن گوش بدن و بفهمن.
04:12
(Videoویدئو) Richardریچارد Rashidرشید: Now, the last stepگام
82
240510
2711
(ویدئو) ریچارد رشید: حالا، آخرین مرحله ای
04:15
that I want to be ableتوانایی
to take in this processروند
83
243221
3025
که میخوام انجام بدم
04:18
is to actuallyدر واقع speakصحبت to you in Chineseچینی ها.
84
246246
4715
در واقع اینه که
به زبان چینی با تو صحبت کنم.
04:22
Now the keyکلیدی thing there is,
85
250961
2635
نکته ی مهم اینه که
04:25
we'veما هستیم been ableتوانایی to take a largeبزرگ amountمیزان
of informationاطلاعات from manyبسیاری Chineseچینی ها speakersسخنرانان
86
253596
5002
تونستیم حجم بالایی از اطلاعات رو
از تعداد زیادی چینی زبان جمع کنیم
04:30
and produceتولید کردن a text-to-speechمتن به گفتار systemسیستم
87
258598
2530
و یه سیستم نوشتار-به-گفتار ایجاد کنیم
04:33
that takes Chineseچینی ها textمتن
and convertsتبدیل می شود it into Chineseچینی ها languageزبان,
88
261128
4673
که نوشته های چینی رو
به زبان چینی تبدیل می کنه،
04:37
and then we'veما هستیم takenگرفته شده
an hourساعت or so of my ownخودت voiceصدای
89
265801
4128
و بعد حدود یه ساعت
از صدای خودمو ضبط کردیم
04:41
and we'veما هستیم used that to modulateمدولاسیون
90
269929
1891
و از اون برای تنظیم
04:43
the standardاستاندارد text-to-speechمتن به گفتار systemسیستم
so that it would soundصدا like me.
91
271820
4544
سیستم استاندارد نوشتار-به-گفتار
استفاده کردیم تا شبیه من بشه.
04:48
Again, the result'sنتایج not perfectکامل.
92
276364
2540
باز هم نتیجه ایده آل نیست.
04:50
There are in factواقعیت quiteکاملا a fewتعداد کمی errorsاشتباهات.
93
278904
2648
در واقع اشتباههایی وجود داره.
04:53
(In Chineseچینی ها)
94
281552
2484
(به زبان چینی)
04:56
(Applauseتشویق و تمجید)
95
284036
3367
(تشویق)
05:01
There's much work to be doneانجام شده in this areaمنطقه.
96
289446
3576
در این زمینه کار زیادی باید انجام بشه.
05:05
(In Chineseچینی ها)
97
293022
3645
(به زبان چینی)
05:08
(Applauseتشویق و تمجید)
98
296667
3433
(تشویق)
05:13
Jeremyجرمی Howardهوارد: Well, that was at
a machineدستگاه learningیادگیری conferenceکنفرانس in Chinaچين.
99
301345
3399
جرمی هووارد: خوب، اینجا یه کنفرانس
درباره یادگیری ماشین تو چینه.
05:16
It's not oftenغالبا, actuallyدر واقع,
at academicعلمی conferencesهمایش ها
100
304744
2370
در واقع در اغلب کنفرانسهای دانشگاهی،
05:19
that you do hearشنیدن spontaneousخود به خود applauseتشویق و تمجید,
101
307114
1897
حضار اینطوری خودبخود تشویق نمی کنن،
05:21
althoughبا اينكه of courseدوره sometimesگاه گاهی
at TEDxTEDx conferencesهمایش ها, feel freeرایگان.
102
309011
3676
البته گاهی در کنفرانسهای تدکس پیش میاد،
راحت باشین.
05:24
Everything you saw there
was happeningاتفاق می افتد with deepعمیق learningیادگیری.
103
312687
2795
همه چیزهایی که اونجا دیدین
حاصل یادگیری عمیق بود.
05:27
(Applauseتشویق و تمجید) Thank you.
104
315482
1525
(تشویق) متشکرم.
05:29
The transcriptionرونویسی in Englishانگلیسی
was deepعمیق learningیادگیری.
105
317007
2282
رونویسی به انگلیسی
یادگیری عمیق بود.
05:31
The translationترجمه to Chineseچینی ها and the textمتن
in the topبالا right, deepعمیق learningیادگیری,
106
319289
3412
رونویسی به چینی و نوشته ی
بالا سمت راست، یادگیری عمیق،
05:34
and the constructionساخت و ساز of the voiceصدای
was deepعمیق learningیادگیری as well.
107
322701
3307
و شکل گیری صدا نیز
یادگیری عمیق بود.
05:38
So deepعمیق learningیادگیری is
this extraordinaryخارق العاده thing.
108
326008
3234
یادگیری عمیق چنین
پدیده ی خارق العاده ایه.
05:41
It's a singleتنها algorithmالگوریتم that
can seemبه نظر می رسد to do almostتقریبا anything,
109
329242
3099
یه الگوریتم واحد که به نظر میرسه
بتونه تقریباً هر کاری بکنه،
05:44
and I discoveredکشف شده that a yearسال earlierقبلا,
it had alsoهمچنین learnedیاد گرفتم to see.
110
332341
3111
و فهمیدم که یه سال قبل،
دیدن رو هم یاد گرفته.
05:47
In this obscureمبهم competitionرقابت from Germanyآلمان
111
335452
2176
در این مسابقه عجیب از آلمان
05:49
calledبه نام the Germanآلمانی Trafficترافیک Signامضا کردن
Recognitionبه رسمیت شناختن Benchmarkمعیار,
112
337628
2597
به نام مسابقه تشخیص
تابلوهای ترافیکی آلمان،
05:52
deepعمیق learningیادگیری had learnedیاد گرفتم
to recognizeتشخیص trafficترافیک signsعلائم like this one.
113
340225
3393
یادگیری عمیق تابلوهایی
مثل این رو یاد گرفته بود.
05:55
Not only could it
recognizeتشخیص the trafficترافیک signsعلائم
114
343618
2094
نه تنها میتونست تابلوها رو
05:57
better than any other algorithmالگوریتم,
115
345712
1758
بهتر از هر الگوریتم دیگه ای بشناسه،
05:59
the leaderboardرهبران actuallyدر واقع showedنشان داد
it was better than people,
116
347470
2719
بلکه جدول نشون میداد
از انسان هم بهتره،
06:02
about twiceدو برابر as good as people.
117
350189
1852
تقریباً دو برابر بهتر از انسان.
06:04
So by 2011, we had the first exampleمثال
118
352041
1996
پس تا سال ۲۰۱۱،
اولین نمونه ی
06:06
of computersکامپیوترها that can see
better than people.
119
354037
3405
رایانه هایی رو داشتیم که
بهتر از انسان می بینن.
06:09
Sinceاز آنجا که that time, a lot has happenedاتفاق افتاد.
120
357442
2049
از اون موقع، اتفاقات زیادی افتاده.
06:11
In 2012, Googleگوگل announcedاعلام کرد that
they had a deepعمیق learningیادگیری algorithmالگوریتم
121
359491
3514
گوگل در سال ۲۰۱۲ اعلام کرد که دارای
الگوریتم یادگیری عمیقی
06:15
watch YouTubeیوتیوب videosفیلم های
122
363005
1415
که ویدئوهای یوتیوب رو می بینه هستند
06:16
and crunchedcrunched the dataداده ها
on 16,000 computersکامپیوترها for a monthماه,
123
364420
3437
و داده های اونو در عرض یه ماه
تو ۱۶ هزار رایانه پردازش میکنه،
06:19
and the computerکامپیوتر independentlyبه طور مستقل learnedیاد گرفتم
about conceptsمفاهیم suchچنین as people and catsگربه ها
124
367857
4361
و رایانه بطور مستقل موضوعاتی
مثل آدمها و گربه ها رو یاد گرفته
06:24
just by watchingتماشا کردن the videosفیلم های.
125
372218
1809
فقط با تماشای ویدئو.
06:26
This is much like the way
that humansانسان learnیاد گرفتن.
126
374027
2352
تا حدود زیادی شبیه
یادگیری آدمه.
06:28
Humansانسان don't learnیاد گرفتن
by beingبودن told what they see,
127
376379
2740
برای یاد گرفتن آدمها لازم نیست
به اونا بگین چیزی که می بینن چیه،
06:31
but by learningیادگیری for themselvesخودشان
what these things are.
128
379119
3331
بلکه خودشون یاد میگیرن این چیزها چیه.
06:34
Alsoهمچنین in 2012, Geoffreyجفری Hintonهینتون,
who we saw earlierقبلا,
129
382450
3369
همین طور در سال ۲۰۱۲،
جفری هینتون که قبلاً دیدیمش،
06:37
wonبرنده شد the very popularمحبوب ImageNetImageNet competitionرقابت,
130
385819
2858
مسسابقه ی بسیار معروف
ایمیج نت رو برنده شد،
06:40
looking to try to figureشکل out
from one and a halfنیم millionمیلیون imagesتصاویر
131
388677
4141
که باید یک و نیم میلیون عکس رو نگاه می کرد
06:44
what they're picturesتصاویر of.
132
392818
1438
و می گفت عکس چی هستن.
06:46
As of 2014, we're now down
to a sixشش percentدرصد errorخطا rateنرخ
133
394256
3533
حالا در سال ۲۰۱۴ تونستیم
خطا رو به شش درصد
06:49
in imageتصویر recognitionبه رسمیت شناختن.
134
397789
1453
در شناسایی تصویر پایین بیاریم.
06:51
This is better than people, again.
135
399242
2026
این هم بهتر از آدمه.
06:53
So machinesماشین آلات really are doing
an extraordinarilyفوق العاده good jobکار of this,
136
401268
3769
پس ماشین تو این کار خیلی بهتره،
06:57
and it is now beingبودن used in industryصنعت.
137
405037
2269
و حالا دارن تو صنعت ازش استفاده میکنن.
06:59
For exampleمثال, Googleگوگل announcedاعلام کرد last yearسال
138
407306
3042
مثلاً گوگل سال پیش اعلام کرد
07:02
that they had mappedنقشه برداری شده everyهرکدام singleتنها
locationمحل in Franceفرانسه in two hoursساعت ها,
139
410348
4585
نقشه ی همه جای فرانسه رو
در عرض دو ساعت تهیه کرده،
07:06
and the way they did it was
that they fedتغذیه شده streetخیابان viewچشم انداز imagesتصاویر
140
414933
3447
و این کارو با استفاده از تصاویر دوربینهای خیابان انجام دادن
07:10
into a deepعمیق learningیادگیری algorithmالگوریتم
to recognizeتشخیص and readخواندن streetخیابان numbersشماره.
141
418380
4319
و یه الگوریتم یادگیری عمیق که میتونست
شماره خیابونها رو بخونه و بشناسه.
07:14
Imagineتصور کن how long
it would have takenگرفته شده before:
142
422699
2220
تصور کنین قبلاً می تونست
چقدر طول بکشه:
07:16
dozensده ها of people, manyبسیاری yearsسالها.
143
424919
3355
چندین نفر، چندین سال.
07:20
This is alsoهمچنین happeningاتفاق می افتد in Chinaچين.
144
428274
1911
همین اتفاق داره تو چین میفته.
07:22
Baiduبایو is kindنوع of
the Chineseچینی ها Googleگوگل, I guessحدس بزن,
145
430185
4036
بایدو یه جور گوگل چینیه، فکر کنم،
07:26
and what you see here in the topبالا left
146
434221
2283
و چیزی که اینجا سمت چپ و بالا می بینین
07:28
is an exampleمثال of a pictureعکس that I uploadedآپلود شده
to Baidu'sبایو deepعمیق learningیادگیری systemسیستم,
147
436504
3974
نمونه ای از تصویریه که من
در سیستم یادگیری عمیق بایدو آپلود کردم،
07:32
and underneathدر زیر you can see that the systemسیستم
has understoodفهمید what that pictureعکس is
148
440478
3769
و پایینش می تونین ببینین که
سیستم فهمیده اون تصویر چیه
07:36
and foundپیدا شد similarمشابه imagesتصاویر.
149
444247
2236
و تصاویر مشابه رو پیدا کرده.
07:38
The similarمشابه imagesتصاویر actuallyدر واقع
have similarمشابه backgroundsپس زمینه,
150
446483
2736
تصاویر مشابه در واقع دارای زمینه مشابه،
07:41
similarمشابه directionsجهت ها of the facesچهره ها,
151
449219
1658
و جهت مشابه چهره ها هستن،
07:42
even some with theirخودشان tongueزبان out.
152
450877
1788
حتی زبون بعضیا بیرونه.
07:44
This is not clearlyبه وضوح looking
at the textمتن of a webوب pageصفحه.
153
452665
3030
این جستجوی واضح یه متن
از یه صفحه وب نیست.
07:47
All I uploadedآپلود شده was an imageتصویر.
154
455695
1412
تمام چیزی که آپلود کردم یه تصویر بود.
07:49
So we now have computersکامپیوترها whichکه
really understandفهمیدن what they see
155
457107
4021
پس حالا رایانه هایی داریم که
چیزی رو که می بینن واقعاً میفهمن
07:53
and can thereforeاز این رو searchجستجو کردن databasesپایگاه های داده
156
461128
1624
و بنابراین میتونن بانکهای اطلاعاتی
07:54
of hundredsصدها of millionsمیلیون ها نفر
of imagesتصاویر in realواقعی time.
157
462752
3554
صدها میلیون تصویری رو
در یه لحظه جستجو کنن.
07:58
So what does it mean
now that computersکامپیوترها can see?
158
466306
3230
پس حالا اینکه رایانه ها میتونن ببینن
یعنی چی؟
08:01
Well, it's not just
that computersکامپیوترها can see.
159
469536
2017
خوب، فقط این نیست که
رایانه ها میتونن ببینن.
08:03
In factواقعیت, deepعمیق learningیادگیری
has doneانجام شده more than that.
160
471553
2069
در واقع، یادگیری عمیق
بیشتر از این انجام داده.
08:05
Complexمجتمع, nuancedمنحصر به فرد sentencesجمله ها like this one
161
473622
2948
جملات پیچیده و ظریف مثل این یکی
08:08
are now understandableقابل فهم
with deepعمیق learningیادگیری algorithmsالگوریتم ها.
162
476570
2824
حالا با الگوریتم های
یادگیری عمیق قابل فهمه.
08:11
As you can see here,
163
479394
1303
همون طور که میتونین اینجا ببینین،
08:12
this Stanford-basedبر اساس استنفورد systemسیستم
showingنشان دادن the redقرمز dotنقطه at the topبالا
164
480697
2768
این سیستم مستقر در استنفورد
که نقطه قرمزی اون بالا داره
08:15
has figuredشکل گرفته out that this sentenceجمله
is expressingبیان کننده negativeمنفی sentimentاحساسات.
165
483465
3919
به این نتیجه رسیده که این جمله
بار عاطفی منفی داره.
08:19
Deepعمیق learningیادگیری now in factواقعیت
is nearنزدیک humanانسان performanceکارایی
166
487384
3406
حالا در واقع یادگیری عمیق
به عملکرد انسان نزدیک شده
08:22
at understandingدرك كردن what sentencesجمله ها are about
and what it is sayingگفت: about those things.
167
490802
5121
در فهم اینکه جمله ها درباره ی چیه
وهر جمله درباره اون چیزها چی میگه.
08:27
Alsoهمچنین, deepعمیق learningیادگیری has
been used to readخواندن Chineseچینی ها,
168
495923
2728
هم چنین، یادگیری عمیق
برای خواندن متون چینی به کار رفته،
08:30
again at about nativeبومی
Chineseچینی ها speakerبلندگو levelسطح.
169
498651
3156
باز هم در سطحی که معادل
حرف زدن یه آدم چینی تبار اصیله،
08:33
This algorithmالگوریتم developedتوسعه یافته
out of Switzerlandسوئیس
170
501807
2168
این الگوریتم در سویس ساخته شده
08:35
by people, noneهیچ کدام of whomچه کسی speakصحبت
or understandفهمیدن any Chineseچینی ها.
171
503975
3356
توسط افرادی که هیچ کدوم نمی تونن
چینی حرف بزنن یا بفهمن.
08:39
As I say, usingاستفاده كردن deepعمیق learningیادگیری
172
507331
2051
همون طور که گفتم،
با استفاده از یادگیری عمیق
08:41
is about the bestبهترین systemسیستم
in the worldجهان for this,
173
509382
2219
یعنی استفاده از بهترین سیستم
موجود در دنیا در این مورد،
08:43
even comparedمقایسه کرد to nativeبومی
humanانسان understandingدرك كردن.
174
511601
5117
حتی در مقایسه با
فهم یه آدم بومی اصیل.
08:48
This is a systemسیستم that we
put togetherبا یکدیگر at my companyشرکت
175
516718
2964
این سیستمیه که ما
تو شرکتمون جمع کردیم
08:51
whichکه showsنشان می دهد puttingقرار دادن
all this stuffچیز togetherبا یکدیگر.
176
519682
2046
که نشون میده همه این چیزها
کنار هم جمع شده.
08:53
These are picturesتصاویر whichکه
have no textمتن attachedمتصل شده,
177
521728
2461
اینها تصاویریه که هیچ متنی
به اونها پیوست نیست،
08:56
and as I'm typingتایپ کردن in here sentencesجمله ها,
178
524189
2352
و همینکه اینجا جمله هایی تایپ میکنم،
08:58
in realواقعی time it's understandingدرك كردن
these picturesتصاویر
179
526541
2969
در همون لحظه داره اون تصاویر رو میفهمه
09:01
and figuringبدانید out what they're about
180
529510
1679
و داره تصمیم میگیره
موضوع اونا چیه
09:03
and findingیافته picturesتصاویر that are similarمشابه
to the textمتن that I'm writingنوشتن.
181
531189
3163
و تصاویری رو که شبیه متنیه که
من دارم می نویسم پیدا می کنه.
09:06
So you can see, it's actuallyدر واقع
understandingدرك كردن my sentencesجمله ها
182
534352
2756
پس می تونین ببینین که در واقع
جمله های منو میفهمه
09:09
and actuallyدر واقع understandingدرك كردن these picturesتصاویر.
183
537108
2224
و در واقع این تصاویر رو میفهمه.
09:11
I know that you've seenمشاهده گردید
something like this on Googleگوگل,
184
539332
2559
میدونم یه چیزی شبیه اینو
تو گوگل دیدین،
09:13
where you can typeتایپ کنید in things
and it will showنشان بده you picturesتصاویر,
185
541891
2775
اونجا میتونین چیزهایی تایپ کنین و
تصاویری به شما نشون میده،
09:16
but actuallyدر واقع what it's doing is it's
searchingجستجوکردن the webpageصفحه وب for the textمتن.
186
544666
3424
اما در واقع کاری که انجام میده اینه که
صفحه وب رو دنبال اون متن میگرده.
09:20
This is very differentناهمسان from actuallyدر واقع
understandingدرك كردن the imagesتصاویر.
187
548090
3001
این با فهم واقعی تصاویر خیلی فرق داره.
09:23
This is something that computersکامپیوترها
have only been ableتوانایی to do
188
551091
2752
این چیزیه که رایانه ها فقط تونستن
09:25
for the first time in the last fewتعداد کمی monthsماه ها.
189
553843
3248
برای اولین بار در چند ماه اخیر انجامش بدن.
09:29
So we can see now that computersکامپیوترها
can not only see but they can alsoهمچنین readخواندن,
190
557091
4091
پس حالا می بینیم که رایانه ها
هم می تونن ببینن و هم میتونن بخونن،
09:33
and, of courseدوره, we'veما هستیم shownنشان داده شده that they
can understandفهمیدن what they hearشنیدن.
191
561182
3765
و البته، نشون دادیم که میتونن
چیزی رو که می شنون بفهمن.
09:36
Perhapsشاید not surprisingشگفت آور now that
I'm going to tell you they can writeنوشتن.
192
564947
3442
شاید حالا عجیب نباشه که
میخوام بگم میتونن بنویسن.
09:40
Here is some textمتن that I generatedتولید شده است
usingاستفاده كردن a deepعمیق learningیادگیری algorithmالگوریتم yesterdayدیروز.
193
568389
4783
این متنیه که دیروز
با یه الگوریتم یادگیری عمیق ایجاد کردم.
09:45
And here is some textمتن that an algorithmالگوریتم
out of Stanfordاستنفورد generatedتولید شده است.
194
573172
3924
و این متنیه که یه الگوریتم
از استنفورد ایجاد کرده.
09:49
Eachهر یک of these sentencesجمله ها was generatedتولید شده است
195
577096
1764
هر دو جمله توسط
09:50
by a deepعمیق learningیادگیری algorithmالگوریتم
to describeتوصیف کردن eachهر یک of those picturesتصاویر.
196
578860
4249
الگوریتم یادگیری عمیق برای
توصیف این تصاویر ایجاد شده.
09:55
This algorithmالگوریتم before has never seenمشاهده گردید
a man in a blackسیاه shirtپیراهن playingبازی کردن a guitarگیتار.
197
583109
4472
این الگوریتم قبلاً هرگز ندیده بود
یه مرد با پیراهن مشکی گیتار بنوازد.
09:59
It's seenمشاهده گردید a man before,
it's seenمشاهده گردید blackسیاه before,
198
587581
2220
قبلاً یه مرد دیده بود،
قبلاً مشکی دیده بود،
10:01
it's seenمشاهده گردید a guitarگیتار before,
199
589801
1599
قبلاً یه گیتار دیده بود،
10:03
but it has independentlyبه طور مستقل generatedتولید شده است
this novelرمان descriptionشرح of this pictureعکس.
200
591400
4294
اما بدون کمک کسی توانست چنین توصیف
نابی از این تصویر ایجاد کند.
10:07
We're still not quiteکاملا at humanانسان
performanceکارایی here, but we're closeبستن.
201
595694
3502
البته هنوز به سطح عملکرد انسان نرسیده ایم،
اما به آن نزدیک شده ایم.
10:11
In testsآزمایشات, humansانسان preferترجیح می دهند
the computer-generatedتولید شده توسط کامپیوتر captionعنوان
202
599196
4068
در آزمونها، افراد توصیف های رایانه رو
10:15
one out of fourچهار timesبار.
203
603264
1527
به نسبت یک به چهار ترجیح میدن.
10:16
Now this systemسیستم is now only two weeksهفته ها oldقدیمی,
204
604791
2064
حالا این سیستم فقط دو هفته س به وجود اومده،
10:18
so probablyشاید withinدر داخل the nextبعد yearسال,
205
606855
1846
بنابراین در عرض یه سال آینده،
10:20
the computerکامپیوتر algorithmالگوریتم will be
well pastگذشته humanانسان performanceکارایی
206
608701
2801
الگوریتم رایانه ای احتمالاً انسان رو پشت سر میذاره
10:23
at the rateنرخ things are going.
207
611502
1862
با این سرعت که کارها پیش میره.
10:25
So computersکامپیوترها can alsoهمچنین writeنوشتن.
208
613364
3049
پس رایانه ها نوشتن هم بلدن.
10:28
So we put all this togetherبا یکدیگر and it leadsمنجر می شود
to very excitingهیجان انگیز opportunitiesفرصت ها.
209
616413
3475
پس همه ی اینها رو کنار هم میذاریم و
نتیجه ش فرصت های بسیار مهیجی میشه.
10:31
For exampleمثال, in medicineدارو,
210
619888
1492
مثلاً، در پزشکی،
10:33
a teamتیم in Bostonبوستون announcedاعلام کرد
that they had discoveredکشف شده
211
621380
2525
یه گروه در بوستون اعلام کرده
10:35
dozensده ها of newجدید clinicallyبالینی relevantمربوط featuresامکانات
212
623905
2949
چندین ویژگی مهم یالینی
10:38
of tumorsتومورها whichکه help doctorsپزشکان
make a prognosisپیش بینی of a cancerسرطان.
213
626854
4266
از تومورها رو پیدا کرده که به دکترها
در تعیین پیش آگهی سرطان کمک می کنن.
10:44
Very similarlyبه همین ترتیب, in Stanfordاستنفورد,
214
632220
2296
به طرز بسیار مشابه، در استنفورد،
10:46
a groupگروه there announcedاعلام کرد that,
looking at tissuesبافت ها underزیر magnificationبزرگنمایی,
215
634516
3663
یه گروه اعلام کرده،
با نگاه کردن به بافتها، با بزرگنمایی بالا،
10:50
they'veآنها دارند developedتوسعه یافته
a machineدستگاه learning-basedمبتنی بر یادگیری systemسیستم
216
638179
2381
یه سیستم بر اساس یادگیری
ماشینی درست کردن
10:52
whichکه in factواقعیت is better
than humanانسان pathologistsآسیب شناسان
217
640560
2582
که در واقع بهتر از دکترهای آسیب شناس
10:55
at predictingپیش بینی survivalبقاء ratesنرخ ها
for cancerسرطان sufferersرنج می برند.
218
643142
4377
میزان بقای مبتلایان به سرطان رو
پیش بینی می کنه.
10:59
In bothهر دو of these casesموارد, not only
were the predictionsپیش بینی ها more accurateدقیق,
219
647519
3245
در هر دو مورد فوق،
نه تنها پیش بینی ها دقیق تره،
11:02
but they generatedتولید شده است newجدید insightfulمتفکر scienceعلوم پایه.
220
650764
2502
بلکه جنبه های جدیدی از بصیرت علمی
به وجود اومده.
11:05
In the radiologyرادیولوژی caseمورد,
221
653276
1505
در مورد رادیولوژی،
11:06
they were newجدید clinicalبالینی indicatorsشاخص ها
that humansانسان can understandفهمیدن.
222
654781
3095
شاخص های بالینی جدیدی به دست اومده
که انسان قادر به فهم اونهاست.
11:09
In this pathologyآسيب شناسي caseمورد,
223
657876
1792
در این مورد آسیب شناسی،
11:11
the computerکامپیوتر systemسیستم actuallyدر واقع discoveredکشف شده
that the cellsسلول ها around the cancerسرطان
224
659668
4500
سیستم رایانه ای در واقع فهمید
که سلولهای اطراف سرطان
11:16
are as importantمهم as
the cancerسرطان cellsسلول ها themselvesخودشان
225
664168
3340
به اندازه ی خود سلولهای سرطانی
11:19
in makingساخت a diagnosisتشخیص.
226
667508
1752
در رسیدن به تشخیص مهم هستن.
11:21
This is the oppositeمخالف of what pathologistsآسیب شناسان
had been taughtتدریس کرد for decadesچند دهه.
227
669260
5361
این برخلاف چیزیه که دهها ساله
به آسیب شناسها یاد میدن.
11:26
In eachهر یک of those two casesموارد,
they were systemsسیستم های developedتوسعه یافته
228
674621
3292
در هر یک از دو مورد فوق،
اون سیستمها
11:29
by a combinationترکیبی of medicalپزشکی expertsکارشناسان
and machineدستگاه learningیادگیری expertsکارشناسان,
229
677913
3621
با ترکیبی از نظر خبرگان پزشکی
و خبرگان یادگیری ماشینی شکل گرفت،
11:33
but as of last yearسال,
we're now beyondفراتر that too.
230
681534
2741
اما از سال گذشته تا حالا
از اون هم جلوتر رفتیم.
11:36
This is an exampleمثال of
identifyingشناسایی cancerousسرطانی areasمناطق
231
684275
3549
این نمونه ای از تشخیص نواحی سرطانی
11:39
of humanانسان tissueبافت underزیر a microscopeمیکروسکوپ.
232
687824
2530
بافتهای انسان در زیر میکروسکوپه.
11:42
The systemسیستم beingبودن shownنشان داده شده here
can identifyشناسایی those areasمناطق more accuratelyبه درستی,
233
690354
4613
سیستمی که اینجا نشون داده شده
میتونه اون نواحی رو دقیق تر از
11:46
or about as accuratelyبه درستی,
as humanانسان pathologistsآسیب شناسان,
234
694967
2775
یا با دقت معادل دکترهای آسیب شناس
تشخیص بده،
11:49
but was builtساخته شده entirelyبه طور کامل with deepعمیق learningیادگیری
usingاستفاده كردن no medicalپزشکی expertiseتخصص
235
697742
3392
اما به طور کامل توسط یادگیری عمیق و
بدون کمک تخصصی پزشکی ساخته شده
11:53
by people who have
no backgroundزمینه in the fieldرشته.
236
701134
2526
توسط افرادی که
هیچ سابقه ای در این زمینه ندارن.
11:56
Similarlyبه طور مشابه, here, this neuronنورون segmentationتقسیم بندی.
237
704730
2555
به طور مشابه، اینجا،
این قطعه قطعه شدن عصب.
11:59
We can now segmentبخش neuronsنورون ها
about as accuratelyبه درستی as humansانسان can,
238
707285
3668
ما حالا میتونیم اعصاب رو با دقت
مشابه انسان قطعه قطعه کنیم،
12:02
but this systemسیستم was developedتوسعه یافته
with deepعمیق learningیادگیری
239
710953
2717
اما این سیستم با یادگیری عمیق ایجاد شده
12:05
usingاستفاده كردن people with no previousقبلی
backgroundزمینه in medicineدارو.
240
713670
3251
توسط افرادی که هیچ سابقه ی پزشکی ندارن.
12:08
So myselfخودم, as somebodyکسی with
no previousقبلی backgroundزمینه in medicineدارو,
241
716921
3227
پس خودم، به عنوان کسی که
هیچ سابقه ی پزشکی ندارم،
12:12
I seemبه نظر می رسد to be entirelyبه طور کامل well qualifiedواجد شرایط
to startشروع کن a newجدید medicalپزشکی companyشرکت,
242
720148
3727
به نظر میرسه کاملاً آمادگی دارم
یه شرکت جدید پزشکی تأسیس کنم،
12:15
whichکه I did.
243
723875
2146
که همین کارو کردم.
12:18
I was kindنوع of terrifiedوحشت زده of doing it,
244
726021
1740
یه جورایی از انجام این کار میترسیدم،
12:19
but the theoryتئوری seemedبه نظر می رسید to suggestپیشنهاد می دهد
that it oughtباید to be possibleامکان پذیر است
245
727761
2889
اما به طور نظری امکانش بود
12:22
to do very usefulمفید است medicineدارو
usingاستفاده كردن just these dataداده ها analyticتحلیلی techniquesتکنیک.
246
730650
5492
که با این فنون تحلیل داده بتونم
کار پزشکی بسیار مفیدی انجام بدم.
12:28
And thankfullyخوشبختانه, the feedbackبازخورد
has been fantasticخارق العاده,
247
736142
2480
و شُکر که بازخوردش خارق العاده بوده،
12:30
not just from the mediaرسانه ها
but from the medicalپزشکی communityجامعه,
248
738622
2356
نه تنها از رسانه ها
بلکه از جامعه ی پزشکی،
12:32
who have been very supportiveحمایتی.
249
740978
2344
که خیلی حمایت کردن.
12:35
The theoryتئوری is that we can take
the middleوسط partبخشی of the medicalپزشکی processروند
250
743322
4149
فرضیه اینه که میتونیم
قسمت وسط فرآیند پزشکی رو بگیریم
12:39
and turnدور زدن that into dataداده ها analysisتحلیل و بررسی
as much as possibleامکان پذیر است,
251
747471
2893
و اونو تا حد امکان
به تحلیل داده ها تبدیل کنیم،
12:42
leavingترک doctorsپزشکان to do
what they're bestبهترین at.
252
750364
3065
و کارهایی رو که دکترها بهتر انجام میدن
به اونها بسپاریم.
12:45
I want to give you an exampleمثال.
253
753429
1602
میخوام یه مثال براتون بزنم.
12:47
It now takes us about 15 minutesدقایق
to generateتولید کنید a newجدید medicalپزشکی diagnosticتشخیص testتست
254
755031
4944
حالا به وجود اومدن یه آزمایش تشخیصی جدید
حدود ۱۵ دقیقه طول میکشه
12:51
and I'll showنشان بده you that in realواقعی time now,
255
759975
1954
و حالا اینو به طور زنده به شما نشون میدم،
12:53
but I've compressedفشرده it down to
threeسه minutesدقایق by cuttingبرش دادن some piecesقطعات out.
256
761929
3487
اما با برش چند قسمت فشرده ش کردم به سه دقیقه.
12:57
Ratherنسبتا than showingنشان دادن you
creatingپدید آوردن a medicalپزشکی diagnosticتشخیص testتست,
257
765416
3061
بجای آزمایش تشخیص پزشکی
13:00
I'm going to showنشان بده you
a diagnosticتشخیص testتست of carماشین imagesتصاویر,
258
768477
3369
میخوام یه آزمایش تشخیص تصاویر
خودرو براتون بسازم،
13:03
because that's something
we can all understandفهمیدن.
259
771846
2222
چون چیزیه که همه ی ما میفهمیم.
13:06
So here we're startingراه افتادن with
about 1.5 millionمیلیون carماشین imagesتصاویر,
260
774068
3201
پس اینجا با حدود یک و نیم میلیون
تصویر خودرو شروع می کنیم،
13:09
and I want to createايجاد كردن something
that can splitشکاف them into the angleزاویه
261
777269
3206
و میخوام چیزی درست کنم که بتون
اونها رو بر اساس زاویه ی عکاسی
13:12
of the photoعکس that's beingبودن takenگرفته شده.
262
780475
2223
دسته بندی کنه.
13:14
So these imagesتصاویر are entirelyبه طور کامل unlabeledبدون برچسب,
so I have to startشروع کن from scratchخراش.
263
782698
3888
خوب همه ی این تصاویر بدون برچسب هستن،
پس ناچارم از اول شروع کنم.
13:18
With our deepعمیق learningیادگیری algorithmالگوریتم,
264
786586
1865
با الگوریتم یادگیری عمیق ما،
13:20
it can automaticallyبطور خودکار identifyشناسایی
areasمناطق of structureساختار in these imagesتصاویر.
265
788451
3707
این سیستم میتونه به طور خودکار
ساختارهای هر تصویر رو شناسایی کنه.
13:24
So the niceخوب thing is that the humanانسان
and the computerکامپیوتر can now work togetherبا یکدیگر.
266
792158
3620
خوب نکته ی مثبت اینه که حالا انسان
و رایانه میتونن با هم کار کنن.
13:27
So the humanانسان, as you can see here,
267
795778
2178
پس انسان، همون طور که اینجا میتونین ببینین،
13:29
is tellingگفتن the computerکامپیوتر
about areasمناطق of interestعلاقه
268
797956
2675
داره موارد مورد نظر رو
به رایانه میگه
13:32
whichکه it wants the computerکامپیوتر then
to try and use to improveبهتر کردن its algorithmالگوریتم.
269
800631
4650
و از رایانه میخواد با استفاده
از اونها الگوریتم خودشو بهتر کنه.
13:37
Now, these deepعمیق learningیادگیری systemsسیستم های actuallyدر واقع
are in 16,000-dimensional-مدل spaceفضا,
270
805281
4296
حالا این سیستمهای یادگیری عمیق
در واقع در فضای ۱۶ هزار بعدی هستن،
13:41
so you can see here the computerکامپیوتر
rotatingچرخش this throughاز طریق that spaceفضا,
271
809577
3432
پس اینجا می تونین ببینین
رایانه اینو در اون فضا میچرخونه،
13:45
tryingتلاش کن to find newجدید areasمناطق of structureساختار.
272
813009
1992
و سعی میکنه ساختارهای
جدید رو پیدا کنه.
13:47
And when it does so successfullyبا موفقیت,
273
815001
1781
و وقتی این کار رو
با چنین موفقیتی انجام میده،
13:48
the humanانسان who is drivingرانندگی it can then
pointنقطه out the areasمناطق that are interestingجالب هست.
274
816782
4004
فردی که داره هدایتش میکنه
میتونه نواحی مورد نظر رو نشون بده.
13:52
So here, the computerکامپیوتر has
successfullyبا موفقیت foundپیدا شد areasمناطق,
275
820786
2422
پس اینجا، رایانه موفق شده نواحی،
13:55
for exampleمثال, anglesزاویه.
276
823208
2562
مثلاً زاویه ها رو پیدا کنه.
13:57
So as we go throughاز طریق this processروند,
277
825770
1606
پس طی این فرآیند،
13:59
we're graduallyبه تدریج tellingگفتن
the computerکامپیوتر more and more
278
827376
2340
به تدریج به رایانه
14:01
about the kindsانواع of structuresسازه های
we're looking for.
279
829716
2428
نکات بیشتر و بیشتری درباره ی
انواع ساختارهای مورد نظرمون میگیم.
14:04
You can imagineتصور کن in a diagnosticتشخیص testتست
280
832144
1772
میتونین فرض کنین در یه آزمایش تشخیصی
14:05
this would be a pathologistپاتولوژیست identifyingشناسایی
areasمناطق of pathosisپاتوژن, for exampleمثال,
281
833916
3350
این میتونه یه آسیب شناس باشه که مثلاً
نواحی آسیب رو شناسایی می کنه،
14:09
or a radiologistرادیولوژیست indicatingنشان دادن
potentiallyبالقوه troublesomeمشکل nodulesگره ها.
282
837266
5026
یا یه رادیولوژیست که گره های
بالقوه مشکل دار رو نشون میده.
14:14
And sometimesگاه گاهی it can be
difficultدشوار for the algorithmالگوریتم.
283
842292
2559
و این گاهی ممکنه
برای الگوریتم مشکل باشه.
14:16
In this caseمورد, it got kindنوع of confusedسردرگم.
284
844851
1964
در این مورد، یه جورایی سردرگم شد.
14:18
The frontsجبهه ها and the backsعقب
of the carsماشین ها are all mixedمخلوط شده up.
285
846815
2550
جلو و عقب خودروها همه در همه.
14:21
So here we have to be a bitبیت more carefulمراقب باشید,
286
849365
2072
پس اینجا باید کمی بیشتر دقت کنیم،
14:23
manuallyبه صورت دستی selectingانتخاب کردن these frontsجبهه ها
as opposedمخالف to the backsعقب,
287
851437
3232
با دست جلو و عقب رو مشخص کنیم،
14:26
then tellingگفتن the computerکامپیوتر
that this is a typeتایپ کنید of groupگروه
288
854669
5506
بعد به رایانه بگیم
این نوع گروهیه
14:32
that we're interestedعلاقه مند in.
289
860175
1348
که منظور ماست.
14:33
So we do that for a while,
we skipجست و خیز over a little bitبیت,
290
861523
2677
پس این کار رو مدتی انجام میدیم،
کمی ازش رد میشیم،
14:36
and then we trainقطار the
machineدستگاه learningیادگیری algorithmالگوریتم
291
864200
2246
و بعد به الگوریتم یادگیری
ماشینی آموزش میدیم
14:38
basedمستقر on these coupleزن و شوهر of hundredصد things,
292
866446
1974
بر اساس این چند صد چیز،
14:40
and we hopeامید that it's gottenدریافت کردم a lot better.
293
868420
2025
و امیدواریم خیلی بهتر بشه.
14:42
You can see, it's now startedآغاز شده to fadeمحو شدن
some of these picturesتصاویر out,
294
870445
3073
حالا میتونین ببینین که
بعضی از این تصاویر داره محو میشه،
14:45
showingنشان دادن us that it alreadyقبلا is recognizingشناختن
how to understandفهمیدن some of these itselfخودش.
295
873518
4708
که نشون میده خودش کم کم
بعضی از اینا رو میشناسه.
14:50
We can then use this conceptمفهوم
of similarمشابه imagesتصاویر,
296
878226
2902
پس میتونیم از این مفهوم تصاویر مشابه
استفاده کنیم،
14:53
and usingاستفاده كردن similarمشابه imagesتصاویر, you can now see,
297
881128
2094
و با استفاده از تصاویر مشابه،
حالا میتونین ببینین که،
14:55
the computerکامپیوتر at this pointنقطه is ableتوانایی to
entirelyبه طور کامل find just the frontsجبهه ها of carsماشین ها.
298
883222
4019
رایانه در این نقطه میتونه
فقط جلوی خودروها رو کاملاً بشناسه.
14:59
So at this pointنقطه, the humanانسان
can tell the computerکامپیوتر,
299
887241
2948
پس در این نقطه، انسان
میتونه به رایانه بگه،
15:02
okay, yes, you've doneانجام شده
a good jobکار of that.
300
890189
2293
خوب، بله، کارت خوب بود.
15:05
Sometimesگاهی, of courseدوره, even at this pointنقطه
301
893652
2185
گاهی، البته، حتی در این نقطه،
15:07
it's still difficultدشوار
to separateجداگانه out groupsگروه ها.
302
895837
3674
جدا کردن گروهها مشکله.
15:11
In this caseمورد, even after we let the
computerکامپیوتر try to rotateچرخش this for a while,
303
899511
3884
در این مورد، حتی بعد از اینکه رایانه
مدتی اینجا میچرخه،
15:15
we still find that the left sidesدو طرف
and the right sidesدو طرف picturesتصاویر
304
903399
3345
هنوز می بینیم که سمت چپ و راست تصاویر
15:18
are all mixedمخلوط شده up togetherبا یکدیگر.
305
906744
1478
همه در همه.
15:20
So we can again give
the computerکامپیوتر some hintsنکات,
306
908222
2140
پس دوباره میتونیم به رایانه کمک کنیم،
15:22
and we say, okay, try and find
a projectionطرح ریزی that separatesجدا می شود out
307
910362
2976
و بگیم خوب، حالا سعی کن
زائده ای رو پیدا کنی
15:25
the left sidesدو طرف and the right sidesدو طرف
as much as possibleامکان پذیر است
308
913338
2607
که سمت چپ و راست رو
تا حد امکان مشخص کنه
15:27
usingاستفاده كردن this deepعمیق learningیادگیری algorithmالگوریتم.
309
915945
2122
به کمک این الگوریتم یادگیری عمیق.
15:30
And givingدادن it that hintاشاره کردن --
ahآه, okay, it's been successfulموفق شدن.
310
918067
2942
و با این کمک--
آهان، بله، موفق شده.
15:33
It's managedاداره می شود to find a way
of thinkingفكر كردن about these objectsاشیاء
311
921009
2882
تونسته راهی پیدا کنه
که درباره این اشیا فکر کنه
15:35
that's separatedجدا از هم out these togetherبا یکدیگر.
312
923891
2380
و اینها رو از هم جدا کنه.
15:38
So you get the ideaاندیشه here.
313
926271
2438
پس ایده رو اینجا گرفتین.
15:40
This is a caseمورد not where the humanانسان
is beingبودن replacedجایگزین شد by a computerکامپیوتر,
314
928709
8197
اینجا رایانه جای انسان رو نمی گیره،
15:48
but where they're workingکار کردن togetherبا یکدیگر.
315
936906
2640
بلکه با هم کار میکنن.
15:51
What we're doing here is we're replacingجایگزینی
something that used to take a teamتیم
316
939546
3550
کاری که اینجا می کنیم اینه که
کاری که وقت یه گروه
15:55
of fiveپنج or sixشش people about sevenهفت yearsسالها
317
943096
2002
پنج یا شش نفره رو
حدود هفت سال می گرفت
15:57
and replacingجایگزینی it with something
that takes 15 minutesدقایق
318
945098
2605
به سیستمی میدیم که همون کار رو
در عرض ۱۵ دقیقه انجام میده
15:59
for one personفرد actingبازیگری aloneتنها.
319
947703
2505
فقط با یه نفر که
به تنهایی کار میکنه.
16:02
So this processروند takes about
fourچهار or fiveپنج iterationsتکرارها.
320
950208
3950
پس این فرآیند
حدود چهار یا پنج بار تکرار میشه.
16:06
You can see we now have 62 percentدرصد
321
954158
1859
می تونین ببینین که حالا
موفق شدیم ۶۲ درصد
16:08
of our 1.5 millionمیلیون imagesتصاویر
classifiedطبقه بندی شده correctlyبه درستی.
322
956017
2959
از یک و نیم میلیون تصویر رو
دسته بندی کنیم.
16:10
And at this pointنقطه, we
can startشروع کن to quiteکاملا quicklyبه سرعت
323
958976
2472
و در این نقطه،
میتونیم با سرعت تمام
16:13
grabگرفتن wholeکل bigبزرگ sectionsبخش ها,
324
961448
1297
دسته ها رو به طور کامل بگیریم،
16:14
checkبررسی throughاز طریق them to make sure
that there's no mistakesاشتباهات.
325
962745
2919
و هر کدوم رو چک کنیم تا
مطمئن بشیم اشتباه نشده.
16:17
Where there are mistakesاشتباهات, we can
let the computerکامپیوتر know about them.
326
965664
3952
در صورت اشتباه، میتونیم
اینو به رایانه اطلاع بدیم.
16:21
And usingاستفاده كردن this kindنوع of processروند
for eachهر یک of the differentناهمسان groupsگروه ها,
327
969616
3045
و با این نوع فرآیند
برای هر یک از گروههای مختلف،
16:24
we are now up to
an 80 percentدرصد successموفقیت rateنرخ
328
972661
2487
حالا به موفقیت ۸۰ درصد
16:27
in classifyingطبقه بندی the 1.5 millionمیلیون imagesتصاویر.
329
975148
2415
در طبقه بندی یک و نیم میلیون تصویر رسیدیم.
16:29
And at this pointنقطه, it's just a caseمورد
330
977563
2078
و این نقطه، جاییه که
16:31
of findingیافته the smallکوچک numberعدد
that aren'tنه classifiedطبقه بندی شده correctlyبه درستی,
331
979641
3579
تعداد کمی تصویر درست طبقه بندی نشده،
16:35
and tryingتلاش کن to understandفهمیدن why.
332
983220
2888
و سعی می کنه بفهمه چرا.
16:38
And usingاستفاده كردن that approachرویکرد,
333
986108
1743
و با استفاده از روش فوق،
16:39
by 15 minutesدقایق we get
to 97 percentدرصد classificationطبقه بندی ratesنرخ ها.
334
987851
4121
در عرض ۱۵ دقیقه
به میزان طبقه بندی ۹۷ درصد رسیدیم.
16:43
So this kindنوع of techniqueتکنیک
could allowاجازه دادن us to fixثابت a majorعمده problemمسئله,
335
991972
4600
پس این نوع تکنیک
به ما امکان داد یه مشکل بزرگ رو حل کنیم،
16:48
whichکه is that there's a lackعدم
of medicalپزشکی expertiseتخصص in the worldجهان.
336
996578
3036
این مشکل که با کمبود نیروی تخصصی
پزشکی در جهان روبرو هستیم.
16:51
The Worldجهان Economicاقتصادی Forumانجمن saysمی گوید
that there's betweenبین a 10x and a 20x
337
999614
3489
مجمع جهانی اقتصاد اعلام کرده
بین ۱۰ تا ۲۰ برابر
16:55
shortageکمبود of physiciansپزشکان
in the developingدر حال توسعه worldجهان,
338
1003103
2624
کمبود پزشک در
جهان در حال توسعه وجود داره،
16:57
and it would take about 300 yearsسالها
339
1005727
2113
و حدود ۳۰۰ سال طول میکشه
16:59
to trainقطار enoughکافی people
to fixثابت that problemمسئله.
340
1007840
2894
تا تعداد کافی پزشک
برای حل این مشکل تربیت بشه.
17:02
So imagineتصور کن if we can help
enhanceافزایش دادن theirخودشان efficiencyبهره وری
341
1010734
2885
پس تصور کنین اگه بتونیم
کارایی اونا رو افزایش بدیم
17:05
usingاستفاده كردن these deepعمیق learningیادگیری approachesرویکردها?
342
1013619
2839
با اساتفاده از این روشهای
یادگیری عمیق، چی میشه؟
17:08
So I'm very excitedبرانگیخته
about the opportunitiesفرصت ها.
343
1016458
2232
خوب این فرصتها منو
به شدت هیجان زده کرده.
17:10
I'm alsoهمچنین concernedنگران about the problemsمشکلات.
344
1018690
2589
همچنین نگران مشکلات هستم.
17:13
The problemمسئله here is that
everyهرکدام areaمنطقه in blueآبی on this mapنقشه
345
1021279
3124
اینجا مشکل اینه که
هر ناحیه آبی رنگ در این نقشه
17:16
is somewhereجایی where servicesخدمات
are over 80 percentدرصد of employmentاستخدام.
346
1024403
3769
جاییه که میزان اشتغال در خدمات
بیشتر از ۸۰ درصده.
17:20
What are servicesخدمات?
347
1028172
1787
چه خدماتی؟
17:21
These are servicesخدمات.
348
1029959
1514
این خدمات.
17:23
These are alsoهمچنین the exactدقیق things that
computersکامپیوترها have just learnedیاد گرفتم how to do.
349
1031473
4154
اینها دقیقاً همون چیزهایی هستن
که رایانه ها یاد گرفتن انجام بدن.
17:27
So 80 percentدرصد of the world'sجهان employmentاستخدام
in the developedتوسعه یافته worldجهان
350
1035627
3804
پس ۸۰ درصد اشتغال در جهان توسعه یافته
17:31
is stuffچیز that computersکامپیوترها
have just learnedیاد گرفتم how to do.
351
1039431
2532
مربوط به کارهاییه که
رایانه ها بلد هستن.
17:33
What does that mean?
352
1041963
1440
مفهومش چیه؟
17:35
Well, it'llآن خواهد شد be fine.
They'llآنها خواهند be replacedجایگزین شد by other jobsشغل ها.
353
1043403
2583
خوب، مشکلی نیست.
میتونن در مشاغل دیگه جایگزین بشن.
17:37
For exampleمثال, there will be
more jobsشغل ها for dataداده ها scientistsدانشمندان.
354
1045986
2707
به عنوان مثال، موقعیتهای شغلی بیشتری
برای دانشمندان علوم داده ایجاد میشه.
17:40
Well, not really.
355
1048693
817
خوب، نه واقعاً.
17:41
It doesn't take dataداده ها scientistsدانشمندان
very long to buildساختن these things.
356
1049510
3118
دانشمندان علوم داده زمان زیادی
برای ساختن این چیزها صرف نکردن.
17:44
For exampleمثال, these fourچهار algorithmsالگوریتم ها
were all builtساخته شده by the sameیکسان guy.
357
1052628
3252
به عنوان مثال، این چهار الگوریتم
همگی توسط یه نفر ساخته شده.
17:47
So if you think, oh,
it's all happenedاتفاق افتاد before,
358
1055880
2438
پس اگه فکر کنید، اوه،
قبلاً مشابه همین اتفاق افتاده،
17:50
we'veما هستیم seenمشاهده گردید the resultsنتایج in the pastگذشته
of when newجدید things come alongدر امتداد
359
1058318
3808
نتیجه شو در گذشته دیدیم
وقتی چیزهای جدید وارد میشه
17:54
and they get replacedجایگزین شد by newجدید jobsشغل ها,
360
1062126
2252
و شغلهای جدید جای اونا رو میگیره،
17:56
what are these newجدید jobsشغل ها going to be?
361
1064378
2116
این شغلهای جدید چه خواهد بود؟
17:58
It's very hardسخت for us to estimateتخمین زدن this,
362
1066494
1871
برآوردش برامون خیلی سخته،
18:00
because humanانسان performanceکارایی
growsرشد می کند at this gradualتدریجی rateنرخ,
363
1068365
2739
چون عملکرد انسانی به تدریج رشد می کنه،
18:03
but we now have a systemسیستم, deepعمیق learningیادگیری,
364
1071104
2562
اما حالا سیستمی داریم به نام یادگیری عمیق،
18:05
that we know actuallyدر واقع growsرشد می کند
in capabilityتوانایی exponentiallyنمایی.
365
1073666
3227
که در واقع میدونیم که از نظر توانایی،
سرعت رشد تصاعدی داره.
18:08
And we're here.
366
1076893
1605
و ما اینجاییم.
18:10
So currentlyدر حال حاضر, we see the things around us
367
1078498
2061
پس در حال حاضر، چیزهای اطرفمون رو می بینیم
18:12
and we say, "Oh, computersکامپیوترها
are still prettyبسیار dumbگنگ." Right?
368
1080559
2676
و میگیم، "اوه، رایانه ها
هنوز خیلی عقب هستن." درسته؟
18:15
But in fiveپنج years'سال ها' time,
computersکامپیوترها will be off this chartچارت سازمانی.
369
1083235
3429
اما در عرض پنج سال،
رایانه ها از این جدول خارج خواهند شد.
18:18
So we need to be startingراه افتادن to think
about this capabilityتوانایی right now.
370
1086664
3865
پس لازمه همین الان شروع به
فکر درباره ی این قابلیت کنیم.
18:22
We have seenمشاهده گردید this onceیک بار before, of courseدوره.
371
1090529
2050
البته اینو قبلاً یه بار دیدیم.
18:24
In the Industrialصنعتی Revolutionانقلاب,
372
1092579
1387
در انقلاب صنعتی،
18:25
we saw a stepگام changeتغییر دادن
in capabilityتوانایی thanksبا تشکر to enginesموتورها.
373
1093966
2851
با ورود موتورها شاهد
یک گام تغییر در قابلیت بودیم.
18:29
The thing is, thoughگرچه,
that after a while, things flattenedمسطح out.
374
1097667
3138
اما نکته این است
که پس از مدتی، همه چیز خراب شد.
18:32
There was socialاجتماعی disruptionقطع,
375
1100805
1702
گسست اجتماعی اتفاق افتاد،
18:34
but onceیک بار enginesموتورها were used
to generateتولید کنید powerقدرت in all the situationsموقعیت ها,
376
1102507
3439
اما وقتی استفاده از موتورها برای تولید
نیرو در موقعیتهای مختلف شروع شد،
18:37
things really settledحل شده down.
377
1105946
2354
همه چیز واقعاً عادی شد.
18:40
The Machineدستگاه Learningیادگیری Revolutionانقلاب
378
1108300
1473
انقلاب یادگیری ماشینی
18:41
is going to be very differentناهمسان
from the Industrialصنعتی Revolutionانقلاب,
379
1109773
2909
بسیار متفاوت از
انقلاب صنعتی خواهد بود،
18:44
because the Machineدستگاه Learningیادگیری Revolutionانقلاب,
it never settlesحل و فصل می شود down.
380
1112682
2950
چون انقلاب یادگیری ماشینی،
هرگز عادی نمی شود.
18:47
The better computersکامپیوترها get
at intellectualفکری activitiesفعالیت ها,
381
1115632
2982
هر چه رایانه ها در امور ذهنی
بهتر می شوند،
18:50
the more they can buildساختن better computersکامپیوترها
to be better at intellectualفکری capabilitiesقابلیت های,
382
1118614
4248
می تونن رایانه های بهتری بسازن
که در امور ذهنی بهتر هستن،
18:54
so this is going to be a kindنوع of changeتغییر دادن
383
1122862
1908
پس این نوعی تغییر خواهد بود
18:56
that the worldجهان has actuallyدر واقع
never experiencedبا تجربه before,
384
1124770
2478
که جهان هرگز پیش از این
تجربه نکرده،
18:59
so your previousقبلی understandingدرك كردن
of what's possibleامکان پذیر است is differentناهمسان.
385
1127248
3306
پس فهم قبلی شما متفاوت با
چیزیه که ممکنه.
19:02
This is alreadyقبلا impactingتأثیرگذار است us.
386
1130974
1780
این قبلاً در حال
تحت تأثیر قرار دادن ماست.
19:04
In the last 25 yearsسالها,
as capitalسرمایه، پایتخت productivityبهره وری has increasedافزایش یافت,
387
1132754
3630
در عرض ۲۵ سال اخیر،
با افزایش بهره وری سرمایه،
19:08
laborنیروی کار productivityبهره وری has been flatتخت,
in factواقعیت even a little bitبیت down.
388
1136400
4188
بهره وری کار ثابت مانده،
در واقع کمی هم افت کرده.
19:13
So I want us to startشروع کن
havingداشتن this discussionبحث now.
389
1141408
2741
بنابراین میخوام این بحث رو
الان شروع کنیم.
19:16
I know that when I oftenغالبا tell people
about this situationوضعیت,
390
1144149
3027
میدونم که اغلب وقتی درباره ی
این وضعیت به افراد توضیح میدم،
19:19
people can be quiteکاملا dismissiveانصراف.
391
1147176
1490
ممکنه کسی اعتنا نکنه.
19:20
Well, computersکامپیوترها can't really think,
392
1148666
1673
خوب، رایانه ها در واقع نمی تونن فکر کنن،
19:22
they don't emoteترساندن,
they don't understandفهمیدن poetryشعر,
393
1150339
3028
اونها احساس ندارن،
شعر رو نمی فهمن،
19:25
we don't really understandفهمیدن how they work.
394
1153367
2521
ما در واقع نمیدونیم چطور کار میکنن.
19:27
So what?
395
1155888
1486
پس چه؟
19:29
Computersکامپیوترها right now can do the things
396
1157374
1804
رایانه ها همین الان میتونن
کارهایی بکنن
19:31
that humansانسان spendخرج کردن mostاکثر
of theirخودشان time beingبودن paidپرداخت شده to do,
397
1159178
2719
که انسانها بیشتر وقتشون رو
صرفش می کنن و در مقابلش پول میگیرن،
19:33
so now'sدر حال حاضر the time to startشروع کن thinkingفكر كردن
398
1161897
1731
پس الان وقت آن است
که شروع کنیم به فکر
19:35
about how we're going to adjustتنظیم کنید our
socialاجتماعی structuresسازه های and economicاقتصادی structuresسازه های
399
1163628
4387
درباره ی اینکه چطور قراره ساختارهای اجتماعی
و ساختارهای اقتصادی خودمونو تغییر بدیم
19:40
to be awareمطلع of this newجدید realityواقعیت.
400
1168015
1840
تا از این واقعیت جدید آگاه بشیم.
19:41
Thank you.
401
1169855
1533
متشکرم.
19:43
(Applauseتشویق و تمجید)
402
1171388
802
(تشویق)
Translated by Babak Azizafshari
Reviewed by soheila Jafari

▲Back to top

ABOUT THE SPEAKER
Jeremy Howard - Data scientist
Jeremy Howard imagines how advanced machine learning can improve our lives.

Why you should listen

Jeremy Howard is the CEO of Enlitic, an advanced machine learning company in San Francisco. Previously, he was the president and chief scientist at Kaggle, a community and competition platform of over 200,000 data scientists. Howard is a faculty member at Singularity University, where he teaches data science. He is also a Young Global Leader with the World Economic Forum, and spoke at the World Economic Forum Annual Meeting 2014 on "Jobs for the Machines."

Howard advised Khosla Ventures as their Data Strategist, identifying opportunities for investing in data-driven startups and mentoring portfolio companies to build data-driven businesses. He was the founding CEO of two successful Australian startups, FastMail and Optimal Decisions Group.

More profile about the speaker
Jeremy Howard | Speaker | TED.com