ABOUT THE SPEAKER
Ray Kurzweil - Inventor, futurist
Ray Kurzweil is an engineer who has radically advanced the fields of speech, text and audio technology. He's revered for his dizzying -- yet convincing -- writing on the advance of technology, the limits of biology and the future of the human species.

Why you should listen

Inventor, entrepreneur, visionary, Ray Kurzweil's accomplishments read as a startling series of firsts -- a litany of technological breakthroughs we've come to take for granted. Kurzweil invented the first optical character recognition (OCR) software for transforming the written word into data, the first print-to-speech software for the blind, the first text-to-speech synthesizer, and the first music synthesizer capable of recreating the grand piano and other orchestral instruments, and the first commercially marketed large-vocabulary speech recognition.

Yet his impact as a futurist and philosopher is no less significant. In his best-selling books, which include How to Create a Mind, The Age of Spiritual Machines, The Singularity Is Near: When Humans Transcend Biology, Kurzweil depicts in detail a portrait of the human condition over the next few decades, as accelerating technologies forever blur the line between human and machine.

In 2009, he unveiled Singularity University, an institution that aims to "assemble, educate and inspire leaders who strive to understand and facilitate the development of exponentially advancing technologies." He is a Director of Engineering at Google, where he heads up a team developing machine intelligence and natural language comprehension.

More profile about the speaker
Ray Kurzweil | Speaker | TED.com
TED2014

Ray Kurzweil: Get ready for hybrid thinking

ריי קורצווייל: היכונו לעידן חשיבת הכלאיים

Filmed:
3,548,296 views

לפני 200 מיליון שנה פיתחו אבותינו היונקים תכונה חדש של המוח: הניאו-קורטקס. פיסת רקמה זו, שגודלה כשל בול-דואר (שהקיפה מוח בגודל אגוז), הינה המפתח למה שהאנושות הפכה להיות. כעת, טוען העתידן ריי קורצווייל, עלינו להתכונן לזינוק הגדול הבא בעוצמת המוח, כשאנו מתחברים לכוח המיחשוב של הענן.
- Inventor, futurist
Ray Kurzweil is an engineer who has radically advanced the fields of speech, text and audio technology. He's revered for his dizzying -- yet convincing -- writing on the advance of technology, the limits of biology and the future of the human species. Full bio

Double-click the English transcript below to play the video.

00:12
Let me tell you a storyכַּתָבָה.
0
988
2316
הבה ואספר לכם סיפור.
הוא התרחש לפני
200 מיליון שנה.
00:15
It goesהולך back 200 millionמִילִיוֹן yearsשנים.
1
3304
1799
00:17
It's a storyכַּתָבָה of the neocortexניוקורטקס,
2
5103
1984
זהו סיפורו של הניאו-קורטקס,
שפירושו "קליפה חדשה".
00:19
whichאיזה meansאומר "newחָדָשׁ rindקְרוּם."
3
7087
1974
00:21
So in these earlyמוקדם mammalsיונקים,
4
9061
2431
אצל אותם יונקים קדומים -
00:23
because only mammalsיונקים have a neocortexניוקורטקס,
5
11492
2055
כי רק ליונקים יש ניאו-קורטקס -
00:25
rodent-likeכמו מכרסם creaturesיצורים.
6
13547
1664
שהיו יצורים דמויי-מכרסמים,
00:27
It was the sizeגודל of a postageדְמֵי מִשׁלוֹחַ stampחותמת and just as thinדַק,
7
15211
3579
הוא היה בגודל בול דואר
וגם באותו עובי,
00:30
and was a thinדַק coveringכיסוי around
8
18790
1439
והיווה ציפוי דק סביב מוחם,
שהיה בגודל אגוז,
00:32
theirשֶׁלָהֶם walnut-sizedאגוז בגודל brainמוֹחַ,
9
20229
2264
00:34
but it was capableבעל יכולת of a newחָדָשׁ typeסוּג of thinkingחושב.
10
22493
3701
אבל הוא היה מסוגל
לחשיבה מסוג חדש.
00:38
Ratherבמקום זאת than the fixedתוקן behaviorsהתנהגויות
11
26194
1567
במקום ההתנהגויות הקבועות
של חיות שאינן יונקים,
00:39
that non-mammalianלא יונקים animalsבעלי חיים have,
12
27761
1992
00:41
it could inventלִהַמצִיא newחָדָשׁ behaviorsהתנהגויות.
13
29753
2692
הוא ידע להמציא התנהגויות חדשות.
00:44
So a mouseעכבר is escapingלברוח a predatorטוֹרֵף,
14
32445
2553
למשל, עכבר שבורח מפני טורף
ודרכו חסומה,
00:46
its pathנָתִיב is blockedחָסוּם,
15
34998
1540
00:48
it'llזה יהיה try to inventלִהַמצִיא a newחָדָשׁ solutionפִּתָרוֹן.
16
36538
2129
ינסה להמציא פתרון חדש,
שאולי יצליח ואולי לא,
00:50
That mayמאי work, it mayמאי not,
17
38667
1266
00:51
but if it does, it will rememberלִזכּוֹר that
18
39933
1910
אבל במידה ויצליח,
הוא יזכור אותו
00:53
and have a newחָדָשׁ behaviorהִתְנַהֲגוּת,
19
41843
1292
וירכוש התנהגות חדשה
שעשויה להתפשט באופן ויראלי
00:55
and that can actuallyלמעשה spreadהתפשטות virallyויראלי
20
43135
1457
00:56
throughדרך the restמנוחה of the communityהקהילה.
21
44592
2195
בקרב כל הקהילה.
עכבר אחר, שצפה בו, אולי יאמר:
00:58
Anotherאַחֵר mouseעכבר watchingצופה this could say,
22
46787
1609
01:00
"Hey, that was prettyיפה cleverחכם, going around that rockסלע,"
23
48396
2704
"זה היה מחוכם למדי,
לעקוף את הסלע ההוא."
01:03
and it could adoptלְאַמֵץ a newחָדָשׁ behaviorהִתְנַהֲגוּת as well.
24
51100
3725
וגם הוא יאמץ התנהגות חדשה.
01:06
Non-mammalianלא יונקים animalsבעלי חיים
25
54825
1717
חיות שאינן יונקים
לא יכלו לעשות דבר מכל אלה.
01:08
couldn'tלא יכול do any of those things.
26
56542
1713
היו להן התנהגויות קבועות.
01:10
They had fixedתוקן behaviorsהתנהגויות.
27
58255
1215
01:11
Now they could learnלִלמוֹד a newחָדָשׁ behaviorהִתְנַהֲגוּת
28
59470
1331
הן אמנם יכלו ללמוד
התנהגויות חדשות,
01:12
but not in the courseקוּרס of one lifetimeלכל החיים.
29
60801
2576
אבל לא בתקופת חייהן.
01:15
In the courseקוּרס of maybe a thousandאלף lifetimesחיים,
30
63377
1767
אולי במרוצת אלף תקופות-חיים
01:17
it could evolveלְהִתְפַּתֵחַ a newחָדָשׁ fixedתוקן behaviorהִתְנַהֲגוּת.
31
65144
3330
הן יכלו לפתח
התנהגות קבועה חדשה.
01:20
That was perfectlyמושלם okay 200 millionמִילִיוֹן yearsשנים agoלִפנֵי.
32
68474
3377
לפני 200 מיליון שנה
לא היתה עם זה בעיה:
01:23
The environmentסביבה changedהשתנה very slowlyלאט.
33
71851
1981
הסביבה השתנתה לאט מאד.
01:25
It could take 10,000 yearsשנים for there to be
34
73832
1554
לפעמים נדרשו 10,000 שנים
כדי שיתרחש שינוי סביבתי ניכר,
01:27
a significantמשמעותי environmentalסְבִיבָתִי changeשינוי,
35
75386
2092
01:29
and duringבְּמַהֲלָך that periodפרק זמן of time
36
77478
1382
ובמשך הזמן הזה, בעל-החיים
היה מפתח התנהגות חדשה.
01:30
it would evolveלְהִתְפַּתֵחַ a newחָדָשׁ behaviorהִתְנַהֲגוּת.
37
78860
2929
01:33
Now that wentהלך alongלְאוֹרֶך fine,
38
81789
1521
הכל היה בסדר,
אבל אז קרה משהו.
01:35
but then something happenedקרה.
39
83310
1704
01:37
Sixty-fiveשישים וחמש millionמִילִיוֹן yearsשנים agoלִפנֵי,
40
85014
2246
לפני 65 מיליון שנה
אירע שינוי סביבתי פתאומי ואלים.
01:39
there was a suddenפִּתְאוֹמִי, violentאַלִים
changeשינוי to the environmentסביבה.
41
87260
2615
01:41
We call it the Cretaceousקרטיקון extinctionהַכחָדָה eventמִקרֶה.
42
89875
3505
אנו מכנים אותו
"הכחדת הקרטיקון-שלישון".
01:45
That's when the dinosaursדינוזאורים wentהלך extinctנִכחָד,
43
93380
2293
באירוע הזה נכחדו הדינוזאורים,
01:47
that's when 75 percentאָחוּז of the
44
95673
3449
ו-75% מכל החיות והצמחים
נכחדו גם הם,
01:51
animalבעל חיים and plantצמח speciesמִין wentהלך extinctנִכחָד,
45
99122
2746
01:53
and that's when mammalsיונקים
46
101868
1745
ואז כבשו היונקים
את הגומחה האקולוגית שלהם,
01:55
overtookהשתלטו theirשֶׁלָהֶם ecologicalאֵקוֹלוֹגִי nicheגוּמחָה,
47
103613
2152
01:57
and to anthropomorphizeאנתרופומורפיז, biologicalבִּיוֹלוֹגִי evolutionאבולוציה said,
48
105765
3654
ואם נדמה אותה לאדם,
האבולוציה הביולוגית אמרה:
02:01
"Hmmהממ, this neocortexניוקורטקס is prettyיפה good stuffדברים,"
49
109419
2025
"הממ.. הניאו-קורטקס הזה
איננו רע בכלל",
02:03
and it beganהחל to growלגדול it.
50
111444
1793
והיא החלה לפתח אותו.
02:05
And mammalsיונקים got biggerגדול יותר,
51
113237
1342
והיונקים הלכו וגדלו,
02:06
theirשֶׁלָהֶם brainsמוֹחַ got biggerגדול יותר at an even fasterמהיר יותר paceלִפְסוֹעַ,
52
114579
2915
ומוחותיהם גדלו בקצב מהיר עוד יותר,
02:09
and the neocortexניוקורטקס got biggerגדול יותר even fasterמהיר יותר than that
53
117494
3807
והניאו-קורטקס גדל
אפילו יותר מהר,
02:13
and developedמפותח these distinctiveמְיוּחָד ridgesרכסים and foldsקפלים
54
121301
2929
ופיתח את הרכסים והקפלים
המובהקים האלה,
02:16
basicallyבעיקרון to increaseלהגביר its surfaceמשטח areaאֵזוֹר.
55
124230
2881
עקרונית, במטרה להגדיל
את שטח הפנים שלו.
02:19
If you tookלקח the humanבן אנוש neocortexניוקורטקס
56
127111
1819
אילו לקחתם את הניאו-קורטקס האנושי
02:20
and stretchedמָתוּחַ it out,
57
128930
1301
ופרשתם אותו,
הוא בערך בגודל מפית,
02:22
it's about the sizeגודל of a tableשולחן napkinמַפִּית,
58
130231
1713
והוא עדיין דק.
עוביו הוא כשל מפית,
02:23
and it's still a thinדַק structureמִבְנֶה.
59
131944
1306
02:25
It's about the thicknessעוֹבִי of a tableשולחן napkinמַפִּית.
60
133250
1980
02:27
But it has so manyרב convolutionsפיתולים and ridgesרכסים
61
135230
2497
אבל יש בו כל-כך הרבה
פיתולים ורכסים,
02:29
it's now 80 percentאָחוּז of our brainמוֹחַ,
62
137727
3075
עד שכיום הוא מהווה
80% מהמוח שלנו,
02:32
and that's where we do our thinkingחושב,
63
140802
2461
ובו אנו מבצעים את החשיבה שלנו,
02:35
and it's the great sublimatorסובלימציה.
64
143263
1761
וזהו מנוע סובלימציה נהדר.
עדיין יש לנו המוח הישן,
02:37
We still have that oldישן brainמוֹחַ
65
145024
1114
02:38
that providesמספק our basicבסיסי drivesכוננים and motivationsמוטיבציה,
66
146138
2764
שמספק לנו דחפים והנעות בסיסיים,
02:40
but I mayמאי have a driveנהיגה for conquestכיבוש,
67
148902
2716
אבל יכול להיות לי דחף לכיבוש,
02:43
and that'llזה יהיה be sublimatedסובלימציה by the neocortexניוקורטקס
68
151618
2715
והניאו-קורטקס ימיר אותו
02:46
into writingכְּתִיבָה a poemשִׁיר or inventingממציא an appאפליקציה
69
154333
2909
לכתיבת שיר או המצאת יישומון
02:49
or givingמַתָן a TEDTED Talk,
70
157242
1509
או מתן הרצאת TED,
02:50
and it's really the neocortexניוקורטקס that's where
71
158751
3622
והניאו-קורטקס הוא למעשה המקום
שבו הכל מתרחש.
02:54
the actionפעולה is.
72
162373
1968
לפני 50 שנה כתבתי מאמר
שמתאר איך לדעתי המוח פועל,
02:56
Fiftyחמישים yearsשנים agoלִפנֵי, I wroteכתבתי a paperעיתון
73
164341
1717
02:58
describingהמתאר how I thought the brainמוֹחַ workedעבד,
74
166058
1918
02:59
and I describedמְתוּאָר it as a seriesסִדרָה of modulesמודולים.
75
167976
3199
ותיארתי אותו כסדרה של יחידות.
03:03
Eachכל אחד moduleמודול could do things with a patternתַבְנִית.
76
171175
2128
כל יחידה יודעת לעשות דברים
באמצעות דפוס
03:05
It could learnלִלמוֹד a patternתַבְנִית. It could rememberלִזכּוֹר a patternתַבְנִית.
77
173303
2746
היא מסוגלת ללמוד דפוס מסוים.
לזכור דפוס מסוים.
03:08
It could implementליישם a patternתַבְנִית.
78
176049
1407
היא יכולה ליישם דפוס מסוים.
03:09
And these modulesמודולים were organizedמְאוּרגָן in hierarchiesהיררכיות,
79
177456
2679
והיחידות האלה מאורגנות בהיררכיות,
03:12
and we createdשנוצר that hierarchyהִיֵרַרכִיָה with our ownשֶׁלוֹ thinkingחושב.
80
180135
2954
ואנו יצרנו היררכיה זו
בעזרת החשיבה שלנו.
03:15
And there was actuallyלמעשה very little to go on
81
183089
3333
ולא היה בעצם הרבה חומר
להתבסס עליו, לפני 50 שנה.
03:18
50 yearsשנים agoלִפנֵי.
82
186422
1562
03:19
It led me to meetלִפְגוֹשׁ Presidentנָשִׂיא Johnsonג'ונסון.
83
187984
2115
- זה זיכה אותי בפגישה
עם הנשיא ג'ונסון --
03:22
I've been thinkingחושב about this for 50 yearsשנים,
84
190099
2173
חשבתי על זה במשך 50 שנה,
03:24
and a yearשָׁנָה and a halfחֲצִי agoלִפנֵי I cameבא out with the bookסֵפֶר
85
192272
2828
ולפני שנה וחצי פרסמתי את הספר
"איך ליצור מוח",
03:27
"How To Createלִיצוֹר A Mindאכפת,"
86
195100
1265
03:28
whichאיזה has the sameאותו thesisתזה,
87
196365
1613
שנשען על אותה הנחת-יסוד,
אך כיום, עם שפע הוכחות.
03:29
but now there's a plethoraשֶׁפַע of evidenceעֵדוּת.
88
197978
2812
03:32
The amountכמות of dataנתונים we're gettingמקבל about the brainמוֹחַ
89
200790
1814
כמות הנתונים שאנו מקבלים
אודות המוח, ממדעי המוח,
03:34
from neuroscienceמדעי המוח is doublingכְּפִילָה everyכֹּל yearשָׁנָה.
90
202604
2203
מוכפלת מידי שנה.
03:36
Spatialמֶרחָבִי resolutionפתרון הבעיה of brainscanningbrainscanning of all typesסוגים
91
204807
2654
רמת ההפרדה המרחבית
בסריקות מוח מכל הסוגים
03:39
is doublingכְּפִילָה everyכֹּל yearשָׁנָה.
92
207461
2285
מוכפלת מידי שנה.
03:41
We can now see insideבְּתוֹך a livingחַי brainמוֹחַ
93
209746
1717
היום אנו מסוגלים להתבונן
לתוך מוח חי
03:43
and see individualאִישִׁי interneuralפנימי connectionsקשרים
94
211463
2870
ולראות את הקישורים
הבין-עצביים הנפרדים
03:46
connectingמְקַשֵׁר in realאמיתי time, firingירי in realאמיתי time.
95
214333
2703
שנעשים בזמן אמיתי,
איתותים עצביים בזמן אמיתי.
03:49
We can see your brainמוֹחַ createלִיצוֹר your thoughtsמחשבות.
96
217036
2419
אנו יכולים לראות את המוח
כשהוא מחולל מחשבות.
03:51
We can see your thoughtsמחשבות createלִיצוֹר your brainמוֹחַ,
97
219455
1575
אנו יכולים לראות איך המחשבות
יוצרות את המוח,
03:53
whichאיזה is really keyמַפְתֵחַ to how it worksעובד.
98
221030
1999
שזה המפתח להבנת אופן פעולתו.
03:55
So let me describeלְתַאֵר brieflyבקצרה how it worksעובד.
99
223029
2219
אז הבה ואתאר לכם בקצרה
כיצד הוא פועל.
03:57
I've actuallyלמעשה countedספרתי these modulesמודולים.
100
225248
2275
ספרתי את היחידות האלה:
יש לנו כ-300 מיליון כאלה,
03:59
We have about 300 millionמִילִיוֹן of them,
101
227523
2046
04:01
and we createלִיצוֹר them in these hierarchiesהיררכיות.
102
229569
2229
ואנו יצרנו אותן בהיררכיות האלה.
04:03
I'll give you a simpleפָּשׁוּט exampleדוגמא.
103
231798
2082
אתן לכם דוגמה פשוטה.
04:05
I've got a bunchצְרוֹר of modulesמודולים
104
233880
2805
יש לי קבוצת יחידות
04:08
that can recognizeלזהות the crossbarמַשְׁקוֹף to a capitalעיר בירה A,
105
236685
3403
שמסוגלת לזהות את הקו האופקי
באות "ת",
04:12
and that's all they careלְטַפֵּל about.
106
240088
1914
וזה כל מה שמעניין אותן.
04:14
A beautifulיפה songשִׁיר can playלְשַׂחֵק,
107
242002
1578
אולי מתנגן שיר נפלא,
אולי תחלוף נערה יפה -
04:15
a prettyיפה girlילדה could walkלָלֶכֶת by,
108
243580
1434
04:17
they don't careלְטַפֵּל, but they see
a crossbarמַשְׁקוֹף to a capitalעיר בירה A,
109
245014
2846
לא איכפת להן. אבל כשהן מזהות
את הקו האופקי באות "ת",
04:19
they get very excitedנִרגָשׁ and they say "crossbarמַשְׁקוֹף,"
110
247860
3021
הן מתרגשות מאד ואומרות:
"קו אופקי",
04:22
and they put out a highגָבוֹהַ probabilityהִסתַבְּרוּת
111
250881
2112
ומפיקות פלט סבירות גבוהה
בזיז סיב העצב שלהן.
04:24
on theirשֶׁלָהֶם outputתְפוּקָה axonאקסון.
112
252993
1634
זה עובר לרמה הבאה,
04:26
That goesהולך to the nextהַבָּא levelרָמָה,
113
254627
1333
04:27
and these layersשכבות are organizedמְאוּרגָן in conceptualרַעיוֹנִי levelsרמות.
114
255960
2750
והרבדים האלה מאורגנים
ברמות תפישתיות,
04:30
Eachכל אחד is more abstractתַקצִיר than the nextהַבָּא one,
115
258710
1856
כשכל רמה מופשטת יותר
מהרמה הבאה,
04:32
so the nextהַבָּא one mightאולי say "capitalעיר בירה A."
116
260566
2418
כך שהרמה הבאה עשויה לומר:
האות "ת".
04:34
That goesהולך up to a higherגבוה יותר
levelרָמָה that mightאולי say "Appleתפוח עץ."
117
262984
2891
זה עולה לרמה הבאה
שאולי תגיד: "תפוח".
04:37
Informationמֵידָע flowsזור down alsoגַם.
118
265875
2167
המידע גם מאיט.
04:40
If the appleתפוח עץ recognizerמזהה has seenלראות A-P-P-LAPPL,
119
268042
2936
אם מזהה התפוח ראה "ת, פ, ו"
04:42
it'llזה יהיה think to itselfעצמה, "Hmmהממ, I
think an E is probablyכנראה likelyסָבִיר,"
120
270978
3219
הוא יחשוב לעצמו: "הממ, לדעתי
יש סבירות גבוהה ל'ח',"
04:46
and it'llזה יהיה sendלִשְׁלוֹחַ a signalאוֹת down to all the E recognizersהמזהים
121
274197
2564
והוא ישגר למטה אות,
לכל מזהי ה"ח",
04:48
sayingפִּתגָם, "Be on the lookoutתזהר for an E,
122
276761
1619
שמודיע: "היכונו להופעת 'ח',
נראה לי שצפויה 'ח'."
04:50
I think one mightאולי be comingמגיע."
123
278380
1556
מזהי ה"ח" ינמיכו
את סף הרגישות שלהם,
04:51
The E recognizersהמזהים will lowerנמוך יותר theirשֶׁלָהֶם thresholdסף
124
279936
2843
04:54
and they see some sloppyמרושל
thing, could be an E.
125
282779
1945
ואם יראו משהו
שדומה איכשהו ל"ח",
בד"כ הם לא יעשו זאת,
04:56
Ordinarilyבדרך כלל you wouldn'tלא think so,
126
284724
1490
04:58
but we're expectingמצפה an E, it's good enoughמספיק,
127
286214
2009
אבל, "אנו מצפים ל'ח',
נסתפק בזה;
05:00
and yeah, I've seenלראות an E, and then appleתפוח עץ saysאומר,
128
288223
1817
"באמת, ראיתי 'ח',"
ואז מזהה התפוח יאמר:
"נכון, זיהיתי 'תפוח'."
05:02
"Yeah, I've seenלראות an Appleתפוח עץ."
129
290040
1728
05:03
Go up anotherאַחֵר fiveחָמֵשׁ levelsרמות,
130
291768
1746
נעלה חמש רמות,
05:05
and you're now at a prettyיפה highגָבוֹהַ levelרָמָה
131
293514
1353
והגענו לרמה גבוהה למדי
בהיררכיה הזאת,
05:06
of this hierarchyהִיֵרַרכִיָה,
132
294867
1569
05:08
and stretchלִמְתוֹחַ down into the differentשונה sensesחושים,
133
296436
2353
נתפשט לחושים השונים,
05:10
and you mayמאי have a moduleמודול
that seesרואה a certainמסוים fabricבד,
134
298789
2655
ושם, יחידה מסוימת
אולי תזהה אריג מסוים,
05:13
hearsשומע a certainמסוים voiceקוֹל qualityאיכות,
smellsמריח a certainמסוים perfumeנִיחוֹחַ,
135
301444
2844
תזהה איכות קול מסוימת,
תריח בושם מסוים,
05:16
and will say, "My wifeאישה has enteredנכנס the roomחֶדֶר."
136
304288
2513
ותאמר: "אשתי נכנסה לחדר."
05:18
Go up anotherאַחֵר 10 levelsרמות, and now you're at
137
306801
1895
עולים 10 רמות
וכעת נמצאים ברמה גבוהה מאד,
05:20
a very highגָבוֹהַ levelרָמָה.
138
308696
1160
05:21
You're probablyכנראה in the frontalחֲזִיתִי cortexקליפת המוח,
139
309856
1937
אולי באונה המצחית,
05:23
and you'llאתה have modulesמודולים that say, "That was ironicאִירוֹנִי.
140
311793
3767
ושם יש יחידות שיאמרו:
"זה היה אירוני."
05:27
That's funnyמצחיק. She's prettyיפה."
141
315560
2370
"זה מצחיק."
"היא יפה."
05:29
You mightאולי think that those are more sophisticatedמתוחכם,
142
317930
2105
אולי נראה לכם שאלה יחידות
מתוחכמות יותר,
05:32
but actuallyלמעשה what's more complicatedמסובך
143
320035
1506
אך למעשה, מה שיותר מורכב
הוא ההיררכיה שביסודן.
05:33
is the hierarchyהִיֵרַרכִיָה beneathתַחַת them.
144
321541
2669
05:36
There was a 16-year-old-גיל girlילדה, she had brainמוֹחַ surgeryכִּירוּרגִיָה,
145
324210
2620
נערה אחת, בת 16,
עברה ניתוח מוח,
05:38
and she was consciousמוּדָע because the surgeonsמנתחים
146
326830
2051
והיא היתה בהכרה
משום שהמנתחים שלה
רצו לשוחח איתה -
05:40
wanted to talk to her.
147
328881
1537
05:42
You can do that because there's no painכְּאֵב receptorsקולטנים
148
330418
1822
-- זה אפשרי,
כי אין במוח קולטני כאב --
05:44
in the brainמוֹחַ.
149
332240
1038
05:45
And wheneverבְּכָל פַּעַם they stimulatedמוּמרָץ particularמיוחד,
150
333278
1800
ובכל פעם שהם גירו
נקודות זעירות מסוימות
בניאו-קורטקס שלה,
05:47
very smallקָטָן pointsנקודות on her neocortexניוקורטקס,
151
335078
2463
05:49
shownמוצג here in redאָדוֹם, she would laughלִצְחוֹק.
152
337541
2665
שמוצגות כאן באדום,
היא צחקה.
05:52
So at first they thought they were triggeringמפעילה
153
340206
1440
תחילה הם חשבו שהם מגרים
רפלקס צחוק כלשהו,
05:53
some kindסוג of laughלִצְחוֹק reflexרֶפלֶקס,
154
341646
1720
05:55
but no, they quicklyבִּמְהִירוּת realizedהבין they had foundמצאתי
155
343366
2519
אבל לא. הם הבינו במהרה
שהם גילו
05:57
the pointsנקודות in her neocortexניוקורטקס that detectלזהות humorהוּמוֹר,
156
345885
3044
בניאו-קורטקס שלה
את הנקודות שמזהות הומור,
06:00
and she just foundמצאתי everything hilariousמצחיק
157
348929
1969
ולכן היא חשבה שהכל מצחיק
06:02
wheneverבְּכָל פַּעַם they stimulatedמוּמרָץ these pointsנקודות.
158
350898
2437
בכל פעם שהם גירו
את הנקודות האלה.
06:05
"You guys are so funnyמצחיק just standingעוֹמֵד around,"
159
353335
1925
"אתם כל-כך מצחיקים
כשאתם עומדים ככה מסביב,"
06:07
was the typicalאופייני commentתגובה,
160
355260
1738
היתה התגובה האופיינית,
06:08
and they weren'tלא היו funnyמצחיק,
161
356998
2302
והם לא היו מצחיקים כלל.
06:11
not while doing surgeryכִּירוּרגִיָה.
162
359300
3247
לא במהלך הניתוח.
06:14
So how are we doing todayהיום?
163
362547
4830
אז מה מצבנו היום?
06:19
Well, computersמחשבים are actuallyלמעשה beginningהתחלה to masterלִשְׁלוֹט
164
367377
3054
ובכן, המחשבים מתחילים להשתלט
על השפה האנושית
06:22
humanבן אנוש languageשפה with techniquesטכניקות
165
370431
2001
בעזרת טכניקות דומות לאלה
של הניאו-קורטקס.
06:24
that are similarדוֹמֶה to the neocortexניוקורטקס.
166
372432
2867
06:27
I actuallyלמעשה describedמְתוּאָר the algorithmאַלגוֹרִיתְם,
167
375299
1514
למען האמת, תיארתי את האלגוריתם,
שדומה למשהו שקרוי:
06:28
whichאיזה is similarדוֹמֶה to something calledשקוראים לו
168
376813
2054
06:30
a hierarchicalהיררכי hiddenמוּסתָר Markovמרקוב modelדֶגֶם,
169
378867
2233
"מודל מרקוב היררכי סמוי",
שאני עובד עליו מאז שנות ה-90.
06:33
something I've workedעבד on sinceמאז the '90s.
170
381100
3241
06:36
"Jeopardyסַכָּנָה" is a very broadרָחָב naturalטִבעִי languageשפה gameמִשְׂחָק,
171
384341
3238
"ג'פרדי" הוא שעשועון שפה טבעית
מקיף ביותר,
06:39
and Watsonווטסון got a higherגבוה יותר scoreציון
172
387579
1892
והמחשב "ווטסון" השיג ניקוד גבוה יותר
06:41
than the bestהטוב ביותר two playersשחקנים combinedמְשׁוּלָב.
173
389471
2000
משני השחקנים הטובים ביותר
גם יחד.
06:43
It got this queryשאילתא correctנכון:
174
391471
2499
הוא הבין נכון את החידה הזו:
06:45
"A long, tiresomeמְשַׁעֲמֵם speechנְאוּם
175
393970
2085
"נאום ארוך ומייגע
שנושא ציפוי של עוגה,"
06:48
deliveredנמסר by a frothyמוּקצָף pieפַּאִי toppingציפוי,"
176
396055
2152
06:50
and it quicklyבִּמְהִירוּת respondedהשיב,
"What is a meringueמִקצֶפֶת harangueתוֹכֵחָה?"
177
398207
2796
וענה במהירות:
"כמה שהקצפת מעייפת",
06:53
And Jenningsג 'נינגס and the other guy didn't get that.
178
401003
2635
בעוד ג'נינגס והמתחרה השני
לא הבינו זאת.
06:55
It's a prettyיפה sophisticatedמתוחכם exampleדוגמא of
179
403638
1926
זאת דוגמה מתוחכמת למדי
למחשב שמבין שפה אנושית,
06:57
computersמחשבים actuallyלמעשה understandingהֲבָנָה humanבן אנוש languageשפה,
180
405564
1914
06:59
and it actuallyלמעשה got its knowledgeיֶדַע by readingקריאה
181
407478
1652
והוא רכש את הידע שלו מקריאת
"וויקיפדיה" ואנציקלופדיות נוספות.
07:01
Wikipediaויקיפדיה and severalכַּמָה other encyclopediasאנציקלופדיות.
182
409130
3785
07:04
Fiveחָמֵשׁ to 10 yearsשנים from now,
183
412915
2133
בעוד 5-10 שנים
07:07
searchחפש enginesמנועים will actuallyלמעשה be basedמבוסס on
184
415048
2184
מנועי החיפוש יהיו מבוססים
לא רק על חיפוש
צירופי מלים וקישורים,
07:09
not just looking for combinationsשילובים of wordsמילים and linksקישורים
185
417232
2794
07:12
but actuallyלמעשה understandingהֲבָנָה,
186
420026
1914
אלא על הבנה ממשית,
07:13
readingקריאה for understandingהֲבָנָה the billionsמיליארדים of pagesדפים
187
421940
2411
וכדי להבין הם יקראו
מיליארדי דפים ברשת ובספרים.
07:16
on the webאינטרנט and in booksספרים.
188
424351
2733
07:19
So you'llאתה be walkingהליכה alongלְאוֹרֶך, and GoogleGoogle will popפּוֹפּ up
189
427084
2616
לדוגמה, את תטיילי לך,
ו"גוגל" יעלה ויגיד:
07:21
and say, "You know, Maryמרי, you expressedהביע concernדְאָגָה
190
429700
3081
"את יודעת, מרי,
לפני חודש הבעת בפני דאגה
07:24
to me a monthחוֹדֶשׁ agoלִפנֵי that your glutathioneגלוטתיון supplementלְהַשְׁלִים
191
432781
3019
"מכך שתוסף הגלותטיון שלך
לא עובר את מחסום דם המוח.
07:27
wasn'tלא היה gettingמקבל pastעבר the blood-brainדם מוח barrierמַחסוֹם.
192
435800
2231
07:30
Well, newחָדָשׁ researchמחקר just cameבא out 13 secondsשניות agoלִפנֵי
193
438031
2593
"אז מחקר שפורסם לפני 13 שניות
07:32
that showsמופעים a wholeכֹּל newחָדָשׁ approachגִישָׁה to that
194
440624
1711
"מציג גישה חדשה לגמרי לכך
ודרך חדשה לנטילת גלותטיון.
07:34
and a newחָדָשׁ way to take glutathioneגלוטתיון.
195
442335
1993
"הבה ואסכם אותו עבורך."
07:36
Let me summarizeלְסַכֵּם it for you."
196
444328
2562
07:38
Twentyעשרים yearsשנים from now, we'llטוֹב have nanobotsnanobots,
197
446890
3684
בעוד 20 שנה
יהיו לנו ננובוטים,
07:42
because anotherאַחֵר exponentialאקספוננציאלית trendמְגַמָה
198
450574
1627
כי מגמה מעריכית נוספת
היא מיזעור הטכנולוגיה.
07:44
is the shrinkingהִתכַּוְצוּת of technologyטֶכנוֹלוֹגִיָה.
199
452201
1615
07:45
They'llהם יהיו go into our brainמוֹחַ
200
453816
2370
הם ייכנסו למוח דרך נימי הדם
07:48
throughדרך the capillariesנימים
201
456186
1703
ועקרונית, יחברו את הניאו-קורטקס
07:49
and basicallyבעיקרון connectלְחַבֵּר our neocortexניוקורטקס
202
457889
2477
07:52
to a syntheticמְלָאכוּתִי neocortexניוקורטקס in the cloudענן
203
460366
3185
לניאו-קורטקס מלאכותי בענן,
07:55
providingמתן an extensionסיומת of our neocortexניוקורטקס.
204
463551
3591
ובכך יספקו הרחבה
לניאו-קורטקס שלנו.
07:59
Now todayהיום, I mean,
205
467142
1578
היום יש הרי מחשב
בטלפונים שלנו,
08:00
you have a computerמַחשֵׁב in your phoneטלפון,
206
468720
1530
08:02
but if you need 10,000 computersמחשבים for a fewמְעַטִים secondsשניות
207
470250
2754
אבל כשנחוצים 10,000 מחשבים
לכמה שניות, לחיפוש מורכב,
08:05
to do a complexמורכב searchחפש,
208
473004
1495
08:06
you can accessגִישָׁה that for a secondשְׁנִיָה or two in the cloudענן.
209
474499
3396
אפשר לגשת אליהם
לשניה או שתיים, בענן.
08:09
In the 2030s, if you need some extraתוֹסֶפֶת neocortexניוקורטקס,
210
477895
3095
בשנות ה-30 של המאה ה-21,
אם נזדקק לתוספת ניאו-קורטקס,
08:12
you'llאתה be ableיכול to connectלְחַבֵּר to that in the cloudענן
211
480990
2273
נוכל להתחבר אליו בענן
ישירות מן המוח.
08:15
directlyבאופן ישיר from your brainמוֹחַ.
212
483263
1648
08:16
So I'm walkingהליכה alongלְאוֹרֶך and I say,
213
484911
1543
למשל, אני מטייל לי ואומר:
08:18
"Oh, there's Chrisכריס Andersonאנדרסון.
214
486454
1363
"הנה כריס אנדרסון.
הוא בא לקראתי.
08:19
He's comingמגיע my way.
215
487817
1525
"כדאי שיהיה לי משהו מחוכם לומר.
08:21
I'd better think of something cleverחכם to say.
216
489342
2335
08:23
I've got threeשְׁלוֹשָׁה secondsשניות.
217
491677
1524
"יש לי 3 שניות.
08:25
My 300 millionמִילִיוֹן modulesמודולים in my neocortexניוקורטקס
218
493201
3097
"300 מיליון היחידות
של הניאו-קורטקס שלי
"לא יספיקו בשביל זה.
אני זקוק לעוד מיליארד,"
08:28
isn't going to cutגזירה it.
219
496298
1240
08:29
I need a billionמיליארד more."
220
497538
1246
08:30
I'll be ableיכול to accessגִישָׁה that in the cloudענן.
221
498784
3323
ואני אוכל לגשת אליהן בענן.
08:34
And our thinkingחושב, then, will be a hybridהיברידי
222
502107
2812
ואז החשיבה שלנו תהיה
חשיבת-כלאיים:
08:36
of biologicalבִּיוֹלוֹגִי and non-biologicalלא ביולוגי thinkingחושב,
223
504919
3522
ביולוגית וגם לא-ביולוגית.
08:40
but the non-biologicalלא ביולוגי portionחֵלֶק
224
508441
1898
אבל החלק הלא-ביולוגי
08:42
is subjectנושא to my lawחוֹק of acceleratingמאיצה returnsהחזרות.
225
510339
2682
כפוף ל"חוק ההחזר המואץ" שלי:
08:45
It will growלגדול exponentiallyאקספוננציאלית.
226
513021
2239
הוא יגדל באופן מעריכי.
08:47
And rememberלִזכּוֹר what happensקורה
227
515260
2016
זוכרים מה קרה
08:49
the last time we expandedמוּרחָב our neocortexניוקורטקס?
228
517276
2645
בפעם האחרונה בה הרחבנו
את הניאו-קורטקס שלנו?
08:51
That was two millionמִילִיוֹן yearsשנים agoלִפנֵי
229
519921
1426
זה היה לפני 2 מיליון שנים,
כשהפכנו לדמויי-אדם
08:53
when we becameהפכתי humanoidsאנושי
230
521347
1236
08:54
and developedמפותח these largeגָדוֹל foreheadsהמצח.
231
522583
1594
ופיתחנו את המצח הרחב הזה.
08:56
Other primatesפרימטים have a slantedאֲלַכסוֹנִי browמֵצַח.
232
524177
2583
ליונקים עילאיים אחרים
יש מצח משופע.
08:58
They don't have the frontalחֲזִיתִי cortexקליפת המוח.
233
526760
1745
אין להם אונה מצחית.
09:00
But the frontalחֲזִיתִי cortexקליפת המוח is not
really qualitativelyאיכותית differentשונה.
234
528505
3685
אבל אונה מצחית אינה
שונה בעצם מבחינה איכותית.
09:04
It's a quantitativeכמותי expansionהַרחָבָה of neocortexניוקורטקס,
235
532190
2743
זו הרחבה כמותית של הניאו-קורטקס,
09:06
but that additionalנוֹסָף quantityכַּמוּת of thinkingחושב
236
534933
2703
אך אותה תוספת כמותית בחשיבה
היא הגורם שאיפשר לנו
09:09
was the enablingהמאפשר factorגורם for us to take
237
537636
1779
09:11
a qualitativeאֵיכוּתִי leapלִקְפּוֹץ and inventלִהַמצִיא languageשפה
238
539415
3346
את הזינוק האיכותי
ואת המצאת השפה
09:14
and artאומנות and scienceמַדָע and technologyטֶכנוֹלוֹגִיָה
239
542761
1967
והאמנות, והמדע, והטכנולוגיה,
09:16
and TEDTED conferencesכנסים.
240
544728
1454
ואת כנסי TED.
09:18
No other speciesמִין has doneבוצע that.
241
546182
2131
אין עוד מין שעשה זאת.
09:20
And so, over the nextהַבָּא fewמְעַטִים decadesעשרות שנים,
242
548313
2075
אז במהלך העשורים הבאים
נעשה זאת שוב.
09:22
we're going to do it again.
243
550388
1760
09:24
We're going to again expandלְהַרְחִיב our neocortexניוקורטקס,
244
552148
2274
אנו עומדים להרחיב שוב
את הניאו-קורטקס שלנו,
09:26
only this time we won'tרָגִיל be limitedמוגבל
245
554422
1756
אלא שהפעם לא נהיה מוגבלים
09:28
by a fixedתוקן architectureארכיטקטורה of enclosureקַרפִּיף.
246
556178
4280
בגלל ארכיטקטורה נוקשה
של מארז כזה או אחר.
09:32
It'llזה יהיה be expandedמוּרחָב withoutלְלֹא limitלְהַגבִּיל.
247
560458
3304
הניאו-קורטקס יתרחב בצורה אינסופית.
09:35
That additionalנוֹסָף quantityכַּמוּת will again
248
563762
2243
ושוב, תוספת הכמות
09:38
be the enablingהמאפשר factorגורם for anotherאַחֵר qualitativeאֵיכוּתִי leapלִקְפּוֹץ
249
566005
3005
תהיה הגורם שיאפשר
זינוק איכותי נוסף
09:41
in cultureתַרְבּוּת and technologyטֶכנוֹלוֹגִיָה.
250
569010
1635
בתרבות ובטכנולוגיה.
09:42
Thank you very much.
251
570645
2054
תודה רבה לכם.
[מחיאות כפיים]
09:44
(Applauseתְשׁוּאוֹת)
252
572699
3086
Translated by Shlomo Adam
Reviewed by Sigal Tifferet

▲Back to top

ABOUT THE SPEAKER
Ray Kurzweil - Inventor, futurist
Ray Kurzweil is an engineer who has radically advanced the fields of speech, text and audio technology. He's revered for his dizzying -- yet convincing -- writing on the advance of technology, the limits of biology and the future of the human species.

Why you should listen

Inventor, entrepreneur, visionary, Ray Kurzweil's accomplishments read as a startling series of firsts -- a litany of technological breakthroughs we've come to take for granted. Kurzweil invented the first optical character recognition (OCR) software for transforming the written word into data, the first print-to-speech software for the blind, the first text-to-speech synthesizer, and the first music synthesizer capable of recreating the grand piano and other orchestral instruments, and the first commercially marketed large-vocabulary speech recognition.

Yet his impact as a futurist and philosopher is no less significant. In his best-selling books, which include How to Create a Mind, The Age of Spiritual Machines, The Singularity Is Near: When Humans Transcend Biology, Kurzweil depicts in detail a portrait of the human condition over the next few decades, as accelerating technologies forever blur the line between human and machine.

In 2009, he unveiled Singularity University, an institution that aims to "assemble, educate and inspire leaders who strive to understand and facilitate the development of exponentially advancing technologies." He is a Director of Engineering at Google, where he heads up a team developing machine intelligence and natural language comprehension.

More profile about the speaker
Ray Kurzweil | Speaker | TED.com