ABOUT THE SPEAKER
Marvin Minsky - AI pioneer
Marvin Minsky is one of the great pioneers of artificial intelligence -- and using computing metaphors to understand the human mind. His contributions to mathematics, robotics and computational linguistics are legendary and far-reaching.

Why you should listen

Marvin Minsky is the superstar-elder of artificial intelligence, one of the most productive and important cognitive scientists of the century, and the leading proponent of the Society of Mind theory. Articulated in his 1985 book of the same name, Minsky's theory says intelligence is not born of any single mechanism, but from the interaction of many independent agents. The book's sequel,The Emotion Machine (2006), says similar activity also accounts for feelings, goals, emotions and conscious thoughts.

Minsky also pioneered advances in mathematics, computational linguistics, optics, robotics and telepresence. He built SNARC, the first neural network simulator, some of the first visual scanners, and the first LOGO "turtle." From his headquarters at MIT's Media Lab and the AI Lab (which he helped found), he continues to work on, as he says, "imparting to machines the human capacity for commonsense reasoning."

More profile about the speaker
Marvin Minsky | Speaker | TED.com
TED2003

Marvin Minsky: Health and the human mind

Мервін Мінський: Здоров'я і людський розум

Filmed:
606,909 views

Уважно послухайте, як Марвін Мінський говорить про проблеми здоров'я, перенаселення, людського розуму в своєму грайливому, еклектичному експромті, сповненому дотепності і водночас мудрості, а також дає кілька несподіваних порад.
- AI pioneer
Marvin Minsky is one of the great pioneers of artificial intelligence -- and using computing metaphors to understand the human mind. His contributions to mathematics, robotics and computational linguistics are legendary and far-reaching. Full bio

Double-click the English transcript below to play the video.

00:18
If you askзапитай people about what partчастина of psychologyпсихологія do they think is hardважко,
0
0
6000
Якщо ви запитаєте людей, яка галузь
психології, на їхню думку,
00:24
and you say, "Well, what about thinkingмислення and emotionsемоції?"
1
6000
3000
є складною, і конкретно спитаєте
про мислення та емоції,
00:27
MostБільшість people will say, "EmotionsЕмоції are terriblyстрашно hardважко.
2
9000
3000
більшість скажуть:
"Емоції є надскладними.
00:30
They're incrediblyнеймовірно complexкомплекс. They can't -- I have no ideaідея of how they work.
3
12000
6000
Вони неймовірно складні.
Я не уявляю, як вони працюють.
00:36
But thinkingмислення is really very straightforwardпрямий:
4
18000
2000
А от мислення вивчати значно легше:
00:38
it's just sortсортувати of some kindдоброзичливий of logicalлогічний reasoningміркування, or something.
5
20000
4000
це певний вид логічного міркування
або чогось такого.
00:42
But that's not the hardважко partчастина."
6
24000
3000
Та це явно не найскладніша частина".
00:45
So here'sось тут a listсписок of problemsпроблеми that come up.
7
27000
2000
Перед нами виникає ряд проблем.
00:47
One niceприємно problemпроблема is, what do we do about healthздоров'я?
8
29000
3000
Одна з цих проблем полягає в тому,
що нам робити зі здоров’ям?
00:50
The other day, I was readingчитання something, and the personлюдина said
9
32000
4000
Одного дня я десь прочитав,
що, ймовірно,
00:54
probablyймовірно the largestнайбільший singleсингл causeпричина of diseaseхвороба is handshakingрукостискання in the WestЗахід.
10
36000
6000
найбільшою причиною захворювань
на Заході є рукостискання.
01:00
And there was a little studyвивчення about people who don't handshakeрукостискання,
11
42000
4000
Проводилося дослідження, у якому
порівняли тих, хто при вітанні
01:04
and comparingпорівнюючи them with onesті, хто who do handshakeрукостискання.
12
46000
3000
вдається до рукостискання, і тих,
хто до цього не вдається.
01:07
And I haven'tні the foggiestні найменшого ideaідея of where you find the onesті, хто that don't handshakeрукостискання,
13
49000
5000
Я не маю ані найменшого уявлення,
де можна знайти тих,
01:12
because they mustповинен be hidingприховування.
14
54000
3000
хто не вдається до рукостискання --
мабуть, вони десь ховаються.
01:15
And the people who avoidуникати that
15
57000
4000
Однак серед людей,
які уникають рукостискань,
01:19
have 30 percentвідсоток lessменше infectiousінфекційні diseaseхвороба or something.
16
61000
4000
на 30 відсотків менше
інфекційних захворювань.
01:23
Or maybe it was 31 and a quarterквартал percentвідсоток.
17
65000
3000
Або, можливо, це було
31 з чвертю відсотка.
01:26
So if you really want to solveвирішити the problemпроблема of epidemicsепідемії and so forthчетвертий,
18
68000
4000
Отже, якщо ви дійсно хочете вирішити
01:30
let's startпочати with that. And sinceз I got that ideaідея,
19
72000
4000
проблему епідемій і тому подібного,
почніть із цього.
01:34
I've had to shakeструсити hundredsсотні of handsруки.
20
76000
4000
Відколи я дізнався про дану ідею,
мені довелося потиснути сотні рук.
01:38
And I think the only way to avoidуникати it
21
80000
5000
І я думаю, що єдиний спосіб
уникнути цього -
01:43
is to have some horribleжахливо visibleвидимий diseaseхвороба,
22
85000
2000
це мати якусь жахливу видиму хворобу,
01:45
and then you don't have to explainпояснити.
23
87000
3000
і тоді все вирішується само собою.
01:48
EducationОсвіта: how do we improveполіпшити educationосвіта?
24
90000
4000
Освіта: як ми можемо вдосконалити освіту?
01:52
Well, the singleсингл bestнайкраще way is to get them to understandзрозуміти
25
94000
4000
Найкращий спосіб -
це змусити людей зрозуміти,
01:56
that what they're beingбуття told is a wholeцілий lot of nonsenseнісенітниця.
26
98000
3000
що те, що їм розповідали -
це абсолютні дурниці.
01:59
And then, of courseзвичайно, you have to do something
27
101000
2000
Та тоді, звичайно, вам доведеться
02:01
about how to moderateпомірний that, so that anybodyніхто can -- so they'llвони будуть listen to you.
28
103000
5000
зробити застереження, щоб
до вас хоча б прислухалися.
02:06
PollutionЗабруднення, energyенергія shortageбрак, environmentalекологічний diversityрізноманітність, povertyбідність.
29
108000
4000
Забруднення, нестача енергії,
екологічне розмаїття, бідність.
02:10
How do we make stableстабільний societiesтовариства? LongevityДовголіття.
30
112000
4000
Як нам створити стабільне суспільство?
Довгожительство.
02:14
Okay, there'reтам є lots of problemsпроблеми to worryтурбуватися about.
31
116000
3000
Звичайно, є багато проблем,
якими варто перейматись.
02:17
AnywayУ всякому разі, the questionпитання I think people should talk about --
32
119000
2000
У будь-якому разі, я думаю, що людей
02:19
and it's absolutelyабсолютно tabooтабу -- is, how manyбагато хто people should there be?
33
121000
5000
має хвилювати тема, що досі була табу:
яка допустима кількість населення планети?
02:24
And I think it should be about 100 millionмільйон or maybe 500 millionмільйон.
34
126000
7000
І я думаю, що це має бути близько
100 мільйонів чи, може, 500 мільйонів.
02:31
And then noticeпомітити that a great manyбагато хто of these problemsпроблеми disappearзникати.
35
133000
5000
І тоді, зверніть увагу,
дуже багато цих проблем зникне.
02:36
If you had 100 millionмільйон people
36
138000
2000
Якби на планеті було 100 мільйонів людей,
02:38
properlyправильно spreadпоширюватися out, then if there's some garbageсміття,
37
140000
6000
рівномірно розподілених по всій території,
тоді сміття можна просто викидати,
02:44
you throwкинути it away, preferablyбажано where you can't see it, and it will rotгнилі.
38
146000
7000
але бажано туди, де нікому не видно,
і де воно згниє.
02:51
Or you throwкинути it into the oceanокеан and some fishриба will benefitкористь from it.
39
153000
5000
Або кинути сміття в океан,
і деякі види риб виграють від цього.
02:56
The problemпроблема is, how manyбагато хто people should there be?
40
158000
2000
Проблема в тому, скільки людей має бути?
02:58
And it's a sortсортувати of choiceвибір we have to make.
41
160000
3000
Це свого роду вибір, який ми маємо зробити.
03:01
MostБільшість people are about 60 inchesдюйми highвисокий or more,
42
163000
3000
Зріст більшості людей становить
1,5 метри або більше.
03:04
and there's these cubeкуб lawsзакони. So if you make them this bigвеликий,
43
166000
4000
А якщо, враховуючи закони об'єму,
зробити їх ось такими маленькими,
03:08
by usingвикористовуючи nanotechnologyнанотехнології, I supposeприпустимо --
44
170000
3000
використовуючи нанотехнології,
то, на мою думку,
03:11
(LaughterСміх)
45
173000
1000
(Сміх)
03:12
-- then you could have a thousandтисяча timesразів as manyбагато хто.
46
174000
2000
тоді може бути
у тисячу разів більше людей.
03:14
That would solveвирішити the problemпроблема, but I don't see anybodyніхто
47
176000
2000
Це розв'яже проблему, але я не помічав,
03:16
doing any researchдослідження on makingвиготовлення people smallerменший.
48
178000
3000
щоб хтось робив якісь дослідження,
як зменшити розмір людей.
03:19
Now, it's niceприємно to reduceзменшити the populationнаселення, but a lot of people want to have childrenдіти.
49
181000
5000
Далі, зменшення населення - гарна мета,
але багато людей хочуть мати дітей.
03:24
And there's one solutionрішення that's probablyймовірно only a fewмало хто yearsроків off.
50
186000
3000
Є одне рішення, яке, мабуть, з’явиться
лише через кілька років.
03:27
You know you have 46 chromosomesхромосоми. If you're luckyвдалий, you've got 23
51
189000
5000
Ви знаєте, що у вас 46 хромосом.
Якщо ви щасливчик, ви отримуєте 23
03:32
from eachкожен parentбатько. SometimesІноді you get an extraдодатково one or dropпадіння one out,
52
194000
6000
від батька і матері. Іноді можна отримати
одну додаткову, чи на одну менше,
03:38
but -- so you can skipпропустити the grandparentДідусь and great-grandparentвеликий дідусь stageетап
53
200000
4000
але – так, що ви можете пропустити
прабатьківський і прадідівський етап
03:42
and go right to the great-great-grandparentвеликий великий дідусь. And you have 46 people
54
204000
5000
і йти зразу до пра-пра-прабатьків.
Ви маєте 46 людей,
03:47
and you give them a scannerсканер, or whateverщо б не було you need,
55
209000
3000
ви даєте їм сканер чи все, що потрібно,
03:50
and they look at theirїх chromosomesхромосоми and eachкожен of them saysкаже
56
212000
4000
вони дивляться на свої хромосоми,
і кожен з них говорить,
03:54
whichкотрий one he likesлюбить bestнайкраще, or she -- no reasonпричина to have just two sexesчоловіками і жінками
57
216000
5000
що йому подобається більше, чи їй --
зрештою, статей може бути більше, ніж дві.
03:59
any more, even. So eachкожен childдитина has 46 parentsбатьки,
58
221000
5000
Отже, кожна дитина має 46 батьків,
і я припускаю,
04:04
and I supposeприпустимо you could let eachкожен groupгрупа of 46 parentsбатьки have 15 childrenдіти.
59
226000
6000
можна навіть дозволити кожній
групі із 46 батьків мати 15 дітей.
04:10
Wouldn'tНе буде that be enoughдостатньо? And then the childrenдіти
60
232000
2000
Певно, цього буде цілком досить?
04:12
would get plentyбагато of supportпідтримка, and nurturingвиховання, and mentoringнаставництво,
61
234000
4000
І тоді діти отримають більшу підтримку,
виховання, наставництво,
04:16
and the worldсвіт populationнаселення would declineзанепаду very rapidlyшвидко
62
238000
2000
а населення світу
швидко зменшуватиметься,
04:18
and everybodyкожен would be totallyповністю happyщасливий.
63
240000
3000
і при цьому всі будуть
цілком задоволеними.
04:21
TimesharingTimesharing is a little furtherдалі off in the futureмайбутнє.
64
243000
3000
А трохи далі в майбутньому
нас чекає мультивласність.
04:24
And there's this great novelРоман that ArthurАртур ClarkeКларк wroteписав twiceдвічі,
65
246000
3000
Артур Кларк двічі написав
про це чудовий роман,
04:27
calledназивається "AgainstПроти the FallПадіння of Night" and "The CityМісто and the StarsЗірочок."
66
249000
4000
під назвою «Проти приходу ночі»
та «Місто й зірки».
04:31
They're bothобидва wonderfulчудово and largelyзначною мірою the sameтой же,
67
253000
3000
Вони обидва чудові і в основному схожі,
тільки між появою
04:34
exceptокрім that computersкомп'ютери happenedсталося in betweenміж.
68
256000
2000
першого і другого
були створені комп’ютери.
04:36
And ArthurАртур was looking at this oldстарий bookкнига, and he said, "Well, that was wrongнеправильно.
69
258000
5000
Тож Артур подивився на свою стару книжку,
і сказав «Що ж, це було неправильно.
04:41
The futureмайбутнє mustповинен have some computersкомп'ютери."
70
263000
2000
У майбутньому повинні бути комп’ютери».
04:43
So in the secondдругий versionверсія of it, there are 100 billionмільярд
71
265000
5000
Отже, у його другій версії, на Землі існує
100 мільярдів або 1000 мільярдів людей,
04:48
or 1,000 billionмільярд people on EarthЗемлі, but they're all storedзберігається on hardважко disksдиски or floppiesдискети,
72
270000
8000
однак вони зберігаються
на жорстких дисках чи дискетах,
04:56
or whateverщо б не було they have in the futureмайбутнє.
73
278000
2000
або інших носіях,
які будуть у майбутньому.
04:58
And you let a fewмало хто millionмільйон of them out at a time.
74
280000
4000
Почергово кілька мільйонів із них
виходять в світ на деякий час.
05:02
A personлюдина comesприходить out, they liveжити for a thousandтисяча yearsроків
75
284000
4000
Люди виходять, вони живуть
протягом тисячі років,
05:06
doing whateverщо б не було they do, and then, when it's time to go back
76
288000
6000
займаючись своїми справами,
а потім їм час повертатися назад
05:12
for a billionмільярд yearsроків -- or a millionмільйон, I forgetзабувай, the numbersномери don't matterматерія --
77
294000
4000
на мільярд, чи мільйон -- я забув,
та цифри не мають значення, --
05:16
but there really aren'tні very manyбагато хто people on EarthЗемлі at a time.
78
298000
4000
але в один і той же час на Землі
живе небагато людей.
05:20
And you get to think about yourselfсамі and your memoriesспогади,
79
302000
2000
Ви маєте час обдумати
себе та свої спогади,
05:22
and before you go back into suspensionпідвіски, you editредагувати your memoriesспогади
80
304000
5000
і перед тим, як повернутись у стан
"збереження", ви редагуєте свої спогади,
05:27
and you changeзмінити your personalityособистість and so forthчетвертий.
81
309000
3000
змінюєте свою особистість, і так далі.
05:30
The plotсюжет of the bookкнига is that there's not enoughдостатньо diversityрізноманітність,
82
312000
6000
Сюжет книги в тому, що там
не вистачає різноманітності особистостей,
05:36
so that the people who designedрозроблений the cityмісто
83
318000
3000
тому люди, які створили місто,
05:39
make sure that everyкожен now and then an entirelyповністю newновий personлюдина is createdстворений.
84
321000
4000
потурбувалися, щоб час від часу
там з’являлися зовсім нові люди.
05:43
And in the novelРоман, a particularконкретно one namedназваний AlvinЕлвін is createdстворений. And he saysкаже,
85
325000
6000
Один із героїв роману, на ім'я Елвін,
був створений саме так.
05:49
maybe this isn't the bestнайкраще way, and wrecksзатонулих суден the wholeцілий systemсистема.
86
331000
4000
Та він каже, що це - не найкращий вихід,
і руйнує всю систему.
05:53
I don't think the solutionsрішення that I proposedзапропонований
87
335000
2000
Я не вважаю, що рішення,
05:55
are good enoughдостатньо or smartрозумний enoughдостатньо.
88
337000
3000
яке я запропонував,
досить хороше чи розумне.
05:58
I think the bigвеликий problemпроблема is that we're not smartрозумний enoughдостатньо
89
340000
4000
На мою думку, існує велика проблема,
пов'язана з тим, що ми недостатньо розумні,
06:02
to understandзрозуміти whichкотрий of the problemsпроблеми we're facingоблицювання are good enoughдостатньо.
90
344000
4000
щоб збагнути, які з проблем, з якими
ми стикаємося, є пріоритетними.
06:06
ThereforeТому, we have to buildбудувати superсупер intelligentрозумний machinesмашини like HALHAL.
91
348000
4000
Таким чином, ми повинні будувати такі
суперінтелектуальні машини, як HAL.
06:10
As you rememberзгадаймо, at some pointточка in the bookкнига for "2001,"
92
352000
5000
Як ви пам’ятаєте,
в якийсь момент в книзі «2011»
06:15
HALHAL realizesусвідомлює that the universeвсесвіт is too bigвеликий, and grandвеликий, and profoundглибокий
93
357000
5000
HAL розуміє, що Всесвіт занадто великий,
грандіозний, глибокий
06:20
for those really stupidтупий astronautsастронавти. If you contrastконтраст HAL'sHAL behaviorповедінка
94
362000
4000
для цих вельми тупих астронавтів.
Якщо порівняти поведінку HAL
06:24
with the trivialityПекококсовий of the people on the spaceshipкосмічний корабель,
95
366000
4000
з пересічністю людей
на космічному кораблі,
06:28
you can see what's writtenнаписано betweenміж the linesлінії.
96
370000
3000
ви зможете побачити, що написано
між рядками.
06:31
Well, what are we going to do about that? We could get smarterрозумніше.
97
373000
3000
Що ми будемо робити з цим?
Ми могли б стати розумнішими.
06:34
I think that we're prettyкрасиво smartрозумний, as comparedпорівнювали to chimpanzeesшимпанзе,
98
376000
5000
Я думаю, що ми досить розумні,
в порівнянні з шимпанзе,
06:39
but we're not smartрозумний enoughдостатньо to dealугода with the colossalколосальний problemsпроблеми that we faceобличчя,
99
381000
6000
але наш розум заслабкий, щоб вирішити
величезні проблеми, з якими ми стикаємося
06:45
eitherабо in abstractабстрактний mathematicsматематика
100
387000
2000
чи то в абстрактній математиці,
06:47
or in figuringз'ясувати out economiesекономіки, or balancingбалансування the worldсвіт around.
101
389000
5000
чи в економіці, чи в побудові
збалансованого середовища.
06:52
So one thing we can do is liveжити longerдовше.
102
394000
3000
Отже, одне з того,
що ми можемо зробити - це жити довше.
06:55
And nobodyніхто knowsзнає how hardважко that is,
103
397000
2000
І ніхто не знає, як це важко,
06:57
but we'llдобре probablyймовірно find out in a fewмало хто yearsроків.
104
399000
3000
але ми, ймовірно, знайдемо рішення
протягом кількох років.
07:00
You see, there's two forksвилки in the roadдорога. We know that people liveжити
105
402000
3000
Як вам відомо, еволюція здатна
породжувати нові гілки.
07:03
twiceдвічі as long as chimpanzeesшимпанзе almostмайже,
106
405000
4000
Ми знаємо, що люди живуть
майже удвічі довше, ніж шимпанзе,
07:07
and nobodyніхто livesживе more than 120 yearsроків,
107
409000
4000
але верхня межа
тривалості життя - 120 років,
07:11
for reasonsпричин that aren'tні very well understoodзрозуміла.
108
413000
3000
і причини такого обмеження
не дуже добре вивчені.
07:14
But lots of people now liveжити to 90 or 100,
109
416000
3000
Але тепер багато людей живуть
до 90 або 100 років,
07:17
unlessякщо не they shakeструсити handsруки too much or something like that.
110
419000
4000
якщо вони не дуже часто вдаються до
рукостискань чи чогось подібного.
07:21
And so maybe if we livedщо жив 200 yearsроків, we could accumulateнакопичуються enoughдостатньо skillsнавички
111
423000
5000
І тому, можливо, якщо б ми жили 200 років,
ми могли б накопичувати
07:26
and knowledgeзнання to solveвирішити some problemsпроблеми.
112
428000
5000
достатньо навичок і знань,
що вирішувати деякі проблеми.
07:31
So that's one way of going about it.
113
433000
2000
Тож це один із можливих варіантів.
07:33
And as I said, we don't know how hardважко that is. It mightможе be --
114
435000
3000
І як я казав, ми не знаємо, як це важко.
І може бути --
07:36
after all, mostнайбільше other mammalsссавці liveжити halfполовина as long as the chimpanzeeшимпанзе,
115
438000
6000
зрештою, більшість інших ссавців
живуть вдвічі менше, ніж шимпанзе,
07:42
so we're sortсортувати of threeтри and a halfполовина or fourчотири timesразів, have fourчотири timesразів
116
444000
3000
тож наша тривалість життя
в три з половиною чи в чотири рази
07:45
the longevityдовговічність of mostнайбільше mammalsссавці. And in the caseсправа of the primatesприматів,
117
447000
6000
перевищує тривалість життя
більшості ссавців.
07:51
we have almostмайже the sameтой же genesгени. We only differвідрізняються from chimpanzeesшимпанзе,
118
453000
4000
А наші гени майже такі ж,
як і в інших приматів.
07:55
in the presentприсутній stateдержава of knowledgeзнання, whichкотрий is absoluteабсолютний hogwashhogwash,
119
457000
6000
Людство відрізняється від шимпанзе
лише обсягом накопичених знань,
08:01
maybe by just a fewмало хто hundredсто genesгени.
120
463000
2000
генетична ж різниця мізерна.
08:03
What I think is that the geneген countersЛічильники don't know what they're doing yetвсе-таки.
121
465000
3000
Я думаю, що любителі рахувати гени
не уявляють, що вони роблять.
08:06
And whateverщо б не було you do, don't readчитати anything about geneticsгенетика
122
468000
3000
І ким би ви не були, не читайте
публікацій з генетики,
08:09
that's publishedопубліковано withinв межах your lifetimeчас життя, or something.
123
471000
3000
які вийшли впродовж вашого життя
чи приблизно в цей період.
08:12
(LaughterСміх)
124
474000
3000
(Сміх)
08:15
The stuffречі has a very shortкороткий half-lifeперіод напіврозпаду, sameтой же with brainмозок scienceнаука.
125
477000
4000
Інформація в галузі генетики, як і в
науках про мозок, дуже швидко старіє.
08:19
And so it mightможе be that if we just fixвиправити fourчотири or fiveп'ять genesгени,
126
481000
6000
Так що може виявитись, що досить
просто виправити 4 або 5 генів,
08:25
we can liveжити 200 yearsроків.
127
487000
2000
щоб люди змогли жити 200 років.
08:27
Or it mightможе be that it's just 30 or 40,
128
489000
3000
Або це може бути лише 30 чи 40,
08:30
and I doubtсумнів that it's severalкілька hundredсто.
129
492000
2000
і я сумніваюся, що це буде кілька сотень.
08:32
So this is something that people will be discussingобговорюючи
130
494000
4000
Отже, ця проблема
стане дуже дискусійною,
08:36
and lots of ethicistsту -- you know, an ethicistethicist is somebodyхтось
131
498000
3000
і багато фахівців з етики,
знаєте, фахівець з етики -- це той,
08:39
who seesбачить something wrongнеправильно with whateverщо б не було you have in mindрозум.
132
501000
3000
хто бачить у будь-яких ваших думках
щось не те.
08:42
(LaughterСміх)
133
504000
3000
(Сміх)
08:45
And it's very hardважко to find an ethicistethicist who considersрозглядає any changeзмінити
134
507000
4000
І дуже важко знайти фахівця з етики,
який би не ставився до змін
08:49
worthварто makingвиготовлення, because he saysкаже, what about the consequencesнаслідки?
135
511000
4000
із застереженням, тому що, як він каже:
а як же наслідки?
08:53
And, of courseзвичайно, we're not responsibleвідповідальний for the consequencesнаслідки
136
515000
3000
Однак хіба ми відповідаємо за наслідки
того, що робимо зараз?
08:56
of what we're doing now, are we? Like all this complaintскарга about clonesклонів.
137
518000
6000
Як всі ці скарги на клонів.
09:02
And yetвсе-таки two randomвипадковий people will mateМате and have this childдитина,
138
524000
3000
Зараз дві випадкові людини можуть
спаруватися і народити дитину,
09:05
and bothобидва of them have some prettyкрасиво rottenгнилі genesгени,
139
527000
4000
обоє батьків можуть мати кілька
досить кволих генів,
09:09
and the childдитина is likelyшвидше за все to come out to be averageсередній.
140
531000
4000
і дитина, швидше за все,
успадкує щось середнє.
09:13
WhichЯкий, by chimpanzeeшимпанзе standardsстандарти, is very good indeedдійсно.
141
535000
6000
Що, за стандартами шимпанзе,
насправді буде дуже добре.
09:19
If we do have longevityдовговічність, then we'llдобре have to faceобличчя the populationнаселення growthзростання
142
541000
3000
Якщо зросте тривалість життя,
то перенаселення не уникнути.
09:22
problemпроблема anywayвсе одно. Because if people liveжити 200 or 1,000 yearsроків,
143
544000
4000
Адже, якщо люди будуть жити
200 чи 1000 років,
09:26
then we can't let them have a childдитина more than about onceодин раз everyкожен 200 or 1,000 yearsроків.
144
548000
6000
тоді не можна дозволяти людям мати дітей
частіше, ніж раз на 200 чи 1000 років.
09:32
And so there won'tне буде be any workforceробоча сила.
145
554000
3000
А це означає цілковитий
дефіцит трудових ресурсів.
09:35
And one of the things LaurieЛорі GarrettГаррет pointedвказаний out, and othersінші have,
146
557000
4000
Лорі Гарретт та інші підкреслювали
одну дуже важливу обставину:
09:39
is that a societyсуспільство that doesn't have people
147
561000
5000
суспільство, у якому немає людей
працездатного віку,
09:44
of workingпрацює ageвік is in realреальний troubleбіда. And things are going to get worseгірше,
148
566000
3000
стикається зі справжньою катастрофою.
Умови життя погіршаться,
09:47
because there's nobodyніхто to educateвиховувати the childrenдіти or to feedгодувати the oldстарий.
149
569000
6000
тому що не буде нікого, щоб виховувати
дітей чи доглядати старих.
09:53
And when I'm talkingговорити about a long lifetimeчас життя, of courseзвичайно,
150
575000
2000
І коли я говорю про довге життя,
09:55
I don't want somebodyхтось who'sхто це? 200 yearsроків oldстарий to be like our imageзображення
151
577000
6000
звісно, я не хочу, щоб 200-літні були
такими, якими вони уявляються зараз --
10:01
of what a 200-year-old-років is -- whichкотрий is deadмертвий, actuallyнасправді.
152
583000
4000
200-літні старі,
насправді, це мертві.
10:05
You know, there's about 400 differentінший partsчастин of the brainмозок
153
587000
2000
Знаєте, у мозку є близько 400 ділянок,
10:07
whichкотрий seemздається to have differentінший functionsфункції.
154
589000
2000
які відповідають за різні функції.
10:09
NobodyНіхто не knowsзнає how mostнайбільше of them work in detailдетально,
155
591000
3000
Ніхто в деталях не знає,
як більшість із них працює,
10:12
but we do know that there'reтам є lots of differentінший things in there.
156
594000
4000
але ми знаємо, що там є
багато різних речей.
10:16
And they don't always work togetherразом. I like Freud'sФрейда theoryтеорія
157
598000
2000
І вони не завжди працюють разом.
10:18
that mostнайбільше of them are cancellingСкасування операції eachкожен other out.
158
600000
4000
Мені подобається теорія Фрейда, що
більшість із них компенсують одна одну.
10:22
And so if you think of yourselfсамі as a sortсортувати of cityмісто
159
604000
4000
І якщо ви бачите своїм аналогом
місто із сотнею ресурсів,
10:26
with a hundredсто resourcesресурси, then, when you're afraidбоїться, for exampleприклад,
160
608000
6000
тоді, коли ви, скажімо, боїтеся, ви
можете відкласти свої довгострокові цілі
10:32
you mayможе discardвідкинути your long-rangeдалекобійність goalsцілі, but you mayможе think deeplyглибоко
161
614000
4000
і натомість зосередитись
та сконцентруватись
10:36
and focusфокус on exactlyточно how to achieveдомогтися that particularконкретно goalмета.
162
618000
4000
на досягненні певної окремої мети.
10:40
You throwкинути everything elseінакше away. You becomeстати a monomaniacmonomaniac --
163
622000
3000
Ви відкидаєте геть усе інше.
Ви стаєте маніяком,
10:43
all you careтурбота about is not steppingМотори out on that platformплатформа.
164
625000
4000
який дбає лише про одне --
а саме, не зійти з наміченої колії.
10:47
And when you're hungryголодний, foodїжа becomesстає more attractiveпривабливий, and so forthчетвертий.
165
629000
4000
Так, якщо ви голодні, ви зосереджуєте
увагу на пошуку їжі, і так далі.
10:51
So I see emotionsемоції as highlyвисоко evolvedрозвинувся subsetsпідмножин of your capabilityздібності.
166
633000
6000
Тож я вважаю емоції високорозвиненими
підмножинами ваших здібностей.
10:57
EmotionЕмоція is not something addedдодано to thought. An emotionalемоційний stateдержава
167
639000
4000
Емоції це не щось,
що існує на додачу до думок.
11:01
is what you get when you removeвидалити 100 or 200
168
643000
4000
Емоційний стан - це те, що ви отримуєте,
11:05
of your normallyнормально availableдоступний resourcesресурси.
169
647000
3000
коли видаляєте 100 або 200 ресурсів,
наявних за звичайних умов.
11:08
So thinkingмислення of emotionsемоції as the oppositeнавпаки of -- as something
170
650000
3000
Отже, таке уявлення про емоції,
на противагу до теперішнього
11:11
lessменше than thinkingмислення is immenselyбезмірно productiveпродуктивний. And I hopeнадія,
171
653000
4000
уявлення про емоції як про недосконале
мислення, є надзвичайно продуктивним.
11:15
in the nextдалі fewмало хто yearsроків, to showпоказати that this will leadвести to smartрозумний machinesмашини.
172
657000
4000
І я сподіваюся, в наступні кілька років
це призведе до появи розумних машин.
11:19
And I guessздогадатися I better skipпропустити all the restвідпочинок of this, whichкотрий are some detailsподробиці
173
661000
3000
Думаю, мені краще дещо пропустити,
11:22
on how we mightможе make those smartрозумний machinesмашини and --
174
664000
5000
не зупинятись на деталях,
як саме створити цю розумну машину --
11:27
(LaughterСміх)
175
669000
5000
(Сміх)
11:32
-- and the mainосновний ideaідея is in factфакт that the coreядро of a really smartрозумний machineмашина
176
674000
5000
та основна ідея полягає в тому, що
ключова ознака справді розумної машини --
11:37
is one that recognizesвизнає that a certainпевний kindдоброзичливий of problemпроблема is facingоблицювання you.
177
679000
5000
це здатність визначати тип проблем,
з якими ми стикаємось.
11:42
This is a problemпроблема of suchтакий and suchтакий a typeтип,
178
684000
3000
Тобто, що перед нами
проблема такого і такого типу,
11:45
and thereforeотже there's a certainпевний way or waysшляхи of thinkingмислення
179
687000
5000
і значить, є певний спосіб,
чи певні способи мислення,
11:50
that are good for that problemпроблема.
180
692000
2000
які підходять для вирішення цієї проблеми.
11:52
So I think the futureмайбутнє, mainосновний problemпроблема of psychologyпсихологія is to classifyкласифікувати
181
694000
4000
Отже, я думаю, що в майбутньому головним
завданням психології буде класифікувати
11:56
typesтипи of predicamentsтруднощі, typesтипи of situationsситуації, typesтипи of obstaclesперешкоди
182
698000
4000
з одного боку, різні типи ситуацій,
складнощів, перешкод, а з іншого --
12:00
and alsoтакож to classifyкласифікувати availableдоступний and possibleможливий waysшляхи to think and pairпара them up.
183
702000
6000
наявні та можливі способи мислення, щоб
поставити їх у взаємну відповідність.
12:06
So you see, it's almostмайже like a PavlovianПавлова --
184
708000
3000
Отже, це майжеЮ як із теорією Павлова --
12:09
we lostзагублений the first hundredсто yearsроків of psychologyпсихологія
185
711000
2000
ми витратили перше сторіччя психології
12:11
by really trivialтривіальний theoriesтеорії, where you say,
186
713000
3000
на вкрай тривіальні теорії, скажімо,
12:14
how do people learnвчитися how to reactреагувати to a situationситуація? What I'm sayingкажучи is,
187
716000
6000
як люди вчаться реагувати на ситуації?
Тож я хочу сказати, що після того,
12:20
after we go throughчерез a lot of levelsрівні, includingв тому числі designingпроектування
188
722000
5000
як ми пройдемо безліч рівнів,
включаючи проектування
12:25
a hugeвеличезний, messyбрудний systemсистема with thousandsтисячі of portsпорти,
189
727000
3000
величезних, безладних систем
з тисячами зв'язків,
12:28
we'llдобре endкінець up again with the centralцентральний problemпроблема of psychologyпсихологія.
190
730000
4000
у кінцевому підсумку ми знову зіткнемося
з головною проблемою психології.
12:32
SayingГоворячи:, not what are the situationsситуації,
191
734000
3000
Нам треба буде зосередитись
не на типах ситуацій,
12:35
but what are the kindsвидів of problemsпроблеми
192
737000
2000
а навколо типів проблем і стратегій,
12:37
and what are the kindsвидів of strategiesстратегії, how do you learnвчитися them,
193
739000
3000
як їх вивчати, як їх поєднувати;
12:40
how do you connectпідключити them up, how does a really creativeкреативний personлюдина
194
742000
3000
а ознакою справді творчої людини
стане вміння
12:43
inventвинаходити a newновий way of thinkingмислення out of the availableдоступний resourcesресурси and so forthчетвертий.
195
745000
5000
знайти новий спосіб мислення
на основі наявних ресурсів, і так далі.
12:48
So, I think in the nextдалі 20 yearsроків,
196
750000
2000
Отож, я думаю, що у наступні 20 років,
12:50
if we can get ridпозбутися of all of the traditionalтрадиційний approachesпідходи to artificialштучний intelligenceрозвідка,
197
752000
5000
якщо ми зможемо позбутися традиційних
підходів до штучного інтелекту, таких як
12:55
like neuralнейронний netsсітки and geneticгенетичний algorithmsалгоритми
198
757000
2000
нейтронні мережі, генетичні алгоритми
12:57
and rule-basedзаснована правило systemsсистеми, and just turnповорот our sightsвизначні пам'ятки a little bitбіт higherвище to say,
199
759000
6000
і засновані на правилах системи, натомість
перейдемо на рівень вище, щоб побачити,
13:03
can we make a systemсистема that can use all those things
200
765000
2000
чи вдасться створити систему,
яка зможе все це
13:05
for the right kindдоброзичливий of problemпроблема? Some problemsпроблеми are good for neuralнейронний netsсітки;
201
767000
4000
застосувати для відповідних проблем?
Нейронні системи дуже добре підходять
13:09
we know that othersінші, neuralнейронний netsсітки are hopelessбезнадійно on them.
202
771000
3000
при одних проблемах, але при інших
ці системи просто безнадійні.
13:12
GeneticГенетичні algorithmsалгоритми are great for certainпевний things;
203
774000
3000
Генетичні алгоритми є чудовим
рішенням для певних проблем;
13:15
I suspectпідозрюваний I know what they're badпоганий at, and I won'tне буде tell you.
204
777000
4000
я підозрюю, що знаю і ті проблеми, де вони
є поганим рішенням, та вам цього не скажу.
13:19
(LaughterСміх)
205
781000
1000
(Сміх)
13:20
Thank you.
206
782000
2000
Дякую вам.
13:22
(ApplauseОплески)
207
784000
6000
(Оплески)
Translated by Tetiana Baibula
Reviewed by Myroslava Krugliak

▲Back to top

ABOUT THE SPEAKER
Marvin Minsky - AI pioneer
Marvin Minsky is one of the great pioneers of artificial intelligence -- and using computing metaphors to understand the human mind. His contributions to mathematics, robotics and computational linguistics are legendary and far-reaching.

Why you should listen

Marvin Minsky is the superstar-elder of artificial intelligence, one of the most productive and important cognitive scientists of the century, and the leading proponent of the Society of Mind theory. Articulated in his 1985 book of the same name, Minsky's theory says intelligence is not born of any single mechanism, but from the interaction of many independent agents. The book's sequel,The Emotion Machine (2006), says similar activity also accounts for feelings, goals, emotions and conscious thoughts.

Minsky also pioneered advances in mathematics, computational linguistics, optics, robotics and telepresence. He built SNARC, the first neural network simulator, some of the first visual scanners, and the first LOGO "turtle." From his headquarters at MIT's Media Lab and the AI Lab (which he helped found), he continues to work on, as he says, "imparting to machines the human capacity for commonsense reasoning."

More profile about the speaker
Marvin Minsky | Speaker | TED.com