ABOUT THE SPEAKER
Susan Blackmore - Memeticist
Susan Blackmore studies memes -- those self-replicating "life forms" that spread themselves via human consciousness. We're now headed, she believes, toward a new form of meme, spread by the technology we've created.

Why you should listen

Susan Blackmore is dedicated to understanding the scientific nature of consciousness. Her latest work centers on the existence of memes -- little bits of knowledge, lore, habit that seem to spread themselves using human brains as mere carriers. She's exploring the existence of a new class of meme, spread by human technology. It's temporarily named the "teme."

She has written about memes, consciousness, and near-death experiences; has appeared on the British Big Brother to discuss the psychology of the participants; and writes for the Guardian UK.

More profile about the speaker
Susan Blackmore | Speaker | TED.com
TED2008

Susan Blackmore: Memes and "temes"

Сюзан Блекмор за мемите и "темите"

Filmed:
882,044 views

Сюзан Блекмор изучава мемите: идеи, които се повтарят от мозък към мозък като вирус. Тя прави едно дръзко ново твърдение: Човечеството е родило един нов вид мема - темата, която се разпространява чрез технология - и изобретява начини сама да се поддържа жива.
- Memeticist
Susan Blackmore studies memes -- those self-replicating "life forms" that spread themselves via human consciousness. We're now headed, she believes, toward a new form of meme, spread by the technology we've created. Full bio

Double-click the English transcript below to play the video.

00:18
CulturalКултурни evolutionеволюция is a dangerousопасно childдете
0
0
3000
Културната еволюция е опасно дете
00:21
for any speciesвид to let looseхлабав on its planetпланета.
1
3000
3000
за освобождаване от който и да било вид на планетата му.
00:24
By the time you realizeосъзнавам what's happeningслучва, the childдете is a toddlerмалко дете,
2
6000
4000
Докато разбереш какво става, детето прохожда,
00:28
up and causingпричинявайки havocхаос, and it's too lateкъсен to put it back.
3
10000
6000
тръгва да всява хаос, и е твърде късно да го върнеш.
00:34
We humansхората are Earth'sНа земята PandoranPandoran speciesвид.
4
16000
3000
Ние, хората, сме пандорският вид на Земята.
00:37
We're the onesтакива who let the secondвтори replicatorрепликатор out of its boxкутия,
5
19000
5000
Ние сме тези, които пуснаха втория репликатор от кутията му,
00:42
and we can't pushтласък it back in.
6
24000
2000
и не можем да го натикаме пак вътре.
00:44
We're seeingвиждане the consequencesпоследствия all around us.
7
26000
3000
Виждаме последствията навсякъде около нас.
00:48
Now that, I suggestпредлагам, is the viewизглед that
8
30000
4000
Това, предполагам, е възгледът,
00:52
comesидва out of takingприемате memeticsмеметиката seriouslyсериозно.
9
34000
2000
който произлиза от приемането на меметиката насериозно.
00:54
And it givesдава us a newнов way of thinkingмислене about
10
36000
2000
И той ни дава един нов начин да мислим
00:56
not only what's going on on our planetпланета,
11
38000
2000
не само за това какво става по нашата планета,
00:58
but what mightбиха могли, може be going on elsewhereдругаде in the cosmosкосмос.
12
40000
3000
а и какво може би става другаде в космоса.
01:01
So first of all, I'd like to say something about memeticsмеметиката
13
43000
3000
Затова първо бих искала да кажа нещо за меметиката
01:04
and the theoryтеория of memesмемета,
14
46000
2000
и теорията за мемите,
01:06
and secondlyна второ място, how this mightбиха могли, може answerотговор questionsвъпроси about who'sкой е out there,
15
48000
5000
и второ, как това би могло да отговори на въпроси за това кой е там, навън,
01:11
if indeedнаистина anyoneнякой is.
16
53000
3000
ако наистина има такъв.
01:14
So, memeticsмеметиката:
17
56000
2000
И така, меметика.
01:16
memeticsмеметиката is foundedоснован on the principleпринцип of UniversalУниверсални DarwinismДарвинизъм.
18
58000
4000
Меметиката е основана върху принципа на универсалния дарвинизъм.
01:20
DarwinДарвин had this amazingудивителен ideaидея.
19
62000
3000
На Дарвин му хрумнала изумителна идея.
01:23
IndeedНаистина, some people say
20
65000
2000
Всъщност, според някои хора
01:25
it's the bestнай-доброто ideaидея anybodyнякой ever had.
21
67000
3000
това е най-добрата идея, хрумвала някога на някого.
01:28
Isn't that a wonderfulчудесен thought, that there could be suchтакъв a thing
22
70000
4000
Не е ли чудесна мисъл, че би могло да има такова нещо
01:32
as a bestнай-доброто ideaидея anybodyнякой ever had?
23
74000
2000
като най-добра идея, хрумвала някога на някого?
01:34
Do you think there could?
24
76000
1000
Смятате ли, че би могло?
01:35
AudienceАудитория: No.
25
77000
1000
Публика: Не.
01:36
(LaughterСмях)
26
78000
1000
(Смях)
01:37
SusanСюзън BlackmoreБлекмор: SomeoneНякой saysказва no, very loudlyсилно, from over there.
27
79000
2000
Сюзан Блекмор: Някой казва не, много силно, ей оттам.
01:39
Well, I say yes, and if there is, I give the prizeнаграда to DarwinДарвин.
28
81000
4000
Е, аз казвам да, и ако има такава, давам наградата на Дарвин.
01:43
Why?
29
85000
2000
Защо?
01:45
Because the ideaидея was so simpleпрост,
30
87000
3000
Защото идеята била толкова проста,
01:48
and yetоще it explainsобяснява all designдизайн in the universeвселена.
31
90000
6000
и все пак обяснява целия дизайн във вселената.
01:54
I would say not just biologicalбиологичен designдизайн,
32
96000
2000
Бих казала, не само биологичен дизайн,
01:56
but all of the designдизайн that we think of as humanчовек designдизайн.
33
98000
2000
но целия дизайн, за който мислим като за човешки дизайн.
01:58
It's all just the sameедин и същ thing happeningслучва.
34
100000
2000
Случва се все същото нещо.
02:00
What did DarwinДарвин say?
35
102000
2000
Какво казал Дарвин?
02:02
I know you know the ideaидея, naturalестествен selectionселекция,
36
104000
2000
Знам, че ви е известна идеята, естествен подбор,
02:04
but let me just paraphraseперифраза "The OriginПроизход of SpeciesВидове," 1859,
37
106000
5000
но нека просто перефразирам "Произхода на видовете", 1859 г.,
02:09
in a fewмалцина sentencesизречения.
38
111000
2000
в няколко изречения.
02:11
What DarwinДарвин said was something like this:
39
113000
3000
Дарвин казва нещо такова...
02:14
if you have creaturesсъздания that varyварира, and that can't be doubtedсъмнява --
40
116000
4000
ако има създания, които са различни, а в това няма съмнение...
02:18
I've been to the GalapagosГалапагос, and I've measuredизмерена the sizeразмер of the beaksчовки
41
120000
3000
била съм на Галапагос и съм измервала размера на клюновете
02:21
and the sizeразмер of the turtleкостенурка shellsчерупки and so on, and so on.
42
123000
2000
и размера на черупките на костенурките, и така нататък, и така нататък.
02:23
And 100 pagesстраници laterпо късно.
43
125000
2000
И 100 страници по-късно...
02:25
(LaughterСмях)
44
127000
2000
(Смях)
02:27
And if there is a struggleборба for life,
45
129000
4000
А ако има борба за живот,
02:31
suchтакъв that nearlyпочти all of these creaturesсъздания dieумирам --
46
133000
3000
такава, че почти всички тези създания умират...
02:34
and this can't be doubtedсъмнява, I've readПрочети MalthusМалтус
47
136000
3000
а няма съмнение в това, чела съм Малтус
02:37
and I've calculatedизчислява how long it would take for elephantsслонове
48
139000
2000
и съм изчислявала колко дълго ще е нужно, за да покрият
02:39
to coverПокрийте the wholeцяло worldсвят if they bredотгледан unrestrictedнеограничен, and so on and so on.
49
141000
3000
слоновете целия свят, ако се развъждат неограничавани, и така нататък, и така нататък.
02:42
And anotherоще 100 pagesстраници laterпо късно.
50
144000
4000
И още 100 страници по-късно.
02:46
And if the very fewмалцина that surviveоцелее passминавам ontoвърху theirтехен offspringпотомство
51
148000
5000
А ако много малкото оцелели предадат на потомството си
02:51
whateverкакто и да е it was that helpedпомогна them surviveоцелее,
52
153000
3000
онова, което им е помогнало да оцелеят,
02:54
then those offspringпотомство mustтрябва да be better adaptedадаптиран
53
156000
2000
тогава това потомство трябва да е по-добре приспособено
02:56
to the circumstancesобстоятелства in whichкойто all this happenedсе случи
54
158000
2000
към обстоятелствата, при които се е случило всичко това,
02:58
than theirтехен parentsродители were.
55
160000
3000
отколкото са били родителите им.
03:01
You see the ideaидея?
56
163000
2000
Виждате ли идеята?
03:03
If, if, if, then.
57
165000
2000
Ако, ако, ако, тогава.
03:05
He had no conceptпонятие of the ideaидея of an algorithmалгоритъм,
58
167000
2000
Той нямал понятие от идеята за алгоритъм.
03:07
but that's what he describedописан in that bookКнига,
59
169000
3000
Но това описал в тази книга,
03:10
and this is what we now know as the evolutionaryеволюционен algorithmалгоритъм.
60
172000
3000
и това познаваме сега като еволюционния алгоритъм.
03:13
The principleпринцип is you just need those threeтри things --
61
175000
4000
Принципът е, че просто са нужни тези три неща...
03:17
variationвариация, selectionселекция and heredityнаследственост.
62
179000
3000
разнообразие, подбор и наследственост.
03:20
And as DanДан DennettDennett putsпоставя it, if you have those,
63
182000
4000
И както се изразява Дан Денет, ако ги има тях,
03:24
then you mustтрябва да get evolutionеволюция.
64
186000
2000
тогава трябва да се получи еволюция.
03:26
Or designдизайн out of chaosхаос, withoutбез the aidпомощ of mindум.
65
188000
5000
Или дизайн от хаос без помощта на ума.
03:31
There's one wordдума I love on that slideпързалка.
66
193000
2000
Една дума на този слайд ми е любима.
03:33
What do you think my favoriteлюбим wordдума is?
67
195000
2000
Каква според вас е любимата ми дума?
03:35
AudienceАудитория: ChaosХаос.
68
197000
1000
Публика: Хаос.
03:36
SBSB: ChaosХаос? No. What? MindУм? No.
69
198000
3000
СБ: Хаос? Не. Какво? Ум? Не.
03:39
AudienceАудитория: WithoutБез.
70
201000
1000
Публика: Без.
03:40
SBSB: No, not withoutбез.
71
202000
1000
СБ: Не, не без.
03:41
(LaughterСмях)
72
203000
1000
(Смях)
03:42
You try them all in orderпоръчка: MmmМмм...?
73
204000
2000
Опитвате ги всички поред. Т....?
03:44
AudienceАудитория: MustТрябва да.
74
206000
1000
Публика: Трябва.
03:45
SBSB: MustТрябва да, at mustтрябва да. MustТрябва да, mustтрябва да.
75
207000
4000
Трябва, трябва. Трябва, трябва.
03:49
This is what makesправи it so amazingудивителен.
76
211000
2000
Това го прави толкова изумително.
03:51
You don't need a designerдизайнер,
77
213000
3000
Не ти трябва дизайнер,
03:54
or a planплан, or foresightпрогнозиране, or anything elseоще.
78
216000
3000
или план, или предвиждане, или каквото и да било друго.
03:57
If there's something that is copiedкопирани with variationвариация
79
219000
3000
Ако има нещо, което се копира с вариация
04:00
and it's selectedподбран, then you mustтрябва да get designдизайн appearingсе появява out of nowhereникъде.
80
222000
4000
и се подбира, тогава трябва да се получи дизайн, появяващ се от нищото.
04:04
You can't stop it.
81
226000
2000
Не можеш да го спреш.
04:06
MustТрябва да is my favoriteлюбим wordдума there.
82
228000
4000
"Трябва" е любимата ми дума там.
04:11
Now, what's this to do with memesмемета?
83
233000
2000
А какво общо има това с мемите?
04:13
Well, the principleпринцип here appliesприлага to anything
84
235000
5000
Е, принципът тук се прилага към всичко,
04:18
that is copiedкопирани with variationвариация and selectionселекция.
85
240000
1000
копирано с вариация и подбор.
04:19
We're so used to thinkingмислене in termsусловия of biologyбиология,
86
241000
3000
Толкова сме свикнали да мислим в биологични термини,
04:22
we think about genesгени this way.
87
244000
2000
мислим за гените по този начин.
04:24
DarwinДарвин didn't, of courseкурс; he didn't know about genesгени.
88
246000
3000
Разбира се, при Дарвин не било така; той не знаел за гените.
04:27
He talkedговорих mostlyв повечето случаи about animalsживотни and plantsрастения,
89
249000
2000
Говорел главно за животни и растения,
04:29
but alsoсъщо about languagesезици evolvingразвиващ and becomingпревръща extinctизчезнал.
90
251000
3000
но също и за езици, еволюиращи и изчезващи.
04:32
But the principleпринцип of UniversalУниверсални DarwinismДарвинизъм
91
254000
2000
Но принципът на универсалния дарвинизъм
04:34
is that any informationинформация that is variedразнообразен and selectedподбран
92
256000
4000
е, че всяка информация, която варира и се подбира,
04:38
will produceпродукция designдизайн.
93
260000
2000
ще създаде дизайн.
04:40
And this is what RichardРичард DawkinsДокинс was on about
94
262000
2000
И това имал предвид Ричард Доукинс
04:42
in his 1976 bestsellerбестселър, "The SelfishЕгоист GeneГен."
95
264000
3000
в своя бестселър от 1976-а, "Себичният ген".
04:45
The informationинформация that is copiedкопирани, he calledНаречен the replicatorрепликатор.
96
267000
4000
Информацията, която се копира, той нарича репликато.
04:49
It selfishlyегоистично copiesкопия.
97
271000
2000
Той се копира себично.
04:51
Not meaningзначение it kindмил of sitsседи around insideвътре cellsклетки going, "I want to get copiedкопирани."
98
273000
4000
Не в смисъл, че някак седи вътре в клетките и казва: "Искам да се копирам."
04:55
But that it will get copiedкопирани if it can,
99
277000
2000
Но че ще се копира, ако може,
04:57
regardlessнезависимо of the consequencesпоследствия.
100
279000
2000
независимо от последствията.
05:00
It doesn't careгрижа about the consequencesпоследствия because it can't,
101
282000
3000
Не го интересуват последствията, защото няма как,
05:03
because it's just informationинформация beingсъщество copiedкопирани.
102
285000
2000
защото той е просто информация, която се копира.
05:06
And he wanted to get away
103
288000
1000
Искал да се отдели
05:07
from everybodyвсички thinkingмислене all the time about genesгени,
104
289000
3000
от всички, като мисли постоянно за гените,
05:10
and so he said, "Is there anotherоще replicatorрепликатор out there on the planetпланета?"
105
292000
3000
и казал: "Има ли друг репликатор на планетата?"
05:13
AhАх, yes, there is.
106
295000
2000
А, да, има.
05:15
Look around you -- here will do, in this roomстая.
107
297000
3000
Огледайте се наоколо, и тук става, в тази зала.
05:18
All around us, still clumsilyнесръчно driftingплаващи about
108
300000
3000
Навсякъде около нас, все още носейки се тромаво
05:21
in its primevalпървобитно soupсупа of cultureкултура, is anotherоще replicatorрепликатор.
109
303000
3000
в първобитната си супа от култура, е още един репликатор.
05:24
InformationИнформация that we copyкопие from personчовек to personчовек, by imitationимитация,
110
306000
5000
Информацията, която копираме от лице на лице чрез имитация,
05:29
by languageезик, by talkingговорим, by tellingказвам storiesистории,
111
311000
2000
чрез език, чрез говорене, чрез разказване на история,
05:31
by wearingносенето clothesдрехи, by doing things.
112
313000
3000
чрез носене на дрехи, чрез действия.
05:34
This is informationинформация copiedкопирани with variationвариация and selectionселекция.
113
316000
5000
Това е информация, копирана с вариация и подбор.
05:39
This is designдизайн processпроцес going on.
114
321000
3000
Провежда се процес на дизайн.
05:42
He wanted a nameиме for the newнов replicatorрепликатор.
115
324000
3000
Той искал име за новия репликатор.
05:45
So, he tookвзеха the GreekГръцки wordдума "mimemeмимема," whichкойто meansсредства that whichкойто is imitatedимитира.
116
327000
4000
Затова взел гръцката дума мимема, която означава онова, което се имитира.
05:49
RememberЗапомни that, that's the coreсърцевина definitionдефиниция:
117
331000
2000
Помнете това, това е основната дефиниция.
05:52
that whichкойто is imitatedимитира.
118
334000
1000
Онова, което се имитира.
05:53
And abbreviatedсъкратено it to memeмем, just because it soundsзвуци good
119
335000
3000
И я съкратил на мема, просто защото звучи добре
05:56
and madeизработен a good memeмем, an effectiveефективен spreadingразпространяване memeмем.
120
338000
3000
и от него става добра мема, ефективна разпространяваща се мема.
05:59
So that's how the ideaидея cameдойде about.
121
341000
3000
Така се появила идеята.
06:03
It's importantважно to stickпръчка with that definitionдефиниция.
122
345000
3000
Важно е да се придържаме към тази дефиниция.
06:06
The wholeцяло scienceнаука of memeticsмеметиката is much malignedоклеветен,
123
348000
4000
Цялата наука меметика е силно оклеветена,
06:10
much misunderstoodнеразбрани, much fearedстрахуваше.
124
352000
3000
много неразбрана, източник на много страхове.
06:13
But a lot of these problemsпроблеми can be avoidedизбегнато
125
355000
3000
Но много от тези проблеми могат да се избегнат,
06:16
by rememberingспомняне the definitionдефиниция.
126
358000
2000
като помним дефиницията.
06:18
A memeмем is not equivalentеквивалентен to an ideaидея.
127
360000
2000
Мемата не е еквивалентна на идея.
06:20
It's not an ideaидея. It's not equivalentеквивалентен to anything elseоще, really.
128
362000
2000
Тя не е идея, всъщност не е еквивалентна на нищо друго.
06:22
StickСтик with the definitionдефиниция.
129
364000
2000
Придържане към дефиницията.
06:24
It's that whichкойто is imitatedимитира,
130
366000
2000
Това, което се имитира.
06:26
or informationинформация whichкойто is copiedкопирани from personчовек to personчовек.
131
368000
3000
Или информация, копирана от лице на лице.
06:30
So, let's see some memesмемета.
132
372000
1000
Да видим някои меми.
06:31
Well, you sirгосподине, you've got those glassesочила hungокачени around your neckврат
133
373000
3000
Вие, господине, закачил сте тези очила на врата си
06:34
in that particularlyособено fetchingпривлекателен way.
134
376000
2000
по един особено приятен начин.
06:36
I wonderчудя се whetherдали you inventedизобретен that ideaидея for yourselfсебе си,
135
378000
2000
Чудя се, дали сам сте измислили тази идея,
06:38
or copiedкопирани it from someoneнякой elseоще?
136
380000
2000
или сте я копирали от някой друг?
06:40
If you copiedкопирани it from someoneнякой elseоще, it's a memeмем.
137
382000
3000
Ако сте я копирали от някой друг, тя е мема.
06:43
And what about, oh, I can't see any interestingинтересен memesмемета here.
138
385000
3000
Ами... оо, не виждам никакви интересни меми тук.
06:46
All right everyoneвсеки, who'sкой е got some interestingинтересен memesмемета for me?
139
388000
3000
Към всички - кой има интересни меми за мен?
06:49
Oh, well, your earringsОбици,
140
391000
2000
Ами добре, вашите обеци,
06:51
I don't supposeпредполагам you inventedизобретен the ideaидея of earringsОбици.
141
393000
2000
според мен не вие сте изобретили идеята за обеци.
06:53
You probablyвероятно wentотидох out and boughtкупих them.
142
395000
2000
Вероятно сте излезли и сте ги купили.
06:55
There are plentyмного more in the shopsмагазини.
143
397000
2000
По магазините има още много.
06:57
That's something that's passedпреминали on from personчовек to personчовек.
144
399000
2000
Това е нещо, предавано от лице на лице.
06:59
All the storiesистории that we're tellingказвам -- well, of courseкурс,
145
401000
3000
Всички истории, които разказваме - разбира се,
07:02
TEDТЕД is a great meme-festмема-Фест, massesмаси of memesмемета.
146
404000
4000
ТED е прекрасен фест на меми, купища меми.
07:06
The way to think about memesмемета, thoughвъпреки че,
147
408000
2000
Начинът обаче, по който трябва да се мисли за мемите,
07:08
is to think, why do they spreadразпространение?
148
410000
2000
е да мислим - защо се разпространяват те?
07:10
They're selfishегоистичен informationинформация, they will get copiedкопирани, if they can.
149
412000
4000
Те са себична информация, ще се копират, ако могат.
07:14
But some of them will be copiedкопирани because they're good,
150
416000
3000
Но някои от тях ще бъдат копирани, защото са добри,
07:17
or trueвярно, or usefulполезен, or beautifulкрасив.
151
419000
2000
верни, полезни или красиви.
07:19
Some of them will be copiedкопирани even thoughвъпреки че they're not.
152
421000
2000
Някои от тях ще бъдат копирани, макар и да не са такива.
07:21
Some, it's quiteсъвсем hardтвърд to tell why.
153
423000
2000
Някои - доста е трудно да се каже защо.
07:24
There's one particularособен curiousлюбопитен memeмем whichкойто I ratherпо-скоро enjoyнаслади се.
154
426000
3000
Има една особено любопитна тема, която доста ме радва.
07:27
And I'm gladдоволен to say, as I expectedочакван, I foundнамерено it when I cameдойде here,
155
429000
3000
И се радвам да кажа, както очаквах, открих я, като дойдох тук
07:30
and I'm sure all of you foundнамерено it, too.
156
432000
2000
и съм сигурен, че всички вие също сте я открили.
07:32
You go to your niceприятен, poshПош, internationalмеждународен hotelхотел somewhereнякъде,
157
434000
3000
Отиваш в хубав, елегантен международен хотел някъде,
07:36
and you come in and you put down your clothesдрехи
158
438000
2000
влизаш, събличаш си дрехите,
07:38
and you go to the bathroomбаня, and what do you see?
159
440000
3000
отиваш в банята и какво виждаш?
07:41
AudienceАудитория: BathroomБаня soapсапун.
160
443000
1000
Публика: Сапун за баня.
07:42
SBSB: PardonПомилване?
161
444000
1000
СБ: Извинете?
07:43
AudienceАудитория: SoapСапун.
162
445000
1000
Публика: Сапун.
07:44
SBSB: SoapСапун, yeah. What elseоще do you see?
163
446000
2000
СБ: Сапун, да. Какво виждаш още?
07:46
AudienceАудитория: (InaudibleБезшумно)
164
448000
1000
Публика: (Не се чува)
07:47
SBSB: MmmМмм mmmммм.
165
449000
1000
СБ: Мхм, мхм.
07:48
AudienceАудитория: SinkМивка, toiletтоалетна!
166
450000
1000
Публика: Умивалник, тоалетна!
07:49
SBSB: SinkМивка, toiletтоалетна, yes, these are all memesмемета, they're all memesмемета,
167
451000
2000
СБ: Умивалник, тоалетна, да, всичко това са меми, всичко това са меми,
07:51
but they're sortвид of usefulполезен onesтакива, and then there's this one.
168
453000
3000
но са някак полезни, а ето я и тази.
07:54
(LaughterСмях)
169
456000
3000
(Смях)
07:58
What is this one doing?
170
460000
2000
Какво прави тази?
08:00
(LaughterСмях)
171
462000
1000
(Смях)
08:01
This has spreadразпространение all over the worldсвят.
172
463000
2000
Това се е разпространило по цял свят.
08:03
It's not surprisingизненадващ that you all foundнамерено it
173
465000
2000
Не е изненадващо, че всички сте го откривали,
08:05
when you arrivedпристигнал in your bathroomsбани here.
174
467000
2000
като сте пристигали в баните си.
08:07
But I tookвзеха this photographснимка in a toiletтоалетна at the back of a tentпалатка
175
469000
5000
Но направих тази снимка в една тоалетна отзад в палатка
08:12
in the eco-campЕко-лагер in the jungleджунгла in AssamАсам.
176
474000
2000
в еко-лагера в джунглата в Асам.
08:14
(LaughterСмях)
177
476000
1000
(Смях)
08:16
Who foldedсгъната that thing up there, and why?
178
478000
3000
Кой е сгънал това нещо там горе, и защо?
08:19
(LaughterСмях)
179
481000
1000
(Смях)
08:20
Some people get carriedизвършва away.
180
482000
2000
Някои хора се увличат.
08:22
(LaughterСмях)
181
484000
3000
(Смях)
08:26
Other people are just lazyмързелив and make mistakesгрешки.
182
488000
3000
Други хора просто са мързеливи и допускат грешки.
08:29
Some hotelsхотели exploitподвиг the opportunityвъзможност to put even more memesмемета
183
491000
3000
Някои хотели експлоатират възможността да слагат още повече меми
08:32
with a little stickerетикет.
184
494000
2000
с една малка лепенка.
08:34
(LaughterСмях)
185
496000
1000
(Смях)
08:35
What is this all about?
186
497000
2000
За какво е всичко това?
08:37
I supposeпредполагам it's there to tell you that somebody'sнякой е
187
499000
2000
Предполагам, за да ви каже, че някой
08:39
cleanedизчистен the placeмясто, and it's all lovelyпрекрасен.
188
501000
2000
е почистил мястото и че всичко е прекрасно.
08:41
And you know, actuallyвсъщност, all it tellsразказва you is that anotherоще personчовек
189
503000
3000
А, знаете ли, всъщност ви казва, че това друго лице
08:44
has potentiallyпотенциално spreadразпространение germsмикроби from placeмясто to placeмясто.
190
506000
3000
потенциално е разпръсквало микроби от едно място на друго.
08:47
(LaughterСмях)
191
509000
1000
(Смях)
08:48
So, think of it this way.
192
510000
2000
Мислете за това по този начин.
08:50
ImagineПредставете си a worldсвят fullпълен of brainsмозъците
193
512000
2000
Представете си свят, пълен с мозъци
08:52
and farдалече more memesмемета than can possiblyвъзможно find homesдомове.
194
514000
3000
и далеч повече меми, отколкото е възможно да намерят домове.
08:55
The memesмемета are all tryingопитвайки to get copiedкопирани --
195
517000
3000
Всички меми се опитват да се копират,
08:58
tryingопитвайки, in invertedобърнат commasзапетаи -- i.e.,
196
520000
3000
опитват се, в обърнати запетаи, т.е.,
09:01
that's the shorthandстенограмите for, if they can get copiedкопирани, they will.
197
523000
3000
това е съкращение за, ако могат да се копират, ще се копират.
09:04
They're usingизползвайки you and me as theirтехен propagatingпосадъчен, copyingкопиране machineryмашини,
198
526000
6000
Използват теб и мен като своя размножителна копирна машина,
09:10
and we are the memeмем machinesмашини.
199
532000
3000
ние сме машините за меми.
09:13
Now, why is this importantважно?
200
535000
2000
Защо е важно това?
09:15
Why is this usefulполезен, or what does it tell us?
201
537000
2000
Защо е полезно това, или какво ни казва?
09:17
It givesдава us a completelyнапълно newнов viewизглед of humanчовек originsпроизход
202
539000
4000
То ни дава напълно нов възглед за човешкия произход
09:21
and what it meansсредства to be humanчовек,
203
543000
1000
и какво значи да си човек.
09:22
all conventionalконвенционален theoriesтеории of culturalкултурен evolutionеволюция,
204
544000
4000
Всички конвенционални теории за културна еволюция,
09:26
of the originпроизход of humansхората,
205
548000
2000
за произхода на хората
09:28
and what makesправи us so differentразличен from other speciesвид.
206
550000
4000
и какво ни прави толкова различни от други видове.
09:32
All other theoriesтеории explainingобяснявайки the bigголям brainмозък, and languageезик, and toolинструмент use
207
554000
2000
Всички други теории, обясняващи големия мозък, езика и употребата на инструменти
09:34
and all these things that make us uniqueединствен по рода си,
208
556000
2000
и всички тези неща, които ни правят уникални,
09:36
are basedбазиран uponвърху genesгени.
209
558000
3000
са въз основата на гени.
09:39
LanguageЕзик mustтрябва да have been usefulполезен for the genesгени.
210
561000
3000
Езикът трябва да е бил полезен за гените.
09:42
ToolИнструмент use mustтрябва да have enhancedподобрено our survivalоцеляване, matingбрачен and so on.
211
564000
3000
Употребата на инструменти трябва да е подпомагала нашето оцеляване, чифтосване и така нататък.
09:45
It always comesидва back, as RichardРичард DawkinsДокинс complainedоплака
212
567000
3000
Винаги се стига, както се е оплаквал Ричард Доукинс
09:48
all that long time agoпреди, it always comesидва back to genesгени.
213
570000
3000
толкова отдавна, винаги се стига пак до гените.
09:51
The pointточка of memeticsмеметиката is to say, "Oh no, it doesn't."
214
573000
4000
Целта на меметиката е да се каже: "О, не, не е така."
09:55
There are two replicatorsРепликаторите now on this planetпланета.
215
577000
3000
Сега на тази планета има два репликатора.
09:58
From the momentмомент that our ancestorsпредци,
216
580000
3000
От момента, когато нашите предшественици,
10:01
perhapsможе би two and a halfнаполовина millionмилион yearsгодини agoпреди or so,
217
583000
2000
вероятно преди два и половина милиона години или там някъде,
10:03
beganзапочна imitatingимитиране, there was a newнов copyingкопиране processпроцес.
218
585000
4000
започнали да имитират, имало нов процес на копиране.
10:07
CopyingКопиране with variationвариация and selectionселекция.
219
589000
2000
Копиране с вариация и подбор.
10:09
A newнов replicatorрепликатор was let looseхлабав, and it could never be --
220
591000
5000
Бил освободен един нов репликатор, и той така и не могъл...
10:14
right from the startначало -- it could never be
221
596000
1000
от самото начало нямало как
10:15
that humanчовек beingsсъщества who let looseхлабав this newнов creatureсъздание,
222
597000
5000
онези човешки същества, освободили това ново създание,
10:20
could just copyкопие the usefulполезен, beautifulкрасив, trueвярно things,
223
602000
3000
да копират само полезните, красиви, верни неща,
10:23
and not copyкопие the other things.
224
605000
2000
а да не копират другите неща.
10:25
While theirтехен brainsмозъците were havingкато an advantageпредимство from beingсъщество ableспособен to copyкопие --
225
607000
3000
Макар и мозъците им да имали предимство в това, че са в състояние да копират...
10:28
lightingосветление firesпожари, keepingсъхраняемост firesпожари going, newнов techniquesтехники of huntingна лов,
226
610000
5000
да палят огньове, да поддържат огньове, нови ловни техники...
10:33
these kindsвидове of things --
227
615000
2000
такива неща...
10:35
inevitablyнеизбежно they were alsoсъщо copyingкопиране puttingпускането feathersпера in theirтехен hairкоса,
228
617000
3000
неизбежно копирали също и слагането на пера в косата,
10:38
or wearingносенето strangeстранен clothesдрехи, or paintingживопис theirтехен facesлица,
229
620000
2000
носенето на странни дрехи, боядисването на лицата си
10:40
or whateverкакто и да е.
230
622000
1000
и така нататък.
10:41
So, you get an armsобятия raceраса betweenмежду the genesгени
231
623000
4000
Така се получава надпревара във въоръжаването между гените,
10:45
whichкойто are tryingопитвайки to get the humansхората to have smallмалък economicalикономичен brainsмозъците
232
627000
4000
които се опитват да накарат хората да имат малък икономически мозък
10:49
and not wasteотпадъци theirтехен time copyingкопиране all this stuffматерия,
233
631000
2000
и да не си губят времето да копират всичко това
10:51
and the memesмемета themselvesсебе си, like the soundsзвуци that people madeизработен and copiedкопирани --
234
633000
4000
и самите меми, като звуците, които издавали и копирали хората...
10:56
in other wordsдуми, what turnedоказа out to be languageезик --
235
638000
2000
с други думи, това, което се оказало език...
10:58
competingконкуриращи to get the brainsмозъците to get biggerпо-голям and biggerпо-голям.
236
640000
3000
състезавали се да правят мозъците все по-големи и по-големи.
11:01
So, the bigголям brainмозък, on this theoryтеория, is drivenзадвижван by the memesмемета.
237
643000
4000
Големият мозък според тази теория е движен от мемите.
11:05
This is why, in "The MemeMeme MachineМашина," I calledНаречен it memeticmemetic driveпът.
238
647000
4000
Затова в "Машината за меми" го нарекох меметичен двигател.
11:09
As the memesмемета evolveсе развива, as they inevitablyнеизбежно mustтрябва да,
239
651000
3000
С еволюцията на мемите, която е неизбежна,
11:12
they driveпът a biggerпо-голям brainмозък that is better at copyingкопиране the memesмемета
240
654000
4000
те движат един по-голям мозък, по-добър в копирането на мемите,
11:16
that are doing the drivingшофиране.
241
658000
2000
които извършват задвижването.
11:18
This is why we'veние имаме endedприключила up with suchтакъв peculiarхарактерни brainsмозъците,
242
660000
4000
Затова в крайна сметка сме се оказали с толкова странни мозъци,
11:22
that we like religionрелигия, and musicмузика, and artизкуство.
243
664000
3000
че харесваме религия, музика и изкуство.
11:25
LanguageЕзик is a parasiteпаразит that we'veние имаме adaptedадаптиран to,
244
667000
3000
Езикът е паразит, към който сме се адаптирали,
11:28
not something that was there originallyпървоначално for our genesгени,
245
670000
2000
а не нещо, първоначално присъствало за гените ни,
11:30
on this viewизглед.
246
672000
2000
според този възглед.
11:32
And like mostнай-много parasitesпаразити, it can beginзапочвам dangerousопасно,
247
674000
3000
И като повечето паразити може отначало да е опасен,
11:35
but then it coevolvescoevolves and adaptsадаптира,
248
677000
3000
но после еволюира съвместно, приспособява се
11:38
and we endкрай up with a symbioticсимбиоза relationshipвръзка
249
680000
2000
и в крайна сметка имаме симбиотична връзка
11:40
with this newнов parasiteпаразит.
250
682000
1000
с този нов паразит.
11:41
And so, from our perspectiveперспектива,
251
683000
2000
И така, от наша гледна точка,
11:43
we don't realizeосъзнавам that that's how it beganзапочна.
252
685000
3000
не осъзнаваме, че така е започнало.
11:46
So, this is a viewизглед of what humansхората are.
253
688000
3000
Това е един възглед за това какво представляват хората.
11:49
All other speciesвид on this planetпланета are geneген machinesмашини only,
254
691000
3000
Всички други видове на тази планета са само генни машини,
11:52
they don't imitateимитират at all well, hardlyедва ли at all.
255
694000
3000
те изобщо не имитират добре, едва ли изобщо го правят.
11:55
We aloneсам are geneген machinesмашини and memeмем machinesмашини as well.
256
697000
5000
Само ние сме генни машини и машини за меми.
12:00
The memesмемета tookвзеха a geneген machineмашина and turnedоказа it into a memeмем machineмашина.
257
702000
4000
Мемите взели генна машина и я превърнали в машина за меми.
12:04
But that's not all.
258
706000
2000
Но това не е всичко.
12:06
We have a newнов kindмил of memesмемета now.
259
708000
3000
Сега имаме нов вид меми.
12:09
I've been wonderingчудех for a long time,
260
711000
1000
Отдавна се чудя,
12:10
sinceот I've been thinkingмислене about memesмемета a lot,
261
712000
2000
тъй като много съм мислила за мемите,
12:12
is there a differenceразлика betweenмежду the memesмемета that we copyкопие --
262
714000
2000
има ли разлика между мемите, които копираме...
12:14
the wordsдуми we speakговоря to eachвсеки other,
263
716000
2000
думите, които си казваме един на друг,
12:16
the gesturesжестове we copyкопие, the humanчовек things --
264
718000
2000
жестовете, които копираме, човешките неща...
12:18
and all these technologicalтехнологически things around us?
265
720000
2000
и всички тези технологични неща около нас?
12:20
I have always, untilдо now, calledНаречен them all memesмемета,
266
722000
4000
Винаги, досега, съм ги наричала всички меми,
12:24
but I do honestlyчестно казано think now
267
726000
3000
но, честно казано, смятам, че сега
12:27
we need a newнов wordдума for technologicalтехнологически memesмемета.
268
729000
3000
ни трябва нова дума за технологични меми.
12:30
Let's call them techno-memesтехно-memes or temesтемите.
269
732000
3000
Да ги наречем техномеми или теми.
12:33
Because the processesпроцеси are gettingполучаване на differentразличен.
270
735000
3000
Защото процесите стават различни.
12:37
We beganзапочна, perhapsможе би 5,000 yearsгодини agoпреди, with writingписане.
271
739000
3000
Започнали сме, вероятно преди 5000 години, с писане.
12:40
We put the storageсъхранение of memesмемета out there on a clayглина tabletтаблет,
272
742000
7000
Поставяли сме за съхранение теми върху глинена плочка,
12:48
but in orderпоръчка to get trueвярно temesтемите and trueвярно temeTeme machinesмашини,
273
750000
2000
но за да се получат истински теми и истински машини за теми,
12:50
you need to get the variationвариация, the selectionселекция and the copyingкопиране,
274
752000
3000
трябва да се получи вариацията, подборът и копирането,
12:53
all doneСвършен outsideизвън of humansхората.
275
755000
2000
всичко това става извън хората.
12:55
And we're gettingполучаване на there.
276
757000
2000
И ще стигнем дотам.
12:57
We're at this extraordinaryнеобикновен pointточка where we're nearlyпочти there,
277
759000
2000
Ние сме в онази изключителна точка, при която почти сме стигнали дотам,
12:59
that there are machinesмашини like that.
278
761000
2000
при която има такива машини.
13:01
And indeedнаистина, in the shortнисък time I've alreadyвече been at TEDТЕД,
279
763000
2000
И наистина, за краткото време, през което вече съм в ТЕD,
13:03
I see we're even closerпо близо than I thought we were before.
280
765000
2000
виждам, че сме дори по-близо, отколкото смятах преди.
13:05
So actuallyвсъщност, now the temesтемите are forcingпринуждаване our brainsмозъците
281
767000
6000
Така че всъщност сега темите принуждават мозъците ни
13:11
to becomeда стане more like temeTeme machinesмашини.
282
773000
2000
да заприличват повече на машини за теми.
13:13
Our childrenдеца are growingнарастващ up very quicklyбързо learningизучаване на to readПрочети,
283
775000
3000
Децата ни растат много бързо, учат се да четат,
13:16
learningизучаване на to use machineryмашини.
284
778000
2000
учат се да използват машинарията.
13:18
We're going to have all kindsвидове of implantsимпланти,
285
780000
1000
Ще имаме всякакви импланти,
13:19
drugsнаркотици that forceсила us to stayстоя awakeбуден all the time.
286
781000
3000
лекарства, които ни карат да стоим будни постоянно.
13:22
We'llНие ще think we're choosingизбор these things,
287
784000
2000
Ще мислим, че избираме тези неща,
13:24
but the temesтемите are makingприготвяне us do it.
288
786000
3000
но всъщност темите ни карат.
13:28
So, we're at this cuspзъбер now
289
790000
1000
Сега сме на ръба
13:29
of havingкато a thirdтрета replicatorрепликатор on our planetпланета.
290
791000
4000
да имаме трети репликатор на нашата планета.
13:34
Now, what about what elseоще is going on out there in the universeвселена?
291
796000
5000
А какво още става там навън, във вселената?
13:39
Is there anyoneнякой elseоще out there?
292
801000
2000
Има ли там някой друг?
13:41
People have been askingпита this questionвъпрос for a long time.
293
803000
3000
Хората задават отдавна този въпрос.
13:44
We'veНие сме been askingпита it here at TEDТЕД alreadyвече.
294
806000
2000
Вече сме го задавали тук, на ТЕD.
13:46
In 1961, FrankФранк DrakeДрейк madeизработен his famousизвестен equationуравнение,
295
808000
4000
През 1961 г. Франк Дрейк съставил прочутото си уравнение,
13:50
but I think he concentratedконцентриран on the wrongпогрешно things.
296
812000
2000
но според мен се е съсредоточил върху погрешните неща.
13:52
It's been very productiveпродуктивен, that equationуравнение.
297
814000
2000
Това уравнение е било много продуктивно.
13:54
He wanted to estimateприблизителна оценка N,
298
816000
2000
Той искал да установи приблизително N,
13:56
the numberномер of communicativeкомуникативен civilizationsцивилизации out there in our galaxyгалактика,
299
818000
4000
броят на комуникативни цивилизации, съществуващи в нашата галактика.
14:00
and he includedвключен in there the rateскорост of starзвезда formationобразуване,
300
822000
4000
И включил там скоростта на формиране на звезди,
14:04
the rateскорост of planetsпланети, but cruciallyрешаващо, intelligenceинтелигентност.
301
826000
4000
скоростта на планетите, но решаващо - интелигентността.
14:08
I think that's the wrongпогрешно way to think about it.
302
830000
4000
Според мен това е погрешен начин да се мисли по въпроса.
14:12
IntelligenceРазузнаване appearsпоявява се all over the placeмясто, in all kindsвидове of guisesобрази.
303
834000
3000
Интелигентността се появява навсякъде, под всякакъв облик.
14:15
HumanЧовешки intelligenceинтелигентност is only one kindмил of a thing.
304
837000
2000
Човешката интелигентност е само един вид.
14:17
But what's really importantважно is the replicatorsРепликаторите you have
305
839000
3000
Но наистина важното е, че репликаторите, които имате,
14:20
and the levelsнива of replicatorsРепликаторите, one feedingхранене on the one before.
306
842000
4000
и нивата на репликаторите, единият храни предишния.
14:24
So, I would suggestпредлагам that we don't think intelligenceинтелигентност,
307
846000
5000
Затова бих предложила да не мислим за интелигентност,
14:29
we think replicatorsРепликаторите.
308
851000
2000
а за репликатори.
14:31
And on that basisоснова, I've suggestedпредложено a differentразличен kindмил of equationуравнение.
309
853000
3000
Въз основа на това предложих различен вид уравнение.
14:34
A very simpleпрост equationуравнение.
310
856000
2000
Много просто уравнение.
14:36
N, the sameедин и същ thing,
311
858000
2000
N, същото нещо,
14:38
the numberномер of communicativeкомуникативен civilizationsцивилизации out there
312
860000
3000
броят на съществуващите комуникативни цивилизации,
14:41
[that] we mightбиха могли, може expectочаквам in our galaxyгалактика.
313
863000
2000
които можем да очакваме в нашата галактика.
14:43
Just startначало with the numberномер of planetsпланети there are in our galaxyгалактика.
314
865000
4000
Просто започнете с броя планети в нашата галактика.
14:47
The fractionфракция of those whichкойто get a first replicatorрепликатор.
315
869000
4000
Частта от тях, които получават първи репликатор.
14:51
The fractionфракция of those that get the secondвтори replicatorрепликатор.
316
873000
4000
Частта от тях, които получават втори репликатор.
14:55
The fractionфракция of those that get the thirdтрета replicatorрепликатор.
317
877000
2000
Частта от тях, които получават трети репликатор.
14:58
Because it's only the thirdтрета replicatorрепликатор that's going to reachдостигнат out --
318
880000
3000
Защото само третият репликатор ще достигне до...
15:01
sendingизпращане informationинформация, sendingизпращане probesсонди, gettingполучаване на out there,
319
883000
3000
изпращане на информация, изпращане на сонди, излизане там навън
15:04
and communicatingобщуването with anywhereнавсякъде elseоще.
320
886000
2000
и комуникация с всички останали.
15:06
OK, so if we take that equationуравнение,
321
888000
3000
Значи, ако вземем това уравнение,
15:09
why haven'tима не we heardчух from anybodyнякой out there?
322
891000
5000
защо не сме получили вест от никого там, навън?
15:14
Because everyвсеки stepстъпка is dangerousопасно.
323
896000
4000
Защото всяка стъпка е опасна.
15:18
GettingПолучаване a newнов replicatorрепликатор is dangerousопасно.
324
900000
3000
Да получиш нов репликатор е опасно.
15:21
You can pullдърпам throughпрез, we have pulledизтегли throughпрез,
325
903000
2000
Може да се справиш, справяли сме се,
15:23
but it's dangerousопасно.
326
905000
2000
но е опасно.
15:25
Take the first stepстъпка, as soonскоро as life appearedсе появява on this earthземя.
327
907000
3000
Вземете първата стъпка, още с появата на живота на тази земя.
15:28
We mayможе take the GaianГаянски viewизглед.
328
910000
2000
може да възприемеме гаянския възглед.
15:30
I lovedобичал PeterПетър Ward'sУорд talk yesterdayвчера -- it's not GaianГаянски all the time.
329
912000
3000
Много ми хареса разговорът на Питър Уорд вчера - не е гаянски през цялото време..
15:33
ActuallyВсъщност, life formsформи produceпродукция things that killубивам themselvesсебе си.
330
915000
3000
Всъщност формите на живот създават неща, които се самоубиват.
15:36
Well, we did pullдърпам throughпрез on this planetпланета.
331
918000
3000
Е, преживявали сме на тази планета.
15:39
But then, a long time laterпо късно, billionsмилиарди of yearsгодини laterпо късно,
332
921000
2000
Но после, много по-късно, милиарди по-късно
15:41
we got the secondвтори replicatorрепликатор, the memesмемета.
333
923000
3000
сме получили втория репликатор, мемите.
15:44
That was dangerousопасно, all right.
334
926000
2000
Това си било доста опасно.
15:46
Think of the bigголям brainмозък.
335
928000
2000
Помислете за големия мозък.
15:48
How manyмного mothersмайки do we have here?
336
930000
3000
Колко майки има тук?
15:51
You know all about bigголям brainsмозъците.
337
933000
2000
Вие знаете всичко за големите мозъци.
15:53
They are dangerousопасно to give birthраждане to,
338
935000
2000
Опасни са за раждане.
15:55
are agonizingмъчителен to give birthраждане to.
339
937000
2000
Чиста агония е да ги раждаш.
15:57
(LaughterСмях)
340
939000
1000
(Смях)
15:59
My catкотка gaveдадох birthраждане to fourчетирима kittensкотенца, purringмъркане all the time.
341
941000
2000
Котката ми роди четири котенца, мъркаше през цялото време.
16:01
AhАх, mmмм -- slightlyмалко differentразличен.
342
943000
2000
А, мм... малко по-различно.
16:03
(LaughterСмях)
343
945000
2000
(Смях)
16:05
But not only is it painfulболезнен, it killsизмиране lots of babiesбебета,
344
947000
3000
Но не само че е болезнено - убива много бебета,
16:08
it killsизмиране lots of mothersмайки,
345
950000
2000
убива много майки
16:10
and it's very expensiveскъп to produceпродукция.
346
952000
2000
и е много скъпо.
16:12
The genesгени are forcedпринуден into producingпроизводство all this myelinмиелин,
347
954000
2000
Гените са принудени да произвеждат всичкия този миелин,
16:14
all the fatдебел to myelinateмиелинизация the brainмозък.
348
956000
2000
всички мазнини за миелинизация на мозък.
16:16
Do you know, sittingседнал here,
349
958000
2000
Знаете ли, че като седите там,
16:18
your brainмозък is usingизползвайки about 20 percentна сто of your body'sна тялото energyенергия outputпродукция
350
960000
4000
мозъкът ви използва около 20 процента от произведената от тялото ви енергия
16:22
for two percentна сто of your bodyтяло weightтегло?
351
964000
2000
за два процента от телесното ви тегло?
16:24
It's a really expensiveскъп organорган to runтичам.
352
966000
2000
Наистина скъпо е действието на този орган.
16:26
Why? Because it's producingпроизводство the memesмемета.
353
968000
2000
Защо? Защото той създава мемите.
16:28
Now, it could have killedубит us off. It could have killedубит us off,
354
970000
4000
Той е могъл да ни избие... могъл е да ни избие
16:32
and maybe it nearlyпочти did, but you see, we don't know.
355
974000
2000
и може би почти го е сторил, но виждате ли, не знаем.
16:34
But maybe it nearlyпочти did.
356
976000
2000
А може би почти го е сторил.
16:36
Has it been triedопитах before?
357
978000
1000
Опитвано ли е това преди?
16:37
What about all those other speciesвид?
358
979000
2000
Ами всички тези други видове?
16:39
LouiseЛуиз LeakeyЛики talkedговорих yesterdayвчера
359
981000
2000
Луиз Лийки говори вчера
16:41
about how we're the only one in this branchклон left.
360
983000
3000
за това, че сме единствените останали в този бранш.
16:44
What happenedсе случи to the othersдруги?
361
986000
2000
Какво се е случило с другите?
16:46
Could it be that this experimentексперимент in imitationимитация,
362
988000
2000
Възможно ли е този експеримент по имитация,
16:48
this experimentексперимент in a secondвтори replicatorрепликатор,
363
990000
2000
този експеримент за втори репликатор
16:50
is dangerousопасно enoughдостатъчно to killубивам people off?
364
992000
4000
да е достатъчно опасен, за да избива хора?
16:54
Well, we did pullдърпам throughпрез, and we adaptedадаптиран.
365
996000
2000
Е, справили сме се и сме се приспособили.
16:56
But now, we're hittingудря, as I've just describedописан,
366
998000
3000
Но сега, както току-що описах,
16:59
we're hittingудря the thirdтрета replicatorрепликатор pointточка.
367
1001000
2000
се сблъскваме с третата репликаторна точка.
17:01
And this is even more dangerousопасно --
368
1003000
3000
А тя е дори по-опасна...
17:04
well, it's dangerousопасно again.
369
1006000
2000
е, пак е опасна.
17:06
Why? Because the temesтемите are selfishегоистичен replicatorsРепликаторите
370
1008000
4000
Защо? Защото темите са себични репликатори
17:10
and they don't careгрижа about us, or our planetпланета, or anything elseоще.
371
1012000
3000
и не ги е грижа за нас, за нашата планета или за каквото и да било друго.
17:13
They're just informationинформация, why would they?
372
1015000
3000
Те са просто информация - защо да ги е грижа?
17:17
They are usingизползвайки us to suckсмуча up the planet'sна планетата resourcesресурси
373
1019000
2000
Използват ни за изсмукване на ресурсите на планетата
17:19
to produceпродукция more computersкомпютри,
374
1021000
2000
за производство на още компютри,
17:21
and more of all these amazingудивителен things we're hearingслух about here at TEDТЕД.
375
1023000
3000
и повечето от тези изумителни неща, за които слушаме тук, в ТЕD.
17:24
Don't think, "Oh, we createdсъздаден the InternetИнтернет for our ownсобствен benefitоблага."
376
1026000
4000
Не мислете: "О, създадохме Интернет в своя собствена полза."
17:28
That's how it seemsИзглежда to us.
377
1030000
2000
Така ни се струва.
17:30
Think, temesтемите spreadingразпространяване because they mustтрябва да.
378
1032000
4000
Мислете за това, че темите се разпространяват, защото така трябва.
17:34
We are the oldстар machinesмашини.
379
1036000
2000
Ние сме старите машини.
17:36
Now, are we going to pullдърпам throughпрез?
380
1038000
2000
А ще се справим ли?
17:38
What's going to happenстава?
381
1040000
2000
Какво ще се случи?
17:40
What does it mean to pullдърпам throughпрез?
382
1042000
2000
Какво означава да се справим?
17:42
Well, there are kindмил of two waysначини of pullingдърпане throughпрез.
383
1044000
2000
Е, има два начина за справяне.
17:45
One that is obviouslyочевидно happeningслучва all around us now,
384
1047000
2000
Единият, който очевидно се случва сега навсякъде около нас,
17:47
is that the temesтемите turnзавой us into temeTeme machinesмашини,
385
1049000
4000
е, че темите ни превръщат в машини за теми,
17:51
with these implantsимпланти, with the drugsнаркотици,
386
1053000
2000
с тези импланти, с наркотиците,
17:53
with us mergingОбединяване with the technologyтехнология.
387
1055000
3000
с това, че се сливаме с технологията.
17:56
And why would they do that?
388
1058000
2000
А защо да го правят?
17:58
Because we are self-replicatingсамовъзпроизвеждащ.
389
1060000
2000
Защото ние сме саморепликиращи се.
18:00
We have babiesбебета.
390
1062000
2000
Имаме бебета.
18:02
We make newнов onesтакива, and so it's convenientудобен to piggybackФургони on us,
391
1064000
3000
Правим нови, и затова е удобно да ни се качват на гърба,
18:05
because we're not yetоще at the stageсцена on this planetпланета
392
1067000
4000
защото още не сме на етапа на тази планета,
18:09
where the other optionопция is viableжизнеспособен.
393
1071000
2000
при който другият вариант е жизнеспособен.
18:11
AlthoughВъпреки че it's closerпо близо, I heardчух this morningсутрин,
394
1073000
2000
Макар и да е близо, чух тази сутрин,
18:13
it's closerпо близо than I thought it was.
395
1075000
2000
по-близо, отколкото си мислех.
18:15
Where the temeTeme machinesмашини themselvesсебе си will replicateрепликира themselvesсебе си.
396
1077000
3000
Където машините за теми сами ще се репликират.
18:18
That way, it wouldn'tне би matterвъпрос if the planet'sна планетата climateклимат
397
1080000
4000
По този начин не би имало значение дали климатът на планетата
18:22
was utterlyнапълно destabilizedдестабилизира,
398
1084000
2000
е напълно дестабилизиран
18:24
and it was no longerповече време possibleвъзможен for humansхората to liveживея here.
399
1086000
2000
и вече не е възможно хората да живеят тук.
18:26
Because those temeTeme machinesмашини, they wouldn'tне би need --
400
1088000
2000
Защото на тези машини за теми няма да им трябва...
18:28
they're not squishysquishy, wetмокър, oxygen-breathingкислород дишане,
401
1090000
2000
те не са джвакащи, мокри, дишащи кислород,
18:30
warmth-requiringтоплота изисква creaturesсъздания.
402
1092000
3000
изискващи топлина създания.
18:33
They could carryнося on withoutбез us.
403
1095000
2000
Биха могли да продължават без нас.
18:35
So, those are the two possibilitiesвъзможности.
404
1097000
3000
Това са двете възможности.
18:38
The secondвтори, I don't think we're that closeблизо.
405
1100000
4000
Втората - не мисля, че сме толкова близо дотам.
18:42
It's comingидващ, but we're not there yetоще.
406
1104000
2000
Наближава, но още не сме стигнали дотам.
18:44
The first, it's comingидващ too.
407
1106000
2000
Първата - тя също наближава.
18:46
But the damageщета that is alreadyвече beingсъщество doneСвършен
408
1108000
3000
Но вредата, която вече се причинява
18:49
to the planetпланета is showingпоказване us how dangerousопасно the thirdтрета pointточка is,
409
1111000
5000
на планетата, ни показва колко е опасна третата точка,
18:54
that thirdтрета dangerопасност pointточка, gettingполучаване на a thirdтрета replicatorрепликатор.
410
1116000
3000
тази трета точка на опасност, получаване на трети репликатор.
18:58
And will we get throughпрез this thirdтрета dangerопасност pointточка,
411
1120000
2000
И дали ще преминем през тази трета точка на опасност,
19:00
like we got throughпрез the secondвтори and like we got throughпрез the first?
412
1122000
3000
както сме минали през втората и първата?
19:04
Maybe we will, maybe we won'tняма да.
413
1126000
2000
Може би да, може би не.
19:06
I have no ideaидея.
414
1128000
3000
Нямам представа.
19:13
(ApplauseАплодисменти)
415
1135000
10000
(Аплодисменти)
19:24
ChrisКрис AndersonАндерсън: That was an incredibleневероятен talk.
416
1146000
2000
Крис Андерсън: Това беше невероятен разговор.
19:26
SBSB: Thank you. I scaredуплашен myselfсебе си.
417
1148000
2000
Благодаря. Направо се изплаших.
19:28
CACA: (LaughterСмях)
418
1150000
1000
КА: (Смях)
Translated by MaYoMo com
Reviewed by Kaloyana Milinova

▲Back to top

ABOUT THE SPEAKER
Susan Blackmore - Memeticist
Susan Blackmore studies memes -- those self-replicating "life forms" that spread themselves via human consciousness. We're now headed, she believes, toward a new form of meme, spread by the technology we've created.

Why you should listen

Susan Blackmore is dedicated to understanding the scientific nature of consciousness. Her latest work centers on the existence of memes -- little bits of knowledge, lore, habit that seem to spread themselves using human brains as mere carriers. She's exploring the existence of a new class of meme, spread by human technology. It's temporarily named the "teme."

She has written about memes, consciousness, and near-death experiences; has appeared on the British Big Brother to discuss the psychology of the participants; and writes for the Guardian UK.

More profile about the speaker
Susan Blackmore | Speaker | TED.com