ABOUT THE SPEAKER
Susan Blackmore - Memeticist
Susan Blackmore studies memes -- those self-replicating "life forms" that spread themselves via human consciousness. We're now headed, she believes, toward a new form of meme, spread by the technology we've created.

Why you should listen

Susan Blackmore is dedicated to understanding the scientific nature of consciousness. Her latest work centers on the existence of memes -- little bits of knowledge, lore, habit that seem to spread themselves using human brains as mere carriers. She's exploring the existence of a new class of meme, spread by human technology. It's temporarily named the "teme."

She has written about memes, consciousness, and near-death experiences; has appeared on the British Big Brother to discuss the psychology of the participants; and writes for the Guardian UK.

More profile about the speaker
Susan Blackmore | Speaker | TED.com
TED2008

Susan Blackmore: Memes and "temes"

Susan Blackmore o memach i “temach”

Filmed:
882,044 views

Susan Blackmore bada memy, idee które kopiują się z mózgu do mózgu jak wirusy. Stawia nową, odważną tezę: ludzkość stworzyła nowy rodzaj memu, tem, który rozprzestrzenia się poprzez technologię i wynajduje sposoby pozwalające mu utrzymać się przy życiu.
- Memeticist
Susan Blackmore studies memes -- those self-replicating "life forms" that spread themselves via human consciousness. We're now headed, she believes, toward a new form of meme, spread by the technology we've created. Full bio

Double-click the English transcript below to play the video.

00:18
CulturalKulturalnych evolutionewolucja is a dangerousniebezpieczny childdziecko
0
0
3000
Ewolucja kulturowa to niebezpieczne dziecko, które bez nadzoru
00:21
for any speciesgatunki to let looseluźny on its planetplaneta.
1
3000
3000
staje się groźne dla każdego gatunku na tej planecie.
00:24
By the time you realizerealizować what's happeningwydarzenie, the childdziecko is a toddlermaluch,
2
6000
4000
Zanim się obejrzysz, dziecko już wstaje,
00:28
up and causingspowodowanie havocspustoszenie, and it's too latepóźno to put it back.
3
10000
6000
sieje spustoszenie, a za późno, by z powrotem położyć je spać.
00:34
We humansludzie are Earth'sZiemi PandoranPandoran speciesgatunki.
4
16000
3000
My, ludzie, jesteśmy dla Ziemi gatunkiem-Pandorą.
00:37
We're the oneste who let the seconddruga replicatorReplikator out of its boxpudełko,
5
19000
5000
To my pozwoliliśmy drugiemu replikatorowi wydostać się z puszki
00:42
and we can't pushPchać it back in.
6
24000
2000
i nie potrafimy go wepchnąć z powrotem.
00:44
We're seeingwidzenie the consequenceskonsekwencje all around us.
7
26000
3000
Konsekwencje widzimy wszędzie wokół nas.
00:48
Now that, I suggestsugerować, is the viewwidok that
8
30000
4000
To właśnie, moim zdaniem, punkt widzenia, który wynika
00:52
comespochodzi out of takingnabierający memeticsmemetyka seriouslypoważnie.
9
34000
2000
z poważnego traktowania memetyki.
00:54
And it givesdaje us a newNowy way of thinkingmyślący about
10
36000
2000
Daje on nowy sposób myślenia
00:56
not only what's going on on our planetplaneta,
11
38000
2000
o tym, co dzieje się na naszej planecie,
00:58
but what mightmoc be going on elsewheregdzie indziej in the cosmoskosmos.
12
40000
3000
a także o tym, co może się dziać gdzieś indziej w kosmosie.
01:01
So first of all, I'd like to say something about memeticsmemetyka
13
43000
3000
Chciałabym więc powiedzieć, po pierwsze, coś o memetyce
01:04
and the theoryteoria of memesmemy,
14
46000
2000
i teorii memów,
01:06
and secondlypo drugie, how this mightmoc answerodpowiedź questionspytania about who'skto jest out there,
15
48000
5000
a po drugie, o tym jak mogą one odpowiedzieć na pytanie o to,
01:11
if indeedw rzeczy samej anyonektokolwiek is.
16
53000
3000
kto poza nami tam jest, jeśli rzeczywiście ktoś jest.
01:14
So, memeticsmemetyka:
17
56000
2000
A więc, memetyka.
01:16
memeticsmemetyka is foundedzałożony on the principlezasada of UniversalUniwersalny DarwinismDarwinizm.
18
58000
4000
Memetyka jest oparta na zasadzie uniwersalnego darwinizmu.
01:20
DarwinDarwin had this amazingniesamowity ideapomysł.
19
62000
3000
Darwin miał taką zadziwiającą ideę.
01:23
IndeedW rzeczywistości, some people say
20
65000
2000
W rzeczy samej, niektórzy mówią,
01:25
it's the bestNajlepiej ideapomysł anybodyktoś ever had.
21
67000
3000
że to najlepsza idea, jaką kiedykolwiek ktokolwiek miał.
01:28
Isn't that a wonderfulwspaniale thought, that there could be suchtaki a thing
22
70000
4000
Czy nie jest to wspaniała myśl, że może istnieć coś takiego jak
01:32
as a bestNajlepiej ideapomysł anybodyktoś ever had?
23
74000
2000
najlepsza koncepcja, jaką ktokolwiek miał?
01:34
Do you think there could?
24
76000
1000
Myślicie, że coś takiego może istnieć?
01:35
AudiencePubliczność: No.
25
77000
1000
Publiczność: Nie.
01:36
(LaughterŚmiech)
26
78000
1000
(Śmiech)
01:37
SusanSusan BlackmoreBlackmore: SomeoneKtoś saysmówi no, very loudlygłośno, from over there.
27
79000
2000
S. Blackmore: Słyszałam głośne "nie".
01:39
Well, I say yes, and if there is, I give the prizenagroda to DarwinDarwin.
28
81000
4000
Cóż, ja mówię "tak" i przyznaję za taką ideę nagrodę Darwinowi.
01:43
Why?
29
85000
2000
Dlaczego?
01:45
Because the ideapomysł was so simpleprosty,
30
87000
3000
Dlatego, że ta idea jest tak prosta,
01:48
and yetjeszcze it explainswyjaśnia all designprojekt in the universewszechświat.
31
90000
6000
a jednocześnie wyjaśnia całą konstrukcję wszechświata.
01:54
I would say not just biologicalbiologiczny designprojekt,
32
96000
2000
Nie tylko konstrukcję biologiczną,
01:56
but all of the designprojekt that we think of as humanczłowiek designprojekt.
33
98000
2000
ale też wszystko, co uważamy za wytwór człowieka.
01:58
It's all just the samepodobnie thing happeningwydarzenie.
34
100000
2000
To przykłady jednego mechanizmu.
02:00
What did DarwinDarwin say?
35
102000
2000
Co powiedział Darwin?
02:02
I know you know the ideapomysł, naturalnaturalny selectionwybór,
36
104000
2000
Wiem, że znacie ideę doboru naturalnego,
02:04
but let me just paraphraseparafraza "The OriginPochodzenie of SpeciesGatunki," 1859,
37
106000
5000
ale pozwolę sobie sparafrazować "O powstawaniu gatunków" z 1859 roku,
02:09
in a fewkilka sentenceszdań.
38
111000
2000
w kilku zdaniach.
02:11
What DarwinDarwin said was something like this:
39
113000
3000
Darwin powiedział coś takiego…
02:14
if you have creaturesstworzenia that varyróżnią się, and that can't be doubtedzwątpiłem --
40
116000
4000
Jeśli istnieją stworzenia zróżnicowane, a co do tego nie ma wątpliwości…
02:18
I've been to the GalapagosGalapagos, and I've measuredwymierzony the sizerozmiar of the beaksdzioby
41
120000
3000
Byłem na Galapagos i mierzyłem wielkość dziobów,
02:21
and the sizerozmiar of the turtleŻółw shellsmuszle and so on, and so on.
42
123000
2000
żółwich skorup i tak dalej, i tak dalej.
02:23
And 100 pagesstrony laterpóźniej.
43
125000
2000
I 100 stron później…
02:25
(LaughterŚmiech)
44
127000
2000
(Śmiech)
02:27
And if there is a struggleborykać się for life,
45
129000
4000
I jeśli ma miejsce walka o życie,
02:31
suchtaki that nearlyprawie all of these creaturesstworzenia dieumierać --
46
133000
3000
w której prawie wszystkie te stworzenia giną,
02:34
and this can't be doubtedzwątpiłem, I've readczytać MalthusMalthus
47
136000
3000
a i w to nie można wątpić, czytałem Malthusa
02:37
and I've calculatedobliczone how long it would take for elephantssłonie
48
139000
2000
i obliczyłem, jak szybko słonie
02:39
to coverpokrywa the wholecały worldświat if they bredhodowane unrestrictedbez ograniczeń, and so on and so on.
49
141000
3000
zasiedliłyby cały świat, gdyby mnożyły się bez przeszkód, itd...
02:42
And anotherinne 100 pagesstrony laterpóźniej.
50
144000
4000
I następne 100 stron później.
02:46
And if the very fewkilka that surviveprzetrwać passprzechodzić ontona theirich offspringpotomstwo
51
148000
5000
I jeśli te nieliczne, które przetrwały, przekażą potomstwu to,
02:51
whatevercokolwiek it was that helpedpomógł them surviveprzetrwać,
52
153000
3000
to, co pomogło im przetrwać,
02:54
then those offspringpotomstwo mustmusi be better adaptedprzystosowany
53
156000
2000
wtedy potomstwo musi być lepiej przystosowane
02:56
to the circumstancesokoliczności in whichktóry all this happenedstało się
54
158000
2000
do warunków, w których to nastąpiło,
02:58
than theirich parentsrodzice were.
55
160000
3000
niż byli jego rodzice.
03:01
You see the ideapomysł?
56
163000
2000
Widzicie ideę?
03:03
If, if, if, then.
57
165000
2000
Jeśli, jeśli, jeśli, wtedy.
03:05
He had no conceptpojęcie of the ideapomysł of an algorithmalgorytm,
58
167000
2000
On nie miał pojęcia o koncepcji algorytmu.
03:07
but that's what he describedopisane in that bookksiążka,
59
169000
3000
Ale to właśnie opisał w tej książce
03:10
and this is what we now know as the evolutionaryewolucyjny algorithmalgorytm.
60
172000
3000
i to właśnie znamy dziś jako algorytm ewolucyjny.
03:13
The principlezasada is you just need those threetrzy things --
61
175000
4000
Podstawowa zasada mówi, że potrzebujemy tych trzech rzeczy,
03:17
variationzmienność, selectionwybór and hereditydziedziczność.
62
179000
3000
zmienności, doboru i dziedziczenia.
03:20
And as DanDan DennettDennett putsstawia it, if you have those,
63
182000
4000
I, jak ujmuje to Dan Dennet, jeśli je mamy,
03:24
then you mustmusi get evolutionewolucja.
64
186000
2000
musimy otrzymać ewolucję.
03:26
Or designprojekt out of chaoschaos, withoutbez the aidpomoc of mindumysł.
65
188000
5000
Albo konstrukcję powstałą z chaosu bez udziału umysłu.
03:31
There's one wordsłowo I love on that slideślizgać się.
66
193000
2000
Uwielbiam jedno ze słów na tym slajdzie.
03:33
What do you think my favoriteulubiony wordsłowo is?
67
195000
2000
Jak myślicie, które?
03:35
AudiencePubliczność: ChaosChaos.
68
197000
1000
Publiczność: "Chaos".
03:36
SBSB: ChaosChaos? No. What? MindUmysł? No.
69
198000
3000
SB: "Chaos"? Nie. Które? "Umysł"? Nie.
03:39
AudiencePubliczność: WithoutBez.
70
201000
1000
Publiczność: "Bez".
03:40
SBSB: No, not withoutbez.
71
202000
1000
SB: Nie, nie "bez".
03:41
(LaughterŚmiech)
72
203000
1000
(Śmiech)
03:42
You try them all in orderzamówienie: MmmMmm...?
73
204000
2000
Podajecie wszystkie po kolei. Mmm...?
03:44
AudiencePubliczność: MustNależy.
74
206000
1000
Publiczność: "Musimy”.
03:45
SBSB: MustNależy, at mustmusi. MustNależy, mustmusi.
75
207000
4000
Musimy, koniecznie. Musimy, musimy.
03:49
This is what makesczyni it so amazingniesamowity.
76
211000
2000
To właśnie sprawia, że to takie niesamowite.
03:51
You don't need a designerprojektant,
77
213000
3000
Nie potrzebujemy projektanta,
03:54
or a planplan, or foresightForesight, or anything elsejeszcze.
78
216000
3000
ani planu, ani przewidywania, ani nic innego.
03:57
If there's something that is copiedskopiowane with variationzmienność
79
219000
3000
Jeśli istnieje coś, co jest kopiowane, wykazuje zmienność
04:00
and it's selectedwybrany, then you mustmusi get designprojekt appearingpojawiające się out of nowherenigdzie.
80
222000
4000
i podlega selekcji, wtedy znikąd musimy otrzymać konstrukcję.
04:04
You can't stop it.
81
226000
2000
Nie da się tego powstrzymać.
04:06
MustNależy is my favoriteulubiony wordsłowo there.
82
228000
4000
"Musimy" jest tutaj moim ulubionym słowem.
04:11
Now, what's this to do with memesmemy?
83
233000
2000
A teraz, jak to się ma do memów?
04:13
Well, the principlezasada here appliesdotyczy to anything
84
235000
5000
Otóż ta zasada odnosi się do wszystkiego,
04:18
that is copiedskopiowane with variationzmienność and selectionwybór.
85
240000
1000
co jest kopiowane ze zmiennością i podlega doborowi.
04:19
We're so used to thinkingmyślący in termswarunki of biologybiologia,
86
241000
3000
Przyzwyczailiśmy się myśleć o genach
04:22
we think about genesgeny this way.
87
244000
2000
w kategoriach biologicznych.
04:24
DarwinDarwin didn't, of coursekurs; he didn't know about genesgeny.
88
246000
3000
Darwin oczywiście tego nie robił, nie wiedział o genach.
04:27
He talkedrozmawialiśmy mostlyprzeważnie about animalszwierzęta and plantsrośliny,
89
249000
2000
Mówił przede wszystkim o zwierzętach i roślinach,
04:29
but alsorównież about languagesJęzyki evolvingewoluować and becomingtwarzowy extinctwyginąć.
90
251000
3000
ale również o ewolucji i wymieraniu języków.
04:32
But the principlezasada of UniversalUniwersalny DarwinismDarwinizm
91
254000
2000
Ale zasada uniwersalnego darwinizmu
04:34
is that any informationInformacja that is variedurozmaicony and selectedwybrany
92
256000
4000
mówi, że każda informacja, która podlega zmienności i selekcji
04:38
will produceprodukować designprojekt.
93
260000
2000
da projekt.
04:40
And this is what RichardRichard DawkinsDawkins was on about
94
262000
2000
Właśnie o tym pisał Richard Dawkins
04:42
in his 1976 bestsellerBestseller, "The SelfishSamolubny GeneGen."
95
264000
3000
w "Samolubnym genie", jego bestsellerze z 1976 roku.
04:45
The informationInformacja that is copiedskopiowane, he callednazywa the replicatorReplikator.
96
267000
4000
Informację, która jest kopiowana, nazwał replikatorem.
04:49
It selfishlyegoistycznie copieskopie.
97
271000
2000
Ten powiela się w sposób samolubny.
04:51
Not meaningznaczenie it kinduprzejmy of sitssiedzi around insidewewnątrz cellskomórki going, "I want to get copiedskopiowane."
98
273000
4000
Nie znaczy to, że siedzi w komórce i kombinuje "Chcę się skopiować".
04:55
But that it will get copiedskopiowane if it can,
99
277000
2000
Ale, że zostanie skopiowany, jeśli będzie mógł,
04:57
regardlessbez względu of the consequenceskonsekwencje.
100
279000
2000
niezależnie od konsekwencji.
05:00
It doesn't careopieka about the consequenceskonsekwencje because it can't,
101
282000
3000
Nie dba o konsekwencje, ponieważ nie może,
05:03
because it's just informationInformacja beingistota copiedskopiowane.
102
285000
2000
jest tylko informacją, która zostaje skopiowana.
05:06
And he wanted to get away
103
288000
1000
Dawkins chciał odejść od wszechobecnego myślenia o genach,
05:07
from everybodywszyscy thinkingmyślący all the time about genesgeny,
104
289000
3000
Dawkins chciał odejść od wszechobecnego myślenia o genach,
05:10
and so he said, "Is there anotherinne replicatorReplikator out there on the planetplaneta?"
105
292000
3000
więc zapytał, "Czy jest na tej planecie jeszcze jakiś replikator?"
05:13
AhAh, yes, there is.
106
295000
2000
O tak, jest.
05:15
Look around you -- here will do, in this roompokój.
107
297000
3000
Popatrzcie wokół siebie, po prostu tutaj, w tej sali.
05:18
All around us, still clumsilynieumiejętnie driftingdrifting about
108
300000
3000
Wszędzie wokół nas, wciąż niezgrabnie kręcąc się
05:21
in its primevalPuszczy soupzupa of culturekultura, is anotherinne replicatorReplikator.
109
303000
3000
w swojej pierwotnej zupie kultury, znajduje się kolejny replikator.
05:24
InformationInformacje that we copyKopiuj from personosoba to personosoba, by imitationimitacja,
110
306000
5000
Informacja, która jest kopiowana między ludźmi przez naśladowanie,
05:29
by languagejęzyk, by talkingmówić, by tellingwymowny storieshistorie,
111
311000
2000
język, rozmowę, opowiadanie historii,
05:31
by wearingma na sobie clothesubranie, by doing things.
112
313000
3000
noszenie ubrań, robienie różnych rzeczy.
05:34
This is informationInformacja copiedskopiowane with variationzmienność and selectionwybór.
113
316000
5000
Jest to informacja powielana, podlegająca zmienności selekcji.
05:39
This is designprojekt processproces going on.
114
321000
3000
Jest to proces powstawania projektu w toku.
05:42
He wanted a nameNazwa for the newNowy replicatorReplikator.
115
324000
3000
Potrzebował nazwy dla tego nowego replikatora.
05:45
So, he tookwziął the GreekGrecki wordsłowo "mimememimeme," whichktóry meansznaczy that whichktóry is imitatednaśladować.
116
327000
4000
Wybrał greckie słowo "mimeme", które oznacza to, co jest imitowane.
05:49
RememberNależy pamiętać that, that's the corerdzeń definitiondefinicja:
117
331000
2000
Zapamiętajcie to, to sedno definicji.
05:52
that whichktóry is imitatednaśladować.
118
334000
1000
To, co jest imitowane.
05:53
And abbreviatedw skrócie it to memeja ja, just because it soundsDźwięki good
119
335000
3000
I skrócił to do słowa "mem", po prostu dlatego, że dobrze brzmi
05:56
and madezrobiony a good memeja ja, an effectiveefektywny spreadingrozpościerający się memeja ja.
120
338000
3000
i daje dobry, dobrze rozprzestrzeniający się mem.
05:59
So that's how the ideapomysł cameoprawa ołowiana witrażu about.
121
341000
3000
Oto, jak powstała ta koncepcja.
06:03
It's importantważny to stickkij with that definitiondefinicja.
122
345000
3000
Ważne, by trzymać się tej definicji.
06:06
The wholecały sciencenauka of memeticsmemetyka is much malignedmaligned,
123
348000
4000
Memetyka jako nauka jest mocno oczerniana,
06:10
much misunderstoodniezrozumiany, much fearedobawiać się.
124
352000
3000
bardzo opacznie rozumiana i budzi duży strach.
06:13
But a lot of these problemsproblemy can be avoidedunikany
125
355000
3000
Ale wielu z tych problemów można uniknąć
06:16
by rememberingpamiętając the definitiondefinicja.
126
358000
2000
przez pamiętanie tej definicji.
06:18
A memeja ja is not equivalentrównowartość to an ideapomysł.
127
360000
2000
Mem nie jest odpowiednikiem idei,
06:20
It's not an ideapomysł. It's not equivalentrównowartość to anything elsejeszcze, really.
128
362000
2000
ani odpowiednikiem niczego innego.
06:22
StickKij with the definitiondefinicja.
129
364000
2000
Trzymajmy się definicji.
06:24
It's that whichktóry is imitatednaśladować,
130
366000
2000
To coś, co jest imitowane.
06:26
or informationInformacja whichktóry is copiedskopiowane from personosoba to personosoba.
131
368000
3000
Albo informacja, która jest kopiowana pomiędzy ludźmi.
06:30
So, let's see some memesmemy.
132
372000
1000
Spójrzmy na kilka memów.
06:31
Well, you sirPan, you've got those glassesokulary hungzawieszony around your neckszyja
133
373000
3000
Proszę, pan ma zawieszone na szyi okulary
06:34
in that particularlyszczególnie fetchingujmujący way.
134
376000
2000
w wyjątkowo ujmujący sposób.
06:36
I wondercud whetherczy you inventedzmyślony that ideapomysł for yourselfsiebie,
135
378000
2000
Zastanawiam się, czy wpadł pan na ten pomysł sam,
06:38
or copiedskopiowane it from someonektoś elsejeszcze?
136
380000
2000
czy też podpatrzył u kogoś innego?
06:40
If you copiedskopiowane it from someonektoś elsejeszcze, it's a memeja ja.
137
382000
3000
Jeżeli skopiował go pan od kogoś innego, to jest to mem.
06:43
And what about, oh, I can't see any interestingciekawy memesmemy here.
138
385000
3000
Och, nie widzę tu żadnych interesujących memów.
06:46
All right everyonekażdy, who'skto jest got some interestingciekawy memesmemy for me?
139
388000
3000
No dobrze, kto ma dla mnie jakieś ciekawe memy?
06:49
Oh, well, your earringskolczyki,
140
391000
2000
O, proszę, pani kolczyki.
06:51
I don't supposeprzypuszczać you inventedzmyślony the ideapomysł of earringskolczyki.
141
393000
2000
Zapewne nie wymyśliła pani kolczyków.
06:53
You probablyprawdopodobnie wentposzedł out and boughtkupiony them.
142
395000
2000
Prawdopodobnie je pani kupiła.
06:55
There are plentydużo more in the shopssklepy.
143
397000
2000
Jest ich całe mnóstwo w sklepach.
06:57
That's something that's passedminęło on from personosoba to personosoba.
144
399000
2000
To coś przekazywanego między ludźmi.
06:59
All the storieshistorie that we're tellingwymowny -- well, of coursekurs,
145
401000
3000
Wszystkie historie, które opowiadamy, no oczywiście,
07:02
TEDTED is a great meme-festmeme-fest, massesMas of memesmemy.
146
404000
4000
TED jest wielkim mem-festiwalem, zgromadzeniem memów.
07:06
The way to think about memesmemy, thoughchociaż,
147
408000
2000
Jednakże mówiąc o memach należy zapytać,
07:08
is to think, why do they spreadrozpiętość?
148
410000
2000
dlaczego się rozprzestrzeniają.
07:10
They're selfishsamolubny informationInformacja, they will get copiedskopiowane, if they can.
149
412000
4000
Są samolubną informacją, zostaną skopiowane, jeśli to będzie możliwe.
07:14
But some of them will be copiedskopiowane because they're good,
150
416000
3000
Ale część z nich zostanie skopiowana, ponieważ są dobre,
07:17
or trueprawdziwe, or usefulprzydatny, or beautifulpiękny.
151
419000
2000
prawdziwe, użyteczne, albo piękne.
07:19
Some of them will be copiedskopiowane even thoughchociaż they're not.
152
421000
2000
Inne zostaną skopiowane, choć takie nie są.
07:21
Some, it's quitecałkiem hardciężko to tell why.
153
423000
2000
Niektóre, ciężko powiedzieć, dlaczego.
07:24
There's one particularszczególny curiousciekawy memeja ja whichktóry I ratherraczej enjoycieszyć się.
154
426000
3000
Jest jeden taki, szczególnie ciekawy, który mi się podoba.
07:27
And I'm gladzadowolony to say, as I expectedspodziewany, I founduznany it when I cameoprawa ołowiana witrażu here,
155
429000
3000
I jak się spodziewałam, znalazłam go też tutaj
07:30
and I'm sure all of you founduznany it, too.
156
432000
2000
i jestem pewna, że wszyscy znaleźliście go również.
07:32
You go to your nicemiły, poshPosh, internationalmiędzynarodowy hotelhotel somewheregdzieś,
157
434000
3000
Idziecie do przyjemnego eleganckiego hotelu,
07:36
and you come in and you put down your clothesubranie
158
438000
2000
wchodzicie do pokoju, zostawiacie swoje rzeczy,
07:38
and you go to the bathroomłazienka, and what do you see?
159
440000
3000
idziecie do łazienki i co widzicie?
07:41
AudiencePubliczność: BathroomŁazienka soapmydło.
160
443000
1000
Publiczność: "Mydło".
07:42
SBSB: PardonZa przeproszeniem?
161
444000
1000
SB: Słucham?
07:43
AudiencePubliczność: SoapMydło.
162
445000
1000
Publiczność: "Mydło".
07:44
SBSB: SoapMydło, yeah. What elsejeszcze do you see?
163
446000
2000
SB: Mydło, tak. Co jeszcze?
07:46
AudiencePubliczność: (InaudibleNiesłyszalny)
164
448000
1000
Publiczność: (Niesłyszalne)
07:47
SBSB: MmmMmm mmmmmm.
165
449000
1000
SB: Mmm mmm.
07:48
AudiencePubliczność: SinkUmywalka, toilettoaleta!
166
450000
1000
Publiczność: Umywalkę, toaletę!
07:49
SBSB: SinkUmywalka, toilettoaleta, yes, these are all memesmemy, they're all memesmemy,
167
451000
2000
SB: Umywalka, toaleta, tak, to wszystko memy,
07:51
but they're sortsortować of usefulprzydatny oneste, and then there's this one.
168
453000
3000
wszystkie są przydatne, ale jest jeszcze ten.
07:54
(LaughterŚmiech)
169
456000
3000
(Śmiech)
07:58
What is this one doing?
170
460000
2000
Co on takiego robi?
08:00
(LaughterŚmiech)
171
462000
1000
(Śmiech)
08:01
This has spreadrozpiętość all over the worldświat.
172
463000
2000
To się rozprzestrzeniło po całym świecie.
08:03
It's not surprisingzaskakujący that you all founduznany it
173
465000
2000
Nic dziwnego, że znaleźliście to,
08:05
when you arrivedprzybył in your bathroomsłazienki here.
174
467000
2000
kiedy przyjechaliście tutaj i poszliście do łazienki.
08:07
But I tookwziął this photographfotografia in a toilettoaleta at the back of a tentnamiot
175
469000
5000
Ale to zdjęcie zrobiłam w toalecie na tyłach namiotu
08:12
in the eco-campEco-camp in the jungledżungla in AssamAssam.
176
474000
2000
w eko-kampie w dżungli w Assam.
08:14
(LaughterŚmiech)
177
476000
1000
(Śmiech)
08:16
Who foldedfałdowy that thing up there, and why?
178
478000
3000
Kto to złożył i po co?
08:19
(LaughterŚmiech)
179
481000
1000
(Śmiech)
08:20
Some people get carriedrealizowane away.
180
482000
2000
Niektórzy naprawdę przesadzają.
08:22
(LaughterŚmiech)
181
484000
3000
(Śmiech)
08:26
Other people are just lazyleniwy and make mistakesbłędy.
182
488000
3000
Inni są po prostu leniwi i robią błędy.
08:29
Some hotelshotele exploitwykorzystać the opportunityokazja to put even more memesmemy
183
491000
3000
Niektóre hotele korzystając z okazji dodają jeszcze memów,
08:32
with a little stickernaklejka.
184
494000
2000
używając małej naklejki.
08:34
(LaughterŚmiech)
185
496000
1000
(Śmiech)
08:35
What is this all about?
186
497000
2000
O co tu chodzi?
08:37
I supposeprzypuszczać it's there to tell you that somebody'sczyjś
187
499000
2000
Przypuszczam, że ma to oznaczać,
08:39
cleanedwyczyszczony the placemiejsce, and it's all lovelyśliczny.
188
501000
2000
że ktoś cudownie tu wysprzątał.
08:41
And you know, actuallytak właściwie, all it tellsmówi you is that anotherinne personosoba
189
503000
3000
Tak naprawdę mówi jedynie, że ktoś być może
08:44
has potentiallypotencjalnie spreadrozpiętość germszarazki from placemiejsce to placemiejsce.
190
506000
3000
rozniósł zarazki z jednego miejsca w inne.
08:47
(LaughterŚmiech)
191
509000
1000
(Śmiech)
08:48
So, think of it this way.
192
510000
2000
Więc myślcie o tym w ten sposób.
08:50
ImagineWyobraź sobie a worldświat fullpełny of brainsmózg
193
512000
2000
Wyobraźmy sobie świat pełen mózgów
08:52
and fardaleko more memesmemy than can possiblymożliwie find homesdomy.
194
514000
3000
i tyle memów, że niektóre nie mają gdzie mieszkać.
08:55
The memesmemy are all tryingpróbować to get copiedskopiowane --
195
517000
3000
Wszystkie memy próbują zostać skopiowane,
08:58
tryingpróbować, in invertedodwrotny commasprzecinki -- i.e.,
196
520000
3000
"próbują" w cudzysłowie,
09:01
that's the shorthandskrót for, if they can get copiedskopiowane, they will.
197
523000
3000
czyli jeśli mogą zostać skopiowane, zostaną skopiowane.
09:04
They're usingza pomocą you and me as theirich propagatingrozmnożeniowego, copyingbiurowy machinerymaszyneria,
198
526000
6000
Używają was i mnie jako maszyny do rozmnażania i kopiowania;
09:10
and we are the memeja ja machinesmaszyny.
199
532000
3000
jesteśmy maszynami memowymi.
09:13
Now, why is this importantważny?
200
535000
2000
Dlaczego to takie ważne?
09:15
Why is this usefulprzydatny, or what does it tell us?
201
537000
2000
Do czego to potrzebne, co to oznacza?
09:17
It givesdaje us a completelycałkowicie newNowy viewwidok of humanczłowiek originspoczątki
202
539000
4000
Daje nam to całkowicie nowe spojrzenie na pochodzenie człowieka
09:21
and what it meansznaczy to be humanczłowiek,
203
543000
1000
i na to, co znaczy być człowiekiem.
09:22
all conventionalstandardowy theoriesteorie of culturalkulturalny evolutionewolucja,
204
544000
4000
Na wszystkie konwencjonalne teorie ewolucji kulturowej, pochodzenia człowieka
09:26
of the originpochodzenie of humansludzie,
205
548000
2000
i tego, co wyróżnia nasz gatunek.
09:28
and what makesczyni us so differentróżne from other speciesgatunki.
206
550000
4000
Inne teorie wyjaśniające istnienie dużego mózgu, języka i umiejętności korzystania z narzędzi
09:32
All other theoriesteorie explainingwyjaśniając the bigduży brainmózg, and languagejęzyk, and toolnarzędzie use
207
554000
2000
Inne teorie wyjaśniające istnienie dużego mózgu, języka i umiejętności korzystania z narzędzi
09:34
and all these things that make us uniquewyjątkowy,
208
556000
2000
i wszystkiego tego, co czyni nas niezwykłymi,
09:36
are basedna podstawie uponna genesgeny.
209
558000
3000
opierają się na genetyce.
09:39
LanguageJęzyk mustmusi have been usefulprzydatny for the genesgeny.
210
561000
3000
Język musiał być użyteczny dla genów.
09:42
ToolNarzędzia use mustmusi have enhancedulepszony our survivalprzetrwanie, matinggody and so on.
211
564000
3000
Korzystanie z narzędzi pomogło w przetrwaniu, łączeniu się w pary, itd.
09:45
It always comespochodzi back, as RichardRichard DawkinsDawkins complainedskarżył się
212
567000
3000
To wyjaśnienie zawsze powraca. Jak skarżył się Richard Dawkins
09:48
all that long time agotemu, it always comespochodzi back to genesgeny.
213
570000
3000
dawno temu, to zawsze sprowadza się do genów.
09:51
The pointpunkt of memeticsmemetyka is to say, "Oh no, it doesn't."
214
573000
4000
Sednem memetyki jest stwierdzenie "O, nieprawda".
09:55
There are two replicatorsreplikatory now on this planetplaneta.
215
577000
3000
Na tej planecie występują dwa replikatory.
09:58
From the momentza chwilę that our ancestorsprzodkowie,
216
580000
3000
Od momentu, kiedy nasi przodkowie,
10:01
perhapsmoże two and a halfpół millionmilion yearslat agotemu or so,
217
583000
2000
prawdopodobnie jakieś 2,5 mln. lat temu,
10:03
beganrozpoczął się imitatingnaśladując, there was a newNowy copyingbiurowy processproces.
218
585000
4000
zaczęli naśladować, rozpoczął się nowy proces kopiowania.
10:07
CopyingKopiowanie with variationzmienność and selectionwybór.
219
589000
2000
Kopiowania ze zmiennością i podlegającego doborowi.
10:09
A newNowy replicatorReplikator was let looseluźny, and it could never be --
220
591000
5000
Uwolniony został nowy replikator i samego początku nie mogło być tak,
10:14
right from the startpoczątek -- it could never be
221
596000
1000
Uwolniony został nowy replikator i samego początku nie mogło być tak,
10:15
that humanczłowiek beingsIstoty who let looseluźny this newNowy creaturekreatura,
222
597000
5000
że ludzie, którzy uwolnili to nowe stworzenie,
10:20
could just copyKopiuj the usefulprzydatny, beautifulpiękny, trueprawdziwe things,
223
602000
3000
mogli powielać tylko to, co przydatne, piękne, prawdziwe,
10:23
and not copyKopiuj the other things.
224
605000
2000
a nie kopiować niczego innego.
10:25
While theirich brainsmózg were havingmający an advantageZaletą from beingistota ablezdolny to copyKopiuj --
225
607000
3000
Ich mózgi miały przewagę dzięki umiejętności kopiowania
10:28
lightingoświetlenie firespożary, keepingkonserwacja firespożary going, newNowy techniquestechniki of huntingpolowanie,
226
610000
5000
rozniecania i podtrzymywania ognia, nowych technik polowania,
10:33
these kindsrodzaje of things --
227
615000
2000
umiejętności tego rodzaju,
10:35
inevitablynieuchronnie they were alsorównież copyingbiurowy puttingwprowadzenie featherspióra in theirich hairwłosy,
228
617000
3000
nieuchronnie kopiowali oni też wtykanie piór we włosy,
10:38
or wearingma na sobie strangedziwne clothesubranie, or paintingobraz theirich facestwarze,
229
620000
2000
noszenie dziwnych ubrań, malowanie twarzy
10:40
or whatevercokolwiek.
230
622000
1000
i tak dalej.
10:41
So, you get an armsramiona racewyścigi betweenpomiędzy the genesgeny
231
623000
4000
Więc nastąpił wyścig zbrojeń między genami,
10:45
whichktóry are tryingpróbować to get the humansludzie to have smallmały economicalekonomiczne brainsmózg
232
627000
4000
które starały się, żeby człowiek miał mały, ekonomiczny mózg
10:49
and not wastemarnotrawstwo theirich time copyingbiurowy all this stuffrzeczy,
233
631000
2000
i nie marnował czasu na kopiowanie tego wszystkiego,
10:51
and the memesmemy themselvessami, like the soundsDźwięki that people madezrobiony and copiedskopiowane --
234
633000
4000
a samymi memami, jak dźwięki, które ludzie wydają i kopiują,
10:56
in other wordssłowa, what turnedobrócony out to be languagejęzyk --
235
638000
2000
innymi słowy, to, co okazało się być językiem.
10:58
competingkonkurowanie to get the brainsmózg to get biggerwiększy and biggerwiększy.
236
640000
3000
Memy starały się, by mózgi były większe i większe.
11:01
So, the bigduży brainmózg, on this theoryteoria, is drivennapędzany by the memesmemy.
237
643000
4000
Tak więc na gruncie tej teorii, to memy napędzały wzrost mózgu.
11:05
This is why, in "The MemeMeme MachineMaszyny," I callednazywa it memeticmemetycznym drivenapęd.
238
647000
4000
Oto dlaczego w "Maszynie memowej" nazwałam to "napędem memetycznym".
11:09
As the memesmemy evolveewoluować, as they inevitablynieuchronnie mustmusi,
239
651000
3000
Kiedy memy się rozwijają, co nieuniknione,
11:12
they drivenapęd a biggerwiększy brainmózg that is better at copyingbiurowy the memesmemy
240
654000
4000
napędzają większy mózg, który jest lepszy w kopiowaniu memów,
11:16
that are doing the drivingnapędowy.
241
658000
2000
które nim sterują.
11:18
This is why we'vemamy endedzakończyło się up with suchtaki peculiarPeculiar brainsmózg,
242
660000
4000
Dlatego właśnie otrzymaliśmy tak wyjątkowe mózgi,
11:22
that we like religionreligia, and musicmuzyka, and artsztuka.
243
664000
3000
dzięki którym lubimy religię, muzykę i sztukę.
11:25
LanguageJęzyk is a parasitepasożyt that we'vemamy adaptedprzystosowany to,
244
667000
3000
Język jest pasożytem, do którego się przystosowaliśmy,
11:28
not something that was there originallypierwotnie for our genesgeny,
245
670000
2000
a nie czymś, co było początkowo korzystne dla naszych genów,
11:30
on this viewwidok.
246
672000
2000
w ramach tego podejścia.
11:32
And like mostwiększość parasitespasożyty, it can beginzaczynać dangerousniebezpieczny,
247
674000
3000
I jak większość pasożytów, może zacząć jako zagrożenie,
11:35
but then it coevolvescoevolves and adaptsdostosowuje się,
248
677000
3000
ale potem ko-ewoluuje i przystosowuje się
11:38
and we endkoniec up with a symbioticsymbiotyczne relationshipzwiązek
249
680000
2000
i w końcu jesteśmy w symbiozie
11:40
with this newNowy parasitepasożyt.
250
682000
1000
z tym nowym pasożytem.
11:41
And so, from our perspectiveperspektywiczny,
251
683000
2000
I z naszej perspektywy
11:43
we don't realizerealizować that that's how it beganrozpoczął się.
252
685000
3000
nie widzimy, że tak to się kiedyś zaczęło.
11:46
So, this is a viewwidok of what humansludzie are.
253
688000
3000
To pewne podejście do tego, czym są ludzie.
11:49
All other speciesgatunki on this planetplaneta are genegen machinesmaszyny only,
254
691000
3000
Wszystkie pozostałe gatunki są tylko maszynami genowymi,
11:52
they don't imitatenaśladować at all well, hardlyledwie at all.
255
694000
3000
prawie wcale nie potrafią imitować.
11:55
We alonesam are genegen machinesmaszyny and memeja ja machinesmaszyny as well.
256
697000
5000
Tylko my jesteśmy maszynami zarówno genowymi jak i memowymi.
12:00
The memesmemy tookwziął a genegen machinemaszyna and turnedobrócony it into a memeja ja machinemaszyna.
257
702000
4000
Memy wzięły maszynę genową i przekształciły ją w memową.
12:04
But that's not all.
258
706000
2000
Ale to nie wszystko.
12:06
We have a newNowy kinduprzejmy of memesmemy now.
259
708000
3000
Mamy teraz nowy rodzaj memów.
12:09
I've been wonderingpełen zdumienia for a long time,
260
711000
1000
Od dawna zastanawiałam się,
12:10
sinceod I've been thinkingmyślący about memesmemy a lot,
261
712000
2000
odkąd zaczęłam dużo myśleć o memach,
12:12
is there a differenceróżnica betweenpomiędzy the memesmemy that we copyKopiuj --
262
714000
2000
czy jest różnica między memami, które kopiujemy --
12:14
the wordssłowa we speakmówić to eachkażdy other,
263
716000
2000
słowami, które do siebie wypowiadamy,
12:16
the gesturesgesty we copyKopiuj, the humanczłowiek things --
264
718000
2000
gestami, rzeczami typowo ludzkimi,
12:18
and all these technologicaltechniczny things around us?
265
720000
2000
a rzeczami technologicznymi, które nas otaczają.
12:20
I have always, untilaż do now, callednazywa them all memesmemy,
266
722000
4000
Dotychczas nazywałam je również memami,
12:24
but I do honestlyszczerze think now
267
726000
3000
ale teraz szczerze uważam,
12:27
we need a newNowy wordsłowo for technologicaltechniczny memesmemy.
268
729000
3000
że potrzebujemy nowej nazwy dla memów technologicznych.
12:30
Let's call them techno-memestechno memy or temestemy.
269
732000
3000
Nazwijmy je technomemami albo temami.
12:33
Because the processesprocesy are gettinguzyskiwanie differentróżne.
270
735000
3000
Ponieważ te procesy zaczynają się od siebie różnić.
12:37
We beganrozpoczął się, perhapsmoże 5,000 yearslat agotemu, with writingpisanie.
271
739000
3000
Zaczęliśmy jakieś 5000 lat temu, od pisma.
12:40
We put the storageprzechowywanie of memesmemy out there on a clayglina tablettabletka,
272
742000
7000
Przechowywaliśmy memy na glinianych tabliczkach,
12:48
but in orderzamówienie to get trueprawdziwe temestemy and trueprawdziwe temeteme machinesmaszyny,
273
750000
2000
ale dla prawdziwych temów i maszyn temowych,
12:50
you need to get the variationzmienność, the selectionwybór and the copyingbiurowy,
274
752000
3000
potrzeba zróżnicowania, doboru i kopiowania,
12:53
all doneGotowe outsidena zewnątrz of humansludzie.
275
755000
2000
dokonujących się poza człowiekiem.
12:55
And we're gettinguzyskiwanie there.
276
757000
2000
I zbliżamy się do tego.
12:57
We're at this extraordinaryniezwykły pointpunkt where we're nearlyprawie there,
277
759000
2000
Już prawie do tego dotarliśmy,
12:59
that there are machinesmaszyny like that.
278
761000
2000
już prawie są takie maszyny.
13:01
And indeedw rzeczy samej, in the shortkrótki time I've alreadyjuż been at TEDTED,
279
763000
2000
I w rzeczy samej, przebywając na konferencji TED
13:03
I see we're even closerbliższy than I thought we were before.
280
765000
2000
widzę, że jesteśmy tego bliżej, niż myślałam.
13:05
So actuallytak właściwie, now the temestemy are forcingforsowanie our brainsmózg
281
767000
6000
Więc, tak naprawdę, teraz temy zmuszają nasze mózgi
13:11
to becomestają się more like temeteme machinesmaszyny.
282
773000
2000
by stały się maszynami temowymi.
13:13
Our childrendzieci are growingrozwój up very quicklyszybko learninguczenie się to readczytać,
283
775000
3000
Nasze dzieci bardzo wcześnie uczą się czytać
13:16
learninguczenie się to use machinerymaszyneria.
284
778000
2000
i korzystać z maszyn.
13:18
We're going to have all kindsrodzaje of implantsimplanty,
285
780000
1000
Będziemy mieli różne implanty,
13:19
drugsleki that forcesiła us to stayzostać awakeprzebudzony all the time.
286
781000
3000
środki farmakologiczne, pozwalające nie spać przez cały czas.
13:22
We'llMy będziemy think we're choosingwybór these things,
287
784000
2000
Będziemy myśleć, że wybieramy te rzeczy,
13:24
but the temestemy are makingzrobienie us do it.
288
786000
3000
ale to temy nami kierują.
13:28
So, we're at this cuspszpic now
289
790000
1000
Jesteśmy w punkcie zwrotnym, w którym na Ziemi pojawia się trzeci replikator.
13:29
of havingmający a thirdtrzeci replicatorReplikator on our planetplaneta.
290
791000
4000
Jesteśmy w punkcie zwrotnym, w którym na Ziemi pojawia się trzeci replikator.
13:34
Now, what about what elsejeszcze is going on out there in the universewszechświat?
291
796000
5000
A co dzieje się w innych częściach wszechświata?
13:39
Is there anyonektokolwiek elsejeszcze out there?
292
801000
2000
Czy jest tam ktoś jeszcze?
13:41
People have been askingpytając this questionpytanie for a long time.
293
803000
3000
Ludzie zadają sobie to pytanie od dłuższego czasu.
13:44
We'veMamy been askingpytając it here at TEDTED alreadyjuż.
294
806000
2000
Zadawaliśmy je już i tutaj, na konferencji TED.
13:46
In 1961, FrankFrank DrakeDrake madezrobiony his famoussławny equationrównanie,
295
808000
4000
W 1961 r. Frank Drake stworzył słynne równanie,
13:50
but I think he concentratedstężony on the wrongźle things.
296
812000
2000
ale myślę, że skupił się na niewłaściwych rzeczach.
13:52
It's been very productiveproduktywny, that equationrównanie.
297
814000
2000
To równanie dużo zrobiło.
13:54
He wanted to estimateoszacowanie N,
298
816000
2000
Chciał oszacować N,
13:56
the numbernumer of communicativekomunikatywny civilizationscywilizacje out there in our galaxygalaktyka,
299
818000
4000
liczbę zdolnych do komunikacji cywilizacji naszej galaktyki.
14:00
and he includedw zestawie in there the rateoceniać of stargwiazda formationtworzenie,
300
822000
4000
Wziął pod uwagę prędkość powstawania gwiazd,
14:04
the rateoceniać of planetsplanety, but cruciallyco najważniejsze, intelligenceinteligencja.
301
826000
4000
liczbę planet, ale przede wszystkim inteligencję.
14:08
I think that's the wrongźle way to think about it.
302
830000
4000
Myślę, że jest to niewłaściwe podejście.
14:12
IntelligenceInteligencji appearspojawia się all over the placemiejsce, in all kindsrodzaje of guisesprzebraniach.
303
834000
3000
Inteligencja pojawia się wszędzie, w różnych przebraniach.
14:15
HumanCzłowieka intelligenceinteligencja is only one kinduprzejmy of a thing.
304
837000
2000
Ludzka inteligencja to tylko jeden z wielu jej rodzajów.
14:17
But what's really importantważny is the replicatorsreplikatory you have
305
839000
3000
A naprawdę ważne są posiadane replikatory
14:20
and the levelspoziomy of replicatorsreplikatory, one feedingkarmienie on the one before.
306
842000
4000
i ich poziomy, z których każdy karmi się poprzednim.
14:24
So, I would suggestsugerować that we don't think intelligenceinteligencja,
307
846000
5000
Sugeruję, byśmy nie myśleli o inteligencji,
14:29
we think replicatorsreplikatory.
308
851000
2000
ale o replikatorach.
14:31
And on that basispodstawa, I've suggestedzasugerował a differentróżne kinduprzejmy of equationrównanie.
309
853000
3000
Na tej podstawie proponuję inne równanie.
14:34
A very simpleprosty equationrównanie.
310
856000
2000
Bardzo proste równanie.
14:36
N, the samepodobnie thing,
311
858000
2000
N oznacza to samo,
14:38
the numbernumer of communicativekomunikatywny civilizationscywilizacje out there
312
860000
3000
liczbę zdolnych do komunikacji cywilizacji
14:41
[that] we mightmoc expectoczekiwać in our galaxygalaktyka.
313
863000
2000
których spodziewamy się w naszej galaktyce.
14:43
Just startpoczątek with the numbernumer of planetsplanety there are in our galaxygalaktyka.
314
865000
4000
Zaczynamy od liczby planet w naszej galaktyce.
14:47
The fractionfrakcja of those whichktóry get a first replicatorReplikator.
315
869000
4000
Odsetek tych, które mają pierwszy replikator.
14:51
The fractionfrakcja of those that get the seconddruga replicatorReplikator.
316
873000
4000
Odsetek tych z nich, które mają drugi replikator.
14:55
The fractionfrakcja of those that get the thirdtrzeci replicatorReplikator.
317
877000
2000
Odsetek z nich, które mają trzeci replikator.
14:58
Because it's only the thirdtrzeci replicatorReplikator that's going to reachdosięgnąć out --
318
880000
3000
Ponieważ tylko trzeci replikator sięgnie na zewnątrz,
15:01
sendingwysyłanie informationInformacja, sendingwysyłanie probessondy, gettinguzyskiwanie out there,
319
883000
3000
wysyłając informacje, sondy, wyruszając w kosmos
15:04
and communicatingprzyległy with anywheregdziekolwiek elsejeszcze.
320
886000
2000
i nawiązując kontakt.
15:06
OK, so if we take that equationrównanie,
321
888000
3000
OK, w takim razie, skoro przyjmujemy to równanie,
15:09
why haven'tnie mam we heardsłyszał from anybodyktoś out there?
322
891000
5000
dlaczego nie dostaliśmy wiadomości od nikogo stamtąd?
15:14
Because everykażdy stepkrok is dangerousniebezpieczny.
323
896000
4000
Ponieważ każdy krok jest niebezpieczny.
15:18
GettingCoraz a newNowy replicatorReplikator is dangerousniebezpieczny.
324
900000
3000
Zdobywanie nowego replikatora jest niebezpieczne.
15:21
You can pullCiągnąć throughprzez, we have pulledciągnięty throughprzez,
325
903000
2000
Można przez to przejść, nam się udało,
15:23
but it's dangerousniebezpieczny.
326
905000
2000
ale jest to niebezpieczne.
15:25
Take the first stepkrok, as soonwkrótce as life appearedpojawił się on this earthZiemia.
327
907000
3000
Weźmy pierwszy krok, zaraz po pojawieniu się życia na Ziemi.
15:28
We maymoże take the GaianHipotezę viewwidok.
328
910000
2000
Możemy przyjąć hipotezę Gai.
15:30
I lovedkochany PeterPeter Ward'sWarda talk yesterdaywczoraj -- it's not GaianHipotezę all the time.
329
912000
3000
Świetna była prezentacja Petera Warda, nie całkiem "gajańska".
15:33
ActuallyFaktycznie, life formsformularze produceprodukować things that killzabić themselvessami.
330
915000
3000
W rzeczywistości organizmy żywe wytwarzają rzeczy, które je zabijają.
15:36
Well, we did pullCiągnąć throughprzez on this planetplaneta.
331
918000
3000
Cóż, nam na tej planecie się udało.
15:39
But then, a long time laterpóźniej, billionsmiliardy of yearslat laterpóźniej,
332
921000
2000
Ale dużo później, miliardy lat później,
15:41
we got the seconddruga replicatorReplikator, the memesmemy.
333
923000
3000
zdobyliśmy drugi replikator - memy.
15:44
That was dangerousniebezpieczny, all right.
334
926000
2000
To było naprawdę niebezpieczne.
15:46
Think of the bigduży brainmózg.
335
928000
2000
Pomyślcie o dużym mózgu.
15:48
How manywiele mothersmatki do we have here?
336
930000
3000
Ile mamy tu matek?
15:51
You know all about bigduży brainsmózg.
337
933000
2000
Wiecie wszystko o dużych mózgach.
15:53
They are dangerousniebezpieczny to give birthnarodziny to,
338
935000
2000
Rodzenie ich jest niebezpieczne.
15:55
are agonizingbolesny to give birthnarodziny to.
339
937000
2000
Rodzenie ich to śmiertelna udręka.
15:57
(LaughterŚmiech)
340
939000
1000
(Śmiech)
15:59
My catkot gavedał birthnarodziny to fourcztery kittenskocięta, purringmruczenie all the time.
341
941000
2000
Moja kotka urodziła cztery kocięta, mrucząc przez cały czas.
16:01
AhAh, mmmm -- slightlynieco differentróżne.
342
943000
2000
U nas jest troszkę inaczej.
16:03
(LaughterŚmiech)
343
945000
2000
(Śmiech)
16:05
But not only is it painfulbolesny, it killszabija lots of babiesdzieci,
344
947000
3000
To bolesne, a co więcej, to przyczyna śmierci wielu noworodków i matek,
16:08
it killszabija lots of mothersmatki,
345
950000
2000
To bolesne, a co więcej, to przyczyna śmierci wielu noworodków i matek,
16:10
and it's very expensivedrogi to produceprodukować.
346
952000
2000
a wytworzenie tego jest bardzo kosztowne.
16:12
The genesgeny are forcedwymuszony into producingprodukujący all this myelinmieliny,
347
954000
2000
Geny są zmuszone do produkcji mieliny,
16:14
all the fatgruby to myelinatemielinizacji the brainmózg.
348
956000
2000
mnóstwa tłuszczu do mielinizacji mózgu.
16:16
Do you know, sittingposiedzenie here,
349
958000
2000
Czy wiecie, że kiedy siedzicie tutaj,
16:18
your brainmózg is usingza pomocą about 20 percentprocent of your body'sorganizmu energyenergia outputwydajność
350
960000
4000
wasz mózg zużywa ok. 20% energii produkowanej przez ciało,
16:22
for two percentprocent of your bodyciało weightwaga?
351
964000
2000
a jego masa to zaledwie 2% wagi ciała?
16:24
It's a really expensivedrogi organorgan to runbiegać.
352
966000
2000
To bardzo drogi organ w utrzymaniu.
16:26
Why? Because it's producingprodukujący the memesmemy.
353
968000
2000
Dlaczego? Ponieważ produkuje memy.
16:28
Now, it could have killedzabity us off. It could have killedzabity us off,
354
970000
4000
To mogło nas wybić i możliwe, że prawie wybiło,
16:32
and maybe it nearlyprawie did, but you see, we don't know.
355
974000
2000
ale widzicie, nie wiemy.
16:34
But maybe it nearlyprawie did.
356
976000
2000
Ale może prawie do tego doszło.
16:36
Has it been triedwypróbowany before?
357
978000
1000
Czy działo się to już wcześniej?
16:37
What about all those other speciesgatunki?
358
979000
2000
Co z innymi gatunkami?
16:39
LouiseLouise LeakeyLeakey talkedrozmawialiśmy yesterdaywczoraj
359
981000
2000
Louise Leakey opowiadała wczoraj,
16:41
about how we're the only one in this branchgałąź left.
360
983000
3000
że tylko my zostaliśmy z tej gałęzi.
16:44
What happenedstało się to the othersinni?
361
986000
2000
Co się stało z pozostałymi?
16:46
Could it be that this experimenteksperyment in imitationimitacja,
362
988000
2000
Czy to możliwe, że ten eksperyment z naśladowaniem,
16:48
this experimenteksperyment in a seconddruga replicatorReplikator,
363
990000
2000
ten eksperyment z drugim replikatorem,
16:50
is dangerousniebezpieczny enoughdość to killzabić people off?
364
992000
4000
jest na tyle groźny, by powodować wymieranie ludzi?
16:54
Well, we did pullCiągnąć throughprzez, and we adaptedprzystosowany.
365
996000
2000
My przetrwaliśmy, przystosowaliśmy się.
16:56
But now, we're hittinguderzanie, as I've just describedopisane,
366
998000
3000
Ale teraz zbliżamy się, jak to właśnie opisałam,
16:59
we're hittinguderzanie the thirdtrzeci replicatorReplikator pointpunkt.
367
1001000
2000
do punktu trzeciego replikatora.
17:01
And this is even more dangerousniebezpieczny --
368
1003000
3000
I to jest jeszcze bardziej niebezpieczne…
17:04
well, it's dangerousniebezpieczny again.
369
1006000
2000
Jest znów niebezpieczne.
17:06
Why? Because the temestemy are selfishsamolubny replicatorsreplikatory
370
1008000
4000
Dlaczego? Ponieważ temy są samolubnymi replikatorami
17:10
and they don't careopieka about us, or our planetplaneta, or anything elsejeszcze.
371
1012000
3000
i nie przejmują się nami, naszą planetą ani niczym innym.
17:13
They're just informationInformacja, why would they?
372
1015000
3000
Są tylko informacją, dlaczego miałyby się przejmować?
17:17
They are usingza pomocą us to suckssać up the planet'splanety resourceszasoby
373
1019000
2000
Używają nas, by wysysać zasoby planety,
17:19
to produceprodukować more computerskomputery,
374
1021000
2000
produkować więcej komputerów,
17:21
and more of all these amazingniesamowity things we're hearingprzesłuchanie about here at TEDTED.
375
1023000
3000
tych zadziwiających rzeczy, o których słyszymy na konferencjach TED.
17:24
Don't think, "Oh, we createdstworzony the InternetInternet for our ownwłasny benefitzasiłek."
376
1026000
4000
Nie myślcie "Przecież Internet stworzyliśmy dla naszej własnej korzyści."
17:28
That's how it seemswydaje się to us.
377
1030000
2000
Tak nam się wydaje.
17:30
Think, temestemy spreadingrozpościerający się because they mustmusi.
378
1032000
4000
Myślcie o tym tak: temy rozprzestrzeniają się, bo muszą.
17:34
We are the oldstary machinesmaszyny.
379
1036000
2000
Jesteśmy starymi maszynami.
17:36
Now, are we going to pullCiągnąć throughprzez?
380
1038000
2000
Czy uda nam się przetrwać?
17:38
What's going to happenzdarzyć?
381
1040000
2000
Co się stanie?
17:40
What does it mean to pullCiągnąć throughprzez?
382
1042000
2000
Co to znaczy "przetrwać"?
17:42
Well, there are kinduprzejmy of two wayssposoby of pullingciągnięcie throughprzez.
383
1044000
2000
Można powiedzieć, że są dwa sposoby przetrwania.
17:45
One that is obviouslyoczywiście happeningwydarzenie all around us now,
384
1047000
2000
Jeden, który obserwujemy teraz,
17:47
is that the temestemy turnskręcać us into temeteme machinesmaszyny,
385
1049000
4000
polega na tym, że temy czynią nas maszynami temowymi,
17:51
with these implantsimplanty, with the drugsleki,
386
1053000
2000
z implantami, z lekami,
17:53
with us mergingScalanie with the technologytechnologia.
387
1055000
3000
z nami mieszającymi się z technologią.
17:56
And why would they do that?
388
1058000
2000
A dlaczego miałyby to robić?
17:58
Because we are self-replicatingsamoreplikujące.
389
1060000
2000
Bo my jesteśmy istotami samoreplikującymi się.
18:00
We have babiesdzieci.
390
1062000
2000
Mamy dzieci.
18:02
We make newNowy oneste, and so it's convenientwygodna to piggybackpiggyback on us,
391
1064000
3000
Wytwarzamy nowe, więc wygodnie jest się do nas podczepić,
18:05
because we're not yetjeszcze at the stageetap on this planetplaneta
392
1067000
4000
ponieważ nie jesteśmy jeszcze na tej planecie na etapie,
18:09
where the other optionopcja is viablewykonalny.
393
1071000
2000
na którym możliwa jest inna opcja.
18:11
AlthoughChociaż it's closerbliższy, I heardsłyszał this morningranek,
394
1073000
2000
Aczkolwiek jest blisko; słyszałam dziś rano,
18:13
it's closerbliższy than I thought it was.
395
1075000
2000
że jesteśmy bliżej niż myślałam.
18:15
Where the temeteme machinesmaszyny themselvessami will replicatereplika themselvessami.
396
1077000
3000
Momentu, w którym maszyny same będą się replikowały.
18:18
That way, it wouldn'tnie mattermateria if the planet'splanety climateklimat
397
1080000
4000
Wtedy nie miałoby znaczenia, czy klimat planety
18:22
was utterlycałkowicie destabilizeddestabilizacji,
398
1084000
2000
został doszczętnie zdestabilizowany
18:24
and it was no longerdłużej possiblemożliwy for humansludzie to liverelacja na żywo here.
399
1086000
2000
i ludzie nie mogliby tu dłużej żyć.
18:26
Because those temeteme machinesmaszyny, they wouldn'tnie need --
400
1088000
2000
Ponieważ maszyny temowe nie potrzebowałyby go...
18:28
they're not squishysquishy, wetmokra, oxygen-breathingtlen oddychanie,
401
1090000
2000
To nie miękkie, mokre, oddychające tlenem,
18:30
warmth-requiringciepło wymagających creaturesstworzenia.
402
1092000
3000
wymagające ciepła stworzenia.
18:33
They could carrynieść on withoutbez us.
403
1095000
2000
Mogłyby obejść się bez nas.
18:35
So, those are the two possibilitiesmożliwości.
404
1097000
3000
Takie więc są dwie możliwości.
18:38
The seconddruga, I don't think we're that closeblisko.
405
1100000
4000
Ta druga - nie wydaje mi się, żebyśmy byli tak blisko.
18:42
It's comingprzyjście, but we're not there yetjeszcze.
406
1104000
2000
Nadchodzi, ale jeszcze tam nie jesteśmy.
18:44
The first, it's comingprzyjście too.
407
1106000
2000
Pierwsza – też nadchodzi.
18:46
But the damageuszkodzić that is alreadyjuż beingistota doneGotowe
408
1108000
3000
A zniszczenia planety, do których dochodzi już teraz,
18:49
to the planetplaneta is showingseans us how dangerousniebezpieczny the thirdtrzeci pointpunkt is,
409
1111000
5000
pokazują, jak groźny jest trzeci punkt,
18:54
that thirdtrzeci dangerniebezpieczeństwo pointpunkt, gettinguzyskiwanie a thirdtrzeci replicatorReplikator.
410
1116000
3000
ten niebezpieczny punkt, gdy zdobywa się trzeci replikator.
18:58
And will we get throughprzez this thirdtrzeci dangerniebezpieczeństwo pointpunkt,
411
1120000
2000
I czy przetrwamy ten niebezpieczny punkt,
19:00
like we got throughprzez the seconddruga and like we got throughprzez the first?
412
1122000
3000
tak jak przetrwaliśmy drugi i pierwszy?
19:04
Maybe we will, maybe we won'tprzyzwyczajenie.
413
1126000
2000
Może tak, może nie.
19:06
I have no ideapomysł.
414
1128000
3000
Nie mam pojęcia.
19:13
(ApplauseAplauz)
415
1135000
10000
(Brawa)
19:24
ChrisChris AndersonAnderson: That was an incredibleniesamowite talk.
416
1146000
2000
Chris Anderson: To była niesamowita prezentacja.
19:26
SBSB: Thank you. I scaredprzerażony myselfsiebie.
417
1148000
2000
SB: Dziękuję. Sama się przestraszyłam.
19:28
CACA: (LaughterŚmiech)
418
1150000
1000
CA: (Śmiech)
Translated by Marcin Zieliński
Reviewed by Krystian Aparta

▲Back to top

ABOUT THE SPEAKER
Susan Blackmore - Memeticist
Susan Blackmore studies memes -- those self-replicating "life forms" that spread themselves via human consciousness. We're now headed, she believes, toward a new form of meme, spread by the technology we've created.

Why you should listen

Susan Blackmore is dedicated to understanding the scientific nature of consciousness. Her latest work centers on the existence of memes -- little bits of knowledge, lore, habit that seem to spread themselves using human brains as mere carriers. She's exploring the existence of a new class of meme, spread by human technology. It's temporarily named the "teme."

She has written about memes, consciousness, and near-death experiences; has appeared on the British Big Brother to discuss the psychology of the participants; and writes for the Guardian UK.

More profile about the speaker
Susan Blackmore | Speaker | TED.com