ABOUT THE SPEAKER
Susan Blackmore - Memeticist
Susan Blackmore studies memes -- those self-replicating "life forms" that spread themselves via human consciousness. We're now headed, she believes, toward a new form of meme, spread by the technology we've created.

Why you should listen

Susan Blackmore is dedicated to understanding the scientific nature of consciousness. Her latest work centers on the existence of memes -- little bits of knowledge, lore, habit that seem to spread themselves using human brains as mere carriers. She's exploring the existence of a new class of meme, spread by human technology. It's temporarily named the "teme."

She has written about memes, consciousness, and near-death experiences; has appeared on the British Big Brother to discuss the psychology of the participants; and writes for the Guardian UK.

More profile about the speaker
Susan Blackmore | Speaker | TED.com
TED2008

Susan Blackmore: Memes and "temes"

Susan Blackmore despre meme şi "teme"

Filmed:
882,044 views

Susan Blackmore studiază memele: idei care se reproduc dintr-un creier în altul asemenea unui virus. Ea vine cu un nou argument întrăzneţ: Umanitatea a produs un nou tip de memă, şi anume teme-ul, care se reproduce prin intermediu tehnologiei -- şi inventează noi mijloace de a se menţine în viaţă.
- Memeticist
Susan Blackmore studies memes -- those self-replicating "life forms" that spread themselves via human consciousness. We're now headed, she believes, toward a new form of meme, spread by the technology we've created. Full bio

Double-click the English transcript below to play the video.

00:18
CulturalCulturale evolutionevoluţie is a dangerouspericulos childcopil
0
0
3000
Evoluţia culturală e un copil periculos
00:21
for any speciesspecie to let looseliber on its planetplanetă.
1
3000
3000
pe pământul oricărei specii.
00:24
By the time you realizerealiza what's happeninglucru, the childcopil is a toddlercopil mic,
2
6000
4000
Pe când realizezi ce se întâmplă, copilul deja a crescut,
00:28
up and causingprovocând havochaos, and it's too latetârziu to put it back.
3
10000
6000
deja face prăpăd, şi e prea târziu a-l pune înapoi.
00:34
We humansoameni are Earth'sPământului PandoranPandoran speciesspecie.
4
16000
3000
Noi oamenii suntem speciile Pandorei pe Pământ.
00:37
We're the onescele who let the secondal doilea replicatorReplicator out of its boxcutie,
5
19000
5000
Noi suntem cei care au eliberat replicatorul al 2-lea din cutia lui,
00:42
and we can't pushApăsaţi it back in.
6
24000
2000
şi nu-l putem pune înapoi.
00:44
We're seeingvedere the consequencesconsecințe all around us.
7
26000
3000
Vedem consecinţele peste tot în jurul nostru.
00:48
Now that, I suggestsugera, is the viewvedere that
8
30000
4000
Sugerez că aceasta este viziunea ce ia naştere
00:52
comesvine out of takingluare memeticsmemetics seriouslySerios.
9
34000
2000
dacă luăm memetica în serios.
00:54
And it gives us a newnou way of thinkinggândire about
10
36000
2000
Şi ne dezvăluie un nou mod de a ne gândi
00:56
not only what's going on on our planetplanetă,
11
38000
2000
nu doar la ceea ce are loc pe planeta noastră,
00:58
but what mightar putea be going on elsewhereîn altă parte in the cosmoscosmos.
12
40000
3000
dar şi despre ce ar putea să se întâmple şi în alte locuri din Univers.
01:01
So first of all, I'd like to say something about memeticsmemetics
13
43000
3000
În primul rând aş dori să spun ceva despre memetică
01:04
and the theoryteorie of memesmeme,
14
46000
2000
şi teoria memelor,
01:06
and secondlyîn al doilea rând, how this mightar putea answerRăspuns questionsîntrebări about who'scine out there,
15
48000
5000
şi în al doilea rând, cum ar putea acestea să ne arate cine este acolo,
01:11
if indeedintr-adevar anyoneoricine is.
16
53000
3000
dacă într-adevăr este cineva.
01:14
So, memeticsmemetics:
17
56000
2000
Aşadar, memetica.
01:16
memeticsmemetics is foundedfondat on the principleprincipiu of UniversalUniversal DarwinismDarwinismul.
18
58000
4000
Memetica se bazează pe principiul Darwinism-ului Universal.
01:20
DarwinDarwin had this amazinguimitor ideaidee.
19
62000
3000
Darwin a avut această idee extraordinară.
01:23
IndeedÎntr-adevăr, some people say
20
65000
2000
Într-adevăr, unii spun
01:25
it's the bestCel mai bun ideaidee anybodycineva ever had.
21
67000
3000
că este cea mai bună idee pe care a avut-o cineva.
01:28
Isn't that a wonderfulminunat thought, that there could be suchastfel de a thing
22
70000
4000
Nu e frumos că putem vorbi despre cea mai bună
01:32
as a bestCel mai bun ideaidee anybodycineva ever had?
23
74000
2000
idee pe care a avut-o cineva?
01:34
Do you think there could?
24
76000
1000
Credeţi că ar putea fi?
01:35
AudiencePublicul: No.
25
77000
1000
Audienţa: Nu.
01:36
(LaughterRâs)
26
78000
1000
(Râsete)
01:37
SusanSusan BlackmoreBlackmore: SomeoneCineva saysspune no, very loudlytare, from over there.
27
79000
2000
Cineva spune un nu răspicat de acolo.
01:39
Well, I say yes, and if there is, I give the prizepremiu to DarwinDarwin.
28
81000
4000
Eu spun da, şi dacă ar exista, premiul este al lui Darwin.
01:43
Why?
29
85000
2000
De ce?
01:45
Because the ideaidee was so simplesimplu,
30
87000
3000
Pentru că ideea a fost aşa de simplă,
01:48
and yetinca it explainsexplică all designproiecta in the universeunivers.
31
90000
6000
şi totuşi explică tot designul din Univers.
01:54
I would say not just biologicalbiologic designproiecta,
32
96000
2000
Aş spune nu doar designul biologic,
01:56
but all of the designproiecta that we think of as humanuman designproiecta.
33
98000
2000
ci tot designul pe care îl atribuim omenirii.
01:58
It's all just the samela fel thing happeninglucru.
34
100000
2000
Este acelaşi lucru.
02:00
What did DarwinDarwin say?
35
102000
2000
Ce a spus Darwin?
02:02
I know you know the ideaidee, naturalnatural selectionselecţie,
36
104000
2000
Ştiu că ştiţi idea, selecţia naturală,
02:04
but let me just paraphraseparafrază "The OriginOrigine of SpeciesSpecii," 1859,
37
106000
5000
dar permiteţi-mi un citat din "Originea Speciilor", 1859,
02:09
in a fewpuțini sentencespropoziţii.
38
111000
2000
în câteva propoziţii.
02:11
What DarwinDarwin said was something like this:
39
113000
3000
Darwin a spus ceva de genul --
02:14
if you have creaturescreaturi that varyvaria, and that can't be doubteds-au îndoit --
40
116000
4000
dacă avem indivizi ce variază, şi asta nu putem nega --
02:18
I've been to the GalapagosGalapagos, and I've measuredmăsurat the sizemărimea of the beaksciocuri
41
120000
3000
Am fost în Galapagos, şi am măsurat mărimea ciocurilor
02:21
and the sizemărimea of the turtlebroasca testoasa shellsscoici and so on, and so on.
42
123000
2000
şi mărimea carapacelor ţestoaselor, etc.
02:23
And 100 pagespagini latermai tarziu.
43
125000
2000
Şi 100 de pagini mai încolo --
02:25
(LaughterRâs)
44
127000
2000
(Râsete)
02:27
And if there is a strugglelupta for life,
45
129000
4000
Dacă există o bătălie a vieţii,
02:31
suchastfel de that nearlyaproape all of these creaturescreaturi diea muri --
46
133000
3000
asfel încât aproape toate aceste creaturi mor --
02:34
and this can't be doubteds-au îndoit, I've readcitit MalthusMalthus
47
136000
3000
şi asta nu poate fi pusă la îndoială, l-am citit pe Malthus
02:37
and I've calculatedcalculează how long it would take for elephantselefanți
48
139000
2000
şi am calculat cât le-ar lua elefanţilor
02:39
to coveracoperi the wholeîntreg worldlume if they bredrasă unrestrictedfără restricţii, and so on and so on.
49
141000
3000
să acopere întreaga planetă dacă s-ar înmulţi fără restricţii.
02:42
And anothero alta 100 pagespagini latermai tarziu.
50
144000
4000
Peste încă 100 de pagini.
02:46
And if the very fewpuțini that survivesupravieţui passtrece ontope theiral lor offspringdescendenți
51
148000
5000
Şi dacă cei foarte puţini care supravieţuiesc, dau mai departe urmaşilor lor
02:51
whateverindiferent de it was that helpeda ajutat them survivesupravieţui,
52
153000
3000
ceea ce i-a ajutat să supravieţuiască,
02:54
then those offspringdescendenți musttrebuie sa be better adaptedadaptate
53
156000
2000
atunci acei urmaşi trebuie să fie mai bine adaptaţi
02:56
to the circumstancesîmprejurări in whichcare all this happeneds-a întâmplat
54
158000
2000
circumstanţelor
02:58
than theiral lor parentspărinţi were.
55
160000
3000
decât părinţii lor.
03:01
You see the ideaidee?
56
163000
2000
Vedeţi ideea?
03:03
If, if, if, then.
57
165000
2000
Dacă, dacă, dacă, atunci.
03:05
He had no conceptconcept of the ideaidee of an algorithmAlgoritmul,
58
167000
2000
El nu avea conceptul de algoritm.
03:07
but that's what he describeddescris in that bookcarte,
59
169000
3000
Dar asta e ceea ce a descris în carte,
03:10
and this is what we now know as the evolutionaryevolutiv algorithmAlgoritmul.
60
172000
3000
şi asta e ceea ce numim acum algoritm evoluţionar.
03:13
The principleprincipiu is you just need those threeTrei things --
61
175000
4000
În principiu, este nevoie de doar trei lucruri --
03:17
variationvariaţia, selectionselecţie and heredityEreditatea.
62
179000
3000
diversitate, selecţie şi ereditate.
03:20
And as DanDan DennettDennett putsputs it, if you have those,
63
182000
4000
Vorba lui Dan Dennett, dacă avem cele trei
03:24
then you musttrebuie sa get evolutionevoluţie.
64
186000
2000
atunci avem evoluţie.
03:26
Or designproiecta out of chaoshaos, withoutfără the aidajutor of mindminte.
65
188000
5000
Sau design din haos, fără ajutorul minţii.
03:31
There's one wordcuvânt I love on that slidealuneca.
66
193000
2000
Îmi place un cuvânt de acolo.
03:33
What do you think my favoritefavorit wordcuvânt is?
67
195000
2000
Care credeţi că este cuvântul meu favorit?
03:35
AudiencePublicul: ChaosHaos.
68
197000
1000
Audienţa: Haos.
03:36
SBSB: ChaosHaos? No. What? MindMintea? No.
69
198000
3000
Haos? Nu. Ce? Minte? Nu.
03:39
AudiencePublicul: WithoutFără.
70
201000
1000
Audienţa: Fără.
03:40
SBSB: No, not withoutfără.
71
202000
1000
Nu, nu fără.
03:41
(LaughterRâs)
72
203000
1000
(Râsete)
03:42
You try them all in orderOrdin: MmmMmm...?
73
204000
2000
Încercaţi-le toate pe rând: Mmm...?
03:44
AudiencePublicul: MustTrebuie să.
74
206000
1000
Audienţa: Trebuie.
03:45
SBSB: MustTrebuie să, at musttrebuie sa. MustTrebuie să, musttrebuie sa.
75
207000
4000
Trebuie. Trebuie, trebuie.
03:49
This is what makesmărci it so amazinguimitor.
76
211000
2000
De aceea este aşa de extraordinar.
03:51
You don't need a designerproiectant,
77
213000
3000
Nu este nevoie de un designer,
03:54
or a planplan, or foresightpreviziune, or anything elsealtfel.
78
216000
3000
sau de un plan, sau previziune, sau orice altceva.
03:57
If there's something that is copiedcopiat with variationvariaţia
79
219000
3000
Dacă există ceva ce este copiat cu variaţie
04:00
and it's selectedselectat, then you musttrebuie sa get designproiecta appearingcare apare out of nowherenicăieri.
80
222000
4000
şi este selectat, atunci trebuie ca designul să apară de nicăieri.
04:04
You can't stop it.
81
226000
2000
Nu-l poţi opri
04:06
MustTrebuie să is my favoritefavorit wordcuvânt there.
82
228000
4000
Trebuie e cuvântul meu favorit de acolo.
04:11
Now, what's this to do with memesmeme?
83
233000
2000
Acum, ce are asta a face cu memele?
04:13
Well, the principleprincipiu here appliesse aplică to anything
84
235000
5000
Principiul de aici se aplică oricărui lucru
04:18
that is copiedcopiat with variationvariaţia and selectionselecţie.
85
240000
1000
care este copiat cu variaţie şi selecţie.
04:19
We're so used to thinkinggândire in termstermeni of biologybiologie,
86
241000
3000
Suntem aşa de obişnuiţi să gândim în termeni biologici,
04:22
we think about genesgene this way.
87
244000
2000
încât ne gândim în acest mod la gene.
04:24
DarwinDarwin didn't, of coursecurs; he didn't know about genesgene.
88
246000
3000
Darwin nu ştia de gene.
04:27
He talkeda vorbit mostlyMai ales about animalsanimale and plantsplante,
89
249000
2000
El a vorbit mai mult despre animale şi plante,
04:29
but alsode asemenea about languageslimbi evolvingevoluție and becomingdevenire extinctdispărut.
90
251000
3000
dar şi despre limbi ce evoluează şi ajung la extincţie.
04:32
But the principleprincipiu of UniversalUniversal DarwinismDarwinismul
91
254000
2000
Dar principiul Darwinismului Universal
04:34
is that any informationinformație that is variedvariat and selectedselectat
92
256000
4000
este acela că orice informaţie ce variază şi este selectată
04:38
will producelegume şi fructe designproiecta.
93
260000
2000
va produce design.
04:40
And this is what RichardRichard DawkinsDawkins was on about
94
262000
2000
Despre asta vorbea Richard Dawkins
04:42
in his 1976 bestsellerbestseller, "The SelfishEgoist GeneGene."
95
264000
3000
în cartea sa din 1976, "Gena egoistă".
04:45
The informationinformație that is copiedcopiat, he calleddenumit the replicatorReplicator.
96
267000
4000
Informaţia ce este copiată a numit-o replicator.
04:49
It selfishlyegoist copiescopii.
97
271000
2000
Se copiază egoist.
04:51
Not meaningsens it kinddrăguț of sitssta around insideinterior cellscelulele going, "I want to get copiedcopiat."
98
273000
4000
Nu însemnând că stă într-o celulă şi zice, "Vreau să fiu copiată".
04:55
But that it will get copiedcopiat if it can,
99
277000
2000
Dar că va fi copiată dacă va putea,
04:57
regardlessfără deosebire of the consequencesconsecințe.
100
279000
2000
neţinând cont de consecinţe.
05:00
It doesn't careîngrijire about the consequencesconsecințe because it can't,
101
282000
3000
Nu-i pasă de consecinţe pentru că nu poate,
05:03
because it's just informationinformație beingfiind copiedcopiat.
102
285000
2000
pentru că este doar informaţie ce este copiată.
05:06
And he wanted to get away
103
288000
1000
A vrut să se îndepărteze
05:07
from everybodytoata lumea thinkinggândire all the time about genesgene,
104
289000
3000
de gândirea generală despre gene,
05:10
and so he said, "Is there anothero alta replicatorReplicator out there on the planetplanetă?"
105
292000
3000
şi a spus, "Există un alt fel de replicator pe planetă?"
05:13
AhAh, yes, there is.
106
295000
2000
Ah, da, există.
05:15
Look around you -- here will do, in this roomcameră.
107
297000
3000
Uitaţi-vă în jurul vostru, aici de exemplu, în această încăpere.
05:18
All around us, still clumsilystângăcie driftingderivă about
108
300000
3000
În jurul nostru, plutind,
05:21
in its primevalprimitivă soupsupă of culturecultură, is anothero alta replicatorReplicator.
109
303000
3000
există un alt replicator.
05:24
InformationInformaţii that we copycopie from personpersoană to personpersoană, by imitationimitaţie,
110
306000
5000
Informaţia ce o copiem de la o persoană la altă prin imitaţie,
05:29
by languagelimba, by talkingvorbind, by tellingspune storiespovestiri,
111
311000
2000
prin limbaj, vorbind, povestind întâmplări,
05:31
by wearingpurtare clotheshaine, by doing things.
112
313000
3000
purtând haine, făcând lucruri.
05:34
This is informationinformație copiedcopiat with variationvariaţia and selectionselecţie.
113
316000
5000
Acesta este informaţie copiată cu variaţie şi selecţie.
05:39
This is designproiecta processproces going on.
114
321000
3000
Acesta este un proces de design în plină desfășurare.
05:42
He wanted a nameNume for the newnou replicatorReplicator.
115
324000
3000
A vrut un nume pentru noul replicator.
05:45
So, he tooka luat the GreekGreacă wordcuvânt "mimememimeme," whichcare meansmijloace that whichcare is imitatedimitat.
116
327000
4000
A luat cuvântul grecesc "mimeme", ce înseamna "ceea ce este imitat".
05:49
RememberAmintiţi-vă that, that's the coremiez definitiondefiniție:
117
331000
2000
Ţineţi minte asta, este definiţia centrală.
05:52
that whichcare is imitatedimitat.
118
334000
1000
Ceea ce este imitat.
05:53
And abbreviatedabreviat it to memememe, just because it soundssunete good
119
335000
3000
Şi l-a prescurtat la "meme", doar pentru că sună bine
05:56
and madefăcut a good memememe, an effectiveefectiv spreadingrăspândire memememe.
120
338000
3000
şi a făcut un meme bun, un meme ce se înmulţeşte eficient.
05:59
So that's how the ideaidee camea venit about.
121
341000
3000
Asfel a apărut această idee.
06:03
It's importantimportant to stickbăț with that definitiondefiniție.
122
345000
3000
Este important să ţinem minte definiţia.
06:06
The wholeîntreg scienceştiinţă of memeticsmemetics is much malignedbârfit,
123
348000
4000
Întreaga ştiinţă a memeticii este foarte vătămată,
06:10
much misunderstoodînţeles greşit, much fearedtemut.
124
352000
3000
neînţeleasă, inspiră teamă.
06:13
But a lot of these problemsProbleme can be avoidedevitat
125
355000
3000
Dar multe din aceste probleme pot fi evitate
06:16
by rememberingaducere aminte the definitiondefiniție.
126
358000
2000
ţinând minte definiţia.
06:18
A memememe is not equivalentechivalent to an ideaidee.
127
360000
2000
Un meme nu este echivalent cu o idee.
06:20
It's not an ideaidee. It's not equivalentechivalent to anything elsealtfel, really.
128
362000
2000
Nu este o idee, nu este echivalent cu nimic altceva defapt.
06:22
StickStick-ul with the definitiondefiniție.
129
364000
2000
Ţineţi minte definiţia.
06:24
It's that whichcare is imitatedimitat,
130
366000
2000
Este ceea ce este imitat.
06:26
or informationinformație whichcare is copiedcopiat from personpersoană to personpersoană.
131
368000
3000
Sau informaţia ce este copiată de la o persoană la alta.
06:30
So, let's see some memesmeme.
132
372000
1000
Haideţi să vedem câteva meme.
06:31
Well, you sirdomn, you've got those glassesochelari hungspânzurat around your neckgât
133
373000
3000
Dumneavostră domnule, aveţi acei ochelari în jurul gâtului
06:34
in that particularlyîn special fetchingpreluam way.
134
376000
2000
în acel mod interesant.
06:36
I wondermirare whetherdacă you inventedinventat that ideaidee for yourselftu,
135
378000
2000
Mă întreb dacă aţi venit cu această idee chiar dumneavoastră,
06:38
or copiedcopiat it from someonecineva elsealtfel?
136
380000
2000
sau aţi copiat-o de la altcineva?
06:40
If you copiedcopiat it from someonecineva elsealtfel, it's a memememe.
137
382000
3000
Dacă aţi copiat-o, este un meme.
06:43
And what about, oh, I can't see any interestinginteresant memesmeme here.
138
385000
3000
Dar despre...ooh, nu văd niciun meme interesant pe aici.
06:46
All right everyonetoata lumea, who'scine got some interestinginteresant memesmeme for me?
139
388000
3000
Bine, cine are un meme interesant pentru mine?
06:49
Oh, well, your earringscercei,
140
391000
2000
Da, cerceii dumneavoastră,
06:51
I don't supposepresupune you inventedinventat the ideaidee of earringscercei.
141
393000
2000
Presupun că nu aţi venit dumneavoastră cu ideea de cercei.
06:53
You probablyprobabil wenta mers out and boughtcumparat them.
142
395000
2000
Probabil i-aţi cumpărat.
06:55
There are plentymulțime more in the shopsmagazine.
143
397000
2000
Sunt o mulţime în magazine.
06:57
That's something that's passeda trecut on from personpersoană to personpersoană.
144
399000
2000
E ceva ce se transmite de la o persoană la alta.
06:59
All the storiespovestiri that we're tellingspune -- well, of coursecurs,
145
401000
3000
Toate poveştile pe care le spunem, desigur,
07:02
TEDTED is a great meme-festmeme-fest, massesmasele of memesmeme.
146
404000
4000
TED este o sărbătoare a memelor, mase de meme.
07:06
The way to think about memesmeme, thoughdeşi,
147
408000
2000
Modul în care trebuie să ne gândim la meme totuşi,
07:08
is to think, why do they spreadrăspândire?
148
410000
2000
este să ne gândim cum se răspândesc?
07:10
They're selfishegoist informationinformație, they will get copiedcopiat, if they can.
149
412000
4000
Sunt informaţie egoistă, se vor copia dacă vor putea.
07:14
But some of them will be copiedcopiat because they're good,
150
416000
3000
Dar unele dintre ele se vor copia pentru că sunt bune,
07:17
or trueAdevărat, or usefulutil, or beautifulfrumoasa.
151
419000
2000
sau adevărate, sau folositoare, sau frumoase.
07:19
Some of them will be copiedcopiat even thoughdeşi they're not.
152
421000
2000
Unele vor fi copiate chiar dacă nu sunt.
07:21
Some, it's quitedestul de hardgreu to tell why.
153
423000
2000
Unele, e chiar greu de spus de ce.
07:24
There's one particularspecial curiouscurios memememe whichcare I rathermai degraba enjoyse bucura.
154
426000
3000
O memă mi se pare chiar interesantă.
07:27
And I'm gladbucuros to say, as I expectedașteptat, I foundgăsite it when I camea venit here,
155
429000
3000
Şi o spun cu bucurie, precum mă aşteptam, am găsit-o când am venit aici,
07:30
and I'm sure all of you foundgăsite it, too.
156
432000
2000
şi sunt sigură că şi voi aţi găsit-o.
07:32
You go to your nicefrumos, poshPosh, internationalinternaţional hotelhotel somewhereundeva,
157
434000
3000
Mergi la un hotel elegant undeva,
07:36
and you come in and you put down your clotheshaine
158
438000
2000
intri, pui hainele jos
07:38
and you go to the bathroombaie, and what do you see?
159
440000
3000
şi mergi la baie, şi ce vezi?
07:41
AudiencePublicul: BathroomBaie soapsăpun.
160
443000
1000
Audienţa: Săpun de baie.
07:42
SBSB: PardonPardon?
161
444000
1000
Pardon?
07:43
AudiencePublicul: SoapSăpun.
162
445000
1000
Audienţa: Săpun.
07:44
SBSB: SoapSăpun, yeah. What elsealtfel do you see?
163
446000
2000
Săpun, da. Ce altceva?
07:46
AudiencePublicul: (InaudibleNeauzit)
164
448000
1000
Audienţa: (Indescifrabil)
07:47
SBSB: MmmMmm mmmMmm.
165
449000
1000
Mmm mmm.
07:48
AudiencePublicul: SinkChiuveta, toilettoaletă!
166
450000
1000
Audienţa: Chiuvetă, toaletă!
07:49
SBSB: SinkChiuveta, toilettoaletă, yes, these are all memesmeme, they're all memesmeme,
167
451000
2000
Chiuvetă, toaletă, da, toate sunt meme, toate,
07:51
but they're sortfel of usefulutil onescele, and then there's this one.
168
453000
3000
dar sunt folositoare, şi apoi mai este unul.
07:54
(LaughterRâs)
169
456000
3000
(Râsete)
07:58
What is this one doing?
170
460000
2000
Ce face acesta?
08:00
(LaughterRâs)
171
462000
1000
(Râsete)
08:01
This has spreadrăspândire all over the worldlume.
172
463000
2000
S-a răspândit în toată lumea.
08:03
It's not surprisingsurprinzător that you all foundgăsite it
173
465000
2000
Nu e surprinzător că l-aţi găsit cu toţii
08:05
when you arriveda sosit in your bathroomsbai here.
174
467000
2000
când aţi intrat în aceste băi.
08:07
But I tooka luat this photographfotografie in a toilettoaletă at the back of a tentcort
175
469000
5000
Dar am făcut această fotografie într-o toaletă din spatele unui cort
08:12
in the eco-campEco-camp in the junglejunglă in AssamAssam.
176
474000
2000
într-o tabără ecologică din jungla Assam.
08:14
(LaughterRâs)
177
476000
1000
(Râsete)
08:16
Who foldedpliat that thing up there, and why?
178
478000
3000
Cine a împăturit chestia aceea acolo, şi de ce?
08:19
(LaughterRâs)
179
481000
1000
(Râsete)
08:20
Some people get carriedtransportate away.
180
482000
2000
Unii se lasă duşi de val.
08:22
(LaughterRâs)
181
484000
3000
(Râsete)
08:26
Other people are just lazyleneş and make mistakesgreșeli.
182
488000
3000
Alţii sunt leneşi şi fac greşeli.
08:29
Some hotelshoteluri exploitexploata the opportunityoportunitate to put even more memesmeme
183
491000
3000
Unele hoteluri exploatează oportunitatea şi pun şi mai multe meme
08:32
with a little stickerSticker.
184
494000
2000
cu un mic sticker.
08:34
(LaughterRâs)
185
496000
1000
(Râsete)
08:35
What is this all about?
186
497000
2000
Despre ce este vorba aici?
08:37
I supposepresupune it's there to tell you that somebody'se cineva
187
499000
2000
Presupun că este acolo pentru a-ţi spune că cineva
08:39
cleanedcurățate the placeloc, and it's all lovelyminunat.
188
501000
2000
a curăţat locul, şi este frumos.
08:41
And you know, actuallyde fapt, all it tellsspune you is that anothero alta personpersoană
189
503000
3000
Defapt tot ce-ţi spune este că o altă persoană
08:44
has potentiallypotenţial spreadrăspândire germsgermeni from placeloc to placeloc.
190
506000
3000
este posibil să fi împrăştiat microbi dintr-un loc în altul.
08:47
(LaughterRâs)
191
509000
1000
(Râsete)
08:48
So, think of it this way.
192
510000
2000
Gândiţi-vă asfel.
08:50
ImagineImaginaţi-vă a worldlume fulldeplin of brainscreier
193
512000
2000
Imaginaţi-vă o lume plină de creiere
08:52
and fardeparte more memesmeme than can possiblyeventual find homescase.
194
514000
3000
şi mult mai multe meme decât locuri disponibile.
08:55
The memesmeme are all tryingîncercat to get copiedcopiat --
195
517000
3000
Memele încearcă toate să fie copiate,
08:58
tryingîncercat, in invertedinversat commasvirgule -- i.e.,
196
520000
3000
încearca, adică,
09:01
that's the shorthandprescurtare for, if they can get copiedcopiat, they will.
197
523000
3000
este prescurtarea de la, "dacă pot fi copiate, vor fi".
09:04
They're usingutilizând you and me as theiral lor propagatingsăditor, copyingcopiere machinerymașini,
198
526000
6000
Ne folosesc pe noi ca maşinării ce propagă copierea,
09:10
and we are the memememe machinesmaşini.
199
532000
3000
şi noi suntem maşinării memetice.
09:13
Now, why is this importantimportant?
200
535000
2000
De ce este asta important?
09:15
Why is this usefulutil, or what does it tell us?
201
537000
2000
De ce este folositor, sau ce ne spune?
09:17
It gives us a completelycomplet newnou viewvedere of humanuman originsoriginile
202
539000
4000
Ne deschide o nouă viziune asupra originii umane
09:21
and what it meansmijloace to be humanuman,
203
543000
1000
şi asupra a ceea ce înseamnă să fi om.
09:22
all conventionalconvenţional theoriesteorii of culturalcultural evolutionevoluţie,
204
544000
4000
Toate teoriile convenţionale despre evoluţia culturală,
09:26
of the originorigine of humansoameni,
205
548000
2000
despre originea oamenilor,
09:28
and what makesmărci us so differentdiferit from other speciesspecie.
206
550000
4000
şi ceea ce ne deosebeşte de alte specii.
09:32
All other theoriesteorii explainingexplicând the bigmare braincreier, and languagelimba, and toolinstrument use
207
554000
2000
Toate celelalte teorii ce explică creierul mare, şi limbajul şi utilizarea uneltelor
09:34
and all these things that make us uniqueunic,
208
556000
2000
şi toate aceste lucruri ce ne fac unici,
09:36
are basedbazat uponpe genesgene.
209
558000
3000
se bazează pe gene.
09:39
LanguageLimba musttrebuie sa have been usefulutil for the genesgene.
210
561000
3000
Limbajul trebuie să fi fost folositor pentru gene.
09:42
ToolInstrument use musttrebuie sa have enhancedîmbunătățit our survivalsupravieţuire, matingîmperechere and so on.
211
564000
3000
Utilizarea uneltelor ne-a ajutat la supravieţuire, împerechere, şamd.
09:45
It always comesvine back, as RichardRichard DawkinsDawkins complaineds-au plans
212
567000
3000
Totul, se plângea şi Richard Dawkins
09:48
all that long time agoîn urmă, it always comesvine back to genesgene.
213
570000
3000
cu ceva timp în urmă, totul se rezumă la gene.
09:51
The pointpunct of memeticsmemetics is to say, "Oh no, it doesn't."
214
573000
4000
Memetica spune însă, "Nu, nu e aşa"
09:55
There are two replicatorsReplicatori now on this planetplanetă.
215
577000
3000
Există doi replicatori pe această planetă.
09:58
From the momentmoment that our ancestorsstrămoși,
216
580000
3000
Din momentul în care strămoşii noştrii,
10:01
perhapspoate two and a halfjumătate millionmilion yearsani agoîn urmă or so,
217
583000
2000
probabil cu 2 milioane şi jumătate de ani în urmă,
10:03
begana început imitatingimitarea, there was a newnou copyingcopiere processproces.
218
585000
4000
au început să imite, a existat un nou proces de copiere.
10:07
CopyingCopierea with variationvariaţia and selectionselecţie.
219
589000
2000
Copiere cu variaţie şi selecţie.
10:09
A newnou replicatorReplicator was let looseliber, and it could never be --
220
591000
5000
Un nou replicator a fost creat, şi nu a fost posibil --
10:14
right from the startstart -- it could never be
221
596000
1000
chiar de la început, nu a fost posibil
10:15
that humanuman beingsființe who let looseliber this newnou creaturecreatură,
222
597000
5000
ca oamenii ce l-au creat
10:20
could just copycopie the usefulutil, beautifulfrumoasa, trueAdevărat things,
223
602000
3000
să copieze doar lucruri frumoase şi folositoare,
10:23
and not copycopie the other things.
224
605000
2000
dar nu şi celelate lucruri.
10:25
While theiral lor brainscreier were havingavând an advantageavantaj from beingfiind ablecapabil to copycopie --
225
607000
3000
În timp ce creierele lor aveau un avantaj fiind capabile de a copia --
10:28
lightingiluminat firesincendii, keepingpăstrare firesincendii going, newnou techniquestehnici of huntingvânătoare,
226
610000
5000
aprinzând focul, întreţinându-l, noi tehnici de vânătoare,
10:33
these kindstipuri of things --
227
615000
2000
asfel de lucruri --
10:35
inevitablyinevitabil they were alsode asemenea copyingcopiere puttingpunând featherspene in theiral lor hairpăr,
228
617000
3000
inevitabil au copiat şi lucruri ca: pene în păr,
10:38
or wearingpurtare strangeciudat clotheshaine, or paintingpictură theiral lor facesfețe,
229
620000
2000
haine ciudate sau pictatul feţelor,
10:40
or whateverindiferent de.
230
622000
1000
sau altceva.
10:41
So, you get an armsarme racerasă betweenîntre the genesgene
231
623000
4000
Apare asfel un război între gene
10:45
whichcare are tryingîncercat to get the humansoameni to have smallmic economicaleconomice brainscreier
232
627000
4000
ce tind să menţină creierul la o dimensiune mică, economică,
10:49
and not wastedeşeuri theiral lor time copyingcopiere all this stuffchestie,
233
631000
2000
care să nu piardă vremea copiind toate aceste lucruri,
10:51
and the memesmeme themselvesînșiși, like the soundssunete that people madefăcut and copiedcopiat --
234
633000
4000
şi între meme, ca sunetele pe care oamenii le-au produs şi copiat --
10:56
in other wordscuvinte, what turnedîntoarse out to be languagelimba --
235
638000
2000
în alte cuvinte, ceea ce a devenit limbajul --
10:58
competingconcurent to get the brainscreier to get biggermai mare and biggermai mare.
236
640000
3000
competiţia încercând să facă creierul tot mai mare.
11:01
So, the bigmare braincreier, on this theoryteorie, is drivencondus by the memesmeme.
237
643000
4000
Mărimea creierul după această teorie, se datorează memelor.
11:05
This is why, in "The MemeMeme MachineMasina," I calleddenumit it memeticmemetic driveconduce.
238
647000
4000
De aceea, în "Maşina memetică", o numesc impuls memetic.
11:09
As the memesmeme evolveevolua, as they inevitablyinevitabil musttrebuie sa,
239
651000
3000
În timpul evoluţiei lor inevitabile,
11:12
they driveconduce a biggermai mare braincreier that is better at copyingcopiere the memesmeme
240
654000
4000
determină creşterea creierului, mai bun pentru copierea memelor
11:16
that are doing the drivingconducere.
241
658000
2000
ce determină această creştere.
11:18
This is why we'vene-am endedîncheiat up with suchastfel de peculiarciudat brainscreier,
242
660000
4000
De aceea avem aceste creiere specifice,
11:22
that we like religionreligie, and musicmuzică, and artartă.
243
664000
3000
pentru că ne place religia, muzica şi arta.
11:25
LanguageLimba is a parasiteparazit that we'vene-am adaptedadaptate to,
244
667000
3000
Limba, este un parazit la care ne-am adaptat,
11:28
not something that was there originallyiniţial for our genesgene,
245
670000
2000
nu ceva ce a existat iniţial pentru genele noastre,
11:30
on this viewvedere.
246
672000
2000
în această viziune.
11:32
And like mostcel mai parasitesparaziţi, it can beginÎNCEPE dangerouspericulos,
247
674000
3000
Ca şi orice parazit, poate fi periculos la început,
11:35
but then it coevolvescoevolves and adaptsse adaptează,
248
677000
3000
dar apoi coevoluează şi se adaptează
11:38
and we endSfârşit up with a symbioticsimbioză relationshiprelaţie
249
680000
2000
rezultând o relaţie de simbioză
11:40
with this newnou parasiteparazit.
250
682000
1000
cu acest parazit nou.
11:41
And so, from our perspectiveperspectivă,
251
683000
2000
Din perspectiva noastră,
11:43
we don't realizerealiza that that's how it begana început.
252
685000
3000
nu realizăm că asfel a început.
11:46
So, this is a viewvedere of what humansoameni are.
253
688000
3000
Acesta este punctul nostru de vedere despre ce sunt oamenii.
11:49
All other speciesspecie on this planetplanetă are genegenă machinesmaşini only,
254
691000
3000
Toate celelalte specii de pe acest pământ sunt doar maşini genetice,
11:52
they don't imitateimita at all well, hardlycu greu at all.
255
694000
3000
nu imită deloc bine.
11:55
We alonesingur are genegenă machinesmaşini and memememe machinesmaşini as well.
256
697000
5000
Noi singurii suntem şi maşini genetice şi memetice.
12:00
The memesmeme tooka luat a genegenă machinemaşină and turnedîntoarse it into a memememe machinemaşină.
257
702000
4000
Memele au luat o maşină genetică şi au transformat-o într-o maşină memetică.
12:04
But that's not all.
258
706000
2000
Dar asta nu e tot.
12:06
We have a newnou kinddrăguț of memesmeme now.
259
708000
3000
Avem un nou tip de meme acum.
12:09
I've been wonderingîntrebându- for a long time,
260
711000
1000
M-am gândit mult,
12:10
sincede cand I've been thinkinggândire about memesmeme a lot,
261
712000
2000
pentru că memele m-au preocupat de multă vreme,
12:12
is there a differencediferență betweenîntre the memesmeme that we copycopie --
262
714000
2000
există o diferenţa între memele ce le copiem --
12:14
the wordscuvinte we speakvorbi to eachfiecare other,
263
716000
2000
cuvintele ce ni le spunem unul altuia,
12:16
the gesturesgesturi we copycopie, the humanuman things --
264
718000
2000
gesturile ce le copiem, lucruri umane --
12:18
and all these technologicaltehnologic things around us?
265
720000
2000
şi toate aceste tehnologii din jurul nostru?
12:20
I have always, untilpana cand now, calleddenumit them all memesmeme,
266
722000
4000
Până acum le-am spus tot timpul meme tuturor,
12:24
but I do honestlysincer think now
267
726000
3000
dar acum cred sincer
12:27
we need a newnou wordcuvânt for technologicaltehnologic memesmeme.
268
729000
3000
că avem nevoie de un nou cuvânt pentru memele tehnologice.
12:30
Let's call them techno-memesTechno-meme or temesTimiș.
269
732000
3000
Să le spunem tehnomeme, sau teme.
12:33
Because the processesprocese are gettingobtinerea differentdiferit.
270
735000
3000
Pentru că procesele sunt diferite.
12:37
We begana început, perhapspoate 5,000 yearsani agoîn urmă, with writingscris.
271
739000
3000
Am început, probabil acum 5000 de ani, cu scrisul.
12:40
We put the storagedepozitare of memesmeme out there on a claylut tabletcomprimat,
272
742000
7000
Am depozitat memele pe table de lut,
12:48
but in orderOrdin to get trueAdevărat temesTimiș and trueAdevărat temeteme machinesmaşini,
273
750000
2000
dar pentru a obţine teme adevărate şi maşini temetice,
12:50
you need to get the variationvariaţia, the selectionselecţie and the copyingcopiere,
274
752000
3000
trebuie să existe variaţie, selecţie şi copiere,
12:53
all doneTerminat outsidein afara of humansoameni.
275
755000
2000
toate realizate fără oameni.
12:55
And we're gettingobtinerea there.
276
757000
2000
Şi ne apropiem de asta.
12:57
We're at this extraordinaryextraordinar pointpunct where we're nearlyaproape there,
277
759000
2000
Ne aflăm la acest punct extraordinar în care suntem
12:59
that there are machinesmaşini like that.
278
761000
2000
aproape de existenţa unor asfel de maşini.
13:01
And indeedintr-adevar, in the shortmic de statura time I've alreadydeja been at TEDTED,
279
763000
2000
Şi, de când am venit la TED,
13:03
I see we're even closermai aproape than I thought we were before.
280
765000
2000
văd că suntem şi mai aproape decât credeam înainte.
13:05
So actuallyde fapt, now the temesTimiș are forcingforțând our brainscreier
281
767000
6000
Defapt, temele ne forţează creierele
13:11
to becomedeveni more like temeteme machinesmaşini.
282
773000
2000
să devină tot mai mult nişte maşini temetice.
13:13
Our childrencopii are growingcreştere up very quicklyrepede learningînvăţare to readcitit,
283
775000
3000
Copiii noştrii învaţă foarte repede să citească,
13:16
learningînvăţare to use machinerymașini.
284
778000
2000
să folosească maşini.
13:18
We're going to have all kindstipuri of implantsimplanturile,
285
780000
1000
Vom avea tot felul de implanturi,
13:19
drugsdroguri that forceforta us to staystau awaketreaz all the time.
286
781000
3000
droguri ce ne forţează să stam treji tot timpul.
13:22
We'llVom think we're choosingalegerea these things,
287
784000
2000
Credem că alegem aceste lucruri,
13:24
but the temesTimiș are makingluare us do it.
288
786000
3000
dar temele le fac în locul nostru.
13:28
So, we're at this cuspvârf now
289
790000
1000
Acum suntem pe punctul
13:29
of havingavând a thirdal treilea replicatorReplicator on our planetplanetă.
290
791000
4000
de a a avea un al treilea replicator pe planeta noastră.
13:34
Now, what about what elsealtfel is going on out there in the universeunivers?
291
796000
5000
Dar, ce se întamplă în Univers?
13:39
Is there anyoneoricine elsealtfel out there?
292
801000
2000
Este cineva acolo?
13:41
People have been askingcer this questionîntrebare for a long time.
293
803000
3000
Oamenii s-au întrebat asta de multă vreme.
13:44
We'veNe-am been askingcer it here at TEDTED alreadydeja.
294
806000
2000
Ne-am întrebat şi aici, la TED.
13:46
In 1961, FrankFrank DrakeDrake madefăcut his famouscelebru equationecuaţie,
295
808000
4000
În 1961, Frank Drake a realizat ecuaţia sa celebră,
13:50
but I think he concentratedconcentrat on the wronggresit things.
296
812000
2000
dar cred că s-a concentrat pe lucruri greşite.
13:52
It's been very productiveproductiv, that equationecuaţie.
297
814000
2000
Ecuaţia aceea a fost foarte productivă.
13:54
He wanted to estimateestima N,
298
816000
2000
A vrut să estimeze N,
13:56
the numbernumăr of communicativecomunicare civilizationscivilizații out there in our galaxygalaxie,
299
818000
4000
numărul civilizaţiilor capabile de comunicaţie din galaxie.
14:00
and he includedinclus in there the raterată of starstea formationformare,
300
822000
4000
Şi a inclus acolo rata de formare a stelelor,
14:04
the raterată of planetsplanete, but cruciallycrucial, intelligenceinteligență.
301
826000
4000
rata planetelor, dar decisiv, inteligenţa.
14:08
I think that's the wronggresit way to think about it.
302
830000
4000
Este greşit să gândim asfel după părerea mea.
14:12
IntelligenceInteligenta appearsapare all over the placeloc, in all kindstipuri of guisesformele ei.
303
834000
3000
Inteligenţa apare peste tot, sub tot felul de forme.
14:15
HumanUmane intelligenceinteligență is only one kinddrăguț of a thing.
304
837000
2000
Inteligenţa umană este doar una din ele.
14:17
But what's really importantimportant is the replicatorsReplicatori you have
305
839000
3000
Dar ceea ce este foarte important, sunt replicatorii existenţi
14:20
and the levelsniveluri of replicatorsReplicatori, one feedinghrănire on the one before.
306
842000
4000
şi nivelul lor, fiecare crescând pe nivelul de dedesubt.
14:24
So, I would suggestsugera that we don't think intelligenceinteligență,
307
846000
5000
Aş sugera aşadar să nu ne gândim la inteligenţă,
14:29
we think replicatorsReplicatori.
308
851000
2000
ci la replicatori.
14:31
And on that basisbază, I've suggestedsugerat a differentdiferit kinddrăguț of equationecuaţie.
309
853000
3000
Pe baza aceasta, am sugerat un nou tip de ecuaţie.
14:34
A very simplesimplu equationecuaţie.
310
856000
2000
Una foarte simplă.
14:36
N, the samela fel thing,
311
858000
2000
N, acelaşi lucru,
14:38
the numbernumăr of communicativecomunicare civilizationscivilizații out there
312
860000
3000
numărul civilizaţiilor capabile de comunicaţie
14:41
[that] we mightar putea expectaştepta in our galaxygalaxie.
313
863000
2000
din galaxia noastră.
14:43
Just startstart with the numbernumăr of planetsplanete there are in our galaxygalaxie.
314
865000
4000
Să începem doar cu numărul de planete din galaxia noastră.
14:47
The fractionfracțiune of those whichcare get a first replicatorReplicator.
315
869000
4000
Procentajul celor ce au replicator de ordinul 1
14:51
The fractionfracțiune of those that get the secondal doilea replicatorReplicator.
316
873000
4000
Procentajul celor ce au replicator de ordinul 2.
14:55
The fractionfracțiune of those that get the thirdal treilea replicatorReplicator.
317
877000
2000
Procentajul celor ce au replicator de ordinul 3.
14:58
Because it's only the thirdal treilea replicatorReplicator that's going to reacha ajunge out --
318
880000
3000
Pentru că doar pe cel de ordinul 3 îl putem recepţiona --
15:01
sendingtrimitere informationinformație, sendingtrimitere probessonde, gettingobtinerea out there,
319
883000
3000
el va trimite informaţie, sonde, el va ieşi,
15:04
and communicatingcomunicarea with anywhereoriunde elsealtfel.
320
886000
2000
şi va comunica cu alte zone.
15:06
OK, so if we take that equationecuaţie,
321
888000
3000
Dacă luam această ecuaţie,
15:09
why haven'tnu au we heardauzit from anybodycineva out there?
322
891000
5000
de ce nu am auzit nimic de la nimeni până acum?
15:14
Because everyfiecare stepEtapa is dangerouspericulos.
323
896000
4000
Pentru că fiecare pas este periculos.
15:18
GettingNoţiuni de bază a newnou replicatorReplicator is dangerouspericulos.
324
900000
3000
Un nou replicator este periculos.
15:21
You can pullTrage throughprin, we have pulledtras throughprin,
325
903000
2000
Poţi să-i supravieţieşti, noi am făcut-o,
15:23
but it's dangerouspericulos.
326
905000
2000
dar este periculos.
15:25
Take the first stepEtapa, as sooncurând as life appeareda apărut on this earthPământ.
327
907000
3000
Să luam primul pas, de îndată ce viaţa a apărut pe această planetă.
15:28
We mayMai take the GaianGheorghita viewvedere.
328
910000
2000
Din punct de vedere Gaian.
15:30
I lovediubit PeterPetru Ward'sWard pe talk yesterdayieri -- it's not GaianGheorghita all the time.
329
912000
3000
Mi-a plăcut prezentarea lui Peter Ward de ieri -- nu e Gaian tot timpul.
15:33
ActuallyDe fapt, life formsformulare producelegume şi fructe things that killucide themselvesînșiși.
330
915000
3000
De fapt, vietăţile produc lucruri ce la curmă viaţa.
15:36
Well, we did pullTrage throughprin on this planetplanetă.
331
918000
3000
Am reuşit să supravieţuim pe această planetă.
15:39
But then, a long time latermai tarziu, billionsmiliarde of yearsani latermai tarziu,
332
921000
2000
Dar apoi, după mult timp, miliarde de ani mai târziu,
15:41
we got the secondal doilea replicatorReplicator, the memesmeme.
333
923000
3000
a apărut al doilea replicator, memele.
15:44
That was dangerouspericulos, all right.
334
926000
2000
A fost periculos, desigur.
15:46
Think of the bigmare braincreier.
335
928000
2000
Gândiţi-vă la creierul mare.
15:48
How manymulți mothersmame do we have here?
336
930000
3000
Câte mame avem aici?
15:51
You know all about bigmare brainscreier.
337
933000
2000
Ştiţi totul despre creiere mari.
15:53
They are dangerouspericulos to give birthnaștere to,
338
935000
2000
E periculos să le dai naştere.
15:55
are agonizingagonizant to give birthnaștere to.
339
937000
2000
E agonizant să le dai viaţă.
15:57
(LaughterRâs)
340
939000
1000
(Râsete)
15:59
My catpisică gavea dat birthnaștere to fourpatru kittenspisoi, purringtoarce all the time.
341
941000
2000
Pisica mea a dat naştere la 4 pisicuţe, torcând tot timpul.
16:01
AhAh, mmmm -- slightlypuțin differentdiferit.
342
943000
2000
Puţin diferit.
16:03
(LaughterRâs)
343
945000
2000
(Râsete)
16:05
But not only is it painfuldureros, it killsucide lots of babiescopii,
344
947000
3000
Dar nu este doar dureros, ci omoară mulţi copii,
16:08
it killsucide lots of mothersmame,
345
950000
2000
omoară multe mame,
16:10
and it's very expensivescump to producelegume şi fructe.
346
952000
2000
şi este costisitor a produce.
16:12
The genesgene are forcedforţat into producingproducând all this myelinmielină,
347
954000
2000
Genele sunt forţate să producă toată această mielină,
16:14
all the fatgras to myelinateanterioare the braincreier.
348
956000
2000
toată grăsimea pentru mielinizarea creierului.
16:16
Do you know, sittingședință here,
349
958000
2000
Ştiţi că, stând aici,
16:18
your braincreier is usingutilizând about 20 percentla sută of your body'sorganismului energyenergie outputproducție
350
960000
4000
creierul vostru consumă aproximativ 20% din energia totală a corpului vostru
16:22
for two percentla sută of your bodycorp weightgreutate?
351
964000
2000
pentru 2% din masa totală a lui.
16:24
It's a really expensivescump organorgan to runalerga.
352
966000
2000
Este un organ costisitor.
16:26
Why? Because it's producingproducând the memesmeme.
353
968000
2000
De ce? Pentru că produce memele.
16:28
Now, it could have killeducis us off. It could have killeducis us off,
354
970000
4000
Putea să ne omoare
16:32
and maybe it nearlyaproape did, but you see, we don't know.
355
974000
2000
şi poate că aproape a făcut-o, nu ştim.
16:34
But maybe it nearlyaproape did.
356
976000
2000
Probabil că aproape a făcut-o.
16:36
Has it been triedîncercat before?
357
978000
1000
A fost încercat înainte?
16:37
What about all those other speciesspecie?
358
979000
2000
Dacă ne gândim la celelalte specii?
16:39
LouiseLouise LeakeyLeakey talkeda vorbit yesterdayieri
359
981000
2000
Louise Leakey a vorbit ieri
16:41
about how we're the only one in this branchramură left.
360
983000
3000
despre cum noi suntem singurii rămaşi în această categorie.
16:44
What happeneds-a întâmplat to the othersalții?
361
986000
2000
Ce s-a întmâmplat cu ceilalţi?
16:46
Could it be that this experimentexperiment in imitationimitaţie,
362
988000
2000
Se poate ca acest experiment în imitaţie,
16:48
this experimentexperiment in a secondal doilea replicatorReplicator,
363
990000
2000
acest experiment cu replicatorul al doilea,
16:50
is dangerouspericulos enoughdestul to killucide people off?
364
992000
4000
este atât de periculos încât să distrugă?
16:54
Well, we did pullTrage throughprin, and we adaptedadaptate.
365
996000
2000
Dar, am rezistat, şi ne-am adaptat.
16:56
But now, we're hittinglovind, as I've just describeddescris,
366
998000
3000
Dar acum, după cum am descris,
16:59
we're hittinglovind the thirdal treilea replicatorReplicator pointpunct.
367
1001000
2000
ne apropiem de al treilea replicator.
17:01
And this is even more dangerouspericulos --
368
1003000
3000
Şi acesta este şi mai periculos --
17:04
well, it's dangerouspericulos again.
369
1006000
2000
este periculos din nou.
17:06
Why? Because the temesTimiș are selfishegoist replicatorsReplicatori
370
1008000
4000
De ce? Pentru că temele sunt replicatori egoişti
17:10
and they don't careîngrijire about us, or our planetplanetă, or anything elsealtfel.
371
1012000
3000
şi nu le pasă de noi, sau de planeta noastră, sau de orice altceva.
17:13
They're just informationinformație, why would they?
372
1015000
3000
Sunt doar informaţie -- de ce le-ar păsa?
17:17
They are usingutilizând us to sucka suge up the planet'splaneta pe resourcesresurse
373
1019000
2000
Ne folosesc pentru a extrage resursele planetei noastre
17:19
to producelegume şi fructe more computerscalculatoare,
374
1021000
2000
pentru a produce mai multe calculatoare,
17:21
and more of all these amazinguimitor things we're hearingauz about here at TEDTED.
375
1023000
3000
şi multe alte lucruri despre care am auzit aici, la TED.
17:24
Don't think, "Oh, we createdcreată the InternetInternet for our ownpropriu benefitbeneficiu."
376
1026000
4000
Nu vă gândiţi, "Oh, am creat Internetul pentru nevoile noastre".
17:28
That's how it seemspare to us.
377
1030000
2000
Aşa ne pare nouă.
17:30
Think, temesTimiș spreadingrăspândire because they musttrebuie sa.
378
1032000
4000
Gândiţi-vă că temele se răspândesc pentru că trebuie.
17:34
We are the oldvechi machinesmaşini.
379
1036000
2000
Noi suntem vechile maşini.
17:36
Now, are we going to pullTrage throughprin?
380
1038000
2000
Vom reuşi să supravieţuim?
17:38
What's going to happenîntâmpla?
381
1040000
2000
Ce se va întâmpla?
17:40
What does it mean to pullTrage throughprin?
382
1042000
2000
Ce înseamnă a supravieţui?
17:42
Well, there are kinddrăguț of two waysmoduri of pullingtrăgând throughprin.
383
1044000
2000
Există două feluri de supravieţuire.
17:45
One that is obviouslyevident happeninglucru all around us now,
384
1047000
2000
Unul care este evident peste tot în jurul nostru,
17:47
is that the temesTimiș turnviraj us into temeteme machinesmaşini,
385
1049000
4000
este că temele ne transformă în maşini temetice,
17:51
with these implantsimplanturile, with the drugsdroguri,
386
1053000
2000
cu aceste implanturi, cu medicamente,
17:53
with us mergingUnirea with the technologytehnologie.
387
1055000
3000
cu îmbinarea noastră cu tehnologia.
17:56
And why would they do that?
388
1058000
2000
Şi de ce ar face asta?
17:58
Because we are self-replicatingauto-replicare.
389
1060000
2000
Pentru că ne înmulţim.
18:00
We have babiescopii.
390
1062000
2000
Avem copii.
18:02
We make newnou onescele, and so it's convenientconvenabil to piggybacksalut norocos on us,
391
1064000
3000
Facem copii noi, şi le este convenabil să ne folosească,
18:05
because we're not yetinca at the stageetapă on this planetplanetă
392
1067000
4000
pentru că nu am ajuns la punctul în care
18:09
where the other optionopțiune is viableviabil.
393
1071000
2000
există şi o altă opţiune.
18:11
AlthoughDeşi it's closermai aproape, I heardauzit this morningdimineaţă,
394
1073000
2000
Deşi este aproape, am auzit azi dimineaţă,
18:13
it's closermai aproape than I thought it was.
395
1075000
2000
este mai aproape decât credeam.
18:15
Where the temeteme machinesmaşini themselvesînșiși will replicatereplica themselvesînșiși.
396
1077000
3000
Când maşinile temetice se vor reproduce singure.
18:18
That way, it wouldn'tnu ar fi mattermaterie if the planet'splaneta pe climateclimat
397
1080000
4000
În acest fel, nu contează dacă clima planetei
18:22
was utterlycu totul destabilizeddestabilizat,
398
1084000
2000
va fi destabilizată,
18:24
and it was no longermai lung possibleposibil for humansoameni to livetrăi here.
399
1086000
2000
şi viaţa oamenilor nu va mai fi posibilă aici.
18:26
Because those temeteme machinesmaşini, they wouldn'tnu ar fi need --
400
1088000
2000
Pentru că acele maşini temetice, nu vor avea nevoie --
18:28
they're not squishyvalentina, wetumed, oxygen-breathingoxigen-respiraţie,
401
1090000
2000
nu sunt creaturi ce folosesc oxigen
18:30
warmth-requiringcăldura care necesită creaturescreaturi.
402
1092000
3000
si nu au nevoie de căldură.
18:33
They could carrytransporta on withoutfără us.
403
1095000
2000
Ele pot să trăiască şi fără noi.
18:35
So, those are the two possibilitiesposibilităţi.
404
1097000
3000
Acestea sunt cele două posibilităţi.
18:38
The secondal doilea, I don't think we're that closeînchide.
405
1100000
4000
A doua, nu cred că suntem aşa de aproape.
18:42
It's comingvenire, but we're not there yetinca.
406
1104000
2000
Va veni, dar nu suntem încă acolo.
18:44
The first, it's comingvenire too.
407
1106000
2000
Prima, vine şi ea.
18:46
But the damagedeteriora that is alreadydeja beingfiind doneTerminat
408
1108000
3000
Dar pagubele care deja ne-au afectat
18:49
to the planetplanetă is showingarătând us how dangerouspericulos the thirdal treilea pointpunct is,
409
1111000
5000
planeta, ne arată cât de periculos este al treilea stadiu,
18:54
that thirdal treilea dangerPericol pointpunct, gettingobtinerea a thirdal treilea replicatorReplicator.
410
1116000
3000
acel stadiu periculos, al treilea replicator.
18:58
And will we get throughprin this thirdal treilea dangerPericol pointpunct,
411
1120000
2000
Şi vom trece de acest stadiu,
19:00
like we got throughprin the secondal doilea and like we got throughprin the first?
412
1122000
3000
precum am trecut şi de primele două?
19:04
Maybe we will, maybe we won'tnu va.
413
1126000
2000
Poate că da, poate că nu.
19:06
I have no ideaidee.
414
1128000
3000
Nu am idee.
19:13
(ApplauseAplauze)
415
1135000
10000
(Aplauze)
19:24
ChrisChris AndersonAnderson: That was an incredibleincredibil talk.
416
1146000
2000
Chris Anderson: Frumoasă prezentare.
19:26
SBSB: Thank you. I scaredînspăimântat myselfeu insumi.
417
1148000
2000
SB: Mulţumesc. Chiar şi eu m-am speriat.
19:28
CACA: (LaughterRâs)
418
1150000
1000
.
Translated by Mihai Olteanu
Reviewed by Diana Hasegan

▲Back to top

ABOUT THE SPEAKER
Susan Blackmore - Memeticist
Susan Blackmore studies memes -- those self-replicating "life forms" that spread themselves via human consciousness. We're now headed, she believes, toward a new form of meme, spread by the technology we've created.

Why you should listen

Susan Blackmore is dedicated to understanding the scientific nature of consciousness. Her latest work centers on the existence of memes -- little bits of knowledge, lore, habit that seem to spread themselves using human brains as mere carriers. She's exploring the existence of a new class of meme, spread by human technology. It's temporarily named the "teme."

She has written about memes, consciousness, and near-death experiences; has appeared on the British Big Brother to discuss the psychology of the participants; and writes for the Guardian UK.

More profile about the speaker
Susan Blackmore | Speaker | TED.com