ABOUT THE SPEAKER
Douglas Rushkoff - Media theorist, author
Douglas Rushkoff promotes human autonomy in the digital age.

Why you should listen

Douglas Rushkoff coined such expressions as "viral media," "digital natives" and "social currency," and advises governments, communities and businesses on the impact of technology on society's future. Named one of "the world’s ten most influential thinkers" by MIT, Rushkoff won the Marshal McLuhan Award for media writing and the Neil Postman award for Public Intellectual Activity.

Rushkoff hosts the Team Human podcast, made four PBS Frontline documentaries including Generation Like and The Merchants of Cool, and wrote many bestselling books including Team Human, Present Shock, Program or Be Programmed and Throwing Rocks at the Google Bus. He founded the Laboratory for Digital Humanism at CUNY/Queens College, where he is professor of media theory and digital economics.

More profile about the speaker
Douglas Rushkoff | Speaker | TED.com
TED Salon Samsung

Douglas Rushkoff: How to be "Team Human" in the digital future

Douglas Rushkoff: Hogyan játsszunk az emberek csapatában a digitális jövőben?

Filmed:
1,652,468 views

Az emberi kreativitás mára elvesztette értékét – mondja a médiaelmélettel foglalkozó Douglas Rushkoff. A digitális technológia uralta világban már csak az adataink értékesek. Szenvedélyes beszédében Rushkoff arra unszol, hogy ne használjuk többé a technológiát arra, hogy az embereket a piac érdekei szerint optimalizáljuk, ehelyett kezdjünk olyan jövő építésébe, amely az olyan, digitális kort megelőző értékek köré szerveződik, mint a kapcsolódás, kreativitás és tisztelet. "Csatlakozzanak az emberi csapathoz! Keressék meg a többieket! - mondja. Teremtsük meg együtt a jövőt, amit mindig is akartunk."
- Media theorist, author
Douglas Rushkoff promotes human autonomy in the digital age. Full bio

Double-click the English transcript below to play the video.

00:13
I got invitedmeghívott to an exclusivekizárólagos resortüdülő
0
1520
3880
Meghívást kaptam
egy exkluzív üdülőtelepre,
00:17
to deliverszállít a talk about the digitaldigitális futurejövő
1
5440
2456
hogy a digitális jövőről beszéljek
00:19
to what I assumedfeltételezett would be
a couplepárosít of hundredszáz techtech executivesvezetők.
2
7920
3576
pár száz techvezetőnek –
legalábbis azt hittem.
00:23
And I was there in the greenzöld roomszoba,
waitingvárakozás to go on,
3
11520
2696
A művészszobában ültem,
várva, hogy sorra kerüljek,
00:26
and insteadhelyette of bringingfűződő me to the stageszínpad,
they broughthozott fiveöt menférfiak into the greenzöld roomszoba
4
14240
5176
ám ahelyett, hogy a színpadra vezettek
volna, öt férfit hoztak a terembe,
00:31
who satült around this little tableasztal with me.
5
19440
2056
akikkel körbeültünk egy asztalkát.
00:33
They were techtech billionairesmilliárdosok.
6
21520
2096
Techmilliárdosok voltak.
00:35
And they startedindult pepperingborsozás me
with these really binarykétkomponensű questionskérdések,
7
23640
4536
Azonnal lerohantak eldöntendő kérdésekkel:
00:40
like: BitcoinBitcoin or EtheriumÉterium?
8
28200
2000
Bitcoin vagy Ethereum?
00:43
VirtualVirtuális realityvalóság or augmentedkiegészített realityvalóság?
9
31120
2656
Virtuális valóság
vagy kiterjesztett valóság?
00:45
I don't know if they were
takingbevétel betsfogadás or what.
10
33800
2496
Nem tudom, talán fogadásokat kötöttek.
00:48
And as they got more comfortablekényelmes with me,
11
36320
2816
Ahogy kezdték fesztelenebbül
érezni magukat társaságomban,
00:51
they edgedszélű towardsfelé
theirazok realigazi questionkérdés of concernvonatkozik.
12
39160
3216
lassan elérkeztek a valódi kérdésükhöz.
00:54
AlaskaAlaszka or NewÚj ZealandZealand?
13
42400
2240
Alaszka vagy Új-Zéland?
00:57
That's right.
14
45760
1216
Így igaz.
Arról faggattak engem,
aki médiaelmélettel foglalkozom,
00:59
These techtech billionairesmilliárdosok
were askingkérve a mediamédia theoristteoretikus for advicetanács
15
47000
2976
01:02
on where to put theirazok doomsdayvilágvége bunkersBunkerek takarmányok megőrzéséhez.
16
50000
1880
hová építsék a világvége-bunkerüket.
01:04
We spentköltött the restpihenés of the houróra
on the singleegyetlen questionkérdés:
17
52600
3136
A fennmaradó időben
egyetlen kérdéssel foglalkoztunk:
01:07
"How do I maintainfenntart controlellenőrzés
of my securityBiztonság staffszemélyzet
18
55760
3616
"Hogyan tartsam ellenőrzés alatt
a biztonsági embereimet
01:11
after the eventesemény?"
19
59400
1320
az esemény után?"
01:13
By "the eventesemény" they mean
the thermonucleartermonukleáris warháború
20
61920
2736
Az "esemény" nem más,
mint a termonukleáris háború,
01:16
or climateéghajlat catastrophekatasztrófa or socialtársadalmi unrestnyugtalanság
that endsvéget ér the worldvilág as we know it,
21
64680
4656
klímakatasztrófa vagy társadalmi
felbolydulás, amely elhozza a világvégét,
01:21
and more importantlyfontosabb,
makesgyártmányú theirazok moneypénz obsoleteelavult.
22
69360
3280
és – ami még fontosabb –, értéktelenné
teszi a milliárdosok pénzét.
01:26
And I couldn'tnem tudott help but think:
23
74200
2216
Én meg önkéntelenül arra gondoltam:
01:28
these are the wealthiestleggazdagabb,
mosta legtöbb powerfulerős menférfiak in the worldvilág,
24
76440
4736
ezek itt a világ leggazdagabb,
leghatalmasabb emberei,
01:33
yetmég they see themselvesmaguk as utterlyteljesen
powerlesstehetetlen to influencebefolyás the futurejövő.
25
81200
4656
mégis azt hiszik, semmiféle befolyásuk
nincs a jövő alakulására.
01:37
The bestlegjobb they can do is hanglóg on
for the inevitableelkerülhetetlen catastrophekatasztrófa
26
85880
4456
Csak az jár a fejükben, hogy úszhatják meg
az elkerülhetetlen katasztrófát,
01:42
and then use theirazok technologytechnológia and moneypénz
to get away from the restpihenés of us.
27
90360
3680
majd a pénzüket és technológiájukat
felhasználva hogy meneküljenek el.
01:47
And these are the winnersnyertesek
of the digitaldigitális economygazdaság.
28
95520
2536
És ők a digitális gazdaság nyertesei!
01:50
(LaughterNevetés)
29
98080
3416
(Nevetés)
01:53
The digitaldigitális renaissancereneszánsz
30
101520
2776
A digitális reneszánsz eredetileg
01:56
was about the unbridledféktelen potentiallehetséges
31
104320
4256
a közös emberi képzelet
02:00
of the collectivekollektív humanemberi imaginationképzelet.
32
108600
2416
határtalan lehetőségeiről szólt.
02:03
It spannedátnyúló everything
from chaoskáosz mathmatematikai and quantumkvantum physicsfizika
33
111040
5136
Átívelt mindent a káoszelmélettől
és a kvantumfizikától
02:08
to fantasyfantázia role-playingszerepjáték
and the GaiaGaia hypothesishipotézis, right?
34
116200
4176
egészen a fantasy szerepjátékokig
és a Gaia-elméletig, nem igaz?
02:12
We believedvéljük that humanemberi beingslények connectedcsatlakoztatva
could createteremt any futurejövő we could imagineKépzeld el.
35
120400
6720
Hittük, hogy az emberek közösen olyan
jövőt teremthetnek, amilyet csak akarnak.
02:20
And then camejött the dotpont comcom boombumm.
36
128840
2199
Aztán jött a dotkom-fellendülés,
02:24
And the digitaldigitális futurejövő
becamelett stockKészlet futureshatáridős.
37
132600
3616
és a digitális jövő hirtelen
részvényjövővé változott.
02:28
And we used all that energyenergia
of the digitaldigitális agekor
38
136240
3016
A digitális korszak összes
energiáját arra használtuk,
02:31
to pumpszivattyú steroidsszteroidok into the alreadymár dyinghaldoklik
NASDAQNASDAQ stockKészlet exchangecsere.
39
139280
4256
hogy friss vért pumpáljunk
a már haldokló NASDAQ-tőzsdébe.
02:35
The techtech magazinesfolyóiratok told us
a tsunamicunami was comingeljövetel.
40
143560
3616
A techfolyóiratok figyelmeztettek:
cunami várható,
02:39
And only the investorsbefektetőknek who hiredbérelt
the bestlegjobb scenario-plannersforgatókönyv-tervezők and futuristsfuturisták
41
147200
4456
és csak a legjobb tervezőket
és jövőkutatókat foglalkoztató befektetők
02:43
would be ableképes to survivetúlélni the wavehullám.
42
151680
2520
élhetik túl a vihart.
02:47
And so the futurejövő changedmegváltozott from this thing
we createteremt togetheregyütt in the presentajándék
43
155160
5896
A jövő már nem olyasvalami volt,
amit közösen építünk itt, a jelenben,
02:53
to something we bettét on
44
161080
1496
hanem valami, amire fogadunk
02:54
in some kindkedves of a zero-sumzéró-összegű
winner-takes-allgyőztes mindent visz competitionverseny.
45
162600
3200
valamiféle zéró összegű versenyen,
ahol a győztes mindent visz.
03:00
And when things get that competitivekompetitív
about the futurejövő,
46
168120
3136
Amikor a jövő ekkora
versengés tárgya lesz,
03:03
humansemberek are no longerhosszabb valuedértékes
for our creativitykreativitás.
47
171280
3296
az emberek kreativitása elértéktelenedik.
03:06
No, now we're just valuedértékes for our dataadat.
48
174600
3136
Most már csak az adataink értékesek.
03:09
Because they can use the dataadat
to make predictionselőrejelzések.
49
177760
2376
Az adatokat használva
jóslatokba lehet bocsátkozni.
03:12
CreativityKreativitás, if anything,
that createsteremt noisezaj.
50
180160
2576
A kreativitás legfeljebb csak zavaró zaj,
03:14
That makesgyártmányú it hardernehezebb to predictmegjósolni.
51
182760
2216
amely megnehezíti az előrejelzéseket.
03:17
So we endedvége lett up with a digitaldigitális landscapetájkép
52
185000
2416
Olyan digitális világot kaptunk,
03:19
that really repressedelfojtott creativitykreativitás,
repressedelfojtott noveltyújdonság,
53
187440
3256
amely elnyomta a kreativitást, az újítást,
03:22
it repressedelfojtott what makesgyártmányú us mosta legtöbb humanemberi.
54
190720
2840
mindent, ami igazán emberré tesz minket.
03:26
We endedvége lett up with socialtársadalmi mediamédia.
55
194760
1456
Így lett közösségi médiánk.
03:28
Does socialtársadalmi mediamédia really connectkapcsolódni people
in newúj, interestingérdekes waysmódokon?
56
196240
3456
A közösségi média tényleg új,
izgalmas kapcsolatokat teremt?
03:31
No, socialtársadalmi mediamédia is about usinghasználva our dataadat
to predictmegjósolni our futurejövő behaviorviselkedés.
57
199720
5016
Nem: a lényege, hogy adataink alapján
megjósolják jövőbeli viselkedésünket.
03:36
Or when necessaryszükséges,
to influencebefolyás our futurejövő behaviorviselkedés
58
204760
2896
Vagy – ha kell – befolyásolják
jövőbeli viselkedésünket,
03:39
so that we acttörvény more in accordanceösszhangban
with our statisticalstatisztikai profilesprofilok.
59
207680
4040
hogy minél jobban passzoljunk
a statisztikai profilunkba.
03:45
The digitaldigitális economygazdaság --
does it like people?
60
213200
2216
Emberbarát-e a digitális gazdaság?
03:47
No, if you have a businessüzleti planterv,
what are you supposedfeltételezett to do?
61
215440
2896
Nem: ha van üzleti tervünk, mit tegyünk?
Felejtsük el az embereket!
03:50
Get ridmegszabadít of all the people.
62
218360
1256
Az emberek egészségügyi ellátást
akarnak, pénzt, értelmet.
03:51
HumanEmberi beingslények, they want healthEgészség caregondoskodás,
they want moneypénz, they want meaningjelentés.
63
219640
3400
03:56
You can't scaleskála with people.
64
224360
1880
Ennek nincs jövője.
03:59
(LaughterNevetés)
65
227360
1456
(Nevetés)
A digitális alkalmazások sem segítenek,
04:00
Even our digitaldigitális appsalkalmazások --
66
228840
1216
04:02
they don't help us
formforma any rapportrapport or solidarityszolidaritás.
67
230080
3216
hogy igazi összhang
vagy összetartás alakuljon ki.
04:05
I mean, where'shol van the buttongomb
on the ridelovagol hailingJelzési appapp
68
233320
2416
Hol van a gomb a taxialkalmazásban,
04:07
for the driversillesztőprogramok to talk to one anotheregy másik
about theirazok workingdolgozó conditionskörülmények
69
235760
3496
amely segítségével sofőrök
beszélgethetnek munkakörülményeikről,
04:11
or to unionizeaz Unió?
70
239280
1200
egységbe tömörülhetnek?
Még videokonferencia-alkalmazásaink
sem teszik lehetővé,
04:13
Even our videoconferencingVideokonferencia toolsszerszámok,
71
241600
2016
04:15
they don't allowlehetővé teszi us
to establishlétrehozni realigazi rapportrapport.
72
243640
2376
hogy igazi összhangot teremtsünk.
04:18
HoweverAzonban good the resolutionfelbontás of the videovideó-,
73
246040
3336
Bármilyen jó is a videó felbontása,
04:21
you still can't see if somebody'svalakinek a irisesíriszek
are openingnyílás to really take you in.
74
249400
4016
mégsem látszik, hogy kitágul-e valaki
pupillája, hogy rendesen figyeljen ránk.
04:25
All of the things that we'vevoltunk doneKész
to establishlétrehozni rapportrapport
75
253440
2576
Az összhangteremtésre használt jelek,
04:28
that we'vevoltunk developedfejlett over hundredsszáz
of thousandsTöbb ezer of yearsévek of evolutionevolúció,
76
256040
3335
amelyeket az evolúció százezer évei
alatt fejlesztettünk ki,
nem működnek a videón:
04:31
they don't work,
77
259399
1217
04:32
you can't see if someone'svalaki breathlehelet
is syncingSzinkronizál up with yoursa tiéd.
78
260640
3016
nem látjuk, hogy egyszerre kezdünk-e
lélegezni a másik emberrel.
04:35
So the mirrortükör neuronsneuronok never fireTűz,
the oxytocinoxytocin never goesmegy throughkeresztül your bodytest,
79
263680
3656
A tükörneuronok nem lépnek működésbe,
nem áraszt el minket az oxitocin,
04:39
you never have that experiencetapasztalat
of bondingkötés with the other humanemberi beinglény.
80
267360
3240
nem éljük át az élményt, hogy valódi
kapcsolatba kerültünk valakivel.
04:43
And insteadhelyette, you're left like,
81
271360
1456
Ehelyett úgy érezzük:
04:44
"Well, they agreedegyetért with me,
but did they really,
82
272840
2256
"Hát, jó, egyetértettek velem,
de vajon tényleg,
04:47
did they really get me?"
83
275120
1696
igazán megértettek?"
04:48
And we don't blamefeddés the technologytechnológia
for that lackhiány of fidelityhűség.
84
276840
3376
Nem a technológiát hibáztatjuk
a rosszhiszeműségért.
04:52
We blamefeddés the other personszemély.
85
280240
1480
Hanem a másik embert.
04:55
You know, even the technologiestechnológiák
and the digitaldigitális initiativeskezdeményezések that we have
86
283320
4056
Tudják, még azok a technológiák
és digitális kezdeményezések is,
04:59
to promotenépszerűsít humansemberek,
87
287400
2176
amelyek elvileg az embereket szolgálják,
05:01
are intenselyintenzíven anti-humananti-humán at the coremag.
88
289600
2760
velejükig tökéletesen emberellenesek.
05:05
Think about the blockchainblockchain.
89
293600
2000
Gondoljanak pl. a blokkláncra!
05:08
The blockchainblockchain is here to help us
have a great humanizedhumanizált economygazdaság? No.
90
296520
3616
A blokklánc segít, hogy emberarcú
gazdaságot hozzunk létre? Nem.
05:12
The blockchainblockchain does not engenderokoz
trustbizalom betweenközött usersfelhasználók,
91
300160
2696
A blokklánc nem ébreszt bizalmat
a felhasználók között,
05:14
the blockchainblockchain simplyegyszerűen
substitutespóttagok for trustbizalom in a newúj,
92
302880
3536
hanem a bizalmat helyettesíti,
05:18
even lessKevésbé transparentátlátszó way.
93
306440
2000
új, még kevésbé átlátható formában.
05:21
Or the codekód movementmozgalom.
94
309600
1816
Vagy a programozási mánia.
05:23
I mean, educationoktatás is great,
we love educationoktatás,
95
311440
2176
Persze, az oktatás
nagyszerű és fontos dolog;
05:25
and it's a wonderfulcsodálatos ideaötlet
96
313640
1456
és remek ötlet,
05:27
that we want kidsgyerekek to be ableképes
to get jobsmunkahelyek in the digitaldigitális futurejövő,
97
315120
3136
hogy azért, hogy gyerekeink állást
szerezzenek a digitális jövőben,
05:30
so we'lljól teachtanít them codekód now.
98
318280
1600
már ma programozni tanítjuk őket.
05:32
But sincemivel when is educationoktatás
about gettingszerzés jobsmunkahelyek?
99
320640
2480
De mióta az az oktatás lényege,
hogy munkát kapjunk?
05:35
EducationOktatás wasn'tnem volt about gettingszerzés jobsmunkahelyek.
100
323920
1736
Az oktatás lényege nem ez volt.
05:37
EducationOktatás was compensationkártérítés
for a jobmunka well doneKész.
101
325680
3976
Az oktatás juttatás volt,
amely a jól végzett munkáért járt.
05:41
The ideaötlet of publicnyilvános educationoktatás
102
329680
1576
A közoktatás alapgondolata,
05:43
was for coalszén minersbányászok,
who would work in the coalszén minesbányák all day,
103
331280
3376
hogy szénbányászok
az egész napos munka után hazaérve
05:46
then they'dők azt come home
and they should have the dignityméltóság
104
334680
2576
leülhessenek egy könyvvel,
05:49
to be ableképes to readolvas a novelregény
and understandmegért it.
105
337280
2136
és megértsék, amit olvasnak.
05:51
Or the intelligenceintelligencia to be ableképes
to participaterészt venni in democracydemokrácia.
106
339440
2960
Vagy hogy az értelem
részt vehessen a demokráciában.
05:55
When we make it an extensionkiterjesztés of the jobmunka,
what are we really doing?
107
343200
3216
Amikor az oktatást a munka
kiegészítőjévé tesszük, mit is csinálunk?
05:58
We're just lettingbérbeadása corporationsvállalatoknak really
108
346440
2536
Hagyjuk, hogy vállalatok
másra hárítsák dolgozóik
betanításának költségeit.
06:01
externalizekihelyezés the costköltség
of trainingkiképzés theirazok workersmunkások.
109
349000
3120
06:05
And the worstlegrosszabb of all really
is the humanehumánus technologytechnológia movementmozgalom.
110
353520
4096
Mind közül a legrosszabb pedig
az emberarcú technológia mozgalma.
06:09
I mean, I love these guys,
the formerkorábbi guys who used to take
111
357640
2816
Imádom ezeket a srácokat,
06:12
the algorithmsalgoritmusok from
LasLas VegasVegas slotslot machinesgépek
112
360480
2936
akik hajdan fogták a Las Vegas-i
nyerőgépek algoritmusait
06:15
and put them in our socialtársadalmi mediamédia feedtakarmány
so that we get addictedrabja.
113
363440
2936
és rájuk építették a közösségi médiát,
hogy függővé váljunk.
06:18
Now they'veők már seenlátott the errorhiba of theirazok waysmódokon
114
366400
1936
Mára belátták: helytelenül cselekedtek,
06:20
and they want to make
technologytechnológia more humanehumánus.
115
368360
2456
és emberarcúbbá akarják tenni
a technológiát.
06:22
But when I hearhall the expressionkifejezés
"humanehumánus technologytechnológia,"
116
370840
2416
Ám valahányszor ezt a kifejezést hallom,
06:25
I think about cage-freekalitka-szabad
chickenscsirkék or something.
117
373280
2856
a szabadon tartott csirkék
vagy effélék jutnak eszembe.
06:28
We're going to be as humanehumánus
as possiblelehetséges to them,
118
376160
2256
A lehető legemberségesebben bánunk velük,
06:30
untilamíg we take them to the slaughtervágás.
119
378440
1720
míg végül levágjuk őket.
06:33
So now they're going to let these
technologiestechnológiák be as humanehumánus as possiblelehetséges,
120
381200
3416
Most tehát a lehető legemberibbé
teszik e technológiákat,
06:36
as long as they extractkivonat enoughelég dataadat
and extractkivonat enoughelég moneypénz from us
121
384640
3216
amíg elég adatot
és pénzt szednek ki belőlünk,
06:39
to please theirazok shareholdersrészvényesek.
122
387880
1400
a részvényeseik örömére.
06:42
MeanwhileKözben, the shareholdersrészvényesek,
for theirazok partrész, they're just thinkinggondolkodás,
123
390520
3176
Mindeközben a részvényesek
arra gondolnak:
06:45
"I need to earnkeresni enoughelég moneypénz now,
so I can insulateszigetel myselfmagamat
124
393720
2976
"Elég pénzt kell összeszednem,
hogy elzárjam magam a világtól,
06:48
from the worldvilág I'm creatinglétrehozása
by earningkereső moneypénz in this way."
125
396720
3056
amelyet azzal teremtek,
hogy ily módon keresek pénzt."
06:51
(LaughterNevetés)
126
399800
2376
(Nevetés)
06:54
No matterügy how manysok VRVR gogglesvédőszemüveg
they slapcsapás on theirazok facesarcok
127
402200
4056
Akárhány VR-szemüveget tesznek fel,
06:58
and whatevertök mindegy fantasyfantázia worldvilág they go into,
128
406280
2256
akármilyen fantáziavilágba
vonulnak vissza,
07:00
they can't externalizekihelyezés the slaveryrabszolgaság
and pollutionkörnyezetszennyezés that was causedokozott
129
408560
3536
nem szabadulhatnak a tudattól,
hogy mennyi rabszolgamunkába
07:04
throughkeresztül the manufacturegyártás
of the very deviceeszköz.
130
412120
2976
és szennyezésbe került épp ennek
az eszköznek az elkészítése.
07:07
It remindsemlékezteti me of
ThomasThomas Jefferson'sJefferson dumbwaiterdumbpincér.
131
415120
3176
Thomas Jefferson ételliftje
jut erről eszembe.
07:10
Now, we like to think
that he madekészült the dumbwaiterdumbpincér
132
418320
2336
Hajlamosak vagyunk elhinni:
azért használt ételliftet,
07:12
in ordersorrend to sparetartalék his slavesrabszolgák
all that labormunkaerő of carryingszállítás the foodélelmiszer
133
420680
3656
hogy megspórolja rabszolgáinak a munkát,
07:16
up to the diningétkező roomszoba
for the people to eateszik.
134
424360
2776
amit az ételek emeletre hordása jelentett.
07:19
That's not what it was for,
it wasn'tnem volt for the slavesrabszolgák,
135
427160
2496
Ám az étellift nem
a rabszolgák javát szolgálta.
07:21
it was for ThomasThomas JeffersonJefferson
and his dinnervacsora guestsvendég,
136
429680
2336
Hanem Jefferson és a vendégei javát,
07:24
so they didn't have to see the slaverabszolga
bringingfűződő the foodélelmiszer up.
137
432040
3096
hogy ne kelljen találkozniuk
az ételt felhordó rabszolgával.
07:27
The foodélelmiszer just arrivedmegérkezett magicallyvarázslatosan,
138
435160
1576
Az étel csak úgy előttük termett,
07:28
like it was comingeljövetel out
of a "StartStart TrekTrek" replicatorreplikátor.
139
436760
3000
mintha valami Star Trek
replikátorból került volna ki.
07:32
It's partrész of an ethosETHOS that saysmondja,
140
440720
2096
Olyan világkép része ez,
amely azt mondja,
07:34
humanemberi beingslények are the problemprobléma
and technologytechnológia is the solutionmegoldás.
141
442840
4280
az emberek jelentik problémát,
a technológia pedig a megoldás.
07:40
We can't think that way anymoretöbbé.
142
448680
2056
Nem gondolkodhatunk továbbra is így.
07:42
We have to stop usinghasználva technologytechnológia
to optimizeoptimalizálása humanemberi beingslények for the marketpiac
143
450760
5296
Nem használhatjuk a technológiát arra,
hogy embereket optimalizáljunk a piacra,
07:48
and startRajt optimizingoptimalizálása technologytechnológia
for the humanemberi futurejövő.
144
456080
5040
ehelyett a technológiát kell
optimalizálnunk az emberi jövőre.
07:55
But that's a really hardkemény argumentérv
to make these daysnapok,
145
463080
2656
Ám ezt az érvelést nem könnyű
manapság elfogadtatni,
07:57
because humansemberek are not popularnépszerű beingslények.
146
465760
4056
mert az emberek nem valami
népszerű lények.
08:01
I talkedbeszélt about this in frontelülső
of an environmentalistkörnyezetvédő just the other day,
147
469840
3376
Beszéltem erről a minap
egy környezetvédőnek,
08:05
and she said, "Why are you
defendingvédekezés humansemberek?
148
473240
2096
aki azt mondta:
"Miért véded az embereket?
08:07
HumansEmberek destroyedelpusztított the planetbolygó.
They deservemegérdemel to go extinctkihalt."
149
475360
2696
Elpusztították a bolygót,
megérdemlik, hogy kihaljanak."
08:10
(LaughterNevetés)
150
478080
3456
(Nevetés)
08:13
Even our popularnépszerű mediamédia hatesHates humansemberek.
151
481560
2576
Még a szórakoztató média
is gyűlöli az embereket.
08:16
Watch televisiontelevízió,
152
484160
1256
Nézzék, mi megy a tévében:
08:17
all the sci-fiSci-Fi showsműsorok are about how robotsrobotok
are better and nicerszebb than people.
153
485440
3736
az összes sci-fi arról szól, hogy a
robotok jobbak, kedvesebbek az embernél.
08:21
Even zombiezombi showsműsorok --
what is everyminden zombiezombi showelőadás about?
154
489200
2976
Még a zombis filmek is – miről szól
az összes zombis film?
08:24
Some personszemély, looking at the horizonhorizont
at some zombiezombi going by,
155
492200
3256
Van benne egy ember, aki valami
távolban elhaladó zombit néz,
08:27
and they zoomzoomolás in on the personszemély
and you see the person'sszemély facearc,
156
495480
2896
aztán a kamera ráközelít az ember arcára,
08:30
and you know what they're thinkinggondolkodás:
157
498400
1736
és tudjuk, mire gondol az illető:
08:32
"What's really the differencekülönbség
betweenközött that zombiezombi and me?
158
500160
2736
"Végül is mi különböztet meg
engem egy zombitól?
08:34
He walkssétál, I walkséta.
159
502920
1536
Ő jár, én is járok.
08:36
He eatseszik, I eateszik.
160
504480
2016
Táplálkozik, én is táplálkozom.
08:38
He killsöl, I killmegöl."
161
506520
2280
Öl, és én is ölök."
08:42
But he's a zombiezombi.
162
510360
1536
De ő zombi.
08:43
At leastlegkevésbé you're awaretudatában van of it.
163
511920
1416
Legalább ez világos.
08:45
If we are actuallytulajdonképpen havingamelynek troublebaj
distinguishingmegkülönböztető ourselvesminket from zombieszombik,
164
513360
3696
Ha tényleg nehezen tudjuk magunkat
megkülönböztetni a zombiktól,
08:49
we have a prettyszép bignagy problemprobléma going on.
165
517080
2176
elég nagy bajban vagyunk.
08:51
(LaughterNevetés)
166
519280
1216
(Nevetés)
08:52
And don't even get me startedindult
on the transhumanistsTranszhumanisták.
167
520520
2936
A transzhumanistákat meg
inkább ne is említsék előttem.
08:55
I was on a panelpanel with a transhumanisttranszhumanista,
and he's going on about the singularitykülönösség.
168
523480
3816
Voltam egy panelbeszélgetésen eggyel,
aki folyton a szingularitást emlegette.
08:59
"Oh, the day is going to come really soonhamar
when computersszámítógépek are smarterintelligensebb than people.
169
527320
3856
"Hamarosan eljön a nap, amikor a gépek
okosabbak lesznek az embereknél.
09:03
And the only optionválasztási lehetőség
for people at that pointpont
170
531200
2136
Az emberek számára akkor
egy lehetőség marad:
09:05
is to passelhalad the evolutionaryevolúciós torchfáklya
to our successorutód
171
533360
3336
továbbadni az evolúciós
fáklyát utódainknak,
09:08
and fadeáttűnés into the backgroundháttér.
172
536720
1616
és háttérbe húzódni.
09:10
Maybe at bestlegjobb, uploadfeltölt
your consciousnessöntudat to a siliconszilícium chipcsip.
173
538360
3456
Legjobb esetben feltölteni
tudatunkat egy mikrocsipre.
09:13
And acceptelfogad your extinctionkihalás."
174
541840
1840
És elfogadni, hogy kihalunk."
09:16
(LaughterNevetés)
175
544640
1456
(Nevetés)
09:18
And I said, "No, humanemberi beingslények are specialkülönleges.
176
546120
3376
Én pedig erre: "Nem,
az emberek különlegesek.
09:21
We can embraceölelés ambiguitykétértelműség,
we understandmegért paradoxparadoxon,
177
549520
3536
Képesek vagyunk elfogadni
a kétértelműséget, értjük a paradoxonokat,
09:25
we're conscioustudatos,
we're weirdfurcsa, we're quirkymókás.
178
553080
2616
tudatunk van, furák s bonyolultak vagyunk.
09:27
There should be a placehely for humansemberek
in the digitaldigitális futurejövő."
179
555720
3336
Kell legyen helye az embereknek
a digitális jövőben."
09:31
And he said, "Oh, RushkoffRushkoff,
180
559080
1536
Mire ő: "Ugyan már, Rushkoff,
09:32
you're just sayingmondás that
because you're a humanemberi."
181
560640
2296
csak azért mondod ezt,
mert te is ember vagy."
09:34
(LaughterNevetés)
182
562960
1776
(Nevetés)
09:36
As if it's hubrisarrogancia.
183
564760
1600
Mintha ez önhittség lenne.
09:39
OK, I'm on "TeamCsapat HumanEmberi."
184
567280
2800
Igen, én az emberek csapatában játszom.
09:43
That was the originaleredeti insightbepillantás
of the digitaldigitális agekor.
185
571200
3856
Ez volt a digitális kor eredeti meglátása:
09:47
That beinglény humanemberi is a teamcsapat sportSport,
186
575080
2216
embernek lenni csapatjáték,
09:49
evolution'sEvolution a collaborativeegyüttműködő acttörvény.
187
577320
2736
az evolúció pedig összefogáson alapul.
09:52
Even the treesfák in the foresterdő,
188
580080
1416
Még az erdő fái
09:53
they're not all in competitionverseny
with eachminden egyes other,
189
581520
2216
sem versengenek egymással,
hanem gyökerek és gombák
hatalmas hálózata köti őket össze,
09:55
they're connectedcsatlakoztatva with the vasthatalmas
networkhálózat of rootsgyökerek and mushroomsgomba
190
583760
3216
09:59
that let them communicatekommunikálni with one anotheregy másik
and passelhalad nutrientstápanyagok back and forthtovább.
191
587000
4536
amelyek segítségével táplálják egymást.
10:03
If humanemberi beingslények
are the mosta legtöbb evolvedfejlődött speciesfaj,
192
591560
2136
Ha az ember a legfejlettebb faj,
10:05
it's because we have the mosta legtöbb evolvedfejlődött
waysmódokon of collaboratingegyüttműködés and communicatingközlekedő.
193
593720
4136
annak oka, hogy a mi kommunikációs
technológiánk a legfejlettebb.
10:09
We have languagenyelv.
194
597880
1496
Nyelvhasználók vagyunk.
10:11
We have technologytechnológia.
195
599400
1240
Technológiát használunk.
10:14
It's funnyvicces, I used to be the guy
who talkedbeszélt about the digitaldigitális futurejövő
196
602120
4576
Fura, korábban én voltam az,
aki a digitális jövőről beszélt azoknak,
10:18
for people who hadn'tnem volt yetmég
experiencedtapasztalt anything digitaldigitális.
197
606720
2680
akik korábban nem tapasztalták meg
a digitális világot.
10:22
And now I feel like I'm the last guy
198
610200
1816
Most meg úgy érzem, az utolsó vagyok,
10:24
who remembersemlékszik what life was like
before digitaldigitális technologytechnológia.
199
612040
2920
aki még tudja, milyen volt élni
a digitális technológia előtt.
10:28
It's not a matterügy of rejectingelutasító the digitaldigitális
or rejectingelutasító the technologicaltechnikai.
200
616680
4216
Nem a digitális világ vagy a technológia
elutasításáról van szó,
10:32
It's a matterügy of retrievinglekérése the valuesértékeket
that we're in dangerveszély of leavingkilépő behindmögött
201
620920
4096
hanem hogy visszaszerezzük az értékeket,
amelyeket készülünk hátrahagyni,
10:37
and then embeddingbeágyazás them in the digitaldigitális
infrastructureinfrastruktúra for the futurejövő.
202
625040
3600
és a jövő érdekében a digitális
infrastruktúrába ágyazzuk be őket.
10:41
And that's not rocketrakéta sciencetudomány.
203
629880
2296
Nem olyan nagy dolog ez.
10:44
It's as simpleegyszerű as makinggyártás a socialtársadalmi networkhálózat
204
632200
2096
Elég pl. olyan közösségi
hálózatot építeni,
10:46
that insteadhelyette of teachingtanítás us
to see people as adversariesellenfelek,
205
634320
3536
amely nem arra tanítana,
hogy ellenséget lássunk az emberekben,
10:49
it teachestanít us to see
our adversariesellenfelek as people.
206
637880
3000
hanem hogy embernek lássuk
ellenfeleinket.
10:54
It meanseszközök creatinglétrehozása an economygazdaság
that doesn't favorkedveznek a platformemelvény monopolymonopólium
207
642240
4296
Olyan gazdaság építését jelenti ez, amely
nem részesít előnyben egyetlen felületet,
10:58
that wants to extractkivonat all the valueérték
out of people and placeshelyek,
208
646560
3336
amely minden értéket ki akar csikarni
az emberekből és helyekből;
11:01
but one that promoteselősegíti a the circulationkeringés
of valueérték throughkeresztül a communityközösség
209
649920
3936
ehelyett az értékek körforgásának
kedvez a közösségben,
11:05
and allowslehetővé tesz us to establishlétrehozni
platformemelvény cooperativesszövetkezetek
210
653880
2416
és olyan együttműködést tesz lehetővé,
11:08
that distributeterjeszteni ownershiptulajdonjog
as wideszéles as possiblelehetséges.
211
656320
3816
amelyek a lehető legtöbb embert
ruháznak fel tulajdonjoggal.
11:12
It meanseszközök buildingépület platformsállványok
212
660160
1656
Olyan felületek építését jelenti,
11:13
that don't represselfojtani our creativitykreativitás
and noveltyújdonság in the namenév of predictionjóslás
213
661840
4656
amelyek nem nyomják el kreativitásunkat
az előrejelzések kedvéért,
11:18
but actuallytulajdonképpen promotenépszerűsít
creativitykreativitás and noveltyújdonság,
214
666520
2576
hanem valóban elősegítik
a kreativitást és az újítást,
11:21
so that we can come up
with some of the solutionsmegoldások
215
669120
2336
hogy előállhassunk a megoldásokkal,
11:23
to actuallytulajdonképpen get ourselvesminket
out of the messrendetlenség that we're in.
216
671480
2680
amelyek segítenek kimászni
a gödörből, amiben vagyunk.
11:27
No, insteadhelyette of tryingmegpróbálja to earnkeresni
enoughelég moneypénz to insulateszigetel ourselvesminket
217
675440
3056
Ahelyett, hogy megpróbálnánk
eleget keresni,
hogy elzárkózhassunk
a világtól, amelyet teremtünk,
11:30
from the worldvilág we're creatinglétrehozása,
218
678520
1496
11:32
why don't we spendtölt that time and energyenergia
makinggyártás the worldvilág a placehely
219
680040
3056
fordíthatnánk ezt a pénzt
és energiát olyan világ teremtésére,
11:35
that we don't feel
the need to escapemenekülni from.
220
683120
2040
ahonnan nem akarunk
mindenáron elmenekülni.
11:38
There is no escapemenekülni,
there is only one thing going on here.
221
686000
3200
Nincs menekvés, egyetlen dolog zajlik itt.
11:42
Please, don't leaveszabadság.
222
690680
2120
Ne menjenek el!
11:45
JoinCsatlakozzon us.
223
693640
1360
Csatlakozzanak hozzánk!
11:47
We maylehet not be perfecttökéletes,
224
695800
1296
Nem vagyunk tökéletesek,
11:49
but whatevertök mindegy happensmegtörténik,
at leastlegkevésbé you won'tszokás be aloneegyedül.
225
697120
2440
de bármi történjék is,
velünk nem lesznek egyedül.
11:52
JoinCsatlakozzon "TeamCsapat HumanEmberi."
226
700640
1520
Játsszanak az emberi csapatban!
11:55
Find the othersmások.
227
703160
2096
Keressék meg a többieket!
11:57
TogetherEgyütt, let's make the futurejövő
that we always wanted.
228
705280
2960
Hozzuk létre együtt a jövőt,
amelyet mindig is akartunk!
12:01
Oh, and those techtech billionairesmilliárdosok
who wanted to know
229
709560
2496
Ami a techmilliárdosokat illeti,
akik tudni akarták,
12:04
how to maintainfenntart controlellenőrzés of theirazok
securityBiztonság forceerő after the apocalypseApokalipszis,
230
712080
3256
hogyan irányítsák biztonsági
embereiket a világvége után,
12:07
you know what I told them?
231
715360
1896
tudják, mit mondtam nekik?
12:09
"StartStart treatingkezelésére those people
with love and respecttisztelet right now.
232
717280
4216
"Kezdjenek velük szeretettel
és tisztelettel bánni, most rögtön.
12:13
Maybe you won'tszokás have
an apocalypseApokalipszis to worryaggodalom about."
233
721520
2440
Akkor talán nem kell
a világvége miatt aggódniuk."
12:16
Thank you.
234
724840
1216
Köszönöm.
12:18
(ApplauseTaps)
235
726080
4440
(Taps)
Translated by Beatrix Turán
Reviewed by Peter Pallós

▲Back to top

ABOUT THE SPEAKER
Douglas Rushkoff - Media theorist, author
Douglas Rushkoff promotes human autonomy in the digital age.

Why you should listen

Douglas Rushkoff coined such expressions as "viral media," "digital natives" and "social currency," and advises governments, communities and businesses on the impact of technology on society's future. Named one of "the world’s ten most influential thinkers" by MIT, Rushkoff won the Marshal McLuhan Award for media writing and the Neil Postman award for Public Intellectual Activity.

Rushkoff hosts the Team Human podcast, made four PBS Frontline documentaries including Generation Like and The Merchants of Cool, and wrote many bestselling books including Team Human, Present Shock, Program or Be Programmed and Throwing Rocks at the Google Bus. He founded the Laboratory for Digital Humanism at CUNY/Queens College, where he is professor of media theory and digital economics.

More profile about the speaker
Douglas Rushkoff | Speaker | TED.com