ABOUT THE SPEAKER
Douglas Rushkoff - Media theorist, author
Douglas Rushkoff promotes human autonomy in the digital age.

Why you should listen

Douglas Rushkoff coined such expressions as "viral media," "digital natives" and "social currency," and advises governments, communities and businesses on the impact of technology on society's future. Named one of "the world’s ten most influential thinkers" by MIT, Rushkoff won the Marshal McLuhan Award for media writing and the Neil Postman award for Public Intellectual Activity.

Rushkoff hosts the Team Human podcast, made four PBS Frontline documentaries including Generation Like and The Merchants of Cool, and wrote many bestselling books including Team Human, Present Shock, Program or Be Programmed and Throwing Rocks at the Google Bus. He founded the Laboratory for Digital Humanism at CUNY/Queens College, where he is professor of media theory and digital economics.

More profile about the speaker
Douglas Rushkoff | Speaker | TED.com
TED Salon Samsung

Douglas Rushkoff: How to be "Team Human" in the digital future

Douglas Rushkoff: Kako biti "Tim ljudi" u digitalnoj budućnosti

Filmed:
1,652,468 views

Ljudi se više ne cijene zbog svoje kreativnosti, kaže medijski teoretičar Douglas Rushkoff - u svijetu kojim dominira digitalna tehnologija, danas nas cijene samo zbog naših podataka. U svom strastvenom govoru, Rushkoff nas poziva da prestanemo tehnologiju koristiti za optimiziranje ljudi za tržište i započnemo je koristiti da bismo stvorili budućnost usredotočenu na naše pre-digitalne vrijednosti povezanosti, kreativnosti i poštovanja. "Pridružite se 'Timu ljudi'. Pronađite druge," kaže on. "Hajdemo zajedno stvoriti budućnost kakvu smo oduvijek željeli."
- Media theorist, author
Douglas Rushkoff promotes human autonomy in the digital age. Full bio

Double-click the English transcript below to play the video.

00:13
I got invitedpozvan to an exclusiveekskluzivan resortpribjeći
0
1520
3880
Bio sam pozvan u jedno
ekskluzivno odmaralište
00:17
to deliverdostaviti a talk about the digitaldigitalni futurebudućnost
1
5440
2456
da održim govor o digitalnoj budućnosti
00:19
to what I assumedpretpostavlja would be
a couplepar of hundredstotina techtech executivesrukovoditelji.
2
7920
3576
za, kako sam ja pretpostavljao,
par stotina tech rukovoditelja.
00:23
And I was there in the greenzelena roomsoba,
waitingčekanje to go on,
3
11520
2696
Nalazio sam se tamo u 'zelenoj sobi'
čekajući da počnem,
00:26
and insteadumjesto of bringingdonošenje me to the stagefaza,
they broughtdonio fivepet menmuškarci into the greenzelena roomsoba
4
14240
5176
no umjesto da me odvedu na binu, doveli su
u 'zelenu sobu' petoricu muškaraca
00:31
who satsat around this little tablestol with me.
5
19440
2056
koji su sjeli sa mnom oko tog malog stola.
00:33
They were techtech billionairesmilijardera.
6
21520
2096
Bili su to tech milijarderi.
00:35
And they startedpočeo pepperingpapar me
with these really binarybinarni questionspitanja,
7
23640
4536
I počeli su me obasipati
tim zaista binarnim pitanjima,
00:40
like: BitcoinBitcoin or EtheriumEterij?
8
28200
2000
kao: Bitcoin ili Etherium?
00:43
VirtualVirtualni realitystvarnost or augmentedprošireni realitystvarnost?
9
31120
2656
Virtualna stvarnost
ili proširena stvarnost?
00:45
I don't know if they were
takinguzimanje betsoklade or what.
10
33800
2496
Ne znam jesu li se kladili ili što?
00:48
And as they got more comfortableudobno with me,
11
36320
2816
I kako su se osjećali
sve slobodniji sa mnom,
00:51
they edgedIvica towardsza
theirnjihov realstvaran questionpitanje of concernbriga.
12
39160
3216
načeli su i pitanje
koje ih je zapravo brinulo.
00:54
AlaskaAljaska or NewNovi ZealandZeland?
13
42400
2240
Aljaska ili Novi Zeland?
00:57
That's right.
14
45760
1216
Točno tako.
Ti tech milijarderi pitali su
medijskog teoretičara za savjet
00:59
These techtech billionairesmilijardera
were askingtraži a mediamedia theoristteoretičar for advicesavjet
15
47000
2976
01:02
on where to put theirnjihov doomsdaySudnji dan bunkersbunkeri.
16
50000
1880
o tome gdje da sagrade
svoje bunkere za sudnji dan.
01:04
We spentpotrošen the restodmor of the hoursat
on the singlesingl questionpitanje:
17
52600
3136
Ostatak tog sata proveli smo
baveći se samo jednim pitanjem:
01:07
"How do I maintainodržavati controlkontrolirati
of my securitysigurnosti staffosoblje
18
55760
3616
"Kako ću održati kontrolu
nad mojim zaštitarima
01:11
after the eventdogađaj?"
19
59400
1320
nakon tog događaja?"
01:13
By "the eventdogađaj" they mean
the thermonucleartermonuklearna warrat
20
61920
2736
Pod "događajem" mislili su
na termonuklearni rat,
klimatsku katastrofu ili društvene nemire
koji će okončati svijet kakav poznajemo
01:16
or climateklima catastrophekatastrofa or socialsocijalni unrestnemira
that endskrajevi the worldsvijet as we know it,
21
64680
4656
01:21
and more importantlyvažnije,
makesmarke theirnjihov moneynovac obsoletezastario.
22
69360
3280
i, što je još važnije,
njihov novac učiniti neupotrebljivim.
01:26
And I couldn'tne mogu help but think:
23
74200
2216
A ja nisam mogao da ne pomislim:
01:28
these are the wealthiestnajbogatijih,
mostnajviše powerfulsnažan menmuškarci in the worldsvijet,
24
76440
4736
ovo su najbogatiji,
najmoćniji ljudi na svijetu,
01:33
yetjoš they see themselvesse as utterlysasvim
powerlessslab to influenceutjecaj the futurebudućnost.
25
81200
4656
a ipak misle da su potpuno nemoćni
da utječu na budućnost.
01:37
The bestnajbolje they can do is hangobjesiti on
for the inevitableneizbježan catastrophekatastrofa
26
85880
4456
Najbolje što mogu je čekati
tu neizbježnu katastrofu
01:42
and then use theirnjihov technologytehnologija and moneynovac
to get away from the restodmor of us.
27
90360
3680
i onda upotrijebiti svoju tehnologiju
i novac kako bi pobjegli od nas ostalih.
01:47
And these are the winnerspobjednici
of the digitaldigitalni economyEkonomija.
28
95520
2536
A to su pobjednici digitalne ekonomije!
01:50
(LaughterSmijeh)
29
98080
3416
(Smijeh)
01:53
The digitaldigitalni renaissancepreporod
30
101520
2776
Digitalna renesansa
01:56
was about the unbridledrazuzdan potentialpotencijal
31
104320
4256
odnosila se na neobuzdani potencijal
02:00
of the collectivekolektivan humanljudski imaginationmašta.
32
108600
2416
kolektivne ljudske imaginacije.
02:03
It spannedtrajala everything
from chaoshaos mathmatematika and quantumkvantni physicsfizika
33
111040
5136
Ona je zahvaćala sve,
od matematike kaosa i kvantne fizike,
02:08
to fantasyfantazija role-playingigranje uloga
and the GaiaGaia hypothesishipoteza, right?
34
116200
4176
do igranja izmišljenih uloga
i hipoteze o Geji, zar ne?
02:12
We believedvjerovao that humanljudski beingsbića connectedpovezan
could createstvoriti any futurebudućnost we could imaginezamisliti.
35
120400
6720
Vjerovali smo da bi
povezana ljudska bića mogla stvoriti
budućnost kakvu god možemo zamisliti.
02:20
And then camedošao the dottočka comcom boomuspon.
36
128840
2199
A onda je došao procvat dot-coma.
02:24
And the digitaldigitalni futurebudućnost
becamepostao stockzaliha futuresbudućnosti.
37
132600
3616
I digitalna budućnost
postala je dionička budućnosnica.
02:28
And we used all that energyenergija
of the digitaldigitalni agedob
38
136240
3016
I svu tu energiju digitalnog doba
iskoristili smo da bismo
02:31
to pumppumpa steroidssteroidi into the alreadyveć dyingumiranje
NASDAQNASDAQ stockzaliha exchangerazmjena.
39
139280
4256
steroidima napumpali već umiruću
burzu dionica NASDAQ.
02:35
The techtech magazinesčasopisi told us
a tsunamicunami was comingdolazak.
40
143560
3616
Tech časopisi rekli su nam
da dolazi tsunami.
02:39
And only the investorsinvestitori who hiredzaposlen
the bestnajbolje scenario-plannersScenaristi and futuristsfuturistima
41
147200
4456
I samo će oni investitori koji zaposle
najbolje planere scenarija i futuriste
02:43
would be ableu stanju to survivepreživjeti the waveval.
42
151680
2520
biti u stanju preživjeti taj val.
02:47
And so the futurebudućnost changedpromijenjen from this thing
we createstvoriti togetherzajedno in the presentpredstaviti
43
155160
5896
I tako se budućnost pretvorila,
iz nečega što stvaramo zajedno
u sadašnjem trenutku,
02:53
to something we betkladiti se on
44
161080
1496
u nešto na što se kladimo,
02:54
in some kindljubazan of a zero-sumnula zbroj
winner-takes-allPobjednik-prima-sve competitionkonkurencija.
45
162600
3200
neku vrsta natjecanja gdje
pobjednik nosi sve, a pobjednika nema.
03:00
And when things get that competitivekonkurentan
about the futurebudućnost,
46
168120
3136
A kada stvari postanu tako kompetitivne
u vezi budućnosti,
03:03
humansljudi are no longerviše valuedcijenjena
for our creativitykreativnost.
47
171280
3296
ljudi se više ne vrednuju
zbog svoje kreativnosti.
03:06
No, now we're just valuedcijenjena for our datapodaci.
48
174600
3136
Ne, danas nas vrednuju
samo zbog naših podataka,
jer te podatke mogu koristiti
za izradu predviđanja.
03:09
Because they can use the datapodaci
to make predictionspredviđanja.
49
177760
2376
03:12
CreativityKreativnost, if anything,
that createsstvara noisebuka.
50
180160
2576
Kreativnost, ako išta, to stvara šum.
03:14
That makesmarke it harderteže to predictpredvidjeti.
51
182760
2216
To otežava predviđanje.
03:17
So we endedzavršeno up with a digitaldigitalni landscapepejzaž
52
185000
2416
Tako smo na koncu
dobili digitalni krajolik
03:19
that really repressedpotisnuti creativitykreativnost,
repressedpotisnuti noveltynovost,
53
187440
3256
koji zaista guši kreativnost,
guši inovativnost,
03:22
it repressedpotisnuti what makesmarke us mostnajviše humanljudski.
54
190720
2840
guši ono što nas najviše čini ljudskima.
03:26
We endedzavršeno up with socialsocijalni mediamedia.
55
194760
1456
Dobili smo društvene medije.
03:28
Does socialsocijalni mediamedia really connectSpojiti people
in newnovi, interestingzanimljiv waysnačine?
56
196240
3456
Povezuju li zaista društveni mediji ljude
na nove, zanimljive načine?
Ne. Društveni mediji koriste naše podatke
za predviđanje našeg budućeg ponašanja
03:31
No, socialsocijalni mediamedia is about usingkoristeći our datapodaci
to predictpredvidjeti our futurebudućnost behaviorponašanje.
57
199720
5016
ili da bi, po potrebi, utjecali
na naše buduće ponašanje,
03:36
Or when necessarypotreban,
to influenceutjecaj our futurebudućnost behaviorponašanje
58
204760
2896
03:39
so that we actčin more in accordanceskladu s
with our statisticalstatistički profilesprofili.
59
207680
4040
kako bismo se ponašali više u skladu
s našim statističkim profilima.
03:45
The digitaldigitalni economyEkonomija --
does it like people?
60
213200
2216
Digitalna ekonomija - voli li ona ljude?
03:47
No, if you have a businessPoslovni planplan,
what are you supposedtrebala to do?
61
215440
2896
Ne. Ako imate poslovni plan,
što se od vas očekuje?
Da se riješite svih ljudi.
03:50
Get ridosloboditi of all the people.
62
218360
1256
Ljudska bića, ona žele zdravstvenu skrb,
žele novac, žele smisao.
03:51
HumanLjudski beingsbića, they want healthzdravlje carebriga,
they want moneynovac, they want meaningznačenje.
63
219640
3400
03:56
You can't scaleljestvica with people.
64
224360
1880
S ljudima ne možete postići rast i profit.
03:59
(LaughterSmijeh)
65
227360
1456
(Smijeh)
Čak i digitalne aplikacije --
04:00
Even our digitaldigitalni appsaplikacije --
66
228840
1216
04:02
they don't help us
formoblik any rapportodnos or solidaritysolidarnost.
67
230080
3216
one nam ne pomažu stvoriti
bilo kakav bliski odnos ili solidarnost.
Mislim, gdje je tipka
u aplikaciji za poziv taksija
04:05
I mean, where'sgdje je the buttondugme
on the ridevožnja hailingzove appapp
68
233320
2416
za vozače, da mogu međusobno razgovarati
o svojim uvjetima rada
04:07
for the driversupravljački programi to talk to one anotherjoš
about theirnjihov workingrad conditionsUvjeti
69
235760
3496
04:11
or to unionizeokupiti?
70
239280
1200
ili se udruživati?
04:13
Even our videoconferencingvideokonferencije toolsalat,
71
241600
2016
Čak i naši alati za video konferencije,
ne omogućuju nam da uspostavimo
stvarno bliski odnos.
04:15
they don't allowdopustiti us
to establishuspostaviti realstvaran rapportodnos.
72
243640
2376
04:18
HoweverMeđutim good the resolutionrezolucija of the videovideo,
73
246040
3336
Koliko god dobra bila rezolucija videa,
04:21
you still can't see if somebody'snetko je irisesPerunika
are openingotvor to really take you in.
74
249400
4016
ipak ne vidite otvaraju li se nečije
zjenice u želji da vas se stvarno shvati.
04:25
All of the things that we'veimamo doneučinio
to establishuspostaviti rapportodnos
75
253440
2576
Sve one stvari koje činimo
da uspostavimo bliski odnos,
04:28
that we'veimamo developedrazvijen over hundredsstotine
of thousandstisuća of yearsgodina of evolutionevolucija,
76
256040
3335
koje smo razvijali stotinama
tisuća godina evolucije, one ne rade.
04:31
they don't work,
77
259399
1217
Ne možete vidjeti je li nečiji dah
usklađen s vašim.
04:32
you can't see if someone'snetko breathdah
is syncingSinkronizaciju up with yourstvoj.
78
260640
3016
Zato se zrcalni neuroni nikada ne pale,
oksitocin nikada ne kola vašim tijelom,
04:35
So the mirrorogledalo neuronsneuroni never firevatra,
the oxytocinoksitocin never goeside throughkroz your bodytijelo,
79
263680
3656
04:39
you never have that experienceiskustvo
of bondingvezivanje with the other humanljudski beingbiće.
80
267360
3240
nikada nemate iskustvo
povezivanja s drugim ljudskim bićem.
04:43
And insteadumjesto, you're left like,
81
271360
1456
Umjesto toga, ostaje vam ono:
04:44
"Well, they agreeddogovoren with me,
but did they really,
82
272840
2256
"Pa, složili su se sa mnom.
A jesu li zaista,
jesu li me zaista shvatili?"
04:47
did they really get me?"
83
275120
1696
04:48
And we don't blamekrivica the technologytehnologija
for that lacknedostatak of fidelityvjernost.
84
276840
3376
I mi ne krivimo tehnologiju
za taj nedostatak vjernosti.
04:52
We blamekrivica the other personosoba.
85
280240
1480
Mi krivimo drugu osobu.
04:55
You know, even the technologiestehnologije
and the digitaldigitalni initiativesinicijative that we have
86
283320
4056
Znate, čak i tehnologije
i digitalne inicijative koje imamo
04:59
to promoteunaprijediti humansljudi,
87
287400
2176
za promoviranje ljudi,
05:01
are intenselyintenzivno anti-humananti-ljudski at the coresrž.
88
289600
2760
snažno su anti-ljudske u srži.
05:05
Think about the blockchainBlockchain.
89
293600
2000
Razmislite o blockchainu.
Blokchain postoji da nam pomogne
imati sjajnu humaniziranu ekonomiju? Ne!
05:08
The blockchainBlockchain is here to help us
have a great humanizedhumanized economyEkonomija? No.
90
296520
3616
05:12
The blockchainBlockchain does not engenderizazvati
trustpovjerenje betweenizmeđu usersKorisnici,
91
300160
2696
Blockchain ne stvara povjerenje
između korisnika.
05:14
the blockchainBlockchain simplyjednostavno
substituteszamjene for trustpovjerenje in a newnovi,
92
302880
3536
Blockchain je jednostavno
zamjena za povjerenje na novi,
05:18
even lessmanje transparenttransparentan way.
93
306440
2000
još manje transparentan način.
05:21
Or the codekodirati movementpokret.
94
309600
1816
Ili pokret za učenje programiranja.
05:23
I mean, educationobrazovanje is great,
we love educationobrazovanje,
95
311440
2176
Mislim, obrazovanje je sjajno,
mi volimo obrazovanje
05:25
and it's a wonderfulpredivan ideaideja
96
313640
1456
i to je prekrasna ideja
05:27
that we want kidsdjeca to be ableu stanju
to get jobsposlovi in the digitaldigitalni futurebudućnost,
97
315120
3136
da želimo da djeca budu u stanju
naći posao u digitalnoj budućnosti,
05:30
so we'lldobro teachučiti them codekodirati now.
98
318280
1600
stoga ćemo ih sada naučiti programirati.
05:32
But sinceod when is educationobrazovanje
about gettinguzimajući jobsposlovi?
99
320640
2480
Ali otkada je svrha obrazovanja
dobivanje posla?
05:35
EducationObrazovanje wasn'tnije about gettinguzimajući jobsposlovi.
100
323920
1736
To nije bila svrha obrazovanja.
05:37
EducationObrazovanje was compensationkompenzacija
for a jobposao well doneučinio.
101
325680
3976
Obrazovanje je bilo kompenzacija
za dobro odrađen posao.
05:41
The ideaideja of publicjavnost educationobrazovanje
102
329680
1576
Zamisao javnog obrazovanja
05:43
was for coalugljen minersRudari,
who would work in the coalugljen minesmine all day,
103
331280
3376
bila je za rudare ugljena,
koji bi po cijeli dan radili u rudniku,
05:46
then they'doni bi come home
and they should have the dignitydostojanstvo
104
334680
2576
a kada bi došli kući
trebali bi imati dostojanstvo
05:49
to be ableu stanju to readčitati a novelroman
and understandrazumjeti it.
105
337280
2136
da mogu čitati roman i razumjeti ga.
05:51
Or the intelligenceinteligencija to be ableu stanju
to participatesudjelovati in democracydemokratija.
106
339440
2960
Ili biti toliko inteligentni
da su sposobni sudjelovati u demokraciji.
05:55
When we make it an extensionnastavak of the jobposao,
what are we really doing?
107
343200
3216
Kada od toga radimo produžetak posla,
što mi ustvari radimo?
05:58
We're just lettingiznajmljivanje corporationskorporacije really
108
346440
2536
Mi zapravo samo puštamo korporacije
06:01
externalizeobjelodani the costcijena
of trainingtrening theirnjihov workersradnici.
109
349000
3120
da na druge prebace
troškove obučavanja svojih radnika.
06:05
And the worstnajgori of all really
is the humanehuman technologytehnologija movementpokret.
110
353520
4096
A zaista najgori od svih je
pokret za humanu tehnologiju.
06:09
I mean, I love these guys,
the formerprijašnji guys who used to take
111
357640
2816
Hoću reći, meni se sviđaju ti momci,
bivši momci koji su znali uzeti
06:12
the algorithmsalgoritmi from
LasLas VegasVegas slotutor machinesstrojevi
112
360480
2936
algoritme iz automata u Las Vegasu
i ugrađivati ih u društvene medije
06:15
and put them in our socialsocijalni mediamedia feedstočna hrana
so that we get addictedovisan.
113
363440
2936
kako bismo postali ovisni o njima.
06:18
Now they'vešto ga do seenvidio the errorgreška of theirnjihov waysnačine
114
366400
1936
Sada uviđaju da su pogriješili
i žele tehnologiju učiniti humanijom.
06:20
and they want to make
technologytehnologija more humanehuman.
115
368360
2456
06:22
But when I hearčuti the expressionizraz
"humanehuman technologytehnologija,"
116
370840
2416
No, kad čujem izraz "humana tehnologija",
06:25
I think about cage-freebez kaveza
chickenskokoši or something.
117
373280
2856
pomislim na nekavezne piliće
ili tako nešto.
Bit ćemo prema njima humani
koliko je god to moguće,
06:28
We're going to be as humanehuman
as possiblemoguće to them,
118
376160
2256
06:30
untildo we take them to the slaughterklanje.
119
378440
1720
sve dok ih ne odvedemo na klanje.
06:33
So now they're going to let these
technologiestehnologije be as humanehuman as possiblemoguće,
120
381200
3416
Tako će oni pustiti da te tehnologije
budu što je moguće humanije,
06:36
as long as they extractekstrakt enoughdovoljno datapodaci
and extractekstrakt enoughdovoljno moneynovac from us
121
384640
3216
sve dok od nas izvlače
dovoljno podataka i dovoljno novca
kako bi usrećili svoje dioničare.
06:39
to please theirnjihov shareholdersdioničari.
122
387880
1400
06:42
MeanwhileU međuvremenu, the shareholdersdioničari,
for theirnjihov partdio, they're just thinkingmišljenje,
123
390520
3176
Dotle dioničari, sa svoje strane,
samo razmišljaju:
"Moram zaraditi dovoljno novca sada
kako bih se izolirao
06:45
"I need to earnzaraditi enoughdovoljno moneynovac now,
so I can insulateizolirati myselfsebe
124
393720
2976
06:48
from the worldsvijet I'm creatingstvaranje
by earningzarada moneynovac in this way."
125
396720
3056
od svijeta koji stvaram
zarađujući novac na ovaj način."
06:51
(LaughterSmijeh)
126
399800
2376
(Smijeh)
06:54
No matterstvar how manymnogi VRVR goggleszaštitne naočale
they slapšamar on theirnjihov faceslica
127
402200
4056
Bez obzira koliko VR naočala
nataknu na lice
06:58
and whateveršto god fantasyfantazija worldsvijet they go into,
128
406280
2256
i u koji god fantastični svijet da ulaze,
07:00
they can't externalizeobjelodani the slaveryropstvo
and pollutionzagađenje that was causedizazvan
129
408560
3536
oni ne mogu na druge prebaciti
ropstvo i zagađenje uzrokovano
07:04
throughkroz the manufactureproizvodnja
of the very deviceuređaj.
130
412120
2976
proizvodnjom samih tih uređaja.
07:07
It remindspodsjeća me of
ThomasThomas Jefferson'sJefferson ' s dumbwaiterotpatke.
131
415120
3176
To me podsjeća na kuhinjsko dizalo
Thomasa Jeffersona.
Mi volimo zamišljati
da je on napravio kuhinjsko dizalo
07:10
Now, we like to think
that he madenapravljen the dumbwaiterotpatke
132
418320
2336
07:12
in ordernarudžba to sparerezervni his slavesroblje
all that laborrad of carryingnošenje the foodhrana
133
420680
3656
kako bi poštedio svoje robove
svog tog truda oko donošenja hrane
07:16
up to the diningblagovaonica roomsoba
for the people to eatjesti.
134
424360
2776
gore u blagovaonicu gdje ljudi jedu.
07:19
That's not what it was for,
it wasn'tnije for the slavesroblje,
135
427160
2496
Nije to bilo zato, nije bilo za robove,
bilo je za Thomasa Jeffersona
i njegove goste,
07:21
it was for ThomasThomas JeffersonJefferson
and his dinnervečera guestsgosti,
136
429680
2336
07:24
so they didn't have to see the slaverob
bringingdonošenje the foodhrana up.
137
432040
3096
kako ne bi morali gledati robove
koji donose hranu.
07:27
The foodhrana just arrivedstigao magicallymagično,
138
435160
1576
Hrana je dolazila magijom,
07:28
like it was comingdolazak out
of a "StartPočetak TrekTrek" replicatorreplikator.
139
436760
3000
kao da izlazi iz replikatora
"Zvjezdanih staza".
07:32
It's partdio of an ethosetos that sayskaže,
140
440720
2096
To je dio etosa koji kaže,
07:34
humanljudski beingsbića are the problemproblem
and technologytehnologija is the solutionriješenje.
141
442840
4280
ljudska bića su problem,
a tehnologija je rješenje.
07:40
We can't think that way anymoreviše.
142
448680
2056
Ne možemo više razmišljati na taj način.
07:42
We have to stop usingkoristeći technologytehnologija
to optimizeoptimizirati humanljudski beingsbića for the markettržište
143
450760
5296
Moramo prestati koristiti tehnologiju
za optimiziranje ljudskih bića za tržište
07:48
and startpočetak optimizingOptimiziranje technologytehnologija
for the humanljudski futurebudućnost.
144
456080
5040
i početi optimizirati tehnologiju
za budućnost ljudi.
07:55
But that's a really hardteško argumentargument
to make these daysdana,
145
463080
2656
Ali to je zaista težak argument
u današnje vrijeme,
07:57
because humansljudi are not popularpopularan beingsbića.
146
465760
4056
zato jer ljudi više nisu popularna bića.
08:01
I talkedRazgovarao about this in frontispred
of an environmentaliststručnjak za pitanja čovjekove sredine just the other day,
147
469840
3376
Neki dan sam o tome govorio
pred jednom aktivisticom za okoliš,
a ona je rekla, "Zašto branite ljude?
Ljudi su uništili planet.
08:05
and she said, "Why are you
defendingu obrani humansljudi?
148
473240
2096
08:07
HumansLjudi destroyeduništen the planetplaneta.
They deservezaslužiti to go extinctizumro."
149
475360
2696
Zaslužuju da izumru."
08:10
(LaughterSmijeh)
150
478080
3456
(Smijeh)
08:13
Even our popularpopularan mediamedia hatesmržnje humansljudi.
151
481560
2576
Čak i naši popularni mediji mrze ljude.
Gledajte televiziju,
08:16
Watch televisiontelevizija,
152
484160
1256
svi SF filmovi su o tome kako su roboti
bolji i ljubazniji od ljudi.
08:17
all the sci-fiSci-Fi showspokazuje are about how robotsroboti
are better and nicerljepše than people.
153
485440
3736
08:21
Even zombiezombi showspokazuje --
what is everysvaki zombiezombi showpokazati about?
154
489200
2976
Čak i filmovi o zombijima --
o čemu je svaki film o zombijima?
08:24
Some personosoba, looking at the horizonhorizont
at some zombiezombi going by,
155
492200
3256
Netko promatra nekog zombija
koji se pojavljuje na horizontu
08:27
and they zoomzum in on the personosoba
and you see the person'sosobe facelice,
156
495480
2896
i onda zumiraju na osobu,
vi vidite lice te osobe
08:30
and you know what they're thinkingmišljenje:
157
498400
1736
i znate o čemu razmišlja:
"U čemu je zapravo razlika
između tog zombija i mene?
08:32
"What's really the differencerazlika
betweenizmeđu that zombiezombi and me?
158
500160
2736
On hoda, ja hodam.
08:34
He walksšetnje, I walkhodati.
159
502920
1536
08:36
He eatsjede, I eatjesti.
160
504480
2016
On jede, ja jedem.
08:38
He killsubija, I killubiti."
161
506520
2280
On ubija, ja ubijam."
08:42
But he's a zombiezombi.
162
510360
1536
Ali on je zombi.
08:43
At leastnajmanje you're awaresvjestan of it.
163
511920
1416
Bar ste toga svjesni.
08:45
If we are actuallyzapravo havingima troublenevolja
distinguishingrazlikovanje ourselvessebe from zombieszombiji,
164
513360
3696
Ako nam je zaista teško
razlikovati sebe od zombija,
08:49
we have a prettyprilično bigvelika problemproblem going on.
165
517080
2176
onda je to prilično veliki problem.
08:51
(LaughterSmijeh)
166
519280
1216
(Smijeh)
08:52
And don't even get me startedpočeo
on the transhumaniststranshumanists.
167
520520
2936
I samo nemojte da počnem
o transhumanistima.
Bio sam na panel diskusiji s jednim
od njih koji je pričao o singularitetu.
08:55
I was on a panelploča with a transhumanisttranshumanist,
and he's going on about the singularityjedinstvenost.
168
523480
3816
08:59
"Oh, the day is going to come really soonuskoro
when computersračunala are smarterpametnije than people.
169
527320
3856
"Oh, vrlo skoro doći će dan
kad će računala biti pametnija od ljudi.
I jedina opcija za ljude u tom času
09:03
And the only optionopcija
for people at that pointtočka
170
531200
2136
09:05
is to passproći the evolutionaryevolucioni torchbaklja
to our successornasljednik
171
533360
3336
je da evolucijsku baklju predaju
našem nasljedniku
09:08
and fadeuvenuti into the backgroundpozadina.
172
536720
1616
i izgube se u pozadini.
09:10
Maybe at bestnajbolje, uploadUčitaj
your consciousnesssvijest to a siliconsilicij chipčip.
173
538360
3456
U najboljem slučaju, da svoju svijest
prenesu na silikonski čip.
09:13
And acceptprihvatiti your extinctionizumiranje."
174
541840
1840
I prihvate svoje izumiranje."
09:16
(LaughterSmijeh)
175
544640
1456
(Smijeh)
09:18
And I said, "No, humanljudski beingsbića are specialposeban.
176
546120
3376
A ja sam rekao,
"Ne, ljudska bića su posebna.
09:21
We can embracezagrljaj ambiguitydvosmislenost,
we understandrazumjeti paradoxparadoks,
177
549520
3536
Mi možemo prihvatiti višeznačnost,
mi razumijemo proturječje,
09:25
we're conscioussvjestan,
we're weirdčudan, we're quirkyigra riječima.
178
553080
2616
mi smo svjesni, mi smo čudni,
mi smo osebujni.
09:27
There should be a placemjesto for humansljudi
in the digitaldigitalni futurebudućnost."
179
555720
3336
Moralo bi postajati mjesto za ljude
u digitalnoj budućnosti."
09:31
And he said, "Oh, RushkoffRushkoff,
180
559080
1536
A on je rekao, "Oh, Rushkoff,
09:32
you're just sayingizreka that
because you're a humanljudski."
181
560640
2296
ti to govoriš samo zato
jer si ljudsko biće."
09:34
(LaughterSmijeh)
182
562960
1776
(Smijeh)
09:36
As if it's hubrisoholost.
183
564760
1600
Kao da je to oholost.
09:39
OK, I'm on "TeamTim HumanLjudski."
184
567280
2800
U redu, ja sam u "Team Human".
09:43
That was the originalizvornik insightuvid
of the digitaldigitalni agedob.
185
571200
3856
To je bio originalni uvid
u digitalno doba,
09:47
That beingbiće humanljudski is a teamtim sportsport,
186
575080
2216
da je biti čovjek timski sport,
09:49
evolution'sEvolucija je a collaborativekolaborativni actčin.
187
577320
2736
kolaborativno djelo evolucije.
Čak i stabla u šumi,
09:52
Even the treesstabla in the forestšuma,
188
580080
1416
ona se ne natječu jedno s drugim,
09:53
they're not all in competitionkonkurencija
with eachsvaki other,
189
581520
2216
ona su povezana golemom mrežom
korijenja i gljiva koja im omogućava
09:55
they're connectedpovezan with the vastogroman
networkmreža of rootskorijenje and mushroomsgljive
190
583760
3216
09:59
that let them communicatekomunicirati with one anotherjoš
and passproći nutrientshranjive tvari back and forthdalje.
191
587000
4536
međusobnu komunikaciju i prijenos
hranjivih tvari od jednog do drugog.
Ako su ljudska bića najrazvijenija vrsta,
10:03
If humanljudski beingsbića
are the mostnajviše evolvedrazvio speciesvrsta,
192
591560
2136
to je zato jer mi imamo najrazvijenije
načine suradnje i komuniciranja.
10:05
it's because we have the mostnajviše evolvedrazvio
waysnačine of collaboratingu suradnji and communicatingkomuniciranje.
193
593720
4136
Mi imamo jezik.
10:09
We have languagejezik.
194
597880
1496
10:11
We have technologytehnologija.
195
599400
1240
Mi imamo tehnologiju.
10:14
It's funnysmiješno, I used to be the guy
who talkedRazgovarao about the digitaldigitalni futurebudućnost
196
602120
4576
To je čudno, ja sam nekad bio taj
koji je govorio o digitalnoj budućnosti
10:18
for people who hadn'tnije yetjoš
experiencediskusan anything digitaldigitalni.
197
606720
2680
ljudima koji još nisu imali
nikakvog iskustva s digitalnim.
A sada se osjećam kao da sam ja posljednji
10:22
And now I feel like I'm the last guy
198
610200
1816
10:24
who rememberspamti what life was like
before digitaldigitalni technologytehnologija.
199
612040
2920
koji se sjeća kako je izgledao život
prije digitalne tehnologije.
10:28
It's not a matterstvar of rejectingodbacujući the digitaldigitalni
or rejectingodbacujući the technologicaltehnološki.
200
616680
4216
Nije stvar u odbacivanju digitalnog
ili odbacivanju tehnologije.
10:32
It's a matterstvar of retrievingDohvaćanje the valuesvrijednosti
that we're in dangeropasnost of leavingnapuštanje behindiza
201
620920
4096
Stvar je u obnavljanju vrijednosti
koje su u opasnosti da ih napustimo
10:37
and then embeddingugradnja them in the digitaldigitalni
infrastructureinfrastruktura for the futurebudućnost.
202
625040
3600
i da ih uklopimo u digitalnu
infrastrukturu budućnosti.
A to nije neka velika mudrost.
10:41
And that's not rocketraketa scienceznanost.
203
629880
2296
To je jednostavno kao
stvaranje društvene mreže
10:44
It's as simplejednostavan as makingizrađivanje a socialsocijalni networkmreža
204
632200
2096
10:46
that insteadumjesto of teachingnastava us
to see people as adversariesprotivnici,
205
634320
3536
koja umjesto da nas uči
gledati na ljude kao na suparnike,
10:49
it teachesuči us to see
our adversariesprotivnici as people.
206
637880
3000
uči nas da na suparnike
gledamo kao na ljude.
10:54
It meanssredstva creatingstvaranje an economyEkonomija
that doesn't favormilost a platformplatforma monopolymonopol
207
642240
4296
To znači stvaranje ekonomije
koja ne pogoduje platformi monopola
10:58
that wants to extractekstrakt all the valuevrijednost
out of people and placesmjesta,
208
646560
3336
koja želi izvući svu vrijednost
iz ljudi i mjesta,
11:01
but one that promotespromiče the circulationCirkulacija
of valuevrijednost throughkroz a communityzajednica
209
649920
3936
nego koja promovira
optjecaj vrijednosti unutar zajednice
11:05
and allowsomogućuje us to establishuspostaviti
platformplatforma cooperativesZadruge
210
653880
2416
i omogućava stvaranje
kooperativnih platformi
11:08
that distributeraspodijeliti ownershipvlasništvo
as wideširok as possiblemoguće.
211
656320
3816
koje distribuiraju vlasništvo
što je moguće šire.
11:12
It meanssredstva buildingzgrada platformsplatforme
212
660160
1656
To znači stvaranje platformi
11:13
that don't represspotisnuti our creativitykreativnost
and noveltynovost in the nameime of predictionproricanje
213
661840
4656
koje ne potiskuju našu kreativnost
i inovativnost u ime predviđanja,
11:18
but actuallyzapravo promoteunaprijediti
creativitykreativnost and noveltynovost,
214
666520
2576
nego zapravo promoviraju
kreativnost i inovativnost
11:21
so that we can come up
with some of the solutionsrješenja
215
669120
2336
kako bismo mogli osmisliti neka rješenja
11:23
to actuallyzapravo get ourselvessebe
out of the messnered that we're in.
216
671480
2680
da se izvučemo iz zbrke
u kojoj se nalazimo.
11:27
No, insteadumjesto of tryingtežak to earnzaraditi
enoughdovoljno moneynovac to insulateizolirati ourselvessebe
217
675440
3056
Ne, umjesto pokušavanja da
zaradimo dovoljno novca
kako bismo se izolirali
od svijeta koji stvaramo,
11:30
from the worldsvijet we're creatingstvaranje,
218
678520
1496
11:32
why don't we spendprovesti that time and energyenergija
makingizrađivanje the worldsvijet a placemjesto
219
680040
3056
zašto ne utrošiti to vrijeme i energiju
da svijet učinimo mjestom
11:35
that we don't feel
the need to escapepobjeći from.
220
683120
2040
iz kojeg ne bismo imali potrebu bježati?
11:38
There is no escapepobjeći,
there is only one thing going on here.
221
686000
3200
Ne može se pobjeći,
ovdje se događa samo jedna stvar.
11:42
Please, don't leavenapustiti.
222
690680
2120
Molim vas, ne odlazite.
11:45
JoinPridružite se us.
223
693640
1360
Pridružite nam se.
11:47
We maysvibanj not be perfectsavršen,
224
695800
1296
Mi možda nismo savršeni,
11:49
but whateveršto god happensdogađa se,
at leastnajmanje you won'tnavika be alonesam.
225
697120
2440
no štogod da se dogodi,
bar nećete biti sami.
11:52
JoinPridružite se "TeamTim HumanLjudski."
226
700640
1520
Pridružite se "Timu ljudi".
11:55
Find the othersdrugi.
227
703160
2096
Pronađite druge.
11:57
TogetherZajedno, let's make the futurebudućnost
that we always wanted.
228
705280
2960
Hajde da zajedno stvorimo budućnost
kakvu smo oduvijek željeli.
12:01
Oh, and those techtech billionairesmilijardera
who wanted to know
229
709560
2496
A ti tech milijarderi
koji su željeli saznati
12:04
how to maintainodržavati controlkontrolirati of theirnjihov
securitysigurnosti forcesila after the apocalypseApokalipsa,
230
712080
3256
kako održati kontrolu nad svojim
zaštitarima nakon apokalipse,
12:07
you know what I told them?
231
715360
1896
znate li što sam im rekao?
12:09
"StartPočetak treatingtretiranje those people
with love and respectpoštovanje right now.
232
717280
4216
"Počnite odmah sada tretirati te ljude
s ljubavlju i poštovanjem.
12:13
Maybe you won'tnavika have
an apocalypseApokalipsa to worrybrinuti about."
233
721520
2440
Možda tada nećete
morati brinuti o apokalipsi."
12:16
Thank you.
234
724840
1216
Hvala.
12:18
(ApplausePljesak)
235
726080
4440
(Pljesak)
Translated by Djurdjica Ercegovac
Reviewed by Sanda Liker

▲Back to top

ABOUT THE SPEAKER
Douglas Rushkoff - Media theorist, author
Douglas Rushkoff promotes human autonomy in the digital age.

Why you should listen

Douglas Rushkoff coined such expressions as "viral media," "digital natives" and "social currency," and advises governments, communities and businesses on the impact of technology on society's future. Named one of "the world’s ten most influential thinkers" by MIT, Rushkoff won the Marshal McLuhan Award for media writing and the Neil Postman award for Public Intellectual Activity.

Rushkoff hosts the Team Human podcast, made four PBS Frontline documentaries including Generation Like and The Merchants of Cool, and wrote many bestselling books including Team Human, Present Shock, Program or Be Programmed and Throwing Rocks at the Google Bus. He founded the Laboratory for Digital Humanism at CUNY/Queens College, where he is professor of media theory and digital economics.

More profile about the speaker
Douglas Rushkoff | Speaker | TED.com