ABOUT THE SPEAKER
Douglas Rushkoff - Media theorist, author
Douglas Rushkoff promotes human autonomy in the digital age.

Why you should listen

Douglas Rushkoff coined such expressions as "viral media," "digital natives" and "social currency," and advises governments, communities and businesses on the impact of technology on society's future. Named one of "the world’s ten most influential thinkers" by MIT, Rushkoff won the Marshal McLuhan Award for media writing and the Neil Postman award for Public Intellectual Activity.

Rushkoff hosts the Team Human podcast, made four PBS Frontline documentaries including Generation Like and The Merchants of Cool, and wrote many bestselling books including Team Human, Present Shock, Program or Be Programmed and Throwing Rocks at the Google Bus. He founded the Laboratory for Digital Humanism at CUNY/Queens College, where he is professor of media theory and digital economics.

More profile about the speaker
Douglas Rushkoff | Speaker | TED.com
TED Salon Samsung

Douglas Rushkoff: How to be "Team Human" in the digital future

Douglas Rushkoff: Comment faire partie de « l'équipe humaine » dans un avenir numérique ?

Filmed:
1,652,468 views

Douglas Rushkoff est un théoricien spécialisé dans les médias. Il pense que les humains ne sont plus valorisés pour leur créativité. Dans un monde dominé par la technologie numérique, dit-il, nous sommes évalués pour les données que nous générons. Dans un récit enflammé, il nous invite urgemment à cesser d'utiliser la technologie pour optimiser les hommes pour les marchés et à l'utiliser pour construire un avenir centré autours de valeurs de connexions pré-numériques, de créativité et de respect. Rejoignez « l'équipe humaine » et retrouvez l'autre : « Ensemble, façonnons l'avenir dont nous avons toujours rêvé. »
- Media theorist, author
Douglas Rushkoff promotes human autonomy in the digital age. Full bio

Double-click the English transcript below to play the video.

00:13
I got invitedinvité to an exclusiveexclusif resortrecours
0
1520
3880
On m'a invité dans un centre
de villégiature luxueux
pour réaliser une intervention
sur l'avenir numérique.
00:17
to deliverlivrer a talk about the digitalnumérique futureavenir
1
5440
2456
00:19
to what I assumedsupposé would be
a couplecouple of hundredcent techtechnologie executivescadres supérieurs.
2
7920
3576
Je pensais trouver dans l'audience
quelques centaines de dirigeants.
00:23
And I was there in the greenvert roomchambre,
waitingattendre to go on,
3
11520
2696
Je patientais dans ma loge, prêt,
00:26
and insteadau lieu of bringingapportant me to the stageétape,
they broughtapporté fivecinq menHommes into the greenvert roomchambre
4
14240
5176
mais au lieu de m'emmener sur une scène,
on a invité cinq hommes dans ma loge
et ils se sont mis à l'aise
dans cet espace confiné.
00:31
who satsam around this little tabletable with me.
5
19440
2056
00:33
They were techtechnologie billionairesmilliardaires.
6
21520
2096
Cinq milliardaires de la high-tech.
00:35
And they startedcommencé pepperingêtre enraciné me
with these really binarybinaire questionsdes questions,
7
23640
4536
Ils ont ouvert le débat
en m'assaillant des questions binaires
00:40
like: BitcoinBitcoin or EtheriumEtherium?
8
28200
2000
comme : Bitcoin ou Etherium ?
00:43
VirtualVirtuel realityréalité or augmentedaugmenté realityréalité?
9
31120
2656
Réalité virtuelle ou réalité augmentée ?
00:45
I don't know if they were
takingprise betsParis or what.
10
33800
2496
Je me demande s'ils avaient
parié sur les réponses.
00:48
And as they got more comfortableconfortable with me,
11
36320
2816
Au fur et à mesure qu'ils se
sentaient plus à l'aise avec moi,
00:51
they edgedtranchant towardsvers
theirleur realréal questionquestion of concernpréoccupation.
12
39160
3216
ils ont abordé le sujet
qui les intéressait vraiment :
00:54
AlaskaAlaska or NewNouveau ZealandZélande?
13
42400
2240
l'Alaska ou la Nouvelle Zélande ?
00:57
That's right.
14
45760
1216
Exact.
Ces milliardaires demandaient conseil
à un théoricien des médias
00:59
These techtechnologie billionairesmilliardaires
were askingdemandant a mediamédias theoristthéoricien for adviceConseil
15
47000
2976
01:02
on where to put theirleur doomsdayfin du monde bunkersbunkers.
16
50000
1880
sur quel lieu choisir pour établir
leur bunker de survie.
01:04
We spentdépensé the restdu repos of the hourheure
on the singleunique questionquestion:
17
52600
3136
On a tergiversé une heure
sur la seule question :
01:07
"How do I maintainmaintenir controlcontrôle
of my securitySécurité staffPersonnel
18
55760
3616
« Comment garder le contrôle
de mon personnel de sécurité
01:11
after the eventun événement?"
19
59400
1320
après l'apocalypse ? »
01:13
By "the eventun événement" they mean
the thermonuclearthermonucléaire warguerre
20
61920
2736
L'« apocalypse », c'était
la guerre thermonucléaire,
la catastrophe climatique,
01:16
or climateclimat catastrophecatastrophe or socialsocial unresttroubles
that endsprend fin the worldmonde as we know it,
21
64680
4656
l'instabilité sociale
qui va anéantir le monde
tel que nous le connaissons.
01:21
and more importantlyimportant,
makesfait du theirleur moneyargent obsoleteobsolète.
22
69360
3280
Et plus crucial, rendre
leur argent sans valeur.
01:26
And I couldn'tne pouvait pas help but think:
23
74200
2216
Ce que je pensais en réalité, c'est que,
01:28
these are the wealthiestles plus riches,
mostles plus powerfulpuissant menHommes in the worldmonde,
24
76440
4736
ces personnes étaient les plus riches
et les plus puissantes au monde,
01:33
yetencore they see themselvesse as utterlytotalement
powerlessimpuissant to influenceinfluence the futureavenir.
25
81200
4656
mais elles se sentaient totalement
démunies pour influer sur l'avenir.
01:37
The bestmeilleur they can do is hangpendre on
for the inevitableinévitable catastrophecatastrophe
26
85880
4456
Leur meilleure idée est de se préparer
à l'inévitable catastrophe
et ensuite utiliser leur technologie, leur
argent pour s'isoler du reste du monde.
01:42
and then use theirleur technologyLa technologie and moneyargent
to get away from the restdu repos of us.
27
90360
3680
01:47
And these are the winnersgagnants
of the digitalnumérique economyéconomie.
28
95520
2536
On parle des grands gagnants
de l'économie numérique.
01:50
(LaughterRires)
29
98080
3416
(Rires)
01:53
The digitalnumérique renaissanceRenaissance
30
101520
2776
La renaissance numérique
01:56
was about the unbridleddébridé potentialpotentiel
31
104320
4256
a rapport au potentiel infini
02:00
of the collectivecollectif humanHumain imaginationimagination.
32
108600
2416
de l'imagination collective de l'Homme.
02:03
It spannedvolumes fractionnés everything
from chaosle chaos mathmath and quantumquantum physicsla physique
33
111040
5136
Elle s'étend des mathématiques du chaos
et de la physique quantique
02:08
to fantasyfantaisie role-playingjeu de rôle
and the GaiaGaia hypothesishypothèse, right?
34
116200
4176
aux jeux de rôle et à l'hypothèse Gaïa.
02:12
We believeda cru that humanHumain beingsêtres connectedconnecté
could createcréer any futureavenir we could imagineimaginer.
35
120400
6720
Nous étions convaincus
que les êtres humains connectés
pourraient créer l'avenir
qu'ils imagineraient.
02:20
And then camevenu the dotpoint comcom boomboom.
36
128840
2199
Et Les boites de technologie
ont pris leur essor.
02:24
And the digitalnumérique futureavenir
becamedevenu stockStock futurescontrats à terme.
37
132600
3616
L'avenir numérique s'est transformé
en contrats à terme d'actions.
02:28
And we used all that energyénergie
of the digitalnumérique ageâge
38
136240
3016
On a employé toute cette énergie
de l'ère numérique
02:31
to pumppompe steroidsstéroïdes into the alreadydéjà dyingen train de mourir
NASDAQNASDAQ stockStock exchangeéchange.
39
139280
4256
pour injecter des stéroïdes
dans le marché NASDAQ, pourtant moribond.
02:35
The techtechnologie magazinesles magazines told us
a tsunamitsunami was comingvenir.
40
143560
3616
Les magazines spécialisés en technologie
nous annonçaient un tsunami.
02:39
And only the investorsinvestisseurs who hiredembauché
the bestmeilleur scenario-plannersplanificateurs de scénarios and futuristsFuturistes
41
147200
4456
Seuls les investisseurs qui recrutaient
les meilleurs planificateurs et futuristes
02:43
would be ablecapable to survivesurvivre the wavevague.
42
151680
2520
allaient survivre à cette vague.
02:47
And so the futureavenir changedmodifié from this thing
we createcréer togetherensemble in the presentprésent
43
155160
5896
L'avenir est passé d'un projet
que nous créons ensemble et maintenant
02:53
to something we betpari on
44
161080
1496
à un objet de paris,
02:54
in some kindgentil of a zero-sumsomme nulle
winner-takes-allvainqueur-Takes-All competitioncompétition.
45
162600
3200
dans une concurrence à somme nulle
où le gagnant rafle toute la mise.
03:00
And when things get that competitivecompétitif
about the futureavenir,
46
168120
3136
Quand l'avenir devient l'objet
de telles spéculations,
03:03
humanshumains are no longerplus long valuedestimé
for our creativityla créativité.
47
171280
3296
les hommes ne sont plus valorisés
pour leur créativité.
03:06
No, now we're just valuedestimé for our dataLes données.
48
174600
3136
Notre valeur est celle de nos données.
Car ils utilisent les données
pour faire des prédictions.
03:09
Because they can use the dataLes données
to make predictionsprédictions.
49
177760
2376
03:12
CreativityCréativité, if anything,
that createscrée noisebruit.
50
180160
2576
La créativité est source de perturbations.
03:14
That makesfait du it harderPlus fort to predictprédire.
51
182760
2216
Elle rend toute prédiction complexe.
03:17
So we endedterminé up with a digitalnumérique landscapepaysage
52
185000
2416
Nous avons donc abouti
à un paysage numérique
03:19
that really repressedréprimée creativityla créativité,
repressedréprimée noveltynouveauté,
53
187440
3256
qui réprime la créativité, la nouveauté
03:22
it repressedréprimée what makesfait du us mostles plus humanHumain.
54
190720
2840
et ce qui fait de nous des êtres humains.
03:26
We endedterminé up with socialsocial mediamédias.
55
194760
1456
Les médias sociaux sont nés.
Permettent-ils aux gens de tisser
des liens entre eux de manière neuve ?
03:28
Does socialsocial mediamédias really connectrelier people
in newNouveau, interestingintéressant waysfaçons?
56
196240
3456
03:31
No, socialsocial mediamédias is about usingen utilisant our dataLes données
to predictprédire our futureavenir behaviorcomportement.
57
199720
5016
Non, les médias sociaux
utilisent nos données
pour prédire nos comportements.
Ou, si ça s'avère nécessaire,
pour influencer nos comportements
03:36
Or when necessarynécessaire,
to influenceinfluence our futureavenir behaviorcomportement
58
204760
2896
03:39
so that we actacte more in accordanceconformément
with our statisticalstatistique profilesprofils des conseils scolaires.
59
207680
4040
et nous pousser à agir en concordance
avec nos profils statistiques.
03:45
The digitalnumérique economyéconomie --
does it like people?
60
213200
2216
L'économie numérique
aime-t-elle les gens ?
Non, si vous élaborez un plan d'affaires,
que devez-vous faire ?
03:47
No, if you have a businessEntreprise planplan,
what are you supposedsupposé to do?
61
215440
2896
03:50
Get riddébarrasser of all the people.
62
218360
1256
Éliminer tous les hommes.
03:51
HumanHumaine beingsêtres, they want healthsanté carese soucier,
they want moneyargent, they want meaningsens.
63
219640
3400
Les humains veulent des soins
de santé, un salaire, du sens.
03:56
You can't scaleéchelle with people.
64
224360
1880
Impossible de travailler à grande échelle.
03:59
(LaughterRires)
65
227360
1456
(Rires)
04:00
Even our digitalnumérique appsapplications --
66
228840
1216
Mêmes nos applis
04:02
they don't help us
formforme any rapportrapport or solidaritysolidarité.
67
230080
3216
ne nous sont d'aucun recours
pour créer des liens de solidarité.
Sur quel bouton appuie-t-on
dans l'appli de transport partagé
04:05
I mean, where'soù est the buttonbouton
on the ridebalade hailingSaluant appapplication
68
233320
2416
04:07
for the driverspilotes to talk to one anotherun autre
about theirleur workingtravail conditionsconditions
69
235760
3496
pour permettre aux conducteurs de parler
de leurs conditions de travail
04:11
or to unionizeSyndiquer?
70
239280
1200
ou de se syndiquer ?
04:13
Even our videoconferencingVidéoconférence toolsoutils,
71
241600
2016
Même les outils de vidéo-conférence
04:15
they don't allowpermettre us
to establishétablir realréal rapportrapport.
72
243640
2376
ne permettent l'établissement
d'aucun rapport réel.
04:18
HoweverCependant good the resolutionrésolution of the videovidéo,
73
246040
3336
Quelle que soit la qualité
de la résolution,
04:21
you still can't see if somebody'squelqu'un est irisesIris
are openingouverture to really take you in.
74
249400
4016
on ne peut pas observer si l'iris
de notre interlocuteur est dilaté.
04:25
All of the things that we'venous avons doneterminé
to establishétablir rapportrapport
75
253440
2576
Tous ces mécanismes que nous avons
développés pour créer des liens,
04:28
that we'venous avons developeddéveloppé over hundredsdes centaines
of thousandsmilliers of yearsannées of evolutionévolution,
76
256040
3335
pendant des centaines de milliers
d'années d'évolution,
04:31
they don't work,
77
259399
1217
ne sont plus efficaces.
On ne sait pas si la respiration
de l'autre se synchronise à la nôtre.
04:32
you can't see if someone'squelques uns breathsouffle
is syncingSynchronisation up with yoursle tiens.
78
260640
3016
04:35
So the mirrormiroir neuronsneurones never fireFeu,
the oxytocinocytocine never goesva throughpar your bodycorps,
79
263680
3656
Les neurones miroirs ne réagissent pas,
l'ocytocine ne vous traverse pas
et on ne sait plus ce que signifie
créer des liens avec d'autres humains.
04:39
you never have that experienceexpérience
of bondingcollage with the other humanHumain beingétant.
80
267360
3240
04:43
And insteadau lieu, you're left like,
81
271360
1456
Maintenant, la situation est :
04:44
"Well, they agreedD'accord with me,
but did they really,
82
272840
2256
« Ils étaient d'accord avec moi,
mais m'ont-ils vraiment,
04:47
did they really get me?"
83
275120
1696
vraiment compris ? »
04:48
And we don't blamefaire des reproches the technologyLa technologie
for that lackmanquer de of fidelityfidélité.
84
276840
3376
On ne pense pas que c'est la technologie
qui est défaillante.
On pense que c'est l'autre personne.
04:52
We blamefaire des reproches the other personla personne.
85
280240
1480
04:55
You know, even the technologiesles technologies
and the digitalnumérique initiativesinitiatives that we have
86
283320
4056
Même les technologies et les initiatives
numériques qui existent
04:59
to promotepromouvoir humanshumains,
87
287400
2176
pour promouvoir l'humain,
05:01
are intenselyintensément anti-humananti-humain at the corecoeur.
88
289600
2760
sont fondamentalement anti-humanistes.
05:05
Think about the blockchainblockchain.
89
293600
2000
Songez à la blockchain.
05:08
The blockchainblockchain is here to help us
have a great humanizedhumanisé economyéconomie? No.
90
296520
3616
La blockchain existe-t-il pour développer
une économie humaniste ?
Non, elle ne crée aucune confiance
entre les utilisateurs.
05:12
The blockchainblockchain does not engenderengendrer des
trustconfiance betweenentre usersutilisateurs,
91
300160
2696
05:14
the blockchainblockchain simplysimplement
substitutesproduits de remplacement for trustconfiance in a newNouveau,
92
302880
3536
La blockchain remplace la confiance
d'une manière neuve
05:18
even lessMoins transparenttransparent way.
93
306440
2000
et moins transparente.
05:21
Or the codecode movementmouvement.
94
309600
1816
Et l'enseignement de la programmation ?
05:23
I mean, educationéducation is great,
we love educationéducation,
95
311440
2176
L'éducation, c'est très bien, on est pour.
C'est aussi une très bonne idée
05:25
and it's a wonderfulformidable ideaidée
96
313640
1456
05:27
that we want kidsdes gamins to be ablecapable
to get jobsemplois in the digitalnumérique futureavenir,
97
315120
3136
de vouloir que les enfants puissent
avoir un travail dans un avenir numérique,
05:30
so we'llbien teachapprendre them codecode now.
98
318280
1600
et donc, enseignons-leur la programmation.
05:32
But sincedepuis when is educationéducation
about gettingobtenir jobsemplois?
99
320640
2480
Mais depuis quand l'éducation
vise-t-elle l'emploi ?
05:35
EducationÉducation wasn'tn'était pas about gettingobtenir jobsemplois.
100
323920
1736
L'éducation n'a rien à voir avec ça.
05:37
EducationÉducation was compensationcompensation
for a jobemploi well doneterminé.
101
325680
3976
L'éducation vient en récompense
d'un travail bien fait.
05:41
The ideaidée of publicpublic educationéducation
102
329680
1576
Le principe d'éducation publique
est fondé sur l'idée que les mineurs,
travaillant dans la mine la journée,
05:43
was for coalcharbon minersmineurs,
who would work in the coalcharbon minesmines all day,
103
331280
3376
05:46
then they'dils auraient come home
and they should have the dignitydignité
104
334680
2576
pourraient rentrer à la maison
et jouir de la dignité
05:49
to be ablecapable to readlis a novelroman
and understandcomprendre it.
105
337280
2136
de pouvoir lire un roman et le comprendre.
Ou de l'intelligence pour pouvoir
participer à la démocratie.
05:51
Or the intelligenceintelligence to be ablecapable
to participateparticiper in democracyla démocratie.
106
339440
2960
05:55
When we make it an extensionextension of the jobemploi,
what are we really doing?
107
343200
3216
Quand on en fait un préalable au travail,
que faisons-nous en réalité ?
05:58
We're just lettinglocation corporationssociétés really
108
346440
2536
On permet simplement aux entreprises
06:01
externalizeexternaliser the costCoût
of trainingentraînement theirleur workersouvriers.
109
349000
3120
d'externaliser le coût de formation
de leurs salariés.
06:05
And the worstpire of all really
is the humanehumain technologyLa technologie movementmouvement.
110
353520
4096
Le pire de tout est le mouvement
pour une technologie humaniste.
06:09
I mean, I love these guys,
the formerancien guys who used to take
111
357640
2816
J'adore ces gens-là, des repentis,
qui ont extrait les algorithmes
des machines à sous de Las Vegas
06:12
the algorithmsalgorithmes from
LasLas VegasVegas slotmachine à sous machinesmachines
112
360480
2936
06:15
and put them in our socialsocial mediamédias feedalimentation
so that we get addictedintoxiqué.
113
363440
2936
et encodé dans les médias sociaux
pour nous rendre accros.
06:18
Now they'veils ont seenvu the errorErreur of theirleur waysfaçons
114
366400
1936
Ils ont reconnus leurs péchés
06:20
and they want to make
technologyLa technologie more humanehumain.
115
368360
2456
et souhaitent rendre
la technologie plus humaine.
Le son même de l'expression
« technologie humaine »
06:22
But when I hearentendre the expressionexpression
"humanehumain technologyLa technologie,"
116
370840
2416
06:25
I think about cage-freesans cage
chickenspoulets or something.
117
373280
2856
évoque un poulet fermier, par exemple.
06:28
We're going to be as humanehumain
as possiblepossible to them,
118
376160
2256
On va essayer d'être
aussi humain que possible,
jusqu'au moment
de les amener à l'abattoir.
06:30
untiljusqu'à we take them to the slaughterboucherie.
119
378440
1720
06:33
So now they're going to let these
technologiesles technologies be as humanehumain as possiblepossible,
120
381200
3416
On va rendre ces technologies
aussi humaines que possible
06:36
as long as they extractextrait enoughassez dataLes données
and extractextrait enoughassez moneyargent from us
121
384640
3216
tant qu'elles exploitent suffisamment
de nos données et d'argent
pour satisfaire les actionnaires.
06:39
to please theirleur shareholdersactionnaires.
122
387880
1400
06:42
MeanwhilePendant ce temps, the shareholdersactionnaires,
for theirleur partpartie, they're just thinkingen pensant,
123
390520
3176
Entretemps, les actionnaires
pensent ceci :
« Je dois gagner autant d'argent
que possible pour me protéger
06:45
"I need to earnGagnez enoughassez moneyargent now,
so I can insulateisoler myselfmoi même
124
393720
2976
du monde à venir que je suis en train
de créer en gagnant cet argent ainsi ».
06:48
from the worldmonde I'm creatingcréer
by earningrevenus moneyargent in this way."
125
396720
3056
06:51
(LaughterRires)
126
399800
2376
(Rires)
06:54
No mattermatière how manybeaucoup VRVR goggleslunettes de protection
they slapgifler on theirleur facesvisages
127
402200
4056
Ils peuvent porter autant de lunettes
de réalité virtuelle qu'ils souhaitent,
peu importe le monde féérique
auquel ils accèdent,
06:58
and whateverpeu importe fantasyfantaisie worldmonde they go into,
128
406280
2256
07:00
they can't externalizeexternaliser the slaveryesclavage
and pollutionla pollution that was causedcausé
129
408560
3536
ils ne peuvent pas externaliser
l'esclavagisme et la pollution causés
07:04
throughpar the manufacturefabrication
of the very devicedispositif.
130
412120
2976
par la production des équipements
posés sur leurs yeux.
07:07
It remindsrappelle me of
ThomasThomas Jefferson'sDe Jefferson dumbwaiterMonte-plats.
131
415120
3176
Ça me rappelle le monte-plats
de Thomas Jefferson.
07:10
Now, we like to think
that he madefabriqué the dumbwaiterMonte-plats
132
418320
2336
On pense souvent
qu'il a inventé le monte-plats
07:12
in ordercommande to sparede rechange his slavesdes esclaves
all that laborla main d'oeuvre of carryingporter the foodaliments
133
420680
3656
pour épargner ses esclaves
le labeur de monter les escaliers
07:16
up to the diningsalle à manger roomchambre
for the people to eatmanger.
134
424360
2776
pour servir les plats à ses invités.
07:19
That's not what it was for,
it wasn'tn'était pas for the slavesdes esclaves,
135
427160
2496
À tort, car ce n'était pas
pour les esclaves.
Il s'agissait d'épargner
à Jefferson et ses convives
07:21
it was for ThomasThomas JeffersonJefferson
and his dinnerdîner guestsinvités,
136
429680
2336
07:24
so they didn't have to see the slaveesclave
bringingapportant the foodaliments up.
137
432040
3096
la vue des esclaves
qui apportent les plats.
Les mets arrivaient comme par magie,
07:27
The foodaliments just arrivedarrivée magicallymagiquement,
138
435160
1576
07:28
like it was comingvenir out
of a "StartDébut TrekTrek" replicatorReplicator.
139
436760
3000
comme matérialisés
par un réplicateur dans Star Trek.
07:32
It's partpartie of an ethosethos that saysdit,
140
440720
2096
Ça fait partie du principe qui affirme
07:34
humanHumain beingsêtres are the problemproblème
and technologyLa technologie is the solutionSolution.
141
442840
4280
que les humains sont le problème
et la technologie la solution.
07:40
We can't think that way anymoreplus.
142
448680
2056
Cette philosophie est caduque.
07:42
We have to stop usingen utilisant technologyLa technologie
to optimizeoptimiser humanHumain beingsêtres for the marketmarché
143
450760
5296
Arrêtons d'utiliser la technologie
pour optimiser l'humain
par rapport au marché
07:48
and startdébut optimizingoptimisation technologyLa technologie
for the humanHumain futureavenir.
144
456080
5040
et optimisons la technologie
par rapport à l'avenir de l'humanité.
07:55
But that's a really harddifficile argumentargument
to make these daysjournées,
145
463080
2656
Ces jours-ci, c'est
une proposition audacieuse
07:57
because humanshumains are not popularpopulaire beingsêtres.
146
465760
4056
car les humains ne sont guère populaires.
08:01
I talkeda parlé about this in frontde face
of an environmentalistécologiste just the other day,
147
469840
3376
J'ai tenu les mêmes propos récemment
à une environnementaliste
et elle m'a demandé pourquoi
je défendais les humains.
08:05
and she said, "Why are you
defendingdéfendant humanshumains?
148
473240
2096
« L'homme a anéanti la planète.
Il mérite de disparaître. »
08:07
HumansÊtres humains destroyeddétruit the planetplanète.
They deservemériter to go extinctdisparu."
149
475360
2696
08:10
(LaughterRires)
150
478080
3456
(Rires)
08:13
Even our popularpopulaire mediamédias hatesdéteste humanshumains.
151
481560
2576
Même les médias populaires
détestent les hommes.
08:16
Watch televisiontélévision,
152
484160
1256
Regardez la télévision :
toutes les émissions de SF
montrent les robots
08:17
all the sci-fiSci-Fi showsmontre are about how robotsdes robots
are better and nicerplus agréable than people.
153
485440
3736
sous un jour meilleur que l'homme.
08:21
Even zombieZombie showsmontre --
what is everychaque zombieZombie showmontrer about?
154
489200
2976
Les films de zombies ?
De quoi s'agit-il en fait ?
08:24
Some personla personne, looking at the horizonhorizon
at some zombieZombie going by,
155
492200
3256
Un type observe l'horizon,
un zombie traverse son champ de vision.
08:27
and they zoomZoom in on the personla personne
and you see the person'spersonne facevisage,
156
495480
2896
Zoom sur le visage du type
08:30
and you know what they're thinkingen pensant:
157
498400
1736
et vous savez ce qu'il pense :
08:32
"What's really the differencedifférence
betweenentre that zombieZombie and me?
158
500160
2736
« Quelle différence
entre moi et le zombie ?
08:34
He walksdes promenades, I walkmarche.
159
502920
1536
Il marche, je marche.
08:36
He eatsmange, I eatmanger.
160
504480
2016
Il mange, moi aussi.
08:38
He killstue, I killtuer."
161
506520
2280
Il tue, moi aussi, je tue. »
08:42
But he's a zombieZombie.
162
510360
1536
Mais c'est un zombie.
08:43
At leastmoins you're awareconscient of it.
163
511920
1416
Vous en êtes conscient.
08:45
If we are actuallyréellement havingayant troubledifficulté
distinguishingfaire la distinction ourselvesnous-mêmes from zombiesdes morts-vivants,
164
513360
3696
Quand on n'arrive plus à distinguer
un zombie de nous-mêmes,
08:49
we have a prettyjoli biggros problemproblème going on.
165
517080
2176
on a un souci, et pas un petit.
08:51
(LaughterRires)
166
519280
1216
(Rires)
08:52
And don't even get me startedcommencé
on the transhumaniststranshumanistes.
167
520520
2936
N'évoquons même pas le transhumanisme.
08:55
I was on a panelpanneau with a transhumanisttranshumaniste,
and he's going on about the singularitysingularité.
168
523480
3816
J'ai participé à un panel sur le sujet
et un type parlait de la singularité :
08:59
"Oh, the day is going to come really soonbientôt
when computersdes ordinateurs are smarterplus intelligent than people.
169
527320
3856
« Le jour est proche où les machines
seront plus intelligentes que l'Homme.
09:03
And the only optionoption
for people at that pointpoint
170
531200
2136
Il ne restera qu'un seul choix à l'Homme :
09:05
is to passpasser the evolutionaryévolutionniste torchtorche
to our successorsuccesseur
171
533360
3336
transmettre le relai de l'évolution
à notre successeur
09:08
and fadefondu into the backgroundContexte.
172
536720
1616
et disparaître à l'horizon.
09:10
Maybe at bestmeilleur, uploadtélécharger
your consciousnessconscience to a siliconsilicium chippuce.
173
538360
3456
Au mieux, on pourra peut-être télécharger
notre conscience sur une puce
09:13
And acceptAcceptez your extinctionextinction."
174
541840
1840
et accepter notre extinction. »
09:16
(LaughterRires)
175
544640
1456
(Rires)
09:18
And I said, "No, humanHumain beingsêtres are specialspécial.
176
546120
3376
J'ai répondu ceci :
« Non, l'homme est particulier.
09:21
We can embraceembrasse ambiguityambiguïté,
we understandcomprendre paradoxparadoxe,
177
549520
3536
On accueille l'ambiguïté,
on comprend le paradoxe,
09:25
we're consciousconscient,
we're weirdbizarre, we're quirkybizarre.
178
553080
2616
on est conscient, bizarre et excentrique.
09:27
There should be a placeendroit for humanshumains
in the digitalnumérique futureavenir."
179
555720
3336
Il devrait y avoir une place
pour l'homme dans l'avenir numérique. »
Le type m'a dit : « Oh, Rushkoff,
09:31
And he said, "Oh, RushkoffRushkoff,
180
559080
1536
09:32
you're just sayingen disant that
because you're a humanHumain."
181
560640
2296
tu dis ça parce que tu es un homme. »
09:34
(LaughterRires)
182
562960
1776
(Rires)
Comme s'il s'agissait d'arrogance.
09:36
As if it's hubrishubris.
183
564760
1600
09:39
OK, I'm on "TeamÉquipe HumanHumaine."
184
567280
2800
OK, j'appartiens à « l'équipe humaine ».
09:43
That was the originaloriginal insightperspicacité
of the digitalnumérique ageâge.
185
571200
3856
C'est l'intuition première
de l'ère numérique.
09:47
That beingétant humanHumain is a teaméquipe sportsport,
186
575080
2216
Être humain est un sport d'équipe
09:49
evolution'sEvolution a collaborativecollaboratif actacte.
187
577320
2736
et l'évolution est un acte collaboratif.
09:52
Even the treesdes arbres in the forestforêt,
188
580080
1416
Même les arbres d'une forêt,
09:53
they're not all in competitioncompétition
with eachchaque other,
189
581520
2216
n'entrent pas en compétition,
ils sont reliés par un vaste réseau
de racines et de champignons
09:55
they're connectedconnecté with the vastvaste
networkréseau of rootsles racines and mushroomschampignons
190
583760
3216
09:59
that let them communicatecommuniquer with one anotherun autre
and passpasser nutrientsnutriments back and forthavant.
191
587000
4536
qui leur permet de communiquer
et d'échanger des nutriments.
10:03
If humanHumain beingsêtres
are the mostles plus evolvedévolué speciesespèce,
192
591560
2136
L'humanité est l'espèce la plus évoluée
car notre évolution principale
fut dans la collaboration
10:05
it's because we have the mostles plus evolvedévolué
waysfaçons of collaboratingen collaboration and communicatingcommunicant.
193
593720
4136
et de la communication.
10:09
We have languagela langue.
194
597880
1496
Nous avons le langage verbal.
10:11
We have technologyLa technologie.
195
599400
1240
Nous avons les technologies.
10:14
It's funnydrôle, I used to be the guy
who talkeda parlé about the digitalnumérique futureavenir
196
602120
4576
C'est étrange car auparavant,
je parlais de l'avenir numérique
10:18
for people who hadn'tn'avait pas yetencore
experiencedexpérimenté anything digitalnumérique.
197
606720
2680
aux gens qui ne s'y connaissaient pas.
10:22
And now I feel like I'm the last guy
198
610200
1816
Maintenant, j'ai l'impression
d'être le dernier survivant
10:24
who remembersse souvient what life was like
before digitalnumérique technologyLa technologie.
199
612040
2920
qui se souvient ce à quoi la vie
ressemblait avant le numérique.
10:28
It's not a mattermatière of rejectingrejetant the digitalnumérique
or rejectingrejetant the technologicaltechnologique.
200
616680
4216
Il ne s'agit pas de rejeter
le numérique ou les technologies.
10:32
It's a mattermatière of retrievingrécupération des the valuesvaleurs
that we're in dangerdanger of leavingen quittant behindderrière
201
620920
4096
Il s'agit de conserver les valeurs
que nous risquons d'abandonner
10:37
and then embeddingenrobage them in the digitalnumérique
infrastructureInfrastructure for the futureavenir.
202
625040
3600
et de les intégrer
au sein des infrastructures
numériques du futur.
10:41
And that's not rocketfusée sciencescience.
203
629880
2296
Ce n'est pas de la physique nucléaire.
C'est aussi simple que de faire
en sorte que les média sociaux
10:44
It's as simplesimple as makingfabrication a socialsocial networkréseau
204
632200
2096
10:46
that insteadau lieu of teachingenseignement us
to see people as adversariesadversaires,
205
634320
3536
ne nous montrent pas comment
voir l'autre comme un adversaire
10:49
it teachesenseigne us to see
our adversariesadversaires as people.
206
637880
3000
mais qu'ils nous enseignent comment
considérer l'adversaire comme un homme.
10:54
It meansveux dire creatingcréer an economyéconomie
that doesn't favorfavoriser a platformPlate-forme monopolymonopole
207
642240
4296
Ça signifie façonner une économie
qui ne favorise pas
le monopole d'une plateforme
10:58
that wants to extractextrait all the valuevaleur
out of people and placesdes endroits,
208
646560
3336
en extrayant de la valeur
des gens et des lieux
11:01
but one that promotesfavorise la the circulationcirculation
of valuevaleur throughpar a communitycommunauté
209
649920
3936
mais qui promeut la circulation
des valeurs à travers une communauté
et nous permet d'établir
des plateformes coopératives
11:05
and allowspermet us to establishétablir
platformPlate-forme cooperativescoopératives
210
653880
2416
11:08
that distributedistribuer ownershipla possession
as widelarge as possiblepossible.
211
656320
3816
qui redistribue la propriété
aussi largement que possible.
Ça signifie la création de plateformes
11:12
It meansveux dire buildingbâtiment platformsplateformes
212
660160
1656
11:13
that don't repressréprimer our creativityla créativité
and noveltynouveauté in the nameprénom of predictionprédiction
213
661840
4656
qui ne répriment pas créativité
et innovation au nom de la prédiction
11:18
but actuallyréellement promotepromouvoir
creativityla créativité and noveltynouveauté,
214
666520
2576
mais qui les promeuvent,
11:21
so that we can come up
with some of the solutionssolutions
215
669120
2336
pour nous encourager
à trouver des solutions
pour nous extraire des sables mouvants
où nous nous sommes mis.
11:23
to actuallyréellement get ourselvesnous-mêmes
out of the messdésordre that we're in.
216
671480
2680
11:27
No, insteadau lieu of tryingen essayant to earnGagnez
enoughassez moneyargent to insulateisoler ourselvesnous-mêmes
217
675440
3056
Plutôt que de mettre suffisamment
d'argent de côté pour nous protéger
11:30
from the worldmonde we're creatingcréer,
218
678520
1496
du monde que nous avons créé,
11:32
why don't we spenddépenser that time and energyénergie
makingfabrication the worldmonde a placeendroit
219
680040
3056
pourquoi ne pas consacrer notre temps
et notre énergie à créer un monde
11:35
that we don't feel
the need to escapeéchapper from.
220
683120
2040
dont nous n'éprouvons pas
le besoin de nous échapper.
11:38
There is no escapeéchapper,
there is only one thing going on here.
221
686000
3200
Il n'y a pas d'issue de secours,
il n'y a qu'un seul acte.
11:42
Please, don't leavelaisser.
222
690680
2120
Ne quittez pas le navire.
11:45
JoinRejoignez les us.
223
693640
1360
Rejoignez-nous.
11:47
We maymai not be perfectparfait,
224
695800
1296
Nous ne sommes pas parfaits
11:49
but whateverpeu importe happensarrive,
at leastmoins you won'thabitude be aloneseul.
225
697120
2440
mais quoi qu'il arrive,
vous ne serez pas seul.
11:52
JoinRejoignez les "TeamÉquipe HumanHumaine."
226
700640
1520
Rejoignez « l'équipe humaine » !
11:55
Find the othersautres.
227
703160
2096
Trouvez l'autre.
11:57
TogetherEnsemble, let's make the futureavenir
that we always wanted.
228
705280
2960
Ensemble, façonnons l'avenir
que nous avons toujours souhaité.
12:01
Oh, and those techtechnologie billionairesmilliardaires
who wanted to know
229
709560
2496
Voici ce que j'ai répondu
aux milliardaires qui voulaient savoir
12:04
how to maintainmaintenir controlcontrôle of theirleur
securitySécurité forceObliger after the apocalypseapocalypse,
230
712080
3256
comment maintenir le contrôle
de leur personnel de sécurité
12:07
you know what I told them?
231
715360
1896
après l'apocalypse :
12:09
"StartDébut treatingtraitant those people
with love and respectle respect right now.
232
717280
4216
« Commencez par traiter votre personnel
avec bienveillance et respect.
Votre inquiétude sur l'apocalypse
pourrait être vaine. »
12:13
Maybe you won'thabitude have
an apocalypseapocalypse to worryinquiéter about."
233
721520
2440
12:16
Thank you.
234
724840
1216
Merci.
12:18
(ApplauseApplaudissements)
235
726080
4440
(Applaudissements)
Translated by Claire Ghyselen
Reviewed by Morgane Quilfen

▲Back to top

ABOUT THE SPEAKER
Douglas Rushkoff - Media theorist, author
Douglas Rushkoff promotes human autonomy in the digital age.

Why you should listen

Douglas Rushkoff coined such expressions as "viral media," "digital natives" and "social currency," and advises governments, communities and businesses on the impact of technology on society's future. Named one of "the world’s ten most influential thinkers" by MIT, Rushkoff won the Marshal McLuhan Award for media writing and the Neil Postman award for Public Intellectual Activity.

Rushkoff hosts the Team Human podcast, made four PBS Frontline documentaries including Generation Like and The Merchants of Cool, and wrote many bestselling books including Team Human, Present Shock, Program or Be Programmed and Throwing Rocks at the Google Bus. He founded the Laboratory for Digital Humanism at CUNY/Queens College, where he is professor of media theory and digital economics.

More profile about the speaker
Douglas Rushkoff | Speaker | TED.com