ABOUT THE SPEAKER
Damon Horowitz - Philosopher, entrepreneur
Damon Horowitz explores what is possible at the boundaries of technology and the humanities.

Why you should listen

Damon Horowitz is a philosophy professor and serial entrepreneur. He recently joined Google as In-House Philosopher / Director of Engineering, heading development of several initiatives involving social and search. He came to Google from Aardvark, the social search engine, where he was co-founder and CTO, overseeing product development and research strategy. Prior to Aardvark, Horowitz built several companies around applications of intelligent language processing. He co-founded Perspecta (acquired by Excite), was lead architect for Novation Biosciences (acquired by Agilent), and co-founded NewsDB (now Daylife).

Horowitz teaches courses in philosophy, cognitive science, and computer science at several institutions, including Stanford, NYU, University of Pennsylvania and San Quentin State Prison.

Get more information on the Prison University Project >>

More profile about the speaker
Damon Horowitz | Speaker | TED.com
TEDxSiliconValley

Damon Horowitz: We need a "moral operating system"

Damon Horowitz en appelle à un « système d'exploitation moral »

Filmed:
795,617 views

À TEDxSiliconValley, Damon Horowitz examine les nouveaux pouvoirs immenses que la technologie nous donne : savoir plus, comme jamais auparavant -- et en savoir plus sur chacun de nous. En amenant le public dans une discussion philosophique, Horowitz nous invite à prêter une nouvelle attention à la philosophie élémentaire -- les principes éthiques -- derrière l'explosion d'inventions qui changent notre monde. Où se trouve le système d'exploitation moral qui nous permette d'en tirer du sens ?
- Philosopher, entrepreneur
Damon Horowitz explores what is possible at the boundaries of technology and the humanities. Full bio

Double-click the English transcript below to play the video.

00:15
PowerPuissance.
0
0
2000
Le pouvoir.
00:17
That is the wordmot that comesvient to mindesprit.
1
2000
2000
C'est le mot qui vient à l'esprit.
00:19
We're the newNouveau technologiststechnologues.
2
4000
2000
Nous sommes les nouveaux technologues.
00:21
We have a lot of dataLes données, so we have a lot of powerPuissance.
3
6000
3000
Nous avons beaucoup de données, donc nous avons beaucoup de pouvoir.
00:24
How much powerPuissance do we have?
4
9000
2000
Quelle quantité de pouvoir avons-nous ?
00:26
SceneScène from a moviefilm: "ApocalypseApocalypse Now" -- great moviefilm.
5
11000
3000
Une scène du film "Apocalypse Now" -- un grand film.
00:29
We'veNous avons got to get our herohéros, CaptainCapitaine WillardWillard, to the mouthbouche of the NungNung RiverRivière
6
14000
3000
Nous devons amener notre héros, le capitaine Willard, à l'embouchure de la rivière Nung,
00:32
so he can go pursuepoursuivre ColonelColonel KurtzKurtz.
7
17000
2000
pour qu'il puisse poursuivre le colonel Kurtz.
00:34
The way we're going to do this is flymouche him in and droplaissez tomber him off.
8
19000
2000
Pour cela, nous allons le transporter en hélico et le déposer.
00:36
So the scenescène:
9
21000
2000
Dans cette scène :
00:38
the skyciel is filledrempli with this fleetflotte of helicoptershélicoptères carryingporter him in.
10
23000
3000
le ciel est rempli de cette flotte d'hélicoptères qui le transportent.
00:41
And there's this loudbruyant, thrillingpalpitante musicla musique in the backgroundContexte,
11
26000
2000
Il y a cette musique bruyante et palpitante en fond,
00:43
this wildsauvage musicla musique.
12
28000
2000
cette musique effrénée.
00:45
DumDum dada tata dada dumDum
13
30000
2000
♫ Dum da ta da dum ♫
00:47
DumDum dada tata dada dumDum
14
32000
2000
♫ Dum da ta da dum ♫
00:49
DaDa tata dada dada
15
34000
3000
♫ Da ta da da ♫
00:52
That's a lot of powerPuissance.
16
37000
2000
C'est un grand pouvoir.
00:54
That's the kindgentil of powerPuissance I feel in this roomchambre.
17
39000
2000
C'est le genre de pouvoir que je ressens dans cette pièce.
00:56
That's the kindgentil of powerPuissance we have
18
41000
2000
C'est le genre de pouvoir que nous avons
00:58
because of all of the dataLes données that we have.
19
43000
2000
grâce à toutes les données que nous possédons.
01:00
Let's take an exampleExemple.
20
45000
2000
Prenons un exemple.
01:02
What can we do
21
47000
2000
Que pouvons-nous faire
01:04
with just one person'spersonne dataLes données?
22
49000
3000
avec les données d'une seule personne ?
01:07
What can we do
23
52000
2000
Que pouvons-nous faire
01:09
with that guy'sles gars dataLes données?
24
54000
2000
avec les données de ce type ?
01:11
I can look at your financialfinancier recordsEnregistrements.
25
56000
2000
Je peux regarder vos registres financiers.
01:13
I can tell if you payPayer your billsfactures on time.
26
58000
2000
Je peux vous dire si vous payez vos factures à temps.
01:15
I know if you're good to give a loanprêt to.
27
60000
2000
Je sais alors si je peux vous faire un prêt.
01:17
I can look at your medicalmédical recordsEnregistrements; I can see if your pumppompe is still pumpingpompage --
28
62000
3000
Je peux regarder votre dossier médical, je peux voir si votre cœur fonctionne bien --
01:20
see if you're good to offeroffre insuranceAssurance to.
29
65000
3000
voir si je peux vous proposer une assurance.
01:23
I can look at your clickingen cliquant patternsmodèles.
30
68000
2000
Je peux regarder où vous cliquez sur Internet.
01:25
When you come to my websitesite Internet, I actuallyréellement know what you're going to do alreadydéjà
31
70000
3000
Quand vous visitez mon site, je sais déjà ce que vous allez faire,
01:28
because I've seenvu you visitvisite millionsdes millions of websitessites Internet before.
32
73000
2000
parce que je vous ai vu visiter des millions de sites auparavant.
01:30
And I'm sorry to tell you,
33
75000
2000
Je suis désolé de vous dire,
01:32
you're like a pokerPoker playerjoueur, you have a tell.
34
77000
2000
vous êtes comme un joueur de poker, vous avez des manies.
01:34
I can tell with dataLes données analysisune analyse what you're going to do
35
79000
2000
Je peux dire grâce à l'analyse de données ce que vous allez faire
01:36
before you even do it.
36
81000
2000
avant même que vous ne le fassiez.
01:38
I know what you like. I know who you are,
37
83000
3000
Je sais ce que vous aimez. Je sais qui vous êtes.
01:41
and that's even before I look at your mailcourrier
38
86000
2000
Et cela avant même que je regarde votre courrier
01:43
or your phonetéléphone.
39
88000
2000
ou votre téléphone.
01:45
Those are the kindssortes of things we can do
40
90000
2000
Ce sont le genre de choses que nous pouvons faire
01:47
with the dataLes données that we have.
41
92000
3000
avec les données que nous avons.
01:50
But I'm not actuallyréellement here to talk about what we can do.
42
95000
3000
Mais je ne suis pas là pour parler de ce que nous pouvons faire.
01:56
I'm here to talk about what we should do.
43
101000
3000
Je suis ici pour parler de ce que nous devrions faire.
02:00
What's the right thing to do?
44
105000
3000
Quelle est la bonne chose à faire ?
02:04
Now I see some puzzledperplexe looksregards
45
109000
2000
Je vois des regards perplexes
02:06
like, "Why are you askingdemandant us what's the right thing to do?
46
111000
3000
comme « Pourquoi nous demandez-vous quelle est la bonne chose à faire ?
02:09
We're just buildingbâtiment this stuffdes trucs. SomebodyQuelqu'un elseautre is usingen utilisant it."
47
114000
3000
On ne fait que construire ce truc. Quelqu'un d'autre l'utilise. »
02:12
FairJuste enoughassez.
48
117000
3000
Très bien.
02:15
But it bringsapporte me back.
49
120000
2000
Mais ça me ramène en arrière.
02:17
I think about WorldMonde WarGuerre IIII --
50
122000
2000
Je pense à la deuxième guerre mondiale --
02:19
some of our great technologiststechnologues then,
51
124000
2000
certains de nos grands technologues de l'époque,
02:21
some of our great physicistsphysiciens,
52
126000
2000
certains de nos grands physiciens,
02:23
studyingen train d'étudier nuclearnucléaire fissionfission and fusionla fusion --
53
128000
2000
qui étudiaient la fission et la fusion nucléaires --
02:25
just nuclearnucléaire stuffdes trucs.
54
130000
2000
juste des trucs nucléaires.
02:27
We gatherrecueillir togetherensemble these physicistsphysiciens in LosLos AlamosAlamos
55
132000
3000
Nous rassemblons ces physiciens ensemble à Los Alamos
02:30
to see what they'llils vont buildconstruire.
56
135000
3000
pour voir ce qu'ils vont construire.
02:33
We want the people buildingbâtiment the technologyLa technologie
57
138000
3000
Nous voulons que les personnes qui construisent la technologie
02:36
thinkingen pensant about what we should be doing with the technologyLa technologie.
58
141000
3000
pensent à ce que nous devrions faire avec la technologie.
02:41
So what should we be doing with that guy'sles gars dataLes données?
59
146000
3000
Que devrions-nous donc faire avec les données de ce type ?
02:44
Should we be collectingrecueillir it, gatheringrassemblement it,
60
149000
3000
Devrions-nous les collecter, les rassembler,
02:47
so we can make his onlineen ligne experienceexpérience better?
61
152000
2000
pour optimiser son surf sur Internet ?
02:49
So we can make moneyargent?
62
154000
2000
Pour faire de l'argent ?
02:51
So we can protectprotéger ourselvesnous-mêmes
63
156000
2000
Pour que nous puissions nous protéger
02:53
if he was up to no good?
64
158000
2000
s'il a de mauvaises intentions ?
02:55
Or should we respectle respect his privacyvie privée,
65
160000
3000
Ou devrions-nous respecter son intimité,
02:58
protectprotéger his dignitydignité and leavelaisser him aloneseul?
66
163000
3000
protéger sa dignité et le laisser tranquille ?
03:02
WhichQui one is it?
67
167000
3000
Que fait-on ?
03:05
How should we figurefigure it out?
68
170000
2000
Comment décidons-nous ?
03:07
I know: crowdsourcecrowdsource. Let's crowdsourcecrowdsource this.
69
172000
3000
Je sais : la participation citoyenne. Faisons du crowdsourcing.
03:11
So to get people warmedréchauffé up,
70
176000
3000
Pour donner de l'entrain aux gens,
03:14
let's startdébut with an easyfacile questionquestion --
71
179000
2000
commençons par une question facile --
03:16
something I'm sure everybodyTout le monde here has an opinionopinion about:
72
181000
3000
une chose sur laquelle tout le monde ici a une idée, j'en suis sûr :
03:19
iPhoneiPhone versuscontre AndroidAndroïde.
73
184000
2000
iPhone contre Android.
03:21
Let's do a showmontrer of handsmains -- iPhoneiPhone.
74
186000
3000
Levez vos mains pour l'iPhone.
03:24
Uh huh.
75
189000
2000
Uh huh.
03:26
AndroidAndroïde.
76
191000
3000
Android.
03:29
You'dVous le feriez think with a bunchbouquet of smartintelligent people
77
194000
2000
Je pensais qu'une assemblée de gens intelligents
03:31
we wouldn'tne serait pas be suchtel suckersMeunier just for the prettyjoli phonesTéléphones.
78
196000
2000
ne succomberait pas si facilement aux jolis téléphones.
03:33
(LaughterRires)
79
198000
2000
(Rires)
03:35
NextProchaine questionquestion,
80
200000
2000
Question suivante.
03:37
a little bitbit harderPlus fort.
81
202000
2000
Un peu plus difficile.
03:39
Should we be collectingrecueillir all of that guy'sles gars dataLes données
82
204000
2000
Devrions-nous collecter toutes les données de ce type
03:41
to make his experiencesexpériences better
83
206000
2000
pour optimiser son surf sur Internet
03:43
and to protectprotéger ourselvesnous-mêmes in caseCas he's up to no good?
84
208000
3000
et pour nous protéger au cas où il aurait de mauvaises intentions ?
03:46
Or should we leavelaisser him aloneseul?
85
211000
2000
Ou devrions-nous le laisser tranquille ?
03:48
CollectRecueillir des his dataLes données.
86
213000
3000
Rassembler ses données.
03:53
LeaveCongé him aloneseul.
87
218000
3000
Le laisser tranquille.
03:56
You're safesûr. It's fine.
88
221000
2000
Vous êtes hors de danger, c'est bon.
03:58
(LaughterRires)
89
223000
2000
(Rires)
04:00
Okay, last questionquestion --
90
225000
2000
Bien, dernière question --
04:02
harderPlus fort questionquestion --
91
227000
2000
plus difficile --
04:04
when tryingen essayant to evaluateévaluer
92
229000
3000
quand on essaye d'estimer
04:07
what we should do in this caseCas,
93
232000
3000
ce que nous devrions faire dans cette situation,
04:10
should we use a KantianKantienne deontologicaldéontologique moralmoral frameworkcadre,
94
235000
4000
devrions-nous utiliser le système moral déontologique de Kant,
04:14
or should we use a MillianMillian consequentialistconséquentialiste one?
95
239000
3000
ou bien le système moral conséquentialiste de Mill ?
04:19
KantKant.
96
244000
3000
Kant.
04:22
MillMill.
97
247000
3000
Mill.
04:25
Not as manybeaucoup votesvotes.
98
250000
2000
Pas autant de voix.
04:27
(LaughterRires)
99
252000
3000
(Rires)
04:30
Yeah, that's a terrifyingterrifiant resultrésultat.
100
255000
3000
Oui, c'est un résultat terrifiant.
04:34
TerrifyingTerrifiant, because we have strongerplus forte opinionsdes avis
101
259000
4000
Terrifiant, parce que nous avons des opinions plus fortes
04:38
about our hand-heldà main devicesdispositifs
102
263000
2000
sur nos appareils téléphones
04:40
than about the moralmoral frameworkcadre
103
265000
2000
que sur les systèmes moraux
04:42
we should use to guideguider our decisionsles décisions.
104
267000
2000
que nous devrions utiliser pour orienter nos décisions.
04:44
How do we know what to do with all the powerPuissance we have
105
269000
3000
Que faire de tout le pouvoir que nous avons
04:47
if we don't have a moralmoral frameworkcadre?
106
272000
3000
si nous n'avons pas de système moral ?
04:50
We know more about mobilemobile operatingen fonctionnement systemssystèmes,
107
275000
3000
Nous en savons davantage sur les systèmes d'exploitation de nos téléphones,
04:53
but what we really need is a moralmoral operatingen fonctionnement systemsystème.
108
278000
3000
alors que ce dont nous avons vraiment besoin est d'un système d'exploitation moral.
04:58
What's a moralmoral operatingen fonctionnement systemsystème?
109
283000
2000
Qu'est-ce qu'un système d'exploitation moral ?
05:00
We all know right and wrongfaux, right?
110
285000
2000
Nous connaissons tous le bien et le mal.
05:02
You feel good when you do something right,
111
287000
2000
Vous vous sentez bien quand vous faites quelque chose de juste,
05:04
you feel badmal when you do something wrongfaux.
112
289000
2000
vous vous sentez mal quand vous faites le mal.
05:06
Our parentsParents teachapprendre us that: praiselouange with the good, scoldgronder with the badmal.
113
291000
3000
Nos parents nous l'apprennent : louer le bien, réprimander le mal.
05:09
But how do we figurefigure out what's right and wrongfaux?
114
294000
3000
Mais comment savoir ce qui est bien et ce qui est mal ?
05:12
And from day to day, we have the techniquestechniques that we use.
115
297000
3000
De jour en jour, nous utilisons des techniques.
05:15
Maybe we just followsuivre our gutintestin.
116
300000
3000
Peut-être que nous suivons simplement notre instinct.
05:18
Maybe we take a votevote -- we crowdsourcecrowdsource.
117
303000
3000
Peut-être que nous procédons à un vote -- le crowdsourcing.
05:21
Or maybe we puntpays de Pount --
118
306000
2000
Ou peut-être que nous nous déchargeons --
05:23
askdemander the legallégal departmentdépartement, see what they say.
119
308000
3000
nous demandons le service juridique, voir ce qu'ils en pensent.
05:26
In other wordsmots, it's kindgentil of randomau hasard,
120
311000
2000
En d'autres mots, c'est plutôt aléatoire,
05:28
kindgentil of adun d hocChambre des communes,
121
313000
2000
c'est plutôt ad hoc,
05:30
how we figurefigure out what we should do.
122
315000
3000
la façon dont nous décidons de ce que nous devrions faire.
05:33
And maybe, if we want to be on surerplus sûr footingpied d’égalité,
123
318000
3000
Peut-être que si nous voulons adopter une position plus sûre,
05:36
what we really want is a moralmoral frameworkcadre that will help guideguider us there,
124
321000
3000
ce que nous voulons vraiment est un système moral qui nous aidera à nous y orienter,
05:39
that will tell us what kindssortes of things are right and wrongfaux in the first placeendroit,
125
324000
3000
qui nous dira qu'est-ce qui est bien et qu'est-ce qui est mal dès le départ,
05:42
and how would we know in a givendonné situationsituation what to do.
126
327000
4000
et comment savoir quoi faire dans une situation donnée.
05:46
So let's get a moralmoral frameworkcadre.
127
331000
2000
Prenons donc un cadre moral.
05:48
We're numbersNombres people, livingvivant by numbersNombres.
128
333000
3000
Nous vivons dans un monde de chiffres.
05:51
How can we use numbersNombres
129
336000
2000
Comment pouvons-nous utiliser les chiffres
05:53
as the basisbase for a moralmoral frameworkcadre?
130
338000
3000
comme base d'un système moral ?
05:56
I know a guy who did exactlyexactement that.
131
341000
3000
Je connais quelqu'un qui a fait exactement cela,
05:59
A brilliantbrillant guy --
132
344000
3000
quelqu'un de brillant --
06:02
he's been deadmort 2,500 yearsannées.
133
347000
3000
il est mort il y a 2 500 ans.
06:05
PlatoPlaton, that's right.
134
350000
2000
Platon, c'est exact.
06:07
RememberN’oubliez pas him -- oldvieux philosopherphilosophe?
135
352000
2000
Vous vous rappelez de lui -- le vieux philosophe ?
06:09
You were sleepingen train de dormir duringpendant that classclasse.
136
354000
3000
Vous dormiez pendant les cours.
06:12
And PlatoPlaton, he had a lot of the sameMême concernspréoccupations that we did.
137
357000
2000
Platon partageait beaucoup de nos préoccupations.
06:14
He was worriedinquiet about right and wrongfaux.
138
359000
2000
Il se préoccupait du bien et du mal.
06:16
He wanted to know what is just.
139
361000
2000
Il voulait savoir ce qui était juste.
06:18
But he was worriedinquiet that all we seemsembler to be doing
140
363000
2000
Mais il s'inquiétait que tout ce que nous semblons faire,
06:20
is tradingcommerce opinionsdes avis about this.
141
365000
2000
c'est échanger des opinions sur le sujet.
06:22
He saysdit something'scertaines choses just. She saysdit something elseautre is just.
142
367000
3000
Il me dit que quelque chose est juste. Elle me dit qu'autre chose est juste.
06:25
It's kindgentil of convincingconvaincant when he talkspourparlers and when she talkspourparlers too.
143
370000
2000
Les deux sont plutôt convaincants quand ils parlent.
06:27
I'm just going back and forthavant; I'm not gettingobtenir anywherenulle part.
144
372000
2000
Je fais des allers retours ; je n'avance pas.
06:29
I don't want opinionsdes avis; I want knowledgeconnaissance.
145
374000
3000
Je ne veux pas d'opinions, je veux de la connaissance.
06:32
I want to know the truthvérité about justiceJustice --
146
377000
3000
Je veux connaître la vérité sur la justice --
06:35
like we have truthsvérités in mathmath.
147
380000
3000
comme on connait les vérités mathématiques.
06:38
In mathmath, we know the objectiveobjectif factsfaits.
148
383000
3000
En maths, on connait les faits concrets.
06:41
Take a numbernombre, any numbernombre -- two.
149
386000
2000
Prenez un chiffre, n'importe lequel -- deux.
06:43
FavoriteFavori numbernombre. I love that numbernombre.
150
388000
2000
Mon chiffre préféré. J'adore ce chiffre.
06:45
There are truthsvérités about two.
151
390000
2000
Il y a des vérités sur le chiffre deux.
06:47
If you've got two of something,
152
392000
2000
Si vous avez une chose en deux exemplaires,
06:49
you addajouter two more, you get fourquatre.
153
394000
2000
vous en ajoutez deux, vous en obtenez quatre.
06:51
That's truevrai no mattermatière what thing you're talkingparlant about.
154
396000
2000
C'est vrai pour n'importe quelle chose.
06:53
It's an objectiveobjectif truthvérité about the formforme of two,
155
398000
2000
c'est une vérité objective sur la forme du chiffre deux,
06:55
the abstractabstrait formforme.
156
400000
2000
la forme abstraite.
06:57
When you have two of anything -- two eyesles yeux, two earsoreilles, two nosesnez,
157
402000
2000
Quand vous avez une chose en deux exemplaires -- deux yeux, deux oreilles, deux nez,
06:59
just two protrusionssaillies --
158
404000
2000
juste deux éléments --
07:01
those all partakeparticiper of the formforme of two.
159
406000
3000
ils participent tous à la forme du chiffre deux.
07:04
They all participateparticiper in the truthsvérités that two has.
160
409000
4000
Ils participent aux vérités intrinsèques du chiffre deux.
07:08
They all have two-nessdeux-ness in them.
161
413000
2000
Il y a du chiffre deux en chacun d'eux.
07:10
And thereforedonc, it's not a mattermatière of opinionopinion.
162
415000
3000
Par conséquent, ça ne dépend pas de l'opinion.
07:13
What if, PlatoPlaton thought,
163
418000
2000
Et si, Platon se disait,
07:15
ethicsdéontologie was like mathmath?
164
420000
2000
l'étique était comme les maths ?
07:17
What if there were a purepur formforme of justiceJustice?
165
422000
3000
Et s'il y avait une forme pure de justice ?
07:20
What if there are truthsvérités about justiceJustice,
166
425000
2000
Et s'il y avait des vérités sur la justice,
07:22
and you could just look around in this worldmonde
167
427000
2000
et que vous pouviez simplement regarder le monde
07:24
and see whichlequel things participatedparticipé,
168
429000
2000
et voir les choses qui y participent,
07:26
partookquelque chose qui tenait of that formforme of justiceJustice?
169
431000
3000
qui prennent part à cette forme de justice ?
07:29
Then you would know what was really just and what wasn'tn'était pas.
170
434000
3000
Vous sauriez alors ce qui est vraiment juste et ce qui ne l'est pas.
07:32
It wouldn'tne serait pas be a mattermatière
171
437000
2000
Ça ne dépendrait pas
07:34
of just opinionopinion or just appearancesapparences.
172
439000
3000
d'un simple jugement ou d'un simple aspect.
07:37
That's a stunningétourdissant visionvision.
173
442000
2000
C'est une vision stupéfiante.
07:39
I mean, think about that. How grandgrandiose. How ambitiousambitieux.
174
444000
3000
Je veux dire, pensez-y. C'est magnifique. C'est ambitieux.
07:42
That's as ambitiousambitieux as we are.
175
447000
2000
C'est aussi ambitieux que nous.
07:44
He wants to solverésoudre ethicsdéontologie.
176
449000
2000
Nous voulons résoudre les problèmes d'éthique.
07:46
He wants objectiveobjectif truthsvérités.
177
451000
2000
Nous voulons des vérités objectives.
07:48
If you think that way,
178
453000
3000
Si vous pensez de cette façon,
07:51
you have a PlatonistPlatonicien moralmoral frameworkcadre.
179
456000
3000
vous avez un système moral platonicien.
07:54
If you don't think that way,
180
459000
2000
Si vous ne pensez pas de cette façon,
07:56
well, you have a lot of companycompagnie in the historyhistoire of WesternWestern philosophyphilosophie,
181
461000
2000
eh bien, vous n'êtes pas seul dans l'histoire de la philosophie occidentale,
07:58
because the tidymettre de l’ordre ideaidée, you know, people criticizedcritiqué it.
182
463000
3000
parce que cette jolie idée -- vous savez, les gens l'ont critiquée.
08:01
AristotleAristote, in particularparticulier, he was not amusedamusé.
183
466000
3000
Aristote, en particulier, n'a pas apprécié.
08:04
He thought it was impracticalpas pratique.
184
469000
3000
Il pensait que c'était infaisable en pratique.
08:07
AristotleAristote said, "We should seekchercher only so much precisionprécision in eachchaque subjectassujettir
185
472000
4000
Aristote disait : « Nous ne devrions chercher qu'autant d'exactitude dans un sujet
08:11
as that subjectassujettir allowspermet."
186
476000
2000
que celui-ci nous le permet. »
08:13
AristotleAristote thought ethicsdéontologie wasn'tn'était pas a lot like mathmath.
187
478000
3000
Aristote pensait que l'éthique n'était pas vraiment comme les maths.
08:16
He thought ethicsdéontologie was a mattermatière of makingfabrication decisionsles décisions in the here-and-nowici et maintenant
188
481000
3000
Il pensait que l'éthique consistait à prendre des décision ici et maintenant
08:19
usingen utilisant our bestmeilleur judgmentjugement
189
484000
2000
en utilisant notre meilleur jugement
08:21
to find the right pathchemin.
190
486000
2000
pour trouver le droit chemin.
08:23
If you think that, Plato'sDe Platon not your guy.
191
488000
2000
Si vous pensez cela, Platon n'est pas votre homme.
08:25
But don't give up.
192
490000
2000
Mais n'abandonnez pas.
08:27
Maybe there's anotherun autre way
193
492000
2000
Peut-être y a-t-il un autre moyen
08:29
that we can use numbersNombres as the basisbase of our moralmoral frameworkcadre.
194
494000
3000
pour utiliser les nombres comme base de notre système moral.
08:33
How about this:
195
498000
2000
Que diriez-vous de ceci :
08:35
What if in any situationsituation you could just calculatecalculer,
196
500000
3000
et si dans n'importe quelle situation, vous pouviez simplement calculer,
08:38
look at the choicesles choix,
197
503000
2000
examiner les possibilités,
08:40
measuremesure out whichlequel one'sson better and know what to do?
198
505000
3000
évaluer laquelle est la meilleure et savoir quoi faire ?
08:43
That sounddu son familiarfamilier?
199
508000
2000
Cela vous dit quelque chose ?
08:45
That's a utilitarianutilitaires moralmoral frameworkcadre.
200
510000
3000
C'est un système moral utilitariste.
08:48
JohnJohn StuartStuart MillMill was a great advocateavocat of this --
201
513000
2000
John Stuart Mill en était un grand partisan --
08:50
niceagréable guy besidesoutre --
202
515000
2000
un type bien par ailleurs --
08:52
and only been deadmort 200 yearsannées.
203
517000
2000
et il n'est mort que depuis 200 ans.
08:54
So basisbase of utilitarianismutilitarisme --
204
519000
2000
Donc les fondements de l'utilitarisme --
08:56
I'm sure you're familiarfamilier at leastmoins.
205
521000
2000
je suis sûr que vous les connaissez.
08:58
The threeTrois people who votedvoté for MillMill before are familiarfamilier with this.
206
523000
2000
Les trois personnes qui ont voté pour Mill tout à l'heure savent ce que c'est.
09:00
But here'svoici the way it workstravaux.
207
525000
2000
Mais voilà comment ça fonctionne.
09:02
What if moralsmorale, what if what makesfait du something moralmoral
208
527000
3000
Et si la morale, si ce qui rend quelque chose moral,
09:05
is just a mattermatière of if it maximizesmaximise la pleasureplaisir
209
530000
2000
n'était qu'un calcul de plaisir maximum
09:07
and minimizesréduit au minimum paindouleur?
210
532000
2000
et de douleur minimum ?
09:09
It does something intrinsicintrinsèques to the actacte.
211
534000
3000
C'est intrinsèque au fait.
09:12
It's not like its relationrelation to some abstractabstrait formforme.
212
537000
2000
Ça n'a pas de rapport avec sa forme abstraite.
09:14
It's just a mattermatière of the consequencesconséquences.
213
539000
2000
C'est juste fonction des conséquences.
09:16
You just look at the consequencesconséquences
214
541000
2000
Vous regardez simplement les conséquences,
09:18
and see if, overallglobal, it's for the good or for the worsepire.
215
543000
2000
et vous voyez si, globalement, c'est pour le meilleur ou pour le pire.
09:20
That would be simplesimple. Then we know what to do.
216
545000
2000
Ce serait simple. Nous saurions ensuite quoi faire.
09:22
Let's take an exampleExemple.
217
547000
2000
Prenons un exemple.
09:24
SupposeSupposons que I go up
218
549000
2000
Imaginez que je vienne
09:26
and I say, "I'm going to take your phonetéléphone."
219
551000
2000
et je dise : « Je vais vous prendre votre téléphone. »
09:28
Not just because it ranga sonné earlierplus tôt,
220
553000
2000
Pas parce qu'il a sonné tout à l'heure,
09:30
but I'm going to take it because I madefabriqué a little calculationcalcul.
221
555000
3000
mais parce que j'ai fait un petit calcul.
09:33
I thought, that guy looksregards suspiciousméfiant.
222
558000
3000
Je pensais que ce type avait l'air suspect.
09:36
And what if he's been sendingenvoi little messagesmessages to BinBin Laden'sEn charge hideoutplanque --
223
561000
3000
Et s'il était en train d'envoyer des messages à la planque de Ben Laden --
09:39
or whoeverquiconque tooka pris over after BinBin LadenLaden --
224
564000
2000
ou de n'importe qui ayant pris la relève de Ben Laden --
09:41
and he's actuallyréellement like a terroristactivités terroristes, a sleeperdormeur cellcellule.
225
566000
3000
c'est en fait un terroriste, une cellule dormante.
09:44
I'm going to find that out, and when I find that out,
226
569000
3000
Je vais m'en rendre compte, et quand ce sera fait,
09:47
I'm going to preventprévenir a hugeénorme amountmontant of damagedommage that he could causecause.
227
572000
3000
je vais éviter d'énormes dégâts qu'il pourrait causer.
09:50
That has a very highhaute utilityutilitaire to preventprévenir that damagedommage.
228
575000
3000
L'intérêt est très grand d'éviter les dégâts,
09:53
And comparedpar rapport to the little paindouleur that it's going to causecause --
229
578000
2000
comparé au moindre mal qu'il y aurait
09:55
because it's going to be embarrassingembarrassant when I'm looking on his phonetéléphone
230
580000
2000
si je le gêne en regardant dans son téléphone
09:57
and seeingvoyant that he has a FarmvilleFarmville problemproblème and that wholeentier bitbit --
231
582000
3000
pour découvrir qu'il ne faisait que jouer à Farmville --
10:00
that's overwhelmedsubmergé
232
585000
3000
c'est écrasé
10:03
by the valuevaleur of looking at the phonetéléphone.
233
588000
2000
par l'utilité d'examiner son téléphone.
10:05
If you feel that way,
234
590000
2000
Si vous pensez comme cela,
10:07
that's a utilitarianutilitaires choicechoix.
235
592000
3000
c'est un choix utilitariste.
10:10
But maybe you don't feel that way eithernon plus.
236
595000
3000
Mais peut-être que vous ne pensez pas non plus comme ça.
10:13
Maybe you think, it's his phonetéléphone.
237
598000
2000
Peut-être que vous vous dites : c'est son téléphone.
10:15
It's wrongfaux to take his phonetéléphone
238
600000
2000
C'est mal de prendre son téléphone,
10:17
because he's a personla personne
239
602000
2000
parce que c'est un individu
10:19
and he has rightsdroits and he has dignitydignité,
240
604000
2000
et il a des droits et il a une dignité,
10:21
and we can't just interfereinterférer with that.
241
606000
2000
et nous ne pouvons pas interférer avec ça.
10:23
He has autonomyautonomie.
242
608000
2000
Il est autonome.
10:25
It doesn't mattermatière what the calculationscalculs are.
243
610000
2000
Peut importe les calculs.
10:27
There are things that are intrinsicallyintrinsèquement wrongfaux --
244
612000
3000
Ces choses sont intrinsèquement mauvaises --
10:30
like lyingmensonge is wrongfaux,
245
615000
2000
comme mentir est mal,
10:32
like torturingtorturer innocentinnocent childrenles enfants is wrongfaux.
246
617000
3000
de même que torturer des enfants innocents est mal.
10:35
KantKant was very good on this pointpoint,
247
620000
3000
Kant était vraiment bon sur ce sujet,
10:38
and he said it a little better than I'll say it.
248
623000
2000
et il le disait un peu mieux que je vais le dire.
10:40
He said we should use our reasonraison
249
625000
2000
Il disait que nous devrions utiliser notre raison
10:42
to figurefigure out the rulesrègles by whichlequel we should guideguider our conductconduite,
250
627000
3000
pour décider des règles selon lesquelles nous devrions orienter notre conduite.
10:45
and then it is our dutydevoir to followsuivre those rulesrègles.
251
630000
3000
Il est ensuite de notre devoir de suivre ces règles.
10:48
It's not a mattermatière of calculationcalcul.
252
633000
3000
Ça n'a rien à voir avec des calculs.
10:51
So let's stop.
253
636000
2000
Arrêtons-nous.
10:53
We're right in the thicképais of it, this philosophicalphilosophique thicketBosquet.
254
638000
3000
Nous sommes au cœur de cet enchevêtrement philosophique.
10:56
And this goesva on for thousandsmilliers of yearsannées,
255
641000
3000
Et le débat perdure depuis des milliers d'années,
10:59
because these are harddifficile questionsdes questions,
256
644000
2000
parce que ce sont des questions difficiles,
11:01
and I've only got 15 minutesminutes.
257
646000
2000
et je n'ai que 15 minutes.
11:03
So let's cutCouper to the chaseChase.
258
648000
2000
Alors allons droit au but.
11:05
How should we be makingfabrication our decisionsles décisions?
259
650000
4000
Comment devrions-nous prendre nos décisions ?
11:09
Is it PlatoPlaton, is it AristotleAristote, is it KantKant, is it MillMill?
260
654000
3000
Selon Platon, en accord avec Aristote, ou bien Kant, ou Mill ?
11:12
What should we be doing? What's the answerrépondre?
261
657000
2000
Que devrions-nous faire ? Quelle est la réponse ?
11:14
What's the formulaformule that we can use in any situationsituation
262
659000
3000
Quelle est la formule que nous pouvons utiliser dans n'importe quelle situation
11:17
to determinedéterminer what we should do,
263
662000
2000
pour déterminer ce que nous devrions faire ?
11:19
whetherqu'il s'agisse we should use that guy'sles gars dataLes données or not?
264
664000
2000
Si nous devrions utiliser les données de ce type ou pas ?
11:21
What's the formulaformule?
265
666000
3000
Quelle est la formule ?
11:25
There's not a formulaformule.
266
670000
2000
Il n'y a pas de formule.
11:29
There's not a simplesimple answerrépondre.
267
674000
2000
Il n'y a pas de réponse simple.
11:31
EthicsDéontologie is harddifficile.
268
676000
3000
L'éthique, c'est difficile.
11:34
EthicsDéontologie requiresa besoin thinkingen pensant.
269
679000
3000
L'éthique exige une réflexion.
11:38
And that's uncomfortableinconfortable.
270
683000
2000
C'est inconfortable.
11:40
I know; I spentdépensé a lot of my careercarrière
271
685000
2000
Je sais ; j'ai passé une grande partie de ma carrière
11:42
in artificialartificiel intelligenceintelligence,
272
687000
2000
dans l'intelligence artificielle,
11:44
tryingen essayant to buildconstruire machinesmachines that could do some of this thinkingen pensant for us,
273
689000
3000
à essayer de construire des machines qui puissent réfléchir là-dessus pour nous,
11:47
that could give us answersréponses.
274
692000
2000
qui puissent nous donner des réponses.
11:49
But they can't.
275
694000
2000
Mais elles ne le peuvent pas.
11:51
You can't just take humanHumain thinkingen pensant
276
696000
2000
Vous ne pouvez pas simplement prendre la pensée humaine
11:53
and put it into a machinemachine.
277
698000
2000
et la mettre dans une machine.
11:55
We're the onesceux who have to do it.
278
700000
3000
Nous devons le faire par nous-mêmes.
11:58
HappilyHeureusement, we're not machinesmachines, and we can do it.
279
703000
3000
Heureusement, nous ne sommes pas des machines, et nous pouvons le faire.
12:01
Not only can we think,
280
706000
2000
Nous pouvons non seulement penser,
12:03
we mustdoit.
281
708000
2000
mais nous le devons.
12:05
HannahHannah ArendtArendt said,
282
710000
2000
Hannah Arendt disait :
12:07
"The sadtriste truthvérité
283
712000
2000
« La triste vérité
12:09
is that mostles plus evilmal doneterminé in this worldmonde
284
714000
2000
est que la plupart du mal fait en ce monde
12:11
is not doneterminé by people
285
716000
2000
n'est pas fait par des gens
12:13
who choosechoisir to be evilmal.
286
718000
2000
qui ont choisi de faire le mal.
12:15
It arisesse pose from not thinkingen pensant."
287
720000
3000
Il surgit de l'inexistence d'une réflexion. »
12:18
That's what she calledappelé the "banalitybanalité of evilmal."
288
723000
4000
C'est ce qu'elle appelait « la banalité du mal. »
12:22
And the responseréponse to that
289
727000
2000
La réponse à cela
12:24
is that we demanddemande the exerciseexercice of thinkingen pensant
290
729000
2000
est que nous réclamons l'exercice de pensée
12:26
from everychaque sanesain d’esprit personla personne.
291
731000
3000
à toute personne sensée.
12:29
So let's do that. Let's think.
292
734000
2000
Faisons-donc cela. Pensons.
12:31
In factfait, let's startdébut right now.
293
736000
3000
En fait, commençons dès maintenant.
12:34
EveryChaque personla personne in this roomchambre do this:
294
739000
3000
Tout le monde dans la salle :
12:37
think of the last time you had a decisiondécision to make
295
742000
3000
pensez à la dernière fois que vous avez dû prendre une décision
12:40
where you were worriedinquiet to do the right thing,
296
745000
2000
où vous étiez préoccupés de faire ce qui est juste,
12:42
where you wondereddemandé, "What should I be doing?"
297
747000
2000
où vous vous êtes demandés : « Que devrais-je faire ? »
12:44
BringApporter that to mindesprit,
298
749000
2000
Pensez à cela.
12:46
and now reflectréfléchir on that
299
751000
2000
Réfléchissez maintenant à cela
12:48
and say, "How did I come up that decisiondécision?
300
753000
3000
et demandez-vous : « Comment ais-je pris cette décision ?
12:51
What did I do? Did I followsuivre my gutintestin?
301
756000
3000
Qu'est-ce que j'ai fait ? Est-ce que j'ai suivi mon instinct ?
12:54
Did I have somebodyquelqu'un votevote on it? Or did I puntpays de Pount to legallégal?"
302
759000
2000
Est-ce que j'ai fait procéder à un vote ? Ou est-ce que j'ai fait appel au service juridique ? »
12:56
Or now we have a fewpeu more choicesles choix.
303
761000
3000
Ou bien nous avons d'autres choix maintenant.
12:59
"Did I evaluateévaluer what would be the highestle plus élevé pleasureplaisir
304
764000
2000
« Est-ce que j'ai estimé ce qui procurerait le plus de plaisir,
13:01
like MillMill would?
305
766000
2000
comme Mill l'aurait fait ?
13:03
Or like KantKant, did I use reasonraison to figurefigure out what was intrinsicallyintrinsèquement right?"
306
768000
3000
Ou comme Kant, ai-je utilisé ma raison pour décider de ce qui était intrinsèquement juste ?
13:06
Think about it. Really bringapporter it to mindesprit. This is importantimportant.
307
771000
3000
Pensez-y. Vraiment. C'est important.
13:09
It is so importantimportant
308
774000
2000
C'est si important
13:11
we are going to spenddépenser 30 secondssecondes of valuablede valeur TEDTalkTEDTalk time
309
776000
2000
que nous allons passer 30 précieuses secondes de mon intervention à TED
13:13
doing nothing but thinkingen pensant about this.
310
778000
2000
à ne rien faire d'autre que d'y penser.
13:15
Are you readyprêt? Go.
311
780000
2000
Vous êtes prêts ? Allez-y.
13:33
Stop. Good work.
312
798000
3000
Arrêtez. Bon travail.
13:36
What you just did,
313
801000
2000
Ce que vous venez de faire,
13:38
that's the first stepétape towardsvers takingprise responsibilityresponsabilité
314
803000
2000
c'est le premier pas vers la prise de responsabilité
13:40
for what we should do with all of our powerPuissance.
315
805000
3000
concernant ce que nous devrions faire avec tout ce pouvoir.
13:45
Now the nextprochain stepétape -- try this.
316
810000
3000
La prochaine étape : essayez ceci.
13:49
Go find a friendami and explainExplique to them
317
814000
2000
Allez trouver un ami et expliquez-lui
13:51
how you madefabriqué that decisiondécision.
318
816000
2000
comment vous avez pris cette décision.
13:53
Not right now. Wait tilljusqu'à I finishterminer talkingparlant.
319
818000
2000
Pas tout de suite. Attendez que j'ai terminé de parler.
13:55
Do it over lunchle déjeuner.
320
820000
2000
Faites-le au déjeuner.
13:57
And don't just find anotherun autre technologisttechnologue en friendami;
321
822000
3000
N'allez pas simplement trouver un autre ami technologue ;
14:00
find somebodyquelqu'un differentdifférent than you.
322
825000
2000
trouvez quelqu'un de différent.
14:02
Find an artistartiste or a writerécrivain --
323
827000
2000
Trouvez un artiste ou un écrivain --
14:04
or, heavenparadis forbidinterdire, find a philosopherphilosophe and talk to them.
324
829000
3000
ou, Dieu vous en préserve, trouvez un philosophe et parlez leur.
14:07
In factfait, find somebodyquelqu'un from the humanitieshumanités.
325
832000
2000
En fait, trouvez quelqu'un dans les sciences humaines.
14:09
Why? Because they think about problemsproblèmes
326
834000
2000
Pourquoi ? Parce qu'ils pensent aux problèmes
14:11
differentlydifféremment than we do as technologiststechnologues.
327
836000
2000
d'une manière différente à nous les technologues.
14:13
Just a fewpeu daysjournées agodepuis, right acrossà travers the streetrue from here,
328
838000
3000
Il y a juste quelques jours, de l'autre côté de la rue ici,
14:16
there was hundredsdes centaines of people gatheredrecueillies togetherensemble.
329
841000
2000
il y avait un rassemblement de centaines de personnes.
14:18
It was technologiststechnologues and humanistshumanistes
330
843000
2000
C'était des technologues et des humanistes
14:20
at that biggros BiblioTechBiblioTech ConferenceConférence.
331
845000
2000
à la grande BiblioTech Conférence.
14:22
And they gatheredrecueillies togetherensemble
332
847000
2000
Ils étaient rassemblés
14:24
because the technologiststechnologues wanted to learnapprendre
333
849000
2000
parce que les technologues voulaient apprendre
14:26
what it would be like to think from a humanitieshumanités perspectivela perspective.
334
851000
3000
ce que cela faisait de penser du point de vue des sciences sociales.
14:29
You have someoneQuelqu'un from GoogleGoogle
335
854000
2000
Vous avez quelqu'un de chez Google
14:31
talkingparlant to someoneQuelqu'un who does comparativecomparative literatureLittérature.
336
856000
2000
qui parle à quelqu'un qui fait de la littérature comparée.
14:33
You're thinkingen pensant about the relevancepertinence of 17thth centurysiècle FrenchFrançais theaterthéâtre --
337
858000
3000
Vous vous demandez quel est l'intérêt du théâtre français du 17ème siècle --
14:36
how does that bearours uponsur ventureentreprise capitalCapitale?
338
861000
2000
quel est le lien avec le capital-risque ?
14:38
Well that's interestingintéressant. That's a differentdifférent way of thinkingen pensant.
339
863000
3000
Eh bien, c'est intéressant. C'est une manière de penser différente.
14:41
And when you think in that way,
340
866000
2000
Quand vous pensez de cette façon,
14:43
you becomedevenir more sensitivesensible to the humanHumain considerationsconsidérations,
341
868000
3000
vous devenez plus sensible aux considérations humaines,
14:46
whichlequel are crucialcrucial to makingfabrication ethicaléthique decisionsles décisions.
342
871000
3000
ce qui est crucial pour prendre des décisions éthiques.
14:49
So imagineimaginer that right now
343
874000
2000
Imaginez maintenant
14:51
you wentest allé and you founda trouvé your musicianmusicien friendami.
344
876000
2000
que vous avez trouvé votre ami musicien.
14:53
And you're tellingrécit him what we're talkingparlant about,
345
878000
3000
Vous lui racontez ce dont on parle,
14:56
about our wholeentier dataLes données revolutionrévolution and all this --
346
881000
2000
sur notre révolution des données et tout ça --
14:58
maybe even humHum a fewpeu barsbarres of our themethème musicla musique.
347
883000
2000
vous fredonnez peut-être quelques notes de notre thème musical.
15:00
DumDum tata dada dada dumDum dumDum tata dada dada dumDum
348
885000
3000
♫ Dum ta da da dum dum ta da da dum ♫
15:03
Well, your musicianmusicien friendami will stop you and say,
349
888000
2000
Votre ami musicien va vous interrompre et vous dire :
15:05
"You know, the themethème musicla musique
350
890000
2000
« Tu sais, le thème musical
15:07
for your dataLes données revolutionrévolution,
351
892000
2000
pour ta révolution des données,
15:09
that's an operaopéra, that's WagnerWagner.
352
894000
2000
c'est un opéra, c'est Wagner.
15:11
It's basedbasé on NorseNorrois legendlégende.
353
896000
2000
C'est basé sur une légende nordique.
15:13
It's GodsDieux and mythicalmythique creaturescréatures
354
898000
2000
Ce sont des dieux et des créatures mythologiques
15:15
fightingcombat over magicalmagique jewelrybijoux."
355
900000
3000
qui se battent pour des bijoux magiques. »
15:19
That's interestingintéressant.
356
904000
3000
C'est intéressant.
15:22
Now it's alsoaussi a beautifulbeau operaopéra,
357
907000
3000
C'est aussi un magnifique opéra.
15:25
and we're moveddéplacé by that operaopéra.
358
910000
3000
Nous sommes émus par cet opéra.
15:28
We're moveddéplacé because it's about the battlebataille
359
913000
2000
Nous sommes émus parce que c'est sur la bataille
15:30
betweenentre good and evilmal,
360
915000
2000
entre le bien et le mal,
15:32
about right and wrongfaux.
361
917000
2000
le juste et l'injuste.
15:34
And we carese soucier about right and wrongfaux.
362
919000
2000
Et nous nous préoccupons du juste et de l'injuste.
15:36
We carese soucier what happensarrive in that operaopéra.
363
921000
3000
Nous nous soucions de ce qui se passe dans cet opéra.
15:39
We carese soucier what happensarrive in "ApocalypseApocalypse Now."
364
924000
3000
Nous nous soucions de ce qui se passe dans "Apocalypse Now".
15:42
And we certainlycertainement carese soucier
365
927000
2000
Et nous nous préoccupons certainement
15:44
what happensarrive with our technologiesles technologies.
366
929000
2000
de ce qui se passe avec nos technologies.
15:46
We have so much powerPuissance todayaujourd'hui,
367
931000
2000
Nous avons tant de pouvoir aujourd'hui,
15:48
it is up to us to figurefigure out what to do,
368
933000
3000
ça ne dépend que de nous de savoir ce qu'on en fait.
15:51
and that's the good newsnouvelles.
369
936000
2000
C'est la bonne nouvelle.
15:53
We're the onesceux writingl'écriture this operaopéra.
370
938000
3000
Nous sommes ceux qui écrivent cet opéra.
15:56
This is our moviefilm.
371
941000
2000
C'est notre film.
15:58
We figurefigure out what will happense produire with this technologyLa technologie.
372
943000
3000
Nous décidons ce qui va arriver avec cette technologie.
16:01
We determinedéterminer how this will all endfin.
373
946000
3000
Nous déterminons comment tout cela va finir.
16:04
Thank you.
374
949000
2000
Merci.
16:06
(ApplauseApplaudissements)
375
951000
5000
(Applaudissements)
Translated by Hugo Wagner
Reviewed by Timothée Parrique

▲Back to top

ABOUT THE SPEAKER
Damon Horowitz - Philosopher, entrepreneur
Damon Horowitz explores what is possible at the boundaries of technology and the humanities.

Why you should listen

Damon Horowitz is a philosophy professor and serial entrepreneur. He recently joined Google as In-House Philosopher / Director of Engineering, heading development of several initiatives involving social and search. He came to Google from Aardvark, the social search engine, where he was co-founder and CTO, overseeing product development and research strategy. Prior to Aardvark, Horowitz built several companies around applications of intelligent language processing. He co-founded Perspecta (acquired by Excite), was lead architect for Novation Biosciences (acquired by Agilent), and co-founded NewsDB (now Daylife).

Horowitz teaches courses in philosophy, cognitive science, and computer science at several institutions, including Stanford, NYU, University of Pennsylvania and San Quentin State Prison.

Get more information on the Prison University Project >>

More profile about the speaker
Damon Horowitz | Speaker | TED.com