ABOUT THE SPEAKER
Dan Dennett - Philosopher, cognitive scientist
Dan Dennett thinks that human consciousness and free will are the result of physical processes.

Why you should listen

One of our most important living philosophers, Dan Dennett is best known for his provocative and controversial arguments that human consciousness and free will are the result of physical processes in the brain. He argues that the brain's computational circuitry fools us into thinking we know more than we do, and that what we call consciousness — isn't. His 2003 book "Freedom Evolves" explores how our brains evolved to give us -- and only us -- the kind of freedom that matters, while 2006's "Breaking the Spell" examines belief through the lens of biology.

This mind-shifting perspective on the mind itself has distinguished Dennett's career as a philosopher and cognitive scientist. And while the philosophy community has never quite known what to make of Dennett (he defies easy categorization, and refuses to affiliate himself with accepted schools of thought), his computational approach to understanding the brain has made him, as Edge's John Brockman writes, “the philosopher of choice of the AI community.”

“It's tempting to say that Dennett has never met a robot he didn't like, and that what he likes most about them is that they are philosophical experiments,” Harry Blume wrote in the Atlantic Monthly in 1998. “To the question of whether machines can attain high-order intelligence, Dennett makes this provocative answer: ‘The best reason for believing that robots might some day become conscious is that we human beings are conscious, and we are a sort of robot ourselves.'"

In recent years, Dennett has become outspoken in his atheism, and his 2006 book Breaking the Spell calls for religion to be studied through the scientific lens of evolutionary biology. Dennett regards religion as a natural -- rather than supernatural -- phenomenon, and urges schools to break the taboo against empirical examination of religion. He argues that religion's influence over human behavior is precisely what makes gaining a rational understanding of it so necessary: “If we don't understand religion, we're going to miss our chance to improve the world in the 21st century.”

Dennett's landmark books include The Mind's I, co-edited with Douglas Hofstaedter, Consciousness Explained, and Darwin's Dangerous Idea. Read an excerpt from his 2013 book, Intuition Pumps, in the Guardian >>

More profile about the speaker
Dan Dennett | Speaker | TED.com
TED2009

Dan Dennett: Cute, sexy, sweet, funny

Dan Dennett: Querido, sensual, doce, engraçado

Filmed:
3,553,924 views

Porque são queridos os bebés? Porque são doces os bolos? O filósofo Dan Dennett tem respostas inesperadas e partilha um raciocínio contraintuitivo acerca de coisas queridas, doces e sensuais, sob o ponto de vista da evolução (e uma nova teoria de Matthew Hurley sobre a razão pela qual as piadas são engraçadas).
- Philosopher, cognitive scientist
Dan Dennett thinks that human consciousness and free will are the result of physical processes. Full bio

Double-click the English transcript below to play the video.

00:12
I’m going around the worldmundo givingdando talksfala about DarwinDarwin,
0
0
3000
Eu percorro o mundo inteiro
a fazer palestras sobre Darwin.
00:15
and usuallygeralmente what I’m talkingfalando about
1
3000
2000
Normalmente, falo sobre
a estranha inversão
do raciocínio de Darwin.
00:17
is DarwinDarwin’s strangeestranho inversioninversão of reasoningraciocínio.
2
5000
3000
00:20
Now that titletítulo, that phrasefrase, comesvem from a criticcrítico, an earlycedo criticcrítico,
3
8000
5000
Aquele título, aquela frase,
veio de um dos primeiros críticos,
00:25
and this is a passagepassagem that I just love, and would like to readler for you.
4
13000
4000
e esta é uma passagem que adoro
e que gostaria de vos ler.
00:29
"In the theoryteoria with whichqual we have to dealacordo, AbsoluteAbsoluto IgnoranceIgnorância is the artificerartesão;
5
17000
5000
"Na teoria com a qual temos de lidar,
o artífice é a Ignorância Absoluta,
00:34
so that we maypode enunciateenunciar as the fundamentalfundamental principleprincípio of the wholetodo systemsistema,
6
22000
5000
"de tal forma que podemos enunciar como
princípio fundamental de todo o sistema,
00:39
that, in orderordem to make a perfectperfeito and beautifulbonita machinemáquina,
7
27000
3000
"que, para fazermos
uma máquina bela e perfeita,
00:42
it is not requisiterequisito to know how to make it.
8
30000
3000
"não é necessário sabermos fazê-la.
00:45
This propositionproposição will be foundencontrado on carefulCuidado examinationexame to expressexpressar,
9
33000
4000
"Esta proposição, analisada cuidadosamente,
"exprime, de forma condensada,
a pretensão essencial da Teoria
00:49
in condensedcondensada formFormato, the essentialessencial purportpropõe-se of the TheoryTeoria,
10
37000
4000
00:53
and to expressexpressar in a fewpoucos wordspalavras all MrSenhor deputado. DarwinDarwin’s meaningsignificado;
11
41000
4000
"e exprime, em poucas palavras,
todo o significado do Sr. Darwin
00:57
who, by a strangeestranho inversioninversão of reasoningraciocínio,
12
45000
4000
"que, por uma estranha
inversão de raciocínio,
01:01
seemsparece to think AbsoluteAbsoluto IgnoranceIgnorância fullytotalmente qualifiedqualificada
13
49000
3000
"parece pensar que a Ignorância Absoluta
está qualificada
01:04
to take the placeLugar, colocar of AbsoluteAbsoluto WisdomSabedoria in the achievementsconquistas of creativecriativo skillhabilidade."
14
52000
6000
"para tomar o lugar da Sabedoria Absoluta
na consecução de capacidade criativa".
(Risos)
01:10
ExactlyExatamente. ExactlyExatamente. And it is a strangeestranho inversioninversão.
15
58000
7000
Exatamente.
(Risos)
Exatamente. É uma estranha inversão.
01:17
A creationistcriacionista pamphletpanfleto has this wonderfulMaravilhoso pagepágina in it:
16
65000
4000
Um panfleto criacionista
tem esta página maravilhosa:
01:21
"TestTeste Two:
17
69000
2000
"Teste Dois:
01:23
Do you know of any buildingconstrução that didnNão’t have a builderConstrutor? Yes/No.
18
71000
4000
"Conhece algum edifício
que não tenha tido um construtor? SIM — NÃO
01:27
Do you know of any paintingpintura that didnNão’t have a painterpintor? Yes/No.
19
75000
3000
"Conhece alguma pintura
que não tenha tido um pintor? SIM — NÃO
01:30
Do you know of any carcarro that didnNão’t have a makercriador? Yes/No.
20
78000
4000
"Conhece algum carro
que não tenha tido um fabricante? SIM — NÃO
01:34
If you answeredrespondidas 'Yes''Sim' for any of the aboveacima, give detailsdetalhes."
21
82000
5000
"Se respondeu 'SIM' a alguma
destas perguntas, dê pormenores".
(Risos)
01:39
A-ha-Ha! I mean, it really is a strangeestranho inversioninversão of reasoningraciocínio.
22
87000
6000
Aha! Quer dizer, isto é mesmo
uma estranha inversão de raciocínio.
01:45
You would have thought it standsfica to reasonrazão
23
93000
4000
Parece razoável pensar-se
que o 'design' requer
um 'designer' inteligente.
01:49
that designdesenhar requiresexige an intelligentinteligente designerdesigner.
24
97000
4000
01:53
But DarwinDarwin showsmostra that it’s just falsefalso.
25
101000
2000
Mas Darwin mostra que isso é falso.
01:55
TodayHoje, thoughApesar, I’m going to talk about DarwinDarwin’s other strangeestranho inversioninversão,
26
103000
5000
No entanto, hoje vou falar-vos
da outra estranha inversão de Darwin,
02:00
whichqual is equallyigualmente puzzlingintrigante at first, but in some waysmaneiras just as importantimportante.
27
108000
6000
que é igualmente enigmática ao princípio,
mas de certa forma igualmente importante.
02:06
It standsfica to reasonrazão that we love chocolatechocolate cakebolo because it is sweetdoce.
28
114000
7000
É razoável pensar que adoramos
bolo de chocolate porque é doce.
02:13
Guys go for girlsmeninas like this because they are sexysexy.
29
121000
6000
Os rapazes gostam destas raparigas
porque elas são sensuais.
02:19
We adoreAdoro babiesbebês because they’reRe so cutebonito.
30
127000
4000
Adoramos bebés porque são tão queridos.
02:23
And, of coursecurso, we are amusedse divertiu by jokespiadas because they are funnyengraçado.
31
131000
9000
E, claro, divertimo-nos com anedotas
porque são engraçadas.
02:32
This is all backwardspara trás. It is. And DarwinDarwin showsmostra us why.
32
140000
7000
Isto está tudo ao contrário.
E Darwin mostra-nos porquê.
02:39
Let’s startcomeçar with sweetdoce. Our sweetdoce toothdente is basicallybasicamente an evolvedevoluiu sugaraçúcar detectordetector de,
33
147000
8000
Comecemos com os doces.
Gostamos de doces porque desenvolvemos
um detetor de açúcar,
02:47
because sugaraçúcar is highAlto energyenergia, and it’s just been wiredcom fio up to the prefererpreferer,
34
155000
4000
porque o açúcar tem muita energia,
e estamos programados para o preferir,
02:51
to put it very crudelycruamente, and that’s why we like sugaraçúcar.
35
159000
5000
dito de forma simplista,
e é por isso que gostamos de açúcar.
02:56
HoneyQuerida is sweetdoce because we like it, not "we like it because honeymel is sweetdoce."
36
164000
7000
O mel é doce porque gostamos dele,
e não "gostamos de mel porque é doce".
03:03
There’s nothing intrinsicallyintrinsecamente sweetdoce about honeymel.
37
171000
5000
Não há nada de intrinsecamente doce no mel.
03:08
If you lookedolhou at glucoseglicose moleculesmoléculas tillaté you were blindcego,
38
176000
4000
Se olhassem para moléculas de glicose
até ficarem cegos,
03:12
you wouldnNão’t see why they tastedprovado sweetdoce.
39
180000
3000
não iriam ver a razão pela qual são doces.
03:15
You have to look in our brainscérebro to understandCompreendo why they’reRe sweetdoce.
40
183000
6000
Teriam que olhar para o nosso cérebro
para perceber porque são doces.
03:21
So if you think first there was sweetnessDoçura,
41
189000
2000
Por isso, se pensam
que primeiro houve a doçura,
03:23
and then we evolvedevoluiu to like sweetnessDoçura,
42
191000
2000
e depois evoluímos para gostar de doçura,
03:25
you’veve got it backwardspara trás; that’s just wrongerrado. It’s the other way roundvolta.
43
193000
4000
estão a perceber ao contrário;
está errado.
É exatamente ao contrário.
03:29
SweetnessDoçura was bornnascermos with the wiringfiação whichqual evolvedevoluiu.
44
197000
4000
A doçura nasceu
com os mecanismos que evoluíram.
03:33
And there’s nothing intrinsicallyintrinsecamente sexysexy about these youngjovem ladiessenhoras.
45
201000
4000
Também não há nada de intrinsecamente
sensual nestas jovens.
03:37
And it’s a good thing that there isnisn’t, because if there were,
46
205000
5000
E ainda bem que não há
porque, se houvesse,
03:42
then MotherMãe NatureNatureza would have a problemproblema:
47
210000
4000
então a Mãe Natureza teria um problema:
Como conseguiria fazer com que
os chimpanzés acasalassem?
03:46
How on earthterra do you get chimpschimpanzés to matecompanheiro de?
48
214000
5000
(Risos)
03:53
Now you mightpoderia think, ahah, there’s a solutionsolução: hallucinationsalucinações.
49
221000
8000
Podiam pensar:
"Ah! há uma solução: alucinações!"
(Risos)
04:01
That would be one way of doing it, but there’s a quickermais rápido way.
50
229000
4000
Isso seria uma forma de o fazer,
mas há uma forma mais rápida.
04:05
Just wirefio the chimpschimpanzés up to love that look,
51
233000
3000
Programem os chimpanzés
para gostar daquele aspeto,
04:08
and apparentlypelo visto they do.
52
236000
3000
e, segundo parece, eles gostam.
04:11
That’s all there is to it.
53
239000
4000
É tudo quanto há a dizer.
04:16
Over sixseis millionmilhão yearsanos, we and the chimpschimpanzés evolvedevoluiu our differentdiferente waysmaneiras.
54
244000
4000
Ao longo de 6 milhões de anos,
nós e os chimpanzés
evoluímos de forma diferente.
04:20
We becamepassou a ser bald-bodiedcareca-bodied, oddlyestranhamente enoughsuficiente;
55
248000
3000
Perdemos o pelo corporal, estranhamente;
04:23
for one reasonrazão or anotheroutro, they didnNão’t.
56
251000
4000
por qualquer razão, e eles não.
04:27
If we hadnNão seria’t, then probablyprovavelmente this would be the heightaltura of sexinesssensualidade.
57
255000
12000
Se não tivéssemos perdido, provavelmente
isto seria o pico da sensualidade.
(Risos)
04:39
Our sweetdoce toothdente is an evolvedevoluiu and instinctualinstintivo preferencepreferência for high-energyalta energia foodComida.
58
267000
5000
O nosso gosto pela doçura
é um instinto que evoluímos
para preferir alimentos
altamente energéticos.
04:44
It wasnNão era’t designedprojetado for chocolatechocolate cakebolo.
59
272000
3000
Não foi feito para gostar
de bolo de chocolate.
04:47
ChocolateChocolate cakebolo is a supernormalsupernormal stimulusestímulo.
60
275000
3000
O bolo de chocolate
é um estímulo "supernormal".
04:50
The termprazo is oweddevido to NikoNiko TinbergenTinbergen,
61
278000
2000
Este termo deve-se a Niko Tinbergen,
04:52
who did his famousfamoso experimentsexperiências with gullsgaivotas,
62
280000
2000
que fez uma experiência
famosa com gaivotas,
04:54
where he foundencontrado that that orangelaranja spotlocal on the gullGaivota’s beakbico --
63
282000
4000
em que descobriu que, se aumentasse
a mancha laranja no bico da gaivota
04:58
if he madefeito a biggerMaior, orangerOranger spotlocal
64
286000
2000
05:00
the gullGaivota chicksfilhotes would peckPeck at it even hardermais difíceis.
65
288000
2000
as crias da gaivota iriam
bicá-la ainda mais.
05:02
It was a hyperstimulushyperstimulus for them, and they lovedAmado it.
66
290000
3000
Era um hiper-estímulo para elas
e elas adoravam-na.
05:05
What we see with, say, chocolatechocolate cakebolo
67
293000
4000
O que acontece com o bolo de chocolate,
é que é um estímulo supernormal
para mexer com a nossa programação.
05:09
is it’s a supernormalsupernormal stimulusestímulo to tweakTweak our designdesenhar wiringfiação.
68
297000
5000
05:14
And there are lots of supernormalsupernormal stimuliestímulos; chocolatechocolate cakebolo is one.
69
302000
3000
Há muitos estímulos supernormais.
O bolo de chocolate é um deles.
05:17
There's lots of supernormalsupernormal stimuliestímulos for sexinesssensualidade.
70
305000
3000
Há muitos estímulos supernormais
para a sensualidade.
05:20
And there's even supernormalsupernormal stimuliestímulos for cutenessfofura. Here’s a prettybonita good exampleexemplo.
71
308000
6000
Até há estímulos supernormais
para coisas queridas.
Aqui está um bom exemplo.
05:26
It’s importantimportante that we love babiesbebês, and that we not be put off by, say, messybagunçado diapersfraldas.
72
314000
5000
É importante que gostemos de bebés
e que as fraldas sujas não nos incomodem
05:31
So babiesbebês have to attractatrai our affectionafeição and our nurturingnutrindo, and they do.
73
319000
6000
Os bebés têm que atrair o nosso afeto
e o nosso cuidado, e é o que fazem.
05:37
And, by the way, a recentrecente studyestude showsmostra that mothersmães
74
325000
4000
Já agora, um estudo recente mostra
que as mães preferem o cheiro
das fraldas sujas do seu bebé.
05:41
preferpreferem the smellcheiro of the dirtysujo diapersfraldas of theirdeles ownpróprio babybebê.
75
329000
3000
05:44
So naturenatureza workstrabalho on manymuitos levelsníveis here.
76
332000
3000
A natureza funciona aqui a muitos níveis.
05:47
But now, if babiesbebês didnNão’t look the way they do -- if babiesbebês lookedolhou like this,
77
335000
5000
Mas, se os bebés não tivessem
o aspeto que têm,
se tivessem este aspeto,
05:52
that’s what we would find adorableadorável, that’s what we would find --
78
340000
4000
seria isto que acharíamos adorável,
05:56
we would think, oh my goodnessbondade, do I ever want to hugabraço that.
79
344000
6000
ue pensaríamos:
"Meu deus, apetece-me tanto abraçá-lo".
06:02
This is the strangeestranho inversioninversão.
80
350000
2000
Esta é a estranha inversão.
06:04
Well now, finallyfinalmente what about funnyengraçado. My answerresponda is, it’s the samemesmo storyhistória, the samemesmo storyhistória.
81
352000
7000
Por fim, relativamente às anedotas.
A minha resposta é, a mesma história,
é a mesma história.
06:11
This is the hardDifícil one, the one that isnisn’t obviousóbvio. That’s why I leavesair it to the endfim.
82
359000
4000
Esta é a mais difícil, a que não é óbvia.
Por isso é que a deixei para o fim.
06:15
And I wonGanhou’t be ablecapaz to say too much about it.
83
363000
2000
E não vou poder dizer muito acerca dela.
06:17
But you have to think evolutionarilyevolutivamente, you have to think, what hardDifícil jobtrabalho that has to be donefeito --
84
365000
6000
Mas devem pensar de forma evolucionária,
têm que pensar que é preciso
fazer o trabalho difícil.
06:23
it’s dirtysujo work, somebodyalguém’s got to do it --
85
371000
3000
É um trabalho sujo,
alguém tem que o fazer -
06:26
is so importantimportante to give us suchtal a powerfulpoderoso, inbuiltembutido rewardrecompensa for it when we succeedter sucesso.
86
374000
8000
É muito importante darem-nos uma recompensa
poderosa quando temos sucesso.
06:34
Now, I think we'venós temos foundencontrado the answerresponda -- I and a fewpoucos of my colleaguescolegas.
87
382000
4000
Acho que encontrámos a resposta,
eu e alguns dos meus colegas.
06:38
It’s a neuralneural systemsistema that’s wiredcom fio up to rewardrecompensa the braincérebro
88
386000
4000
É um sistema neuronal programado
para recompensar o cérebro
06:42
for doing a grubbybichado clericalclerical jobtrabalho.
89
390000
5000
por fazer um mero trabalho rotineiro.
06:48
Our bumperPara-choques stickeradesivo for this viewVisão is
90
396000
4000
A nossa frase feita
para este ponto de vista seria
06:52
that this is the joyalegria of debuggingdepuração de.
91
400000
3000
que isto é a alegria da depuração.
06:55
Now I’m not going to have time to spellfeitiço it all out,
92
403000
2000
Não vou ter tempo
para explicar muitos detalhes,
06:57
but I’llll just say that only some kindstipos of debuggingdepuração de get the rewardrecompensa.
93
405000
5000
mas vou dizer apenas que alguns tipos
de depuração obtêm a recompensa.
07:02
And what we’reRe doing is we’reRe usingusando humorhumor as a sortordenar of neuroscientificneurocientíficos probesonda
94
410000
8000
O que estamos a fazer é usar o humor
como uma sonda neurocientífica
07:10
by switchingcomutando humorhumor on and off, by turninggiro the knobbotão on a jokegracejo --
95
418000
4000
ligando e desligando o humor,
rodando o botão para uma dada piada:
07:14
now it’s not funnyengraçado ... oh, now it’s funniermais engraçado ...
96
422000
2000
isto tem piada...
oh, isto tem ainda mais piada...
07:16
now we’llll turnvirar a little bitpouco more ... now it’s not funnyengraçado --
97
424000
2000
agora vou rodar um pouco mais...
isto não tem piada.
07:18
in this way, we can actuallyna realidade learnaprender something
98
426000
3000
Desta forma, podemos
aprender qualquer coisa
07:21
about the architecturearquitetura of the braincérebro,
99
429000
2000
acerca da arquitetura do cérebro.
07:23
the functionalfuncional architecturearquitetura of the braincérebro.
100
431000
2000
da arquitetura funcional do cérebro.
07:25
MatthewMateus HurleyHurley is the first authorautor of this. We call it the HurleyHurley ModelModelo.
101
433000
5000
Matthew Hurley foi o primeiro autor disto.
Chamámo-llhe Modelo de Hurley.
07:30
He’s a computercomputador scientistcientista, ReginaldReginald AdamsAdams a psychologistpsicólogo, and there I am,
102
438000
4000
É um cientista informático,
Reginal Adams é psicólogo, e aqui estou eu.
07:34
and we’reRe puttingcolocando this togetherjuntos into a booklivro.
103
442000
2000
Estamos a juntar tudo isto num livro.
07:36
Thank you very much.
104
444000
3000
Muito obrigado.
(Aplausos)
Translated by Sérgio Lopes
Reviewed by Diogo Pereira

▲Back to top

ABOUT THE SPEAKER
Dan Dennett - Philosopher, cognitive scientist
Dan Dennett thinks that human consciousness and free will are the result of physical processes.

Why you should listen

One of our most important living philosophers, Dan Dennett is best known for his provocative and controversial arguments that human consciousness and free will are the result of physical processes in the brain. He argues that the brain's computational circuitry fools us into thinking we know more than we do, and that what we call consciousness — isn't. His 2003 book "Freedom Evolves" explores how our brains evolved to give us -- and only us -- the kind of freedom that matters, while 2006's "Breaking the Spell" examines belief through the lens of biology.

This mind-shifting perspective on the mind itself has distinguished Dennett's career as a philosopher and cognitive scientist. And while the philosophy community has never quite known what to make of Dennett (he defies easy categorization, and refuses to affiliate himself with accepted schools of thought), his computational approach to understanding the brain has made him, as Edge's John Brockman writes, “the philosopher of choice of the AI community.”

“It's tempting to say that Dennett has never met a robot he didn't like, and that what he likes most about them is that they are philosophical experiments,” Harry Blume wrote in the Atlantic Monthly in 1998. “To the question of whether machines can attain high-order intelligence, Dennett makes this provocative answer: ‘The best reason for believing that robots might some day become conscious is that we human beings are conscious, and we are a sort of robot ourselves.'"

In recent years, Dennett has become outspoken in his atheism, and his 2006 book Breaking the Spell calls for religion to be studied through the scientific lens of evolutionary biology. Dennett regards religion as a natural -- rather than supernatural -- phenomenon, and urges schools to break the taboo against empirical examination of religion. He argues that religion's influence over human behavior is precisely what makes gaining a rational understanding of it so necessary: “If we don't understand religion, we're going to miss our chance to improve the world in the 21st century.”

Dennett's landmark books include The Mind's I, co-edited with Douglas Hofstaedter, Consciousness Explained, and Darwin's Dangerous Idea. Read an excerpt from his 2013 book, Intuition Pumps, in the Guardian >>

More profile about the speaker
Dan Dennett | Speaker | TED.com