ABOUT THE SPEAKER
Beau Lotto - Neuroscientist, Artist
Beau Lotto is founder of Lottolab, a hybrid art studio and science lab. With glowing, interactive sculpture -- and old-fashioned peer-reviewed research--he's illuminating the mysteries of the brain's visual system.

Why you should listen

"Let there be perception," was evolution's proclamation, and so it was that all creatures, from honeybees to humans, came to see the world not as it is, but as was most useful. This uncomfortable place--where what an organism's brain sees diverges from what is actually out there--is what Beau Lotto and his team at Lottolab are exploring through their dazzling art-sci experiments and public illusions. Their Bee Matrix installation, for example, places a live bee in a transparent enclosure where gallerygoers may watch it seek nectar in a virtual meadow of luminous Plexiglas flowers. (Bees, Lotto will tell you, see colors much like we humans do.) The data captured isn't just discarded, either: it's put to good use in probing scientific papers, and sometimes in more exhibits.

At their home in London’s Science Museum, the lab holds "synesthetic workshops" where kids and adults make abstract paintings that computers interpret into music, and they host regular Lates--evenings of science, music and "mass experiments." Lotto is passionate about involving people from all walks of life in research on perception--both as subjects and as fellow researchers. One such program, called "i,scientist," in fact led to the publication of the first ever peer-reviewed scientific paper written by schoolchildren ("Blackawton Bees," December 2010). It starts, "Once upon a time ..."

These and Lotto's other conjurings are slowly, charmingly bending the science of perception--and our perceptions of what science can be.

More profile about the speaker
Beau Lotto | Speaker | TED.com
TEDGlobal 2009

Beau Lotto: Optical illusions show how we see

Beau Lotto: Ilusões óticas mostram como enxergamos

Filmed:
7,158,267 views

Os jogos de cores de Beau Lotto vão embaralhar a sua visão, mas também destacam o que você normalmente não consegue ver: como o seu cérebro funciona. Essa divertida visão em primeira mão de nosso sentido de visão revela como a evolução molda sua visão e sua percepção do mundo.
- Neuroscientist, Artist
Beau Lotto is founder of Lottolab, a hybrid art studio and science lab. With glowing, interactive sculpture -- and old-fashioned peer-reviewed research--he's illuminating the mysteries of the brain's visual system. Full bio

Double-click the English transcript below to play the video.

00:13
I want to start with a game.
0
1000
3000
Eu quero começar com um jogo.
00:16
And to win this game,
1
4000
2000
E para vencer nesse jogo,
00:18
all you have to do is see the reality that's in front of you
2
6000
3000
tudo o que você tem de fazer é ver a realidade que está na sua frente
00:21
as it really is. All right?
3
9000
2000
como ela realmente é. Combinado?
00:23
So, we have two panels here,
4
11000
2000
Então, nós temos dois painéis aqui
00:25
of colored dots.
5
13000
2000
com pontos coloridos
00:27
And one of those dots is the same
6
15000
3000
E um desses pontos é da mesma cor
00:30
in the two panels. Okay?
7
18000
3000
nos dois painéis. Certo?
00:33
And you have to tell me which one.
8
21000
2000
E você tem de me dizer qual é.
00:35
Now, narrow it down to
9
23000
3000
Agora, focalizem os pontos
00:38
the gray one, the green one and, say, the orange one.
10
26000
3000
cinza, verde e o laranja
00:41
So, by a show of hands -- we'll start with the easiest one --
11
29000
3000
Então, levantem as mãos -- vamos começar pelo mais fácil --
00:44
Show of hands: how many people think it's the gray one?
12
32000
4000
Levantem as mãos: quem pensa que é o cinza?
00:48
Really? Okay.
13
36000
2000
Verdade? Certo.
00:50
How many people think it's the green one?
14
38000
5000
Quantas pessoas pensam que é o verde?
00:55
And how many people think it's the orange one?
15
43000
4000
E quantas pessoas pensam que é o laranja?
00:59
Pretty even split.
16
47000
3000
Igualmente divididos.
01:02
Let's find out what the reality is.
17
50000
3000
Vamos descobrir qual é a realidade.
01:05
Here is the orange one.
18
53000
3000
Aqui está o laranja.
01:08
(Laughter)
19
56000
2000
(Risos)
01:10
Here is the green one.
20
58000
3000
Aqui está o verde.
01:13
And here is the gray one.
21
61000
4000
E aqui está o cinza.
01:17
(Laughter)
22
65000
3000
(Risos)
01:20
So, for all of you who saw that, you're a complete realist. All right?
23
68000
4000
Então, cada um que viu isso é um verdadeiro realista, certo?
01:24
(Laughter)
24
72000
2000
(Risos)
01:26
So, this is pretty amazing, actually, isn't it?
25
74000
2000
Isso é bem impressionante, não é?
01:28
Because nearly every living system
26
76000
2000
Porquê quase todos os seres vivos
01:30
has evolved the ability to detect light in one way or another.
27
78000
3000
desenvolveram uma habilidade de detectar luz de uma maneira ou outra.
01:33
So, for us, seeing color is one of the simplest things the brain does.
28
81000
5000
Então, para nós, enxergar cores é uma das coisas mais simples que o cérebro faz.
01:38
And yet, even at this most fundamental level,
29
86000
2000
E mesmo assim, até nesse nível simples e fundamental,
01:40
context is everything.
30
88000
3000
contexto é tudo.
01:43
What I want to talk about is not that context is everything,
31
91000
3000
O que eu quero falar hoje não é que contexto é tudo,
01:46
but why is context everything.
32
94000
2000
mas sim porque o contexto é tudo.
01:48
Because it's answering that question that tells us not only
33
96000
4000
Porque a resposta a essa questão nos diz não só
01:52
why we see what we do,
34
100000
2000
porque nós enxergamos o que enxergamos,
01:54
but who we are as individuals,
35
102000
2000
mas quem nós realmente somos como indivíduos,
01:56
and who we are as a society.
36
104000
3000
e quem nós somos como uma sociedade.
01:59
But first, we have to ask another question,
37
107000
2000
Mas primeiro, temos que pensar em uma outra pergunta,
02:01
which is, "What is color for?"
38
109000
2000
que é, "Qual a finalidade das cores?"
02:03
And instead of telling you, I'll just show you.
39
111000
2000
E ao invés de dizer, eu vou mostrar pra vocês.
02:05
What you see here is a jungle scene,
40
113000
3000
O que vocês vêem aqui é uma floresta.
02:08
and you see the surfaces according to the amount
41
116000
2000
E vocês enxergam a superfície de acordo com a quantidade
02:10
of light that those surfaces reflect.
42
118000
2000
de luz que a superfície reflete.
02:12
Now, can any of you see the predator that's about to jump out at you?
43
120000
5000
Agora, alguém consegue ver um predador que está prestes a pular em vocês?
02:17
And if you haven't seen it yet, you're dead. Right?
44
125000
2000
E se você ainda não o viu, você está morto. Certo?
02:19
(Laughter)
45
127000
2000
(Risos)
02:21
Can anyone see it? Anyone? No?
46
129000
2000
Alguém consegue ver? Alguém? Não?
02:23
Now, let's see the surfaces according to the quality of light that they reflect.
47
131000
4000
Agora, vamos ver as superfícies de acordo com a qualidade de luz que elas refletem.
02:27
And now you see it.
48
135000
3000
E agora vocês conseguem ver.
02:30
So, color enables us to see
49
138000
3000
Então, a cor permite-nos ver
02:33
the similarities and differences between surfaces,
50
141000
2000
as similaridades e diferenças entre as superfícies,
02:35
according to the full spectrum of light that they reflect.
51
143000
3000
de acordo com o espectro total de luz que elas refletem.
02:38
But what you've just done is, in many respects, mathematically impossible.
52
146000
4000
Mas o que vocês acabaram de fazer, é em vários aspectos, matematicamente impossível.
02:42
Why? Because, as Berkeley tells us,
53
150000
3000
Porquê? Porque, como Berkeley diz,
02:45
we have no direct access to our physical world,
54
153000
3000
nós não temos acesso direto ao nosso mundo físico,
02:48
other than through our senses.
55
156000
2000
a não ser através de nossos sentidos.
02:50
And the light that falls onto our eyes
56
158000
2000
E a luz que entra em nossos olhos
02:52
is determined by multiple things in the world --
57
160000
2000
é determinada por múltiplas variantes em nosso mundo --
02:54
not only the color of objects,
58
162000
2000
não só as cores dos objetos,
02:56
but also the color of their illumination,
59
164000
2000
mas também a cor da iluminação dos objetos,
02:58
and the color of the space between us and those objects.
60
166000
3000
e a cor do espaço entre nós e esses objetos.
03:01
You vary any one of those parameters,
61
169000
2000
Você altera qualquer um destes parâmetros,
03:03
and you'll change the color of the light that falls onto your eye.
62
171000
5000
e você mudará a cor da luz que entra no seu olho.
03:08
This is a huge problem because it means that
63
176000
2000
Isso é um grande problema porque significa que
03:10
the same image could have an infinite number
64
178000
3000
a mesma imagem pode ter uma infinidade
03:13
of possible real-world sources.
65
181000
3000
de fontes possíveis no mundo real.
03:16
So let me show you what I mean. Imagine that this is the back of your eye.
66
184000
3000
Então deixe-me mostrar o que eu quero dizer. Imagine que isto é o fundo do seu olho.
03:19
And these are two projections from the world.
67
187000
3000
E que estas são duas projeções do mundo.
03:22
They are identical in every single way.
68
190000
3000
Elas são idênticas em todos os sentidos.
03:25
Identical in shape, size, spectral content.
69
193000
4000
Em tamanho, formato e conteúdo espectral.
03:29
They are the same, as far as your eye is concerned.
70
197000
4000
Elas são as mesmas, no que concerne ao seu olho.
03:33
And yet they come from completely different sources.
71
201000
5000
Mas elas vem de fontes completamente diferentes.
03:38
The one on the right
72
206000
2000
A da direita
03:40
comes from a yellow surface,
73
208000
3000
vem de uma superfície amarela,
03:43
in shadow, oriented facing the left,
74
211000
2000
na sombra, virada para a esquerda,
03:45
viewed through a pinkish medium.
75
213000
3000
através de um meio rosado.
03:48
The one on the left comes from an orange surface,
76
216000
3000
A da esquerda vem de uma superfície laranja,
03:51
under direct light, facing to the right,
77
219000
2000
sobre luz direta, virada para a direita,
03:53
viewed through a sort of a bluish medium.
78
221000
2000
através de um meio azulado.
03:55
Completely different meanings,
79
223000
3000
Significados completamente diferentes,
03:58
giving rise to the exact same retinal information.
80
226000
3000
mas mostrando informações retinais iguais.
04:01
And yet it's only the retinal information
81
229000
2000
E ainda é só a informação retinal
04:03
that we get.
82
231000
2000
que nós recebemos.
04:05
So how on Earth do we even see?
83
233000
3000
Então como é que nós conseguimos enxergar?
04:08
So, if you remember anything in this next 18 minutes,
84
236000
4000
Então, se você decorar qualquer coisa nos próximos 18 minutos,
04:12
remember this: that the light that falls on to your eye,
85
240000
3000
decore isto: a luz que entra em nosso olho,
04:15
sensory information, is meaningless,
86
243000
2000
informação sensorial, não tem significado.
04:17
because it could mean literally anything.
87
245000
3000
Porque pode literalmente significar qualquer coisa.
04:20
And what's true for sensory information is true for information generally.
88
248000
3000
E o que é verdade para informação sensorial é verdade para a informação em geral.
04:23
There is no inherent meaning in information.
89
251000
2000
Não existe significado inerente em relação à informação.
04:25
It's what we do with that information that matters.
90
253000
4000
É o que nós fazemos com essa informação que importa.
04:29
So, how do we see? Well, we see by learning to see.
91
257000
3000
Então, como nós enxergamos? Bom, nós enxergamos aprendendo a enxergar.
04:32
So, the brain evolved the mechanisms for finding patterns,
92
260000
4000
Então, o cérebro evolui mecanismos para encontrar padrões,
04:36
finding relationships in information
93
264000
2000
achando relações em informações,
04:38
and associating those relationships
94
266000
2000
e associando essas relações
04:40
with a behavioral meaning,
95
268000
2000
com um significado comportamental,
04:42
a significance, by interacting with the world.
96
270000
3000
um sentido, interagindo com o mundo.
04:45
We're very aware of this
97
273000
2000
Estamos muito conscientes disto
04:47
in the form of more cognitive attributes, like language.
98
275000
3000
na forma de atributos cognitivos, como linguagem.
04:50
So, I'm going to give you some letter strings. And I want you to read them out for me,
99
278000
2000
Então, eu vou mostrar-lhes algumas sequências de letras. E eu quero que vocês leiam para mim,
04:52
if you can.
100
280000
2000
se vocês conseguirem.
04:54
Audience: "Can you read this?"
101
282000
3000
Platéia: "Can you read this?"
04:57
"You are not reading this."
102
285000
2000
"You are not reading this."
04:59
"What are you reading?"
103
287000
2000
"What are you reading?"
05:01
Beau Lotto: "What are you reading?" Half the letters are missing. Right?
104
289000
3000
Beau Lotto: "What are you reading?" Metade das letras não estão aí. Certo?
05:04
There is no a priori reason why an "H" has to go
105
292000
2000
Não há razão a priori para um "H" ter de estar
05:06
between that "W" and "A."
106
294000
2000
entre o "W" e o "A".
05:08
But you put one there. Why?
107
296000
2000
Mas você coloca um lá. Porquê?
05:10
Because in the statistics of your past experience
108
298000
2000
Porquê estatisticamente na sua experiência passada
05:12
it would have been useful to do so. So you do so again.
109
300000
3000
foi útil fazer desta maneira, então você faz da mesma maneira.
05:15
And yet you don't put a letter after that first "T."
110
303000
3000
E você não coloca uma letra após aquele "T".
05:18
Why? Because it wouldn't have been useful in the past.
111
306000
3000
Porquê? Porquê não foi útil no passado.
05:21
So you don't do it again.
112
309000
2000
Então você não o faz de novo.
05:23
So let me show you how quickly our brains can redefine normality,
113
311000
4000
Agora deixe-me mostrar rapidamente como o nosso cérebro consegue redefinir a normalidade
05:27
even at the simplest thing the brain does, which is color.
114
315000
2000
até no processo mais simples que ele faz, que é a cor.
05:29
So, if I could have the lights down up here.
115
317000
3000
Então, se poderem diminuir as luzes aqui.
05:32
I want you to first notice that those two desert scenes are physically the same.
116
320000
3000
Eu quero que vocês reparem que essas duas cenas de deserto são fisicamente a mesma.
05:35
One is simply the flipping of the other. Okay?
117
323000
5000
Uma é simplesmente a outra invertida. Certo?
05:40
Now I want you to look at that dot
118
328000
2000
Agora eu quero que vocês se concentrem naquele ponto
05:42
between the green and the red. Okay?
119
330000
3000
entre o verde e o vermelho. Certo?
05:45
And I want you to stare at that dot. Don't look anywhere else.
120
333000
3000
E eu quero que vocês olhem fixamente o ponto. Não olhem pra nenhum outro local.
05:48
And we're going to look at that for about 30 seconds,
121
336000
1000
E vamos olhar isso aí por uns 30 segundos,
05:49
which is a bit of a killer in an 18-minute talk.
122
337000
3000
o que é ruim numa palestra de 18 minutos.
05:52
(Laughter)
123
340000
1000
(Risos)
05:53
But I really want you to learn.
124
341000
2000
Mas eu quero que vocês aprendam.
05:55
And I'll tell you -- don't look anywhere else --
125
343000
3000
E eu vou lhes contar -- não olhem para nenhum outro local --
05:58
and I'll tell you what's happening inside your head.
126
346000
2000
e eu vou lhes contar o que está acontecendo nas suas cabeças.
06:00
Your brain is learning. And it's learning that the right side of its visual field
127
348000
3000
Seu cérebro está aprendendo. E está aprendendo que o lado direito do seu campo visual
06:03
is under red illumination;
128
351000
2000
está sob iluminação vermelha;
06:05
the left side of its visual field is under green illumination.
129
353000
3000
e o lado esquerdo do seu campo visual está sob iluminação verde.
06:08
That's what it's learning. Okay?
130
356000
3000
É isso que ele está aprendendo. Certo?
06:11
Now, when I tell you, I want you to look at the dot between the two desert scenes.
131
359000
5000
Agora, quando eu disser, eu quero que vocês olhem para o ponto entre as duas cenas de deserto.
06:16
So why don't you do that now?
132
364000
2000
Então, porquê não fazer isso agora?
06:18
(Laughter)
133
366000
3000
(Risos)
06:21
Can I have the lights up again?
134
369000
2000
Podem acender as luzes de novo?
06:23
I take it from your response they don't look the same anymore. Right?
135
371000
4000
Pela reação de vocês eu percebi que elas não parecem mais as mesmas, certo?
06:27
(Applause)
136
375000
1000
(Aplausos)
06:28
Why? Because your brain is seeing that same information
137
376000
3000
Por quê? Porquê seu cérebro está vendo aquela mesma informação
06:31
as if the right one is still under red light,
138
379000
2000
como se a imagem da direita ainda estivesse sob luz vermelha,
06:33
and the left one is still under green light.
139
381000
2000
e a da esquerda ainda está sob luz verde.
06:35
That's your new normal.
140
383000
2000
Esse é o seu novo normal.
06:37
So, what does this mean for context?
141
385000
2000
Então, o que isso significa para o contexto?
06:39
It means that I can take these two identical squares,
142
387000
2000
Significa que eu posso pegar esses dois quadrados idênticos,
06:41
and I can put them in light and dark surrounds.
143
389000
2000
e coloca-los sobre fundo claro e escuro.
06:43
And now the one on the dark surround looks lighter than the one on the light surround.
144
391000
3000
E agora o que está no fundo escuro parece ser mais claro do que o que está no fundo claro.
06:46
What's significant is not simply the light and dark surrounds that matter.
145
394000
4000
O significado não é simplesmente que os fundos claros e escuros são relevantes.
06:50
It's what those light and dark surrounds meant for your behavior in the past.
146
398000
4000
É o que esses fundos claros e escuros significaram para o seu comportamento no passado.
06:54
So I'll show you what I mean. Here we have
147
402000
2000
Então vou mostrar o que quero dizer. Aqui nós temos
06:56
that exact same illusion.
148
404000
2000
a mesma ilusão.
06:58
We have two identical tiles, on the left,
149
406000
2000
Temos dois azulejos idênticos, na esquerda
07:00
one in a dark surround, one in a light surround.
150
408000
2000
um com um fundo escuro, um com um fundo claro.
07:02
And the same thing over on the right.
151
410000
2000
E a mesma coisa na direita.
07:04
Now, what I'm going to do is I'm going to review those two scenes.
152
412000
3000
Agora, o que eu vou fazer é tornar a olhar para estas duas cenas.
07:07
But I'm not going to change anything within those boxes,
153
415000
2000
Mas não vou alterar nada dentro dessas caixas,
07:09
except their meaning.
154
417000
2000
exceto o significado delas.
07:11
And see what happens to your perception.
155
419000
2000
E veja o que acontece com a sua percepção.
07:13
Notice that on the left
156
421000
2000
Perceba que na esquerda
07:15
the two tiles look nearly completely opposite:
157
423000
3000
os dois azulejos parecem quase completamente opostos:
07:18
one very white and one very dark.
158
426000
2000
um está bem claro e outro bem escuro.
07:20
All right? Whereas on the right,
159
428000
2000
Certo? Enquanto isso, na direita,
07:22
the two tiles look nearly the same.
160
430000
2000
os dois azulejos parecem ser quase os mesmos.
07:24
And yet there is still one on a dark surround and one on a light surround.
161
432000
4000
E ainda assim um está no fundo escuro, e um no fundo claro.
07:28
Why? Because if the tile in that shadow
162
436000
3000
Porquê? Porquê se o azulejo daquela sombra
07:31
were in fact in shadow,
163
439000
2000
estivesse de fato na sombra,
07:33
and reflecting the same amount of light to your eye
164
441000
2000
e refletindo a mesma porção de luz para o seu olho
07:35
as the one outside the shadow,
165
443000
2000
como o azulejo que está fora da sombra
07:37
it would have to be more reflective -- just the laws of physics.
166
445000
3000
teria de ser mais refletivo -- são as leis da física.
07:40
So you see it that way.
167
448000
2000
Então você enxerga dessa maneira.
07:42
Whereas on the right, the information is consistent
168
450000
3000
Considerando o da direita, a informação é consistente
07:45
with those two tiles being under the same light.
169
453000
2000
com aqueles dois azulejos que estão sob a mesma luz.
07:47
If they are under the same light, reflecting the same amount of light
170
455000
2000
Se eles estão sob a mesma luz, refletindo a mesma porção de luz
07:49
to your eye,
171
457000
2000
para o seu olho,
07:51
then they must be equally reflective.
172
459000
2000
então eles devem refletir igualmente.
07:53
So you see it that way.
173
461000
2000
Então você vê dessa maneira.
07:55
Which means we can bring all this information together
174
463000
2000
O que significa que podemos juntar toda essa informação
07:57
to create some incredibly strong illusions.
175
465000
2000
para criar algumas ilusões incrivelmente poderosas.
07:59
This is one I made a few years ago.
176
467000
2000
Esta eu fiz há alguns anos atrás.
08:01
And you'll notice you see a dark brown tile at the top,
177
469000
3000
E você vai perceber que você vê um azulejo marrom escuro em cima
08:04
and a bright orange tile at the side.
178
472000
3000
e um azulejo laranja no lado.
08:07
That is your perceptual reality. The physical reality
179
475000
2000
Essa é a realidade da sua percepção. E a realidade física
08:09
is that those two tiles are the same.
180
477000
5000
é que esses dois azulejos são iguais.
08:14
Here you see four gray tiles on your left,
181
482000
3000
Aqui você vê quatro azulejos cinza à sua esquerda,
08:17
seven gray tiles on the right.
182
485000
2000
sete azulejos cinza à direita.
08:19
I'm not going to change those tiles at all,
183
487000
2000
Eu não vou alterar esses azulejos de nenhuma forma
08:21
but I'm going to reveal the rest of the scene
184
489000
2000
Mas eu vou revelar o resto da cena.
08:23
and see what happens to your perception.
185
491000
3000
E veja o que acontece com a sua percepção.
08:26
The four blue tiles on the left are gray.
186
494000
4000
Os quatro azulejos azuis na esquerda são cinza.
08:30
The seven yellow tiles on the right are also gray.
187
498000
3000
Os sete azulejos amarelos à direita também são cinza.
08:33
They are the same. Okay?
188
501000
2000
Eles são os mesmos. Certo?
08:35
Don't believe me? Let's watch it again.
189
503000
4000
Não acreditam em mim? Vamos ver de novo.
08:39
What's true for color is also true for complex perceptions of motion.
190
507000
4000
O que é verdade para as cores também é verdade para a percepção de movimentos complexos.
08:43
So here we have --
191
511000
3000
Então aqui nós temos --
08:46
let's turn this around -- a diamond.
192
514000
5000
vamos virar isto -- um diamante
08:51
And what I'm going to do is, I'm going to hold it here,
193
519000
2000
E o que eu vou fazer é isso. Vou segura-lo aqui,
08:53
and I'm going to spin it.
194
521000
4000
e vou gira-lo.
08:57
And for all of you, you'll see it probably spinning this direction.
195
525000
3000
E todos vocês provavelmente o verão girando nesta direção.
09:00
Now I want you to keep looking at it.
196
528000
3000
Agora quero que vocês continuem olhando para ele.
09:03
Move your eyes around, blink, maybe close one eye.
197
531000
2000
Movimentem seus olhos, pisquem, ou então fechem um olho.
09:05
And suddenly it will flip, and start spinning the opposite direction.
198
533000
4000
E de repente ele vai se inverter e começar a girar na direção oposta.
09:09
Yes? Raise your hand if you got that. Yes?
199
537000
3000
Sim? Levantem a mão se vocês conseguiram ver. Sim?
09:12
Keep blinking. Every time you blink it will switch. Alright?
200
540000
4000
Continue piscando. Sempre que vocês piscarem ele vai mudar. Certo?
09:16
So I can ask you, which direction is it rotating?
201
544000
4000
Então eu posso perguntar, em qual direção ele está rodando?
09:20
How do you know?
202
548000
2000
Como vocês sabem?
09:22
Your brain doesn't know. Because both are equally likely.
203
550000
3000
Seu cérebro não sabe. Porquê ambos são igualmente prováveis.
09:25
So depending on where it looks, it flips
204
553000
2000
Então dependendo de como você olha, ele muda
09:27
between the two possibilities.
205
555000
3000
entre as duas possibilidades.
09:30
Are we the only ones that see illusions?
206
558000
2000
Seremos nós os únicos que vêem ilusões?
09:32
The answer to this question is no.
207
560000
2000
A resposta a esta questão é não.
09:34
Even the beautiful bumblebee,
208
562000
2000
Até a linda abelha,
09:36
with its mere one million brain cells,
209
564000
2000
com apenas um milhão de células cerebrais,
09:38
which is 250 times fewer cells than you have in one retina,
210
566000
3000
o que é 250 vezes menos células do que você têm em uma retina,
09:41
sees illusions, does the most complicated things
211
569000
3000
vêem ilusões, fazem coisas muito complicadas
09:44
that even our most sophisticated computers can't do.
212
572000
3000
que até nosso computador mais sofisticado não consegue fazer.
09:47
So in my lab, we of course work on bumblebees.
213
575000
2000
Então no meu laboratório, é claro que nós trabalhamos com abelhas.
09:49
Because we can completely control their experience,
214
577000
2000
Porquê conseguimos controlar completamente a experiência delas,
09:51
and see how that alters the architecture of their brain.
215
579000
2000
e vemos como isso altera a arquitetura do cérebro delas.
09:53
And we do this in what we call the Bee Matrix.
216
581000
3000
E fazemos isso no que nós chamamos de A Matrix das Abelhas.
09:56
And here you have the hive. You can see the queen bee,
217
584000
2000
E aqui temos a colméia. Podem ver a abelha rainha,
09:58
that large bee in the middle there. Those are all her daughters, the eggs.
218
586000
3000
aquela abelha grande no meio ali. Aquelas são todas suas filhas, os ovos.
10:01
And they go back and forth between this hive
219
589000
3000
E elas vão e voltam entre essa colméia
10:04
and the arena, via this tube.
220
592000
5000
e a arena, através deste tubo.
10:09
And you'll see one of the bees come out here.
221
597000
2000
E você vai ver uma das abelhas saindo.
10:11
You see how she has a little number on her?
222
599000
3000
Você consegue ver como ela têm um pequeno número nela?
10:14
Yeah there is another one coming out. She has another number on her.
223
602000
3000
E tem mais uma saindo. Ela têm um número nela também.
10:17
Now, they are not born that way. Right?
224
605000
3000
Bom, elas não nasceram desse jeito. Certo?
10:20
We pull them out, put them in the fridge, and they fall asleep.
225
608000
2000
Nós as tiramos, colocamos numa geladeira, e elas adormecem.
10:22
And then you can superglue little numbers on them.
226
610000
2000
E daí usamos superbonder para colocar os números nelas.
10:24
(Laughter)
227
612000
2000
(Risos)
10:26
And now, in this experiment they get rewarded if they go to the blue flowers.
228
614000
4000
E agora neste experimento elas são premiadas se forem às flores azuis.
10:30
And they land on the flower. They stick their tongue in there,
229
618000
3000
E elas aterrissam na flor.Elas enfiam a língua delas lá dentro,
10:33
called a proboscis, and they drink sugar water.
230
621000
2000
que é chamada probóscide, e elas bebem a água açucarada.
10:35
Now she is drinking a glass of water that's about that big to you and I,
231
623000
3000
Agora ela está bebendo um copo de água que equivale mais ou menos a esse tamanho para nós,
10:38
will do that about three times, and then fly.
232
626000
6000
e ela vai fazer isso umas três vezes, e daí vai voar.
10:44
And sometimes they learn not to go to the blue,
233
632000
2000
E algumas vezes elas aprendem a não ir nas azuis,
10:46
but to go to where the other bees go.
234
634000
2000
e vão aonde as outras abelhas estão indo.
10:48
So they copy each other. They can count to five. They can recognize faces.
235
636000
3000
Então elas copiam umas às outras. Elas conseguem contar até cinco. Elas conseguem reconhecer rostos.
10:51
And here she comes down the ladder.
236
639000
3000
E aqui vem ela descendo a escada.
10:54
And she'll come into the hive, find an empty honey pot
237
642000
2000
E ela vai entrar na colméia, achar um favo vazio,
10:56
and throw up, and that's honey.
238
644000
2000
e vomitar lá, e isso é o mel.
10:58
(Laughter)
239
646000
1000
(Risos)
10:59
Now remember -- (Laughter)
240
647000
3000
Agora lembrem-se -- (Risos)
11:02
-- she's supposed to be going to the blue flowers.
241
650000
2000
-- ela tem de ir às flores azuis.
11:04
But what are these bees doing in the upper right corner?
242
652000
3000
Mas o que aquelas abelhas estão fazendo no canto superior direito?
11:07
It looks like they're going to green flowers.
243
655000
2000
Parece que elas estão indo nas flores verdes.
11:09
Now, are they getting it wrong?
244
657000
3000
Bom, elas estão erradas?
11:12
And the answer to the question is no. Those are actually blue flowers.
245
660000
3000
E a resposta é não, aquelas são na verdade flores azuis.
11:15
But those are blue flowers under green light.
246
663000
4000
Mas aquelas flores azuis estão sob luz verde.
11:19
So they are using the relationships between the colors to solve the puzzle,
247
667000
4000
Então elas estão usando a relação entre as cores para resolver o quebra-cabeça.
11:23
which is exactly what we do.
248
671000
2000
Que é exatamente o que nós fazemos.
11:25
So, illusions are often used,
249
673000
2000
Então, ilusões são muito usadas,
11:27
especially in art, in the words of a more contemporary artist,
250
675000
4000
especialmente na arte, nas palavras de um artista mais contemporâneo,
11:31
"to demonstrate the fragility of our senses."
251
679000
2000
"para demonstrar a fragilidade dos nossos sentidos."
11:33
Okay, this is complete rubbish.
252
681000
3000
Certo, isso é uma bobagem completa.
11:36
The senses aren't fragile. And if they were, we wouldn't be here.
253
684000
3000
Nossos sentidos não são frágeis. E se eles fossem, nós não estaríamos aqui hoje.
11:39
Instead, color tells us something completely different,
254
687000
4000
Em vez disso, a cor nos diz algo completamente diferente,
11:43
that the brain didn't actually evolve to see the world the way it is.
255
691000
3000
que o cérebro não evoluiu para ver o mundo como ele é.
11:46
We can't. Instead, the brain evolved to see the world
256
694000
4000
Nós não podemos. Em vez disso, nosso cérebro evoluiu para ver o mundo
11:50
the way it was useful to see in the past.
257
698000
3000
da forma que foi útil ver no passado.
11:53
And how we see is by continually redefining normality.
258
701000
6000
E a maneira como enxergamos é redefinindo continuamente a normalidade.
11:59
So how can we take this
259
707000
4000
Então podemos aproveitar esta
12:03
incredible capacity of plasticity of the brain
260
711000
3000
incrível capacidade de plasticidade do cérebro
12:06
and get people to experience their world differently?
261
714000
3000
e fazer as pessoas experimentarem o mundo de forma diferentemente?
12:09
Well, one of the ways we do in my lab and studio
262
717000
3000
Bom, uma das coisas que fazemos no meu laboratório e estúdio
12:12
is we translate the light into sound
263
720000
3000
é traduzir luz em som
12:15
and we enable people to hear their visual world.
264
723000
4000
e permitimos que as pessoas ouçam seu mundo visual.
12:19
And they can navigate the world using their ears.
265
727000
3000
E elas podem navegar pelo mundo usando os ouvidos.
12:22
Here is David, in the right. And he is holding a camera.
266
730000
3000
Aqui está o David, na direita e ele está segurando uma câmera.
12:25
On the left is what his camera sees.
267
733000
2000
Na esquerda está o que a câmera vê.
12:27
And you'll see there is a line, a faint line going across that image.
268
735000
3000
E você pode ver que existe uma linha passando através da imagem.
12:30
That line is broken up into 32 squares.
269
738000
3000
Essa linha está quebrada em 32 quadrados.
12:33
In each square we calculate the average color.
270
741000
2000
E em cada quadrado nós calculamos a cor.
12:35
And then we just simply translate that into sound.
271
743000
2000
E simplesmente traduzimos isso em som.
12:37
And now he's going to
272
745000
3000
E agora ele vai
12:40
turn around, close his eyes,
273
748000
4000
se virar, fechar os olhos,
12:44
and find a plate on the ground with his eyes closed.
274
752000
3000
e achar um prato no chão, com os olhos fechados.
13:06
He finds it. Amazing. Right?
275
774000
2000
Ele achou. Impressionante. Certo?
13:08
So not only can we create a prosthetic for the visually impaired,
276
776000
2000
Então nós podemos não só criar uma prótese para os que têm problemas de visão,
13:10
but we can also investigate how people
277
778000
3000
mas também podemos investigar como as pessoas
13:13
literally make sense of the world.
278
781000
3000
literalmente fazem sentido do mundo.
13:16
But we can also do something else. We can also make music with color.
279
784000
4000
E também podemos fazer mais uma coisa. Podemos fazer música com cor.
13:20
So, working with kids,
280
788000
2000
Então, trabalhando com crianças,
13:22
they created images,
281
790000
2000
eles criaram imagens,
13:24
thinking about what might the images you see
282
792000
2000
pensando sobre como as imagens que vemos
13:26
sound like if we could listen to them.
283
794000
2000
iriam soar se pudéssemos ouvi-las.
13:28
And then we translated these images.
284
796000
2000
E então nós traduzimos estas imagens.
13:30
And this is one of those images.
285
798000
2000
E está é uma dessas imagens.
13:32
And this is a six-year-old child composing a piece of music
286
800000
3000
E aqui podemos ver uma criança de seis anos compondo uma peça musical
13:35
for a 32-piece orchestra.
287
803000
3000
para uma orquestra com 32 componentes.
13:38
And this is what it sounds like.
288
806000
2000
E aqui está como ela soa.
14:06
So, a six-year-old child. Okay?
289
834000
3000
Então, uma criança de seis anos, certo?
14:09
Now, what does all this mean?
290
837000
3000
Agora, o que tudo isso significa?
14:12
What this suggests is that no one is an outside observer
291
840000
3000
Isso sugere que ninguém é um observador externo
14:15
of nature. Okay?
292
843000
2000
da natureza. Certo?
14:17
We are not defined by our central properties,
293
845000
2000
Nós não somos definidos pelas nossas propriedades centrais,
14:19
by the bits that make us up.
294
847000
2000
pelos bits que nos formam.
14:21
We're defined by our environment and our interaction with that environment --
295
849000
3000
Somos definidos pelo ambiente e nossa interação com esse ambiente --
14:24
by our ecology.
296
852000
2000
pela nossa ecologia.
14:26
And that ecology is necessarily relative,
297
854000
4000
E essa ecologia é necessariamente relativa,
14:30
historical and empirical.
298
858000
2000
histórica e empírica.
14:32
So what I'd like to finish with is this over here.
299
860000
6000
Então quero finalizar com isto aqui.
14:38
Because what I've been trying to do is really celebrate uncertainty.
300
866000
3000
Porque o que eu realmente tenho tentado fazer é celebrar a incerteza.
14:41
Because I think only through uncertainty is there potential for understanding.
301
869000
4000
Porque eu penso que somente pela incerteza existe potencial para a compreensão.
14:45
So, if some of you are still feeling a bit too certain,
302
873000
3000
Então, se alguém ainda está se sentindo um pouco certo demais,
14:48
I'd like to do this one.
303
876000
2000
eu gostaria de fazer isto aqui.
14:50
So, if we have the lights down.
304
878000
2000
Então, podem abaixar as luzes.
14:52
And what we have here --
305
880000
6000
E o que nós temos aqui --
14:58
Can everyone see 25 purple surfaces
306
886000
3000
Todos conseguem ver vinte cinco superfícies roxas
15:01
on your left,
307
889000
2000
à sua esquerda,
15:03
and 25, call it yellowish, surfaces on your right?
308
891000
4000
e vinte cinco amareladas à sua direita?
15:07
So, now, what I want to do:
309
895000
2000
Então, agora, o que eu quero fazer:
15:09
I'm going to put the middle nine surfaces here
310
897000
2000
Eu vou colocar as nove superfícies do meio aqui
15:11
under yellow illumination
311
899000
2000
sob iluminação amarela
15:13
by simply putting a filter behind them.
312
901000
4000
simplesmente colocando um filtro atrás delas.
15:17
All right. Now you can see that changes the light
313
905000
3000
Certo. Agora vocês todos conseguem ver que isso muda a luz
15:20
that's coming through there. Right?
314
908000
2000
que está atravessando lá, certo?
15:22
Because now the light is going through a yellowish filter
315
910000
2000
Porquê agora a luz está atravessando um filtro amarelado
15:24
and then a purplish filter.
316
912000
2000
e então um filtro roxo.
15:26
I'm going to do this opposite on the left here.
317
914000
5000
Eu vou fazer o oposto aqui na esquerda.
15:31
I'm going to put the middle nine under a purplish light.
318
919000
7000
Vou colocar os nove do meio sob luz roxa.
15:38
Now, some of you will notice that the consequence is that
319
926000
4000
Agora, alguns de vocês vão notar que a consequência é que
15:42
the light coming through those middle nine on the right,
320
930000
3000
a luz atravessando esses nove do meio da direita,
15:45
or your left,
321
933000
2000
ou melhor, sua esquerda,
15:47
is exactly the same as the light coming through
322
935000
2000
é exatamente a mesma que a luz atravessando
15:49
the middle nine on your right.
323
937000
2000
os nove do meio a sua direita.
15:51
Agreed? Yes?
324
939000
3000
Concordam? Certo?
15:54
Okay. So they are physically the same.
325
942000
2000
Certo. Então eles são fisicamente iguais.
15:56
Let's pull the covers off.
326
944000
6000
Vamos tirar a cobertura.
16:02
Now remember,
327
950000
4000
Agora lembrem-se,
16:06
you know the middle nine are exactly the same.
328
954000
3000
vocês sabem que os nove do meio são exatamente iguais.
16:09
Do they look the same? No.
329
957000
4000
Eles parecem ser os mesmos? Não.
16:13
The question is, "Is that an illusion?"
330
961000
2000
A pergunta é, "Isto é uma ilusão?"
16:15
And I'll leave you with that.
331
963000
2000
E vou deixar vocês com ela.
16:17
So, thank you very much.
332
965000
2000
Então, muito obrigado.
16:19
(Applause)
333
967000
3000
(Aplausos)
Translated by Charles Santos
Reviewed by Durval Castro

▲Back to top

ABOUT THE SPEAKER
Beau Lotto - Neuroscientist, Artist
Beau Lotto is founder of Lottolab, a hybrid art studio and science lab. With glowing, interactive sculpture -- and old-fashioned peer-reviewed research--he's illuminating the mysteries of the brain's visual system.

Why you should listen

"Let there be perception," was evolution's proclamation, and so it was that all creatures, from honeybees to humans, came to see the world not as it is, but as was most useful. This uncomfortable place--where what an organism's brain sees diverges from what is actually out there--is what Beau Lotto and his team at Lottolab are exploring through their dazzling art-sci experiments and public illusions. Their Bee Matrix installation, for example, places a live bee in a transparent enclosure where gallerygoers may watch it seek nectar in a virtual meadow of luminous Plexiglas flowers. (Bees, Lotto will tell you, see colors much like we humans do.) The data captured isn't just discarded, either: it's put to good use in probing scientific papers, and sometimes in more exhibits.

At their home in London’s Science Museum, the lab holds "synesthetic workshops" where kids and adults make abstract paintings that computers interpret into music, and they host regular Lates--evenings of science, music and "mass experiments." Lotto is passionate about involving people from all walks of life in research on perception--both as subjects and as fellow researchers. One such program, called "i,scientist," in fact led to the publication of the first ever peer-reviewed scientific paper written by schoolchildren ("Blackawton Bees," December 2010). It starts, "Once upon a time ..."

These and Lotto's other conjurings are slowly, charmingly bending the science of perception--and our perceptions of what science can be.

More profile about the speaker
Beau Lotto | Speaker | TED.com