ABOUT THE SPEAKER
Ben Goldacre - Debunker
Ben Goldacre unpicks dodgy scientific claims made by scaremongering journalists, dubious government reports, pharmaceutical corporations, PR companies and quacks.

Why you should listen

"It was the MMR story that finally made me crack," begins the Bad Science manifesto, referring to the sensationalized -- and now-refuted -- link between vaccines and autism. With that sentence Ben Goldacre fired the starting shot of a crusade waged from the pages of The Guardian from 2003 to 2011, on an addicitve Twitter feed, and in bestselling books, including Bad Science and his latest, Bad Pharma, which puts the $600 billion global pharmaceutical industry under the microscope. What he reveals is a fascinating, terrifying mess.

Goldacre was trained in medicine at Oxford and London, and works as an academic in epidemiology. Helped along by this inexhaustible supply of material, he also travels the speaking circuit, promoting skepticism and nerdish curiosity with fire, wit, fast delivery and a lovable kind of exasperation. (He might even convince you that real science, sober reporting and reason are going to win in the end.)

As he writes, "If you're a journalist who misrepresents science for the sake of a headline, a politician more interested in spin than evidence, or an advertiser who loves pictures of molecules in little white coats, then beware: your days are numbered."

Read an excerpt of Bad Pharma >>

More profile about the speaker
Ben Goldacre | Speaker | TED.com
TEDGlobal 2011

Ben Goldacre: Battling bad science

Бен Голдэйкр: Боремся с плохой наукой

Filmed:
2,713,579 views

Каждый день появляются новые советы в области здоровья, но откуда мы знаем, правда ли это? Врач и эпидемиолог Бен Голдэйкр в молниеносном темпе объясняет нам, как можно исказить доказательства, от совершенно очевидных случаев с продуктами питания и до хитрых трюков в фармацевтической промышленности.
- Debunker
Ben Goldacre unpicks dodgy scientific claims made by scaremongering journalists, dubious government reports, pharmaceutical corporations, PR companies and quacks. Full bio

Double-click the English transcript below to play the video.

00:15
So I'm a doctorврач, but I kindсвоего рода of slippedпроскользнул sidewaysвбок into researchисследование,
0
0
3000
Итак, я врач, но я как-то ушел в сторону исследований,
00:18
and now I'm an epidemiologistэпидемиолог.
1
3000
2000
так что я теперь эпидемиолог.
00:20
And nobodyникто really knowsзнает what epidemiologyэпидемиология is.
2
5000
2000
Никто толком не знает, что такое эпидемиология.
00:22
Epidemiologyэпидемиология is the scienceнаука of how we know in the realреальный worldМир
3
7000
3000
Эпидемиология – это наука о том, как мы узнаем в реальности,
00:25
if something is good for you or badПлохо for you.
4
10000
2000
хорошо для нас что-то или плохо.
00:27
And it's bestЛучший understoodпонимать throughчерез exampleпример
5
12000
2000
И лучше всего это объяснить на примере,
00:29
as the scienceнаука of those crazyпсих, wackyчокнутый newspaperгазета headlinesзаголовки.
6
14000
5000
вроде "науки" в этих сумасшедших газетных заголовках.
00:34
And these are just some of the examplesПримеры.
7
19000
2000
Вот вам несколько примеров.
00:36
These are from the DailyЕжедневно Mailпочта. Everyкаждый countryстрана in the worldМир has a newspaperгазета like this.
8
21000
3000
Это из Daily Mail. Подобная газета есть в любой стране мира.
00:39
It has this bizarreэксцентричный, ongoingпостоянный philosophicalфилософский projectпроект
9
24000
3000
У них всегда есть этот странный философский проект
00:42
of dividingразделительный all the inanimateнеодушевленный objectsобъекты in the worldМир
10
27000
2000
по разделению всех неодушевленных объектов в мире
00:44
into the onesте, that eitherили causeпричина or preventне допустить cancerрак.
11
29000
3000
на те, что вызывают рак, и те, что предотвращают его.
00:47
So here are some of the things they said causeпричина cancerрак recentlyв последнее время:
12
32000
2000
Вот некоторые причины рака, которые они определили недавно:
00:49
divorceразвод, Wi-FiВай-фай, toiletriesтуалетные принадлежности and coffeeкофе.
13
34000
2000
развод, Wi-Fi, туалетные принадлежности и кофе.
00:51
Here are some of the things they say preventsпредотвращает cancerрак:
14
36000
2000
А эти вещи, как они говорят, предотвращают рак:
00:53
crustsкорок, redкрасный pepperперец, licoriceлакрица and coffeeкофе.
15
38000
2000
сухари, красный перец, лакрица и кофе.
00:55
So alreadyуже you can see there are contradictionsпротиворечия.
16
40000
2000
Вы уже видите, что есть противоречия.
00:57
CoffeeКофе bothи то и другое causesпричины and preventsпредотвращает cancerрак.
17
42000
2000
Кофе и вызывает рак, и предотвращает его.
00:59
And as you startНачало to readчитать on, you can see
18
44000
2000
Начав читать, вы сразу понимаете,
01:01
that maybe there's some kindсвоего рода of politicalполитическая valenceвалентность behindза some of this.
19
46000
3000
что за некоторыми вещами может лежать политический подтекст.
01:04
So for womenженщины, houseworkдомашние дела preventsпредотвращает breastгрудь cancerрак,
20
49000
2000
Так, работа по дому предотвращает рак груди у женщин,
01:06
but for menлюди, shoppingпоход по магазинам could make you impotentбессильный.
21
51000
3000
но мужчин шоппинг может сделать импотентом.
01:09
So we know that we need to startНачало
22
54000
3000
Нам уже понятно, что нужно начать
01:12
unpickingunpicking the scienceнаука behindза this.
23
57000
3000
разоблачать "науку", которая за этим стоит.
01:15
And what I hopeнадежда to showпоказать
24
60000
2000
И я как раз надеюсь показать,
01:17
is that unpickingunpicking dodgyизворотливый claimsтребования,
25
62000
2000
что разоблачение бесчестных притязаний,
01:19
unpickingunpicking the evidenceдоказательства behindза dodgyизворотливый claimsтребования,
26
64000
2000
разоблачение доказательств, которые за ними стоят, –
01:21
isn't a kindсвоего рода of nastyпротивный carpingпридирчивый activityМероприятия;
27
66000
3000
это не какие-то мерзкие придирки,
01:24
it's sociallyсоциально usefulполезным,
28
69000
2000
а общественно полезный труд,
01:26
but it's alsoтакже an extremelyочень valuableценный
29
71000
2000
а также чрезвычайно ценный
01:28
explanatoryпояснительная toolинструмент.
30
73000
2000
пояснительный инструмент.
01:30
Because realреальный scienceнаука is all about
31
75000
2000
Потому что настоящая наука заключается
01:32
criticallyкритически appraisingоценки the evidenceдоказательства for somebodyкто-то else'sлибо еще, positionдолжность.
32
77000
2000
в критической оценке доказательств чужой точки зрения.
01:34
That's what happensпроисходит in academicакадемический journalsжурналы.
33
79000
2000
Вот что происходит в научных журналах.
01:36
That's what happensпроисходит at academicакадемический conferencesконференций.
34
81000
2000
Вот что происходит на научных конференциях.
01:38
The Q&A sessionсессия after a post-opпослеоперационный presentsподарки dataданные
35
83000
2000
Диспуты после презентации данных
01:40
is oftenдовольно часто a bloodкровь bathванна.
36
85000
2000
превращаются в кровавую баню.
01:42
And nobodyникто mindsумов that. We activelyактивно welcomeдобро пожаловать it.
37
87000
2000
И никто не против. Мы активно приветствуем это.
01:44
It's like a consentingсоглашаясь intellectualинтеллектуальной S&M activityМероприятия.
38
89000
3000
Мы согласны на интеллектуальный садомазохизм.
01:47
So what I'm going to showпоказать you
39
92000
2000
Я хочу показать вам
01:49
is all of the mainглавный things,
40
94000
2000
один из основных аспектов,
01:51
all of the mainглавный featuresфункции of my disciplineдисциплина --
41
96000
2000
основных элементов моей дисциплины, –
01:53
evidence-basedоснованные на фактических данных medicineлекарственное средство.
42
98000
2000
доказательной медицины.
01:55
And I will talk you throughчерез all of these
43
100000
2000
И я расскажу вам обо всём этом
01:57
and demonstrateдемонстрировать how they work,
44
102000
2000
и продемонстрирую, как это работает,
01:59
exclusivelyисключительно usingс помощью examplesПримеры of people gettingполучение stuffматериал wrongнеправильно.
45
104000
3000
исключительно на примерах, когда люди понимают всё неправильно.
02:02
So we'llЧто ж startНачало with the absoluteабсолютный weakestслабейший formформа of evidenceдоказательства knownизвестен to man,
46
107000
3000
Итак, начнём со слабейшей формы доказательств, известной человеку, –
02:05
and that is authorityвласть.
47
110000
2000
авторитета.
02:07
In scienceнаука, we don't careзабота how manyмногие lettersбуквы you have after your nameимя.
48
112000
3000
В науке нам не важно, сколько регалий прилагается к вашему имени.
02:10
In scienceнаука, we want to know what your reasonsпричины are for believingполагая something.
49
115000
3000
Нам важно знать, какие у вас есть основания верить чему-либо.
02:13
How do you know that something is good for us
50
118000
2000
Откуда вы знаете, что что-то для нас полезно
02:15
or badПлохо for us?
51
120000
2000
или вредно?
02:17
But we're alsoтакже unimpressedневпечатлен by authorityвласть,
52
122000
2000
Но авторитет нас не очень впечатляет,
02:19
because it's so easyлегко to contriveзатевать.
53
124000
2000
потому что его легко сфабриковать.
02:21
This is somebodyкто-то calledназывается Drдоктор. GillianДжиллиан McKeithMcKeith PhpH.D,
54
126000
2000
Вот эту зовут Доктор Джиллиан МакКит, к.ф.н.,
02:23
or, to give her fullполный medicalмедицинская titleзаглавие, GillianДжиллиан McKeithMcKeith.
55
128000
3000
или, со всеми медицинскими регалиями – Джиллиан МакКит.
02:26
(LaughterСмех)
56
131000
3000
(Смех в зале)
02:29
Again, everyкаждый countryстрана has somebodyкто-то like this.
57
134000
2000
Опять же, в каждой стране есть такие.
02:31
She is our TVТВ dietдиета guruгуру.
58
136000
2000
Она – наш теле-гуру от диетологии.
02:33
She has massiveмассивный five5 seriesсерии of prime-timeПРАЙМ-тайм televisionтелевидение,
59
138000
3000
У неё пять серий на телевидение в прайм-тайм,
02:36
givingдающий out very lavishрасточать and exoticэкзотический healthздоровье adviceсовет.
60
141000
3000
которые выдают щедрые и экзотические советы по здоровью.
02:39
She, it turnsвитки out, has a non-accreditedнеаккредитованной correspondenceпереписка courseкурс PhpH.D.
61
144000
3000
Оказывается, она сдала заочный кандминимум в не аккредитованном ВУЗе
02:42
from somewhereгде-то in AmericaАмерика.
62
147000
2000
где-то в Америке.
02:44
She alsoтакже boastsхвастается that she's a certifiedпроверенный professionalпрофессиональный memberчлен
63
149000
2000
Также она хвастается сертификатом профессионального члена
02:46
of the Americanамериканский Associationассоциация of Nutritionalпитательный ConsultantsКонсультанты,
64
151000
2000
Американской ассоциации консультантов по диетологии,
02:48
whichкоторый soundsзвуки very glamorousобаятельный and excitingзахватывающе.
65
153000
2000
что звучит очень гламурно и захватывающе.
02:50
You get a certificateсертификат and everything.
66
155000
2000
У вас есть сертификат и всё такое.
02:52
This one belongsпринадлежит to my deadмертвый catКот HettiHetti. She was a horribleкакой ужас catКот.
67
157000
2000
Этот принадлежит моей мёртвой кошке Хетти. Она была ужасной кошкой.
02:54
You just go to the websiteВеб-сайт, fillзаполнить out the formформа,
68
159000
2000
Вы просто заходите на сайт, заполняете форму,
02:56
give them $60, and it arrivesприбывает in the postпосле.
69
161000
2000
даёте им 60$, и сертификат приходит по почте.
02:58
Now that's not the only reasonпричина that we think this personчеловек is an idiotидиот.
70
163000
2000
И это не единственная причина, почему я считаю её идиоткой.
03:00
She alsoтакже goesидет and saysговорит things like,
71
165000
2000
Кроме этого, она рассказывает вещи вроде того,
03:02
you should eatесть lots of darkтемно greenзеленый leavesлистья,
72
167000
2000
что нужно есть тёмно-зеленые листья,
03:04
because they containсодержать lots of chlorophyllхлорофилл, and that will really oxygenateкислородсодержащих your bloodкровь.
73
169000
2000
потому что они содержат много хлорофилла и насыщают кислородом кровь.
03:06
And anybodyкто-нибудь who'sкто doneсделанный schoolшкола biologyбиология remembersпомнит
74
171000
2000
Любой, кто помнит биологию со школы, знает,
03:08
that chlorophyllхлорофилл and chloroplastsхлоропласты
75
173000
2000
что хлорофилл в хлоропластах
03:10
only make oxygenкислород in sunlightСолнечный лучик,
76
175000
2000
вырабатывает кислород только на солнечном свету,
03:12
and it's quiteдовольно darkтемно in your bowelsкишечник after you've eatenсъеденный spinachшпинат.
77
177000
3000
а у нас в кишках очень темно, даже если вы съели весь шпинат.
03:15
Nextследующий, we need properправильный scienceнаука, properправильный evidenceдоказательства.
78
180000
3000
Далее, нам нужна правильная наука, доказательства.
03:18
So, "Redкрасный wineвино can help preventне допустить breastгрудь cancerрак."
79
183000
2000
Например, "Красное вино предотвращает рак молочной железы".
03:20
This is a headlineЗаголовок from the DailyЕжедневно Telegraphтелеграф in the U.K.
80
185000
2000
Вот заголовок из Daily Telegraph в Великобритании:
03:22
"A glassстакан of redкрасный wineвино a day could help preventне допустить breastгрудь cancerрак."
81
187000
3000
"Бокал красного вина в день помогает предотвратить рак молочной железы".
03:25
So you go and find this paperбумага, and what you find
82
190000
2000
Берём эту газету и видим там
03:27
is it is a realреальный pieceкусок of scienceнаука.
83
192000
2000
настоящий научный шедевр.
03:29
It is a descriptionописание of the changesизменения in one enzymeфермент
84
194000
3000
Это описание изменений в одном из ферментов,
03:32
when you dripкапельный a chemicalхимическая extractedизвлеченный from some redкрасный grapeвиноград skinкожа
85
197000
3000
когда вы капаете химикат, добытый из кожицы красного винограда,
03:35
ontoна some cancerрак cellsячейки
86
200000
2000
на какие-то раковые клетки
03:37
in a dishблюдо on a benchскамейка in a laboratoryлаборатория somewhereгде-то.
87
202000
3000
в пробирке в какой-то лаборатории.
03:40
And that's a really usefulполезным thing to describeописывать
88
205000
2000
И это действительно интересная штука
03:42
in a scientificнаучный paperбумага,
89
207000
2000
как для научной газеты,
03:44
but on the questionвопрос of your ownсвоя personalличный riskриск
90
209000
2000
но что касается вашего личного риска
03:46
of gettingполучение breastгрудь cancerрак if you drinkнапиток redкрасный wineвино,
91
211000
2000
заболеть раком груди, если вы пьёте красное вино,
03:48
it tellsговорит you absolutelyабсолютно buggerмудак all.
92
213000
2000
то тут всё как раз наоборот.
03:50
ActuallyНа самом деле, it turnsвитки out that your riskриск of breastгрудь cancerрак
93
215000
2000
Оказывается, риск развития рака молочной железы
03:52
actuallyна самом деле increasesувеличивается slightlyнемного
94
217000
2000
на самом деле увеличивается
03:54
with everyкаждый amountколичество of alcoholалкоголь that you drinkнапиток.
95
219000
2000
с приростом выпиваемого алкоголя.
03:56
So what we want is studiesисследования in realреальный humanчеловек people.
96
221000
4000
Итак, мы хотим исследований на реальных человеческих людях.
04:00
And here'sвот anotherдругой exampleпример.
97
225000
2000
И вот другой пример.
04:02
This is from Britain'sБритании leadingведущий dietдиета and nutritionistдиетолог in the DailyЕжедневно MirrorЗеркало,
98
227000
3000
Это ведущий диетолог Великобритании из Daily Mirror,
04:05
whichкоторый is our secondвторой biggestсамый большой sellingпродажа newspaperгазета.
99
230000
2000
второй газеты с точки зрения продаж.
04:07
"An Australianавстралиец studyизучение in 2001
100
232000
2000
"Австралийское исследование 2001 года
04:09
foundнайденный that oliveоливковый oilмасло in combinationсочетание with fruitsфрукты, vegetablesовощи and pulsesимпульсы
101
234000
2000
показало, что оливковое масло в сочетании с фруктами, овощами и бобовыми
04:11
offersпредложения measurableизмеримый protectionзащита againstпротив skinкожа wrinklingswrinklings."
102
236000
2000
даёт измеримую защиту от морщин."
04:13
And then they give you adviceсовет:
103
238000
2000
Затем они советуют вам:
04:15
"If you eatесть oliveоливковый oilмасло and vegetablesовощи, you'llВы будете have fewerменьше skinкожа wrinklesморщины."
104
240000
2000
"Ешьте овощи с оливковым маслом, и у вас будет меньше морщин."
04:17
And they very helpfullyуслужливо tell you how to go and find the paperбумага.
105
242000
2000
Далее они очень услужливо рассказывают, как купить эту газету.
04:19
So you go and find the paperбумага, and what you find is an observationalнаблюдательный studyизучение.
106
244000
3000
Итак, возьмём эту газету и соответствующее исследование.
04:22
Obviouslyочевидно nobodyникто has been ableв состоянии
107
247000
2000
Очевидно, никто не смог бы
04:24
to go back to 1930,
108
249000
2000
вернуться назад в 1930 год,
04:26
get all the people bornРодился in one maternityматеринство unitЕд. изм,
109
251000
3000
взять всех людей, родившихся в одном роддоме,
04:29
and halfполовина of them eatесть lots of fruitфрукты and vegВег and oliveоливковый oilмасло,
110
254000
2000
и заставить половину из них есть овощи и оливковое масло,
04:31
and then halfполовина of them eatесть McDonald'sМакдоналдс,
111
256000
2000
а другую половину питаться в McDonald's,
04:33
and then we see how manyмногие wrinklesморщины you've got laterпозже.
112
258000
2000
а потом сравнить, сколько у кого морщин.
04:35
You have to take a snapshotснимок of how people are now.
113
260000
2000
Приходится рассматривать, как люди выглядят сейчас.
04:37
And what you find is, of courseкурс,
114
262000
2000
Конечно, вы обнаружите,
04:39
people who eatесть vegВег and oliveоливковый oilмасло have fewerменьше skinкожа wrinklesморщины.
115
264000
3000
что люди, которые едят овощи и оливковое масло, имеют меньше морщин.
04:42
But that's because people who eatесть fruitфрукты and vegВег and oliveоливковый oilмасло,
116
267000
3000
Но это потому, что люди, которые едят фрукты, овощи и оливковое масло,
04:45
they're freaksуроды, they're not normalнормальный, they're like you;
117
270000
3000
они уроды, они ненормальные, они – как вы;
04:48
they come to eventsМероприятия like this.
118
273000
2000
они приходят на события вроде этого.
04:50
They are poshшикарный, they're wealthyсостоятельный, they're lessМеньше likelyвероятно to have outdoorна открытом воздухе jobsработы,
119
275000
3000
Они шикарные, богатые, меньше работают на открытом воздухе,
04:53
they're lessМеньше likelyвероятно to do manualруководство laborтруд, работа,
120
278000
2000
меньше занимаются физическим трудом,
04:55
they have better socialСоциальное supportподдержка, they're lessМеньше likelyвероятно to smokeдым --
121
280000
2000
более социально обеспечены, меньше курят –
04:57
so for a wholeвсе hostхозяин of fascinatingочаровательный, interlockingблокировка
122
282000
2000
так что из-за целого ряда интересных, взаимосвязанных
04:59
socialСоциальное, politicalполитическая and culturalкультурный reasonsпричины,
123
284000
2000
социальных, политических и культурных причин
05:01
they are lessМеньше likelyвероятно to have skinкожа wrinklesморщины.
124
286000
2000
они менее подвержены морщинам.
05:03
That doesn't mean that it's the vegetablesовощи or the oliveоливковый oilмасло.
125
288000
2000
Но это не значит, что это благодаря овощам или оливковому маслу.
05:05
(LaughterСмех)
126
290000
2000
(Смех в зале)
05:07
So ideallyИдеально what you want to do is a trialиспытание.
127
292000
3000
В идеале нужно провести испытания.
05:10
And everybodyвсе thinksдумает they're very familiarзнакомые with the ideaидея of a trialиспытание.
128
295000
2000
Все думают, что знают всё насчёт испытаний.
05:12
TrialsИспытания are very oldстарый. The first trialиспытание was in the Bibleбиблия -- DanielДаниил 1:12.
129
297000
3000
Это очень старая идея. Первое испытание упоминается в Библии – Даниила 1:12.
05:15
It's very straightforwardпростой -- you take a bunchгроздь of people, you splitТрещина them in halfполовина,
130
300000
2000
Всё очень просто: вы берёте кучу людей, разделяете их пополам,
05:17
you treatрассматривать one groupгруппа one way, you treatрассматривать the other groupгруппа the other way,
131
302000
2000
с одной группой вы обращаетесь одним образом, с другой – другим,
05:19
and a little while laterпозже, you followследовать them up
132
304000
2000
и некоторое время спустя вы просматриваете
05:21
and see what happenedполучилось to eachкаждый of them.
133
306000
2000
результаты и видите, что случилось с каждой из них.
05:23
So I'm going to tell you about one trialиспытание,
134
308000
2000
Я расскажу вам об одном испытании,
05:25
whichкоторый is probablyвероятно the mostбольшинство well-reportedхорошо сообщил trialиспытание
135
310000
2000
которое, наверное, лучше всего освещалось
05:27
in the U.K. newsНовости mediaСМИ over the pastмимо decadeдесятилетие.
136
312000
2000
в СМИ Великобритании за последнее время.
05:29
And this is the trialиспытание of fishрыба oilмасло pillsтаблетки.
137
314000
2000
Это испытание таблеток с рыбьим жиром.
05:31
And the claimЗапрос was fishрыба oilмасло pillsтаблетки improveулучшать schoolшкола performanceпредставление and behaviorповедение
138
316000
2000
Они заявляли, что таблетки рыбьего жира улучшают
05:33
in mainstreamОсновной поток childrenдети.
139
318000
2000
успеваемость и поведение у обычных детей.
05:35
And they said, "We'veУ нас doneсделанный a trialиспытание.
140
320000
2000
Они сказали: "Мы провели испытание.
05:37
All the previousпредыдущий trialsиспытания were positiveположительный, and we know this one'sодин это gonna be too."
141
322000
2000
Все предыдущие испытания положительны, и мы уверены, это – не исключение".
05:39
That should always ringкольцо alarmаварийная сигнализация bellsколокольчики.
142
324000
2000
Такое всегда должно вызывать подозрение.
05:41
Because if you alreadyуже know the answerответ to your trialиспытание, you shouldn'tне должен be doing one.
143
326000
3000
Ибо, если вы уже знаете результат исследований, не нужно запускать новое.
05:44
EitherИли you've riggedподстроенный it by designдизайн,
144
329000
2000
Либо вы фальсифицируете его по определению,
05:46
or you've got enoughдостаточно dataданные so there's no need to randomizeрандомизации people anymoreбольше не.
145
331000
3000
либо у вас достаточно данных, чтобы не выбирать случайным образом.
05:49
So this is what they were going to do in theirих trialиспытание.
146
334000
3000
Вот что они делают при таких испытаниях.
05:52
They were takingпринятие 3,000 childrenдети,
147
337000
2000
Выбирают 3 000 детей,
05:54
they were going to give them all these hugeогромный fishрыба oilмасло pillsтаблетки,
148
339000
2000
дают им эти огромные таблетки с рыбьим жиром,
05:56
sixшесть of them a day,
149
341000
2000
шесть штук в день,
05:58
and then a yearгод laterпозже, they were going to measureизмерение theirих schoolшкола examэкзамен performanceпредставление
150
343000
3000
а год спустя они оценивают их успеваемость в школе на экзаменах
06:01
and compareсравнить theirих schoolшкола examэкзамен performanceпредставление
151
346000
2000
и сравнивают их результаты экзаменов
06:03
againstпротив what they predictedпредсказанный theirих examэкзамен performanceпредставление would have been
152
348000
2000
с тем, что они предсказывали в качестве результата экзаменов,
06:05
if they hadn'tне имел had the pillsтаблетки.
153
350000
3000
если бы дети не пили таблетки.
06:08
Now can anybodyкто-нибудь spotместо a flawизъян in this designдизайн?
154
353000
3000
Кто-нибудь заметил изъян в этой идее?
06:11
And no professorsпрофессора of clinicalклиническая trialиспытание methodologyметодология
155
356000
3000
Ни одному профессору по методологии клинических испытаний
06:14
are allowedпозволил to answerответ this questionвопрос.
156
359000
2000
не разрешается ответить на этот вопрос.
06:16
So there's no controlконтроль; there's no controlконтроль groupгруппа.
157
361000
2000
Таким образом, нет контроля; нет контрольной группы.
06:18
But that soundsзвуки really techieтехнарь.
158
363000
2000
Зато это звучит очень технологично.
06:20
That's a technicalтехнический termсрок.
159
365000
2000
Это технический термин.
06:22
The kidsДети got the pillsтаблетки, and then theirих performanceпредставление improvedулучшен.
160
367000
2000
Дети пили таблетки, и их успеваемость улучшилась.
06:24
What elseеще could it possiblyвозможно be if it wasn'tне было the pillsтаблетки?
161
369000
3000
Если не из-за таблеток, то почему?
06:27
They got olderстаршая. We all developразвивать over time.
162
372000
3000
Они стали старше. Со временем мы развиваемся.
06:30
And of courseкурс, alsoтакже there's the placeboплацебо effectэффект.
163
375000
2000
И, конечно, также есть эффект плацебо.
06:32
The placeboплацебо effectэффект is one of the mostбольшинство fascinatingочаровательный things in the wholeвсе of medicineлекарственное средство.
164
377000
2000
Эффект плацебо – один из наиболее интересных в медицине.
06:34
It's not just about takingпринятие a pillпилюля, and your performanceпредставление and your painболь gettingполучение better.
165
379000
3000
Речь не только о том, что после таблетки работоспособность растёт, а боль уменьшается.
06:37
It's about our beliefsубеждения and expectationsожидания.
166
382000
2000
Речь о ваших убеждениях и ожиданиях.
06:39
It's about the culturalкультурный meaningимея в виду of a treatmentлечение.
167
384000
2000
Речь идёт о культурном значении лечения.
06:41
And this has been demonstratedпродемонстрировал in a wholeвсе raftрафт of fascinatingочаровательный studiesисследования
168
386000
3000
И это было продемонстрировано в целом ряде увлекательных исследований,
06:44
comparingСравнение one kindсвоего рода of placeboплацебо againstпротив anotherдругой.
169
389000
3000
сравнивающих один вид плацебо с другим.
06:47
So we know, for exampleпример, that two sugarсахар pillsтаблетки a day
170
392000
2000
Итак, мы знаем, например, что две таблетки сахара в сутки
06:49
are a more effectiveэффективный treatmentлечение for gettingполучение ridизбавиться of gastricжелудочный ulcersязвы
171
394000
2000
более эффективны от язвы желудка,
06:51
than one sugarсахар pillпилюля.
172
396000
2000
чем одна таблетка сахара.
06:53
Two sugarсахар pillsтаблетки a day beatsбиения one sugarсахар pillпилюля a day.
173
398000
2000
Две сахарных таблетки в день лучше одной.
06:55
And that's an outrageousвозмутительный and ridiculousсмешной findingобнаружение, but it's trueправда.
174
400000
3000
Это и возмутительно, и смешно, но это правда.
06:58
We know from threeтри differentдругой studiesисследования on threeтри differentдругой typesтипы of painболь
175
403000
2000
Из трёх различных исследований трёх различных видов боли мы знаем,
07:00
that a saltwaterсоленая вода injectionвпрыскивание is a more effectiveэффективный treatmentлечение for painболь
176
405000
3000
что инъекции морской воды более эффективны для снятия боли,
07:03
than takingпринятие a sugarсахар pillпилюля, takingпринятие a dummyфиктивный pillпилюля that has no medicineлекарственное средство in it --
177
408000
4000
чем таблетки сахара, то есть чем приём таблеток, в которых нет лекарств –
07:07
not because the injectionвпрыскивание or the pillsтаблетки do anything physicallyфизически to the bodyтело,
178
412000
3000
не потому, что инъекции или таблетки физически ничего не причиняют телу,
07:10
but because an injectionвпрыскивание feelsчувствует like a much more dramaticдраматичный interventionвмешательство.
179
415000
3000
а потому, что инъекции воспринимаются как гораздо более существенное вмешательство.
07:13
So we know that our beliefsубеждения and expectationsожидания
180
418000
2000
Итак, мы знаем, что нашими убеждениями и ожиданиями
07:15
can be manipulatedманипулировали,
181
420000
2000
можно манипулировать,
07:17
whichкоторый is why we do trialsиспытания
182
422000
2000
и именно поэтому мы делаем испытания
07:19
where we controlконтроль againstпротив a placeboплацебо --
183
424000
2000
по сравнению с плацебо,
07:21
where one halfполовина of the people get the realреальный treatmentлечение
184
426000
2000
где одна половина людей получает настоящее лечение,
07:23
and the other halfполовина get placeboплацебо.
185
428000
2000
а другая половина получает плацебо.
07:25
But that's not enoughдостаточно.
186
430000
3000
Но это ещё не всё.
07:28
What I've just shownпоказанный you are examplesПримеры of the very simpleпросто and straightforwardпростой waysпути
187
433000
3000
Я только что показал вам примеры того, как очень просто
07:31
that journalistsжурналисты and foodпитание supplementдополнение pillпилюля peddlersразносчики
188
436000
2000
журналисты, продавцы пищевых добавок
07:33
and naturopathsнатуропаты
189
438000
2000
и натуропаты
07:35
can distortискажать evidenceдоказательства for theirих ownсвоя purposesцели.
190
440000
3000
могут исказить данные в своих целях.
07:38
What I find really fascinatingочаровательный
191
443000
2000
Особенно интересен тот факт,
07:40
is that the pharmaceuticalфармацевтическая industryпромышленность
192
445000
2000
что фармацевтическая промышленность
07:42
usesиспользования exactlyв точку the sameодна и та же kindsвиды of tricksтрюки and devicesприборы,
193
447000
2000
использует точно такие же приёмы и ухищрения,
07:44
but slightlyнемного more sophisticatedутонченный versionsверсии of them,
194
449000
3000
только чуть более сложные их версии,
07:47
in orderзаказ to distortискажать the evidenceдоказательства that they give to doctorsврачи and patientsпациентов,
195
452000
3000
чтобы исказить доказательства, предоставляемые врачам и пациентам,
07:50
and whichкоторый we use to make vitallyжизненно importantважный decisionsрешения.
196
455000
3000
на основе которых мы принимаем жизненно важные решения.
07:53
So firstlyв первую очередь, trialsиспытания againstпротив placeboплацебо:
197
458000
2000
Во-первых, испытания по сравнению с плацебо:
07:55
everybodyвсе thinksдумает they know that a trialиспытание should be
198
460000
2000
все думают, что знают, будто испытания должны быть
07:57
a comparisonсравнение of your newновый drugлекарственное средство againstпротив placeboплацебо.
199
462000
2000
сравнением нового препарата с плацебо.
07:59
But actuallyна самом деле in a lot of situationsситуации that's wrongнеправильно.
200
464000
2000
Но на самом деле зачастую это не так.
08:01
Because oftenдовольно часто we alreadyуже have a very good treatmentлечение that is currentlyВ данный момент availableдоступный,
201
466000
3000
Часто у нас уже есть очень хорошее лечение на данный момент,
08:04
so we don't want to know that your alternativeальтернатива newновый treatmentлечение
202
469000
2000
так что мы не желаем знать, что новый метод лечения
08:06
is better than nothing.
203
471000
2000
лучше, чем ничего.
08:08
We want to know that it's better than the bestЛучший currentlyВ данный момент availableдоступный treatmentлечение that we have.
204
473000
3000
Мы хотим знать, что он лучше, чем наилучшее лечение, которое есть на данный момент.
08:11
And yetвсе же, repeatedlyнеоднократно, you consistentlyпоследовательно see people doing trialsиспытания
205
476000
3000
Несмотря на это мы постоянно видим, что испытания делают,
08:14
still againstпротив placeboплацебо.
206
479000
2000
по-прежнему сравнивая с плацебо.
08:16
And you can get licenseлицензия to bringприносить your drugлекарственное средство to marketрынок
207
481000
2000
И вы можете получить лицензию на поставку лекарств на рынок,
08:18
with only dataданные showingпоказ that it's better than nothing,
208
483000
2000
представив данные, что лечение всего лишь лучше чем ничего,
08:20
whichкоторый is uselessбесполезный for a doctorврач like me tryingпытаясь to make a decisionрешение.
209
485000
3000
но это не поможет врачу вроде меня принять решение.
08:23
But that's not the only way you can rigустановка your dataданные.
210
488000
2000
И это не единственный способ подстроить результаты.
08:25
You can alsoтакже rigустановка your dataданные
211
490000
2000
Можно также подстроить результаты,
08:27
by makingизготовление the thing you compareсравнить your newновый drugлекарственное средство againstпротив
212
492000
2000
сравнивая ваш новый препарат
08:29
really rubbishмусор.
213
494000
2000
с абсолютным мусором.
08:31
You can give the competingконкурирующий drugлекарственное средство in too lowнизкий a doseдозировать,
214
496000
2000
Можно дать конкурирующий препарат в слишком низкой дозе,
08:33
so that people aren'tне properlyдолжным образом treatedобрабатывали.
215
498000
2000
так что люди не получат достаточного лечения,
08:35
You can give the competingконкурирующий drugлекарственное средство in too highвысокая a doseдозировать,
216
500000
2000
или дать конкурирующий препарат в слишком высокой дозе,
08:37
so that people get sideбоковая сторона effectsпоследствия.
217
502000
2000
так что люди получат побочные эффекты.
08:39
And this is exactlyв точку what happenedполучилось
218
504000
2000
Именно это произошло
08:41
whichкоторый antipsychoticантипсихотический medicationлечение for schizophreniaшизофрения.
219
506000
2000
с антипсихотическими препаратами для лечения шизофрении.
08:43
20 yearsлет agoтому назад, a newновый generationпоколение of antipsychoticантипсихотический drugsнаркотики were broughtпривел in
220
508000
3000
20 лет назад появилось новое поколение антипсихотических препаратов,
08:46
and the promiseобещание was that they would have fewerменьше sideбоковая сторона effectsпоследствия.
221
511000
3000
и они обещали, что будет меньше побочных эффектов.
08:49
So people setзадавать about doing trialsиспытания of these newновый drugsнаркотики
222
514000
2000
Таким образом, люди стали сравнивать новые лекарства
08:51
againstпротив the oldстарый drugsнаркотики,
223
516000
2000
со старыми препаратами,
08:53
but they gaveдал the oldстарый drugsнаркотики in ridiculouslyсмешно highвысокая dosesдозы --
224
518000
2000
но давали старые лекарства в огромных дозах,
08:55
20 milligramsмиллиграмм a day of haloperidolгалоперидол.
225
520000
2000
20 миллиграммов галоперидола в день.
08:57
And it's a foregoneпредопределен conclusionвывод,
226
522000
2000
Было заранее ясно,
08:59
if you give a drugлекарственное средство at that highвысокая a doseдозировать,
227
524000
2000
что если давать препарат в такой высокой дозе,
09:01
that it will have more sideбоковая сторона effectsпоследствия and that your newновый drugлекарственное средство will look better.
228
526000
3000
он даст больше побочных эффектов, а новое лекарство будет выглядеть лучше.
09:04
10 yearsлет agoтому назад, historyистория repeatedповторный itselfсам, interestinglyинтересно,
229
529000
2000
10 лет назад история повторилась, что интересно,
09:06
when risperidoneрисперидон, whichкоторый was the first of the new-generationновое поколение antipscyhoticantipscyhotic drugsнаркотики,
230
531000
3000
когда закончился срок правообладания на рисперидон, один из первых
09:09
cameпришел off copyrightАвторские права, so anybodyкто-нибудь could make copiesкопии.
231
534000
3000
антипсихотиков нового поколения, и стало можно копировать его.
09:12
Everybodyвсе wanted to showпоказать that theirих drugлекарственное средство was better than risperidoneрисперидон,
232
537000
2000
Все хотели показать, что их препарат лучше, чем рисперидон.
09:14
so you see a bunchгроздь of trialsиспытания comparingСравнение newновый antipsychoticантипсихотический drugsнаркотики
233
539000
3000
Итак, вы видите кучу испытаний новых антипсихотических препаратов
09:17
againstпротив risperidoneрисперидон at eight8 milligramsмиллиграмм a day.
234
542000
2000
по сравнению с 8-ю миллиграммами рисперидона в день.
09:19
Again, not an insaneненормальный doseдозировать, not an illegalнелегальный doseдозировать,
235
544000
2000
Опять же, не безумная доза, не недопустимая,
09:21
but very much at the highвысокая endконец of normalнормальный.
236
546000
2000
но практически на максимуме допустимой.
09:23
And so you're boundсвязанный to make your newновый drugлекарственное средство look better.
237
548000
3000
Так ваш препарат просто обречён выглядеть лучше.
09:26
And so it's no surpriseсюрприз that overallв общем и целом,
238
551000
3000
Неудивительно, что в целом испытания,
09:29
industry-fundedпромышленность финансируемая trialsиспытания
239
554000
2000
финансируемые производителями,
09:31
are four4 timesраз more likelyвероятно to give a positiveположительный resultрезультат
240
556000
2000
вчетверо более вероятно дают положительный результат,
09:33
than independentlyнезависимо sponsoredспонсируемый trialsиспытания.
241
558000
3000
чем независимые испытания.
09:36
But -- and it's a bigбольшой but --
242
561000
3000
Но – и это очень большое "но" –
09:39
(LaughterСмех)
243
564000
2000
(Смех в зале)
09:41
it turnsвитки out,
244
566000
2000
Оказывается,
09:43
when you look at the methodsметоды used by industry-fundedпромышленность финансируемая trialsиспытания,
245
568000
3000
если проверить методологию испытаний, финансируемых производителями,
09:46
that they're actuallyна самом деле better
246
571000
2000
она оказывается и правда лучше,
09:48
than independentlyнезависимо sponsoredспонсируемый trialsиспытания.
247
573000
2000
чем у независимых испытаний.
09:50
And yetвсе же, they always manageуправлять to to get the resultрезультат that they want.
248
575000
3000
И всё же им всегда удается получить подходящий результат.
09:53
So how does this work?
249
578000
2000
Как же так получается?
09:55
How can we explainобъяснять this strangeстранный phenomenonявление?
250
580000
3000
Как можно объяснить это странное явление?
09:58
Well it turnsвитки out that what happensпроисходит
251
583000
2000
Оказывается, происходит следующее:
10:00
is the negativeотрицательный dataданные goesидет missingотсутствует in actionдействие;
252
585000
2000
негативные данные пропадают без вести
10:02
it's withheldудержан from doctorsврачи and patientsпациентов.
253
587000
2000
и не доходят до врачей и пациентов.
10:04
And this is the mostбольшинство importantважный aspectаспект of the wholeвсе storyистория.
254
589000
2000
И это самый важный аспект нашей истории,
10:06
It's at the topВверх of the pyramidпирамида of evidenceдоказательства.
255
591000
2000
он на вершине пирамиды доказательств.
10:08
We need to have all of the dataданные on a particularконкретный treatmentлечение
256
593000
3000
Чтобы оценить эффективность определённого лечения,
10:11
to know whetherбудь то or not it really is effectiveэффективный.
257
596000
2000
нам нужно иметь все данные по нему.
10:13
And there are two differentдругой waysпути that you can spotместо
258
598000
2000
Есть два способа, как можно определить,
10:15
whetherбудь то some dataданные has goneпрошло missingотсутствует in actionдействие.
259
600000
2000
пропали ли какие-либо данные.
10:17
You can use statisticsстатистика, or you can use storiesистории.
260
602000
3000
Можно пользоваться статистикой или историей.
10:20
I personallyлично preferпредпочитать statisticsстатистика, so that's what I'm going to do first.
261
605000
2000
Я лично предпочитаю статистику, и вот что я делаю.
10:22
This is something calledназывается funnelворонка plotсюжет.
262
607000
2000
Это называется нормальным распределением.
10:24
And a funnelворонка plotсюжет is a very cleverумная way of spottingопределение местоположения
263
609000
2000
Нормальное распределение – отличный способ обнаружить,
10:26
if smallмаленький negativeотрицательный trialsиспытания have disappearedисчез, have goneпрошло missingотсутствует in actionдействие.
264
611000
3000
не пропали ли негативные результаты небольших испытаний.
10:29
So this is a graphграфик of all of the trialsиспытания
265
614000
2000
Это график всех испытаний,
10:31
that have been doneсделанный on a particularконкретный treatmentлечение.
266
616000
2000
сделанных по определённому виду лечения.
10:33
And as you go up towardsв направлении the topВверх of the graphграфик,
267
618000
2000
По мере продвижения к вершине графика
10:35
what you see is eachкаждый dotточка is a trialиспытание.
268
620000
2000
вы видите, каждая точка – это исследование.
10:37
And as you go up, those are the biggerбольше trialsиспытания, so they'veони имеют got lessМеньше errorошибка in them.
269
622000
3000
Вверху графика – большие исследования, поэтому в них меньше ошибок,
10:40
So they're lessМеньше likelyвероятно to be randomlyслучайно falseложный positivesпозитивы, randomlyслучайно falseложный negativesнегативы.
270
625000
3000
то есть там меньше ложных положительных и ложных отрицательных результатов.
10:43
So they all clusterкластер togetherвместе.
271
628000
2000
Так что они собираются вместе.
10:45
The bigбольшой trialsиспытания are closerближе to the trueправда answerответ.
272
630000
2000
Большие испытания ближе к истинному ответу.
10:47
Then as you go furtherв дальнейшем down at the bottomдно,
273
632000
2000
Если же рассмотреть нижнюю часть,
10:49
what you can see is, over on this sideбоковая сторона, the spuriousподдельный falseложный negativesнегативы,
274
634000
3000
с этой стороны вы видите ложные отрицательные результаты,
10:52
and over on this sideбоковая сторона, the spuriousподдельный falseложный positivesпозитивы.
275
637000
2000
а с этой стороны – ложные положительные.
10:54
If there is publicationпубликация biasсмещение,
276
639000
2000
Если есть систематическая ошибка,
10:56
if smallмаленький negativeотрицательный trialsиспытания have goneпрошло missingотсутствует in actionдействие,
277
641000
3000
если небольшие отрицательные исследования пропадают,
10:59
you can see it on one of these graphsдиаграммы.
278
644000
2000
это можно видеть на одном из графиков.
11:01
So you can see here that the smallмаленький negativeотрицательный trialsиспытания
279
646000
2000
Таким образом, видно, что небольшие отрицательные испытания,
11:03
that should be on the bottomдно left have disappearedисчез.
280
648000
2000
которые должны быть в левом нижнем углу, исчезли.
11:05
This is a graphграфик demonstratingдемонстрирующий the presenceприсутствие of publicationпубликация biasсмещение
281
650000
3000
Это график демонстрирует наличие систематической ошибки
11:08
in studiesисследования of publicationпубликация biasсмещение.
282
653000
2000
в исследованиях систематической ошибки.
11:10
And I think that's the funniestсмешная epidemiologyэпидемиология jokeшутка
283
655000
2000
Я думаю, что это самая смешная эпидемиологическая шутка,
11:12
that you will ever hearзаслушивать.
284
657000
2000
которую можно придумать.
11:14
That's how you can proveдоказывать it statisticallyстатистически,
285
659000
2000
Так можно доказать это статистически.
11:16
but what about storiesистории?
286
661000
2000
Что насчёт исторических данных?
11:18
Well they're heinousотвратительный, they really are.
287
663000
2000
На самом деле они просто отвратительные.
11:20
This is a drugлекарственное средство calledназывается reboxetineребоксетина.
288
665000
2000
Это препарат под названием ребоксетин.
11:22
This is a drugлекарственное средство that I myselfсебя have prescribedпредписанный to patientsпациентов.
289
667000
2000
Я сам назначал его пациентам.
11:24
And I'm a very nerdyвсезнайка doctorврач.
290
669000
2000
Но я очень дотошный врач.
11:26
I hopeнадежда I try to go out of my way to try and readчитать and understandПонимаю all the literatureлитература.
291
671000
3000
Я стараюсь прочитать и разобраться во всей специальной литературе.
11:29
I readчитать the trialsиспытания on this. They were all positiveположительный. They were all well-conductedтактичный.
292
674000
3000
Я читал результаты испытаний, и все они были положительными и хорошо проведёнными.
11:32
I foundнайденный no flawизъян.
293
677000
2000
Я не нашёл ни одного изъяна.
11:34
UnfortunatelyК сожалению, it turnedоказалось out,
294
679000
2000
К сожалению, оказалось,
11:36
that manyмногие of these trialsиспытания were withheldудержан.
295
681000
2000
что многие из этих испытаний были изъяты,
11:38
In factфакт, 76 percentпроцент
296
683000
2000
а именно, 76%
11:40
of all of the trialsиспытания that were doneсделанный on this drugлекарственное средство
297
685000
2000
всех испытаний этого препарата
11:42
were withheldудержан from doctorsврачи and patientsпациентов.
298
687000
2000
держались в тайне от врачей и пациентов.
11:44
Now if you think about it,
299
689000
2000
Теперь, представьте себе,
11:46
if I tossedбросил a coinмонета a hundredсто timesраз,
300
691000
2000
если бы я подбросил монету сто раз
11:48
and I'm allowedпозволил to withholdутаивать from you
301
693000
2000
и имел бы возможность скрыть от вас
11:50
the answersответы halfполовина the timesраз,
302
695000
2000
половину результатов,
11:52
then I can convinceубеждать you
303
697000
2000
я смог бы убедить вас,
11:54
that I have a coinмонета with two headsруководители.
304
699000
2000
что у монеты с обеих сторон "орёл".
11:56
If we removeУдалить halfполовина of the dataданные,
305
701000
2000
Если убрать половину данных,
11:58
we can never know what the trueправда effectэффект sizeразмер of these medicinesмедикаменты is.
306
703000
3000
мы никогда не узнаем истинную величину эффекта этих лекарств.
12:01
And this is not an isolatedизолированный storyистория.
307
706000
2000
И это не единичный случай.
12:03
Around halfполовина of all of the trialиспытание dataданные on antidepressantsантидепрессанты has been withheldудержан,
308
708000
4000
Около половины всех данных испытаний антидепрессантов были изъяты,
12:07
but it goesидет way beyondза that.
309
712000
2000
но размеры бедствия куда больше этого.
12:09
The Nordicнордический CochraneCochrane Groupгруппа were tryingпытаясь to get a holdдержать of the dataданные on that
310
714000
2000
Nordic Cochrane Group пытались получить соответствующие данные,
12:11
to bringприносить it all togetherвместе.
311
716000
2000
чтобы свести всё вместе.
12:13
The CochraneCochrane Groupsгруппы are an internationalМеждународный nonprofitнекоммерческий collaborationсотрудничество
312
718000
3000
Группы Cochrane – международные некоммерческие группы,
12:16
that produceпроизводить systematicсистематическая reviewsотзывы of all of the dataданные that has ever been shownпоказанный.
313
721000
3000
производящие систематический анализ всех когда-либо опубликованных данных.
12:19
And they need to have accessдоступ to all of the trialиспытание dataданные.
314
724000
3000
Они должны иметь доступ ко всем данным испытаний.
12:22
But the companiesкомпании withheldудержан that dataданные from them,
315
727000
3000
Но в течение трёх лет компании,
12:25
and so did the EuropeanЕвропейская Medicinesмедикаменты AgencyАгентство
316
730000
2000
а также Европейское агентство по лекарственным препаратам,
12:27
for threeтри yearsлет.
317
732000
2000
скрывали от них данные.
12:29
This is a problemпроблема that is currentlyВ данный момент lackingне хватает a solutionрешение.
318
734000
3000
На данный момент этой проблеме нет решения.
12:32
And to showпоказать how bigбольшой it goesидет, this is a drugлекарственное средство calledназывается TamifluТамифлю,
319
737000
3000
И чтобы показать, насколько велика проблема, возьмём препарат Тамифлю,
12:35
whichкоторый governmentsправительства around the worldМир
320
740000
2000
на который правительства по всему миру
12:37
have spentпотраченный billionsмиллиарды and billionsмиллиарды of dollarsдолларов on.
321
742000
2000
потратили миллиарды и миллиарды долларов.
12:39
And they spendпроводить that moneyДеньги on the promiseобещание
322
744000
2000
Они заплатили бешеные деньги за обещание,
12:41
that this is a drugлекарственное средство whichкоторый will reduceуменьшить the rateставка
323
746000
2000
что это лекарство снижает вероятность
12:43
of complicationsосложнения with fluгрипп.
324
748000
2000
осложнений при гриппе.
12:45
We alreadyуже have the dataданные
325
750000
2000
У нас уже есть данные,
12:47
showingпоказ that it reducesуменьшает the durationпродолжительность of your fluгрипп by a fewмало hoursчасов.
326
752000
2000
что он уменьшает продолжительность гриппа на несколько часов.
12:49
But I don't really careзабота about that. Governmentsправительства don't careзабота about that.
327
754000
2000
Но это не заботит ни меня, ни правительства.
12:51
I'm very sorry if you have the fluгрипп, I know it's horribleкакой ужас,
328
756000
3000
Мне очень жаль, если у вас грипп, я знаю, это ужасно,
12:54
but we're not going to spendпроводить billionsмиллиарды of dollarsдолларов
329
759000
2000
но мы не собираемся тратить миллиарды долларов,
12:56
tryingпытаясь to reduceуменьшить the durationпродолжительность of your fluгрипп symptomsсимптомы
330
761000
2000
пытаясь уменьшить длительность симптомов гриппа
12:58
by halfполовина a day.
331
763000
2000
на полдня.
13:00
We prescribeпредписывать these drugsнаркотики, we stockpileштабель them for emergenciesчрезвычайные ситуации
332
765000
2000
Мы выписываем препараты и делаем их аварийные запасы,
13:02
on the understandingпонимание that they will reduceуменьшить the numberномер of complicationsосложнения,
333
767000
2000
если понимаем, что они уменьшают количество осложнений,
13:04
whichкоторый meansозначает pneumoniaпневмония and whichкоторый meansозначает deathсмерть.
334
769000
3000
что означает, число пневмоний и число смертей.
13:07
The infectiousинфекционный diseasesболезни CochraneCochrane Groupгруппа, whichкоторый are basedисходя из in ItalyИталия,
335
772000
3000
Cochrane Group по инфекционным заболеваниям, которая базируется в Италии,
13:10
has been tryingпытаясь to get
336
775000
2000
пыталась получить
13:12
the fullполный dataданные in a usableгодный к употреблению formформа out of the drugлекарственное средство companiesкомпании
337
777000
3000
от фармацевтических компаний полные данные в удобной форме,
13:15
so that they can make a fullполный decisionрешение
338
780000
3000
чтобы можно было принять обоснованное решение,
13:18
about whetherбудь то this drugлекарственное средство is effectiveэффективный or not,
339
783000
2000
эффективен ли данный препарат,
13:20
and they'veони имеют not been ableв состоянии to get that informationИнформация.
340
785000
3000
и они не смогли получить этой информации.
13:23
This is undoubtedlyнесомненно
341
788000
2000
Это, несомненно,
13:25
the singleОдин biggestсамый большой ethicalэтический problemпроблема
342
790000
3000
самая большая этическая проблема,
13:28
facingоблицовочный medicineлекарственное средство todayCегодня.
343
793000
2000
стоящая перед современной медициной.
13:30
We cannotне могу make decisionsрешения
344
795000
3000
Мы не можем принимать решения
13:33
in the absenceотсутствие of all of the informationИнформация.
345
798000
4000
при отсутствии полной информации.
13:37
So it's a little bitнемного difficultсложно from there
346
802000
3000
После всего сказанного очень сложно
13:40
to spinвращение in some kindсвоего рода of positiveположительный conclusionвывод.
347
805000
4000
закончить на оптимистической ноте.
13:44
But I would say this:
348
809000
4000
Но я бы сказал так:
13:48
I think that sunlightСолнечный лучик
349
813000
3000
я думаю, что солнечный свет –
13:51
is the bestЛучший disinfectantдезинфицирующее средство.
350
816000
2000
лучшее дезинфицирующее средство.
13:53
All of these things are happeningпроисходит in plainгладкий sightвзгляд,
351
818000
3000
Всё это происходит на виду у всех,
13:56
and they're all protectedзащищенный
352
821000
2000
и все они защищены
13:58
by a forceсила fieldполе of tediousnessутомительность.
353
823000
3000
"силовым полем" занудства.
14:01
And I think, with all of the problemsпроблемы in scienceнаука,
354
826000
2000
И я думаю, несмотря на все проблемы в науке,
14:03
one of the bestЛучший things that we can do
355
828000
2000
лучшее, что мы можем сделать, –
14:05
is to liftлифт up the lidкрышка,
356
830000
2000
это приподнять завесу
14:07
fingerПалец around in the mechanicsмеханика and peerвглядываться in.
357
832000
2000
и самим всё ощупать и изучить.
14:09
Thank you very much.
358
834000
2000
Большое спасибо.
14:11
(ApplauseАплодисменты)
359
836000
3000
(Аплодисменты)
Translated by Andriy Prischenko
Reviewed by Maria Bazilevskaya

▲Back to top

ABOUT THE SPEAKER
Ben Goldacre - Debunker
Ben Goldacre unpicks dodgy scientific claims made by scaremongering journalists, dubious government reports, pharmaceutical corporations, PR companies and quacks.

Why you should listen

"It was the MMR story that finally made me crack," begins the Bad Science manifesto, referring to the sensationalized -- and now-refuted -- link between vaccines and autism. With that sentence Ben Goldacre fired the starting shot of a crusade waged from the pages of The Guardian from 2003 to 2011, on an addicitve Twitter feed, and in bestselling books, including Bad Science and his latest, Bad Pharma, which puts the $600 billion global pharmaceutical industry under the microscope. What he reveals is a fascinating, terrifying mess.

Goldacre was trained in medicine at Oxford and London, and works as an academic in epidemiology. Helped along by this inexhaustible supply of material, he also travels the speaking circuit, promoting skepticism and nerdish curiosity with fire, wit, fast delivery and a lovable kind of exasperation. (He might even convince you that real science, sober reporting and reason are going to win in the end.)

As he writes, "If you're a journalist who misrepresents science for the sake of a headline, a politician more interested in spin than evidence, or an advertiser who loves pictures of molecules in little white coats, then beware: your days are numbered."

Read an excerpt of Bad Pharma >>

More profile about the speaker
Ben Goldacre | Speaker | TED.com