TEDxCERN

Sinan Aral: How we can protect truth in the age of misinformation

Синан Арал: Как можем да защитим истината в епохата на дезинформацията

Filmed:
1,289,169 views

Фалшивите новини могат да променят изборите, да потопят икономики и да сеят раздор в ежедневието. Ученият по данните Синан Арал демистифицира как и защо те се разпространяват толкова бързо -- цитирайки едно от най-големите изследвания на дезинформацията -- и идентифицира пет стратегии, които да ни помогнат да разплетем заплетената мрежа между вярното и невярното.

Double-click the English transcript below to play the video.

Така, на 23 април 2013 г.,
00:13
So, on AprilАприл 23 of 2013,
0
1468
5222
00:18
the AssociatedСвързани PressНатиснете
put out the followingследното tweetчуруликам on TwitterTwitter.
1
6714
5514
Асошиейтид Прес
публикуваха следното в Туитър.
00:24
It said, "BreakingЧупене newsНовини:
2
12252
2397
В него се казваше:
"Новини от последните минути:
00:26
Two explosionsексплозии at the WhiteБяло HouseКъща
3
14673
2571
Две експлозии в Белия дом
00:29
and BarackБарак ObamaОбама has been injuredпострадал."
4
17268
2333
и Барак Обама е ранен".
00:32
This tweetчуруликам was retweetedretweeted 4,000 timesпъти
in lessпо-малко than fiveпет minutesминути,
5
20212
5425
Този туийт беше ретуитнат 4000 пъти
за по-малко от пет минути
00:37
and it wentотидох viralвирусни thereafterслед това.
6
25661
2217
и след това стана широко популярен.
00:40
Now, this tweetчуруликам wasn'tне е realреален newsНовини
put out by the AssociatedСвързани PressНатиснете.
7
28760
4350
Този туит не беше истинска новина
качена от Асошиейтид Прес.
00:45
In factфакт it was falseфалшив newsНовини, or fakeфалшив newsНовини,
8
33134
3333
Всъщност беше грешна новина
или фалшива новина,
00:48
that was propagatedразмножени by SyrianСирийски hackersхакери
9
36491
2825
разпространена от
сирийски хакери,
00:51
that had infiltratedпроникнали
the AssociatedСвързани PressНатиснете TwitterTwitter handleдръжка.
10
39340
4694
проникнали в туитър акаунта
на Асошиейтид прес.
00:56
TheirИм purposeпредназначение was to disruptнаруши societyобщество,
but they disruptedпрекъснато much more.
11
44407
3889
Тяхната цел била да смутят обществото,
но те смущават много повече.
01:00
Because automatedавтоматизирано tradingтъргуване algorithmsалгоритми
12
48320
2476
Тъй като автоматизираните алгоритми
за търговия
01:02
immediatelyведнага seizedконфискувани
on the sentimentнастроения on this tweetчуруликам,
13
50820
3360
веднага прихванали настроението
на този туийт,
01:06
and beganзапочна tradingтъргуване basedбазиран on the potentialпотенциал
14
54204
2968
те започнали търгуване, основано
на възможността
01:09
that the presidentпрезидент of the UnitedЮнайтед StatesДържавите
had been injuredпострадал or killedубит
15
57196
3381
президентът на Съединените Американски
Щати да е ранен или убит
01:12
in this explosionексплозия.
16
60601
1200
при тази експлозия.
01:14
And as they startedзапочна tweetingтуитва,
17
62188
1992
Щом започнали да туитват
01:16
they immediatelyведнага sentизпратен
the stockналичност marketпазар crashingтрясък,
18
64204
3349
веднага докарали фондовия
пазар до срив
01:19
wipingизбърсване out 140 billionмилиард dollarsдолара
in equityсобствен капитал valueстойност in a singleединичен day.
19
67577
5167
унищожавайки 140 милиарда долара стойност
на собствения капитал за един ден.
01:25
RobertРобърт MuellerМюлер, specialспециален counselсъвет
prosecutorпрокурор in the UnitedЮнайтед StatesДържавите,
20
73062
4476
Робърт Мюлер, специален адвокат
прокурор в САЩ,
01:29
issuedиздаден indictmentsобвинения
againstсрещу threeтри RussianРуски companiesкомпании
21
77562
3892
издава обвинителни актове
срещу три руски компании
01:33
and 13 RussianРуски individualsиндивиди
22
81478
2619
и 13 руснаци
01:36
on a conspiracyконспирация to defraudизмама
the UnitedЮнайтед StatesДържавите
23
84121
3167
за конспирация с цел
измама на САЩ
01:39
by meddlingмесят in the 2016
presidentialПрезидентски electionизбори.
24
87312
3780
като се намесват в президентските
избори през 2016 г.
01:43
And what this indictmentобвинителен акт tellsразказва as a storyистория
25
91855
3564
Това, което обвинението разказва
като история,
01:47
is the storyистория of the InternetИнтернет
ResearchНаучни изследвания AgencyАгенция,
26
95443
3142
е историята на Агенцията за
проучвания в интернет,
01:50
the shadowyсенчест armръка of the KremlinКремъл
on socialсоциален mediaсредства.
27
98609
3594
сенчестата ръка на Кремъл
в социалните медии.
01:54
DuringПо време на the presidentialПрезидентски electionизбори aloneсам,
28
102815
2777
Само по време на президентските избори
01:57
the InternetИнтернет Agency'sНа Агенцията effortsусилия
29
105616
1889
усилията на Интернет агенцията
01:59
reachedдостигнал 126 millionмилион people
on FacebookFacebook in the UnitedЮнайтед StatesДържавите,
30
107529
5167
достигат 126 милиона души във
Фейсбук в САЩ,
02:04
issuedиздаден threeтри millionмилион individualиндивидуален tweetsTweets
31
112720
3277
публикува 3 милиона отделни туийта
02:08
and 43 hours'часа' worthзаслужава си of YouTubeYouTube contentсъдържание.
32
116021
3842
и 43 часа съдържание в ЮТюб.
02:11
All of whichкойто was fakeфалшив --
33
119887
1652
Като всичкото е фалшиво --
02:13
misinformationдезинформация designedпроектиран to sowсеят discordраздор
in the US presidentialПрезидентски electionизбори.
34
121563
6323
дезинформация, създадена да сее
раздор в президентските избори на САЩ.
02:20
A recentскорошен studyуча by OxfordОксфорд UniversityУниверситет
35
128996
2650
Скорошно изследване на
Оксфордския университет
02:23
showedпоказан that in the recentскорошен
SwedishШведски electionsизбори,
36
131670
3270
показва, че в последните
шведски избори
02:26
one thirdтрета of all of the informationинформация
spreadingразпространяване on socialсоциален mediaсредства
37
134964
4375
една трета от цялата информация,
разпространявана в интернет
02:31
about the electionизбори
38
139363
1198
за изборите,
02:32
was fakeфалшив or misinformationдезинформация.
39
140585
2087
била фалшива или дезинформация.
02:35
In additionдопълнение, these typesвидове
of social-mediaсоциални медии misinformationдезинформация campaignsкампании
40
143037
5078
Допълнително, тези типове кампании
на дезинформация в социалните медии
02:40
can spreadразпространение what has been calledНаречен
"genocidalгеноцид propagandaпропаганда,"
41
148139
4151
могат да разпространят т.нар.
"геноцидна пропаганда",
02:44
for instanceинстанция againstсрещу
the RohingyaОбщността рохингия in BurmaБирма,
42
152314
3111
например срещу малцинството
рохинджа в Бирма,
02:47
triggeringтригери mobтълпата killingsубийства in IndiaИндия.
43
155449
2303
което задейства масови убийства в Индия.
02:49
We studiedучи fakeфалшив newsНовини
44
157776
1494
Изучавахме фалшиви новини
02:51
and beganзапочна studyingизучаване it
before it was a popularпопулярен termтермин.
45
159294
3219
и започнахме да ги изучаваме преди
да станат популярен термин.
02:55
And we recentlyнаскоро publishedпубликувано
the largest-everнай- longitudinalнадлъжно studyуча
46
163030
5040
И скоро публикувахме най-голямото
досега лонгитюдно изследване
03:00
of the spreadразпространение of fakeфалшив newsНовини onlineна линия
47
168094
2286
на разпространението на фалшиви
новини онлайн
03:02
on the coverПокрийте of "ScienceНаука"
in MarchМарт of this yearгодина.
48
170404
3204
на корицата на "Сайънс" през
март тази година.
03:06
We studiedучи all of the verifiedпроверени
trueвярно and falseфалшив newsНовини storiesистории
49
174523
4161
Изследвахме всички потвърдени
верни и неверни новини,
03:10
that ever spreadразпространение on TwitterTwitter,
50
178708
1753
разпространявани в Туитър
03:12
from its inceptionначало in 2006 to 2017.
51
180485
3818
от създаването му през 2006 г. до 2017 г.
03:16
And when we studiedучи this informationинформация,
52
184612
2314
И след това изследвахме тази информация,
03:18
we studiedучи verifiedпроверени newsНовини storiesистории
53
186950
2876
изследвахме потвърдените новини,
03:21
that were verifiedпроверени by sixшест
independentнезависим fact-checkingпроверка на фактите organizationsорганизации.
54
189850
3918
които бяха потвърдени от шест независими
организации, проверяващи факти.
03:25
So we knewЗнаех whichкойто storiesистории were trueвярно
55
193792
2762
Така че знаехме кои истории са верни
и кои истории са неверни.
03:28
and whichкойто storiesистории were falseфалшив.
56
196578
2126
Можем да измерим тяхното разпространение,
03:30
We can measureмярка theirтехен diffusionдифузия,
57
198728
1873
03:32
the speedскорост of theirтехен diffusionдифузия,
58
200625
1651
скоростта на това разпространение,
03:34
the depthдълбочина and breadthширочина of theirтехен diffusionдифузия,
59
202300
2095
дълбочината и обхвата
на разпространението,
03:36
how manyмного people becomeда стане entangledзаплита
in this informationинформация cascadeкаскада and so on.
60
204419
4142
колко хора са били въвличани в
тази информационна каскада и т.н.
Това, което направихме
с труда,
03:40
And what we did in this paperхартия
61
208942
1484
03:42
was we comparedсравнение the spreadразпространение of trueвярно newsНовини
to the spreadразпространение of falseфалшив newsНовини.
62
210450
3865
бе да сравним разпространението на
истинските спрямо неверните новини.
03:46
And here'sето what we foundнамерено.
63
214339
1683
И ето какво открихме.
03:48
We foundнамерено that falseфалшив newsНовини
diffusedразпространявани furtherоще, fasterпо-бързо, deeperпо дълбоко
64
216046
3979
Открихме, че неверните новини се
разпростират повече, по-бързо и по-дълбоко
03:52
and more broadlyнай-общо than the truthистина
65
220049
1806
и в по-голям обхват от истината
03:53
in everyвсеки categoryкатегория of informationинформация
that we studiedучи,
66
221879
3003
във всички категории информация,
които изследвахме,
03:56
sometimesпонякога by an orderпоръчка of magnitudeвеличина.
67
224906
2499
понякога с огромна разлика.
03:59
And in factфакт, falseфалшив politicalполитически newsНовини
was the mostнай-много viralвирусни.
68
227842
3524
Действително неверните политически
новини бяха най-широко разпространени.
04:03
It diffusedразпространявани furtherоще, fasterпо-бързо,
deeperпо дълбоко and more broadlyнай-общо
69
231390
3147
Разпространяваха се далеч, по-бързо,
по-дълбоко и в по-голям обхват
04:06
than any other typeТип of falseфалшив newsНовини.
70
234561
2802
от много други типове неверни новини.
04:09
When we saw this,
71
237387
1293
Щом видяхме това
04:10
we were at onceведнъж worriedразтревожен but alsoсъщо curiousлюбопитен.
72
238704
2841
веднага се разтревожихме,
но бяхме и любопитни.
04:13
Why?
73
241569
1151
Защо?
04:14
Why does falseфалшив newsНовини travelпътуване
so much furtherоще, fasterпо-бързо, deeperпо дълбоко
74
242744
3373
Защо неверните новини пътуват
толкова по-надалеч, по-бързо и по-дълбоко
04:18
and more broadlyнай-общо than the truthистина?
75
246141
1864
и в по-голям обхват от истината?
04:20
The first hypothesisхипотеза
that we cameдойде up with was,
76
248339
2961
Първата хипотеза,
която съставихме, беше:
04:23
"Well, maybe people who spreadразпространение falseфалшив newsНовини
have more followersпоследователи or followпоследвам more people,
77
251324
4792
"Може би хората, които разпространяват
неверните новини имат повече последователи
или следват повече хора, или
туийтват по-често.
04:28
or tweetчуруликам more oftenчесто,
78
256140
1557
04:29
or maybe they're more oftenчесто 'verified'проверени
usersпотребители of TwitterTwitter, with more credibilityправдоподобност,
79
257721
4126
Или може би те са "потвърдени" Туитър
потребители, с повече правдоподобност,
04:33
or maybe they'veте имат been on TwitterTwitter longerповече време."
80
261871
2182
или са в Туитър по-дълго време".
04:36
So we checkedПроверих eachвсеки one of these in turnзавой.
81
264077
2298
Проверихме всяко едно от тези неща.
04:38
And what we foundнамерено
was exactlyточно the oppositeпротивоположен.
82
266691
2920
И това, което открихме,
беше точно обратното.
Разпространяващите неверни новини,
имаха по-малко последователи,
04:41
False-newsFALSE-новини spreadersнаторяване had fewerпо-малко followersпоследователи,
83
269635
2436
04:44
followedпоследвано fewerпо-малко people, were lessпо-малко activeактивен,
84
272095
2254
следваха по-малко хора,
по-малко активни са,
04:46
lessпо-малко oftenчесто "verifiedпроверени"
85
274373
1460
по-рядко са "потвърдени"
04:47
and had been on TwitterTwitter
for a shorterпо-къс periodПериод of time.
86
275857
2960
и ползват Туитър от
по-кратък период.
04:50
And yetоще,
87
278841
1189
И все пак вероятността
04:52
falseфалшив newsНовини was 70 percentна сто more likelyвероятно
to be retweetedretweeted than the truthистина,
88
280054
5033
неверните новини да бъдат ретуитнати
беше 70% по-висока от тази на истината,
04:57
controllingконтролинг for all of these
and manyмного other factorsфактори.
89
285111
3363
като се вземат предвид тези и
много други фактори.
05:00
So we had to come up
with other explanationsобяснения.
90
288498
2690
Така че трябваше да намерим
други обяснения.
05:03
And we devisedизработили what we calledНаречен
a "noveltyновост hypothesisхипотеза."
91
291212
3467
И създадохме т. нар.
"хипотеза на новостта".
05:07
So if you readПрочети the literatureлитература,
92
295038
1960
Ако прочетете литературата,
05:09
it is well knownизвестен that humanчовек attentionвнимание
is drawnсъставен to noveltyновост,
93
297022
3754
добре известно е, че човешкото внимание
се привлича от новостите,
05:12
things that are newнов in the environmentзаобикаляща среда.
94
300800
2519
нещата, които са нови в средата.
05:15
And if you readПрочети the sociologyсоциология literatureлитература,
95
303343
1985
Ако четете литературата
на социологията,
05:17
you know that we like to shareдял
novelроман informationинформация.
96
305352
4300
знаете, че обичаме да
споделяме нова информация.
05:21
It makesправи us seemИзглежда like we have accessдостъп
to insideвътре informationинформация,
97
309676
3838
Кара ни да изглеждаме все едно
имаме достъп до вътрешна информация
05:25
and we gainпечалба in statusстатус
by spreadingразпространяване this kindмил of informationинформация.
98
313538
3785
и покачваме статута си като
разпространяваме такава информация.
05:29
So what we did was we measuredизмерена the noveltyновост
of an incomingВходящи trueвярно or falseфалшив tweetчуруликам,
99
317792
6452
Измерихме новостта на
постъпващ верен и неверен туит
05:36
comparedсравнение to the corpusсборник
of what that individualиндивидуален had seenвидян
100
324268
4055
сравнено с всичко, което
човек е видял
05:40
in the 60 daysдни priorпреди on TwitterTwitter.
101
328347
2952
през 60-те дни преди това в Туитър.
05:43
But that wasn'tне е enoughдостатъчно,
because we thought to ourselvesсебе си,
102
331323
2659
Но това не беше достатъчно,
защото се замислихме
05:46
"Well, maybe falseфалшив newsНовини is more novelроман
in an information-theoreticинформация-теоритично senseсмисъл,
103
334006
4208
"Може би неверните новини са по-нови
в информационно-теоретичен смисъл,
05:50
but maybe people
don't perceiveвъзприемат it as more novelроман."
104
338238
3258
но може би хората
не ги възприемат като по-нови"
За да разберем възприятията
на хората спрямо неверните новини
05:53
So to understandразбирам people'sнародната
perceptionsвъзприятия of falseфалшив newsНовини,
105
341849
3927
05:57
we lookedпогледнах at the informationинформация
and the sentimentнастроения
106
345800
3690
разгледахме информацията
и усещанията,
06:01
containedсъдържаща се in the repliesотговори
to trueвярно and falseфалшив tweetsTweets.
107
349514
4206
съдържащи се в отговорите на
истински и неистински туитове.
06:06
And what we foundнамерено
108
354022
1206
И това, което открихме,
06:07
was that acrossпрез a bunchкуп
of differentразличен measuresмерки of sentimentнастроения --
109
355252
4214
беше, че сред няколко
различни мерки на усещане --
06:11
surpriseизненада, disgustотвращение, fearстрах, sadnessпечал,
110
359490
3301
изненада, отвращение, страх, тъга,
06:14
anticipationочакване, joyрадост and trustДоверие --
111
362815
2484
очакване, радост и доверие --
06:17
falseфалшив newsНовини exhibitedизложил significantlyзначително more
surpriseизненада and disgustотвращение
112
365323
5857
при неверните новини се наблюдаваше
значително повече изненада и отвращение
06:23
in the repliesотговори to falseфалшив tweetsTweets.
113
371204
2806
в отговорите на неверните туитове.
06:26
And trueвярно newsНовини exhibitedизложил
significantlyзначително more anticipationочакване,
114
374392
3789
А сред истинските новини се наблюдаваше
значително повече очакване,
06:30
joyрадост and trustДоверие
115
378205
1547
радост и доверие
06:31
in replyотговор to trueвярно tweetsTweets.
116
379776
2547
в отговорите на верните туитове.
06:34
The surpriseизненада corroboratesпотвърждава
our noveltyновост hypothesisхипотеза.
117
382347
3786
Изненадата потвърди
нашата теория на новостта.
06:38
This is newнов and surprisingизненадващ,
and so we're more likelyвероятно to shareдял it.
118
386157
4609
Това е ново и изненадващо,
затова сме по-склонни да го споделим.
06:43
At the sameедин и същ time,
there was congressionalКонгреса testimonyсвидетелство
119
391092
2925
Междувременно се случваха
конгресните изслушвания
06:46
in frontпреден of bothи двете housesкъщи of CongressКонгрес
in the UnitedЮнайтед StatesДържавите,
120
394041
3036
пред двете камари
на Конгреса в САЩ,
06:49
looking at the roleроля of botsботове
in the spreadразпространение of misinformationдезинформация.
121
397101
3738
където се разглеждаше ролята на ботовете
при разпространението на дезинформацията.
06:52
So we lookedпогледнах at this too --
122
400863
1354
Затова разгледахме и това --
06:54
we used multipleмногократни sophisticatedсложен
bot-detectionоткриване на бот algorithmsалгоритми
123
402241
3598
използвахме множество изпипани
алгоритми за засичане на ботове,
06:57
to find the botsботове in our dataданни
and to pullдърпам them out.
124
405863
3074
за да открием ботовете в нашите данни
и да ги извадим от изследването.
07:01
So we pulledизтегли them out,
we put them back in
125
409347
2659
Изтеглихме ги,
после ги вкарахме отново
07:04
and we comparedсравнение what happensслучва се
to our measurementизмерване.
126
412030
3119
и сравнихме какво се
случва с измерванията ни.
07:07
And what we foundнамерено was that, yes indeedнаистина,
127
415173
2293
И открихме, че действително
07:09
botsботове were acceleratingускоряващ
the spreadразпространение of falseфалшив newsНовини onlineна линия,
128
417490
3682
ботовете увеличават скоростта на
разпространение на неверни новини онлайн,
07:13
but they were acceleratingускоряващ
the spreadразпространение of trueвярно newsНовини
129
421196
2651
но те ускоряват и разпространението
на истинските новини
07:15
at approximatelyприблизително the sameедин и същ rateскорост.
130
423871
2405
с приблизително същия темп.
07:18
WhichКоито meansсредства botsботове are not responsibleотговорен
131
426300
2858
Което означава, че ботовете
не са причината
за диференциалното разпространение
на истината и неистината онлайн.
07:21
for the differentialдиференциал diffusionдифузия
of truthистина and falsityНеистинността onlineна линия.
132
429182
4713
07:25
We can't abdicateабдикира that responsibilityотговорност,
133
433919
2849
Не можем да избегнем отговорност,
07:28
because we, humansхората,
are responsibleотговорен for that spreadразпространение.
134
436792
4259
защото ние хората сме
отговорни за това разпространение.
07:34
Now, everything
that I have told you so farдалече,
135
442472
3334
Всичко, което ви
казах досега,
07:37
unfortunatelyза жалост for all of us,
136
445830
1754
за съжаление на всички нас,
07:39
is the good newsНовини.
137
447608
1261
е добрата новина.
07:42
The reasonпричина is because
it's about to get a wholeцяло lot worseпо-лошо.
138
450670
4450
Причината е, защото
сега ще стане много по-лошо.
07:47
And two specificспецифичен technologiesтехнологии
are going to make it worseпо-лошо.
139
455850
3682
И две конкретни технологии
ще влошат нещата.
07:52
We are going to see the riseиздигам се
of a tremendousогромен waveвълна of syntheticсинтетичен mediaсредства.
140
460207
5172
Ще видим възхода на
огромна вълна на синтетичните медии.
07:57
FakeФалшиви videoвидео, fakeфалшив audioзвуков
that is very convincingубедителен to the humanчовек eyeоко.
141
465403
6031
Фалшиви видеа, фалшиво аудио, които са
много убедителни за човешкото око.
08:03
And this will poweredзахранва by two technologiesтехнологии.
142
471458
2754
И това ще бъде задвижено
от две технологии.
08:06
The first of these is knownизвестен
as "generativeгенеративен adversarialсъстезателна networksмрежи."
143
474236
3833
Първата е позната като
"генеративно-състезателни мрежи".
08:10
This is a machine-learningмашина наука modelмодел
with two networksмрежи:
144
478093
2563
Това е модел на машинно самообучение
с две мрежи:
08:12
a discriminatorдискриминатор,
145
480680
1547
дискриминатор,
08:14
whoseкойто jobработа it is to determineопредели
whetherдали something is trueвярно or falseфалшив,
146
482251
4200
чиято работа е да определи дали
нещо е истина или лъжа,
08:18
and a generatorгенератор,
147
486475
1167
и генератор,
08:19
whoseкойто jobработа it is to generateгенериране
syntheticсинтетичен mediaсредства.
148
487666
3150
чиято работа е да генерира
синтетична медия.
08:22
So the syntheticсинтетичен generatorгенератор
generatesгенерира syntheticсинтетичен videoвидео or audioзвуков,
149
490840
5102
Синтетичният генератор
създава синтетично видео или аудио,
08:27
and the discriminatorдискриминатор triesопитва to tell,
"Is this realреален or is this fakeфалшив?"
150
495966
4675
а дискриминаторът се опитва да различи
"дали това е истинско, или е фалшиво?"
08:32
And in factфакт, it is the jobработа
of the generatorгенератор
151
500665
2874
И всъщност е работа
на генератора
08:35
to maximizeувеличи the likelihoodвероятност
that it will foolглупак the discriminatorдискриминатор
152
503563
4435
да максимизира вероятността,
да заблуди дискриминатора,
08:40
into thinkingмислене the syntheticсинтетичен
videoвидео and audioзвуков that it is creatingсъздаване на
153
508022
3587
че синтетичното видео
или аудио, което създава,
08:43
is actuallyвсъщност trueвярно.
154
511633
1730
е всъщност истинско.
08:45
ImagineПредставете си a machineмашина in a hyperloopхиперконтур,
155
513387
2373
Представете си машина в хиперлууп,
08:47
tryingопитвайки to get better
and better at foolingбъзикам us.
156
515784
2803
опитваща се да стане по-добра
и по-добра в това да ни заблуждава.
08:51
This, combinedкомбиниран with the secondвтори technologyтехнология,
157
519114
2500
Това в комбинация с втората технология,
08:53
whichкойто is essentiallyпо същество the democratizationдемократизация
of artificialизкуствен intelligenceинтелигентност to the people,
158
521638
5722
която по същество е демократизацията на
изкуствения интелект към хората,
08:59
the abilityспособност for anyoneнякой,
159
527384
2189
възможността всеки,
09:01
withoutбез any backgroundзаден план
in artificialизкуствен intelligenceинтелигентност
160
529597
2830
без какъвто и да е опит с
изкуствения интелект
09:04
or machineмашина learningизучаване на,
161
532451
1182
или машинното самообучение,
09:05
to deployразполагане на these kindsвидове of algorithmsалгоритми
to generateгенериране syntheticсинтетичен mediaсредства
162
533657
4103
да използва такъв вид алгоритми,
за да генерира синтетични медии,
09:09
makesправи it ultimatelyв края на краищата so much easierпо-лесно
to createсъздавам videosвидеоклипове.
163
537784
4547
по същество прави създаването на
видеа много по-лесно.
09:14
The WhiteБяло HouseКъща issuedиздаден
a falseфалшив, doctoreddoctored videoвидео
164
542355
4421
Белият дом публикува невярно
и подправено видео
09:18
of a journalistжурналист interactingвзаимодействащи with an internстажант
who was tryingопитвайки to take his microphoneмикрофон.
165
546800
4288
от спречкването на журналист със стажант,
който опитва да му вземе микрофона.
09:23
They removedотстранен framesрамки from this videoвидео
166
551427
1999
Изрязани са кадри от видеото,
09:25
in orderпоръчка to make his actionsмерки
seemИзглежда more punchyЕнергичен.
167
553450
3287
за да изглеждат действията му
по-груби.
09:29
And when videographersvideographers
and stuntmenкаскадьори and womenДами
168
557157
3385
И когато видеографи и
каскадьори
09:32
were interviewedинтервюирани
about this typeТип of techniqueтехниката,
169
560566
2427
са интервюирани за
този вид техника
09:35
they said, "Yes, we use this
in the moviesкино all the time
170
563017
3828
те казват "Да, използваме я
във филмите през цялото време,
09:38
to make our punchesщанци and kicksритници
look more choppyРазвълнуван and more aggressiveагресивен."
171
566869
4763
за да изглеждат ударите и ритниците
по-резки и по-агресивни."
09:44
They then put out this videoвидео
172
572268
1867
След това пуснаха това видео
09:46
and partlyчастично used it as justificationобосновка
173
574159
2500
и в известна степен го използваха
като оправдание
09:48
to revokeОтмени JimДжим AcostaАкоста,
the reporter'sрепортерската, pressНатиснете passминавам
174
576683
3999
да изземат журналистическия пропуск
на репортера Джим Акоста
09:52
from the WhiteБяло HouseКъща.
175
580706
1339
от Белия дом.
09:54
And CNNCNN had to sueСю
to have that pressНатиснете passминавам reinstatedвъзстановен.
176
582069
4809
И СиЕнЕн трябваше да водят дело, за да
възстановят журналистическия пропуск.
Има около 5 различни пътя, за които
се сещам и, по които можем да поемем,
10:00
There are about fiveпет differentразличен pathsпътеки
that I can think of that we can followпоследвам
177
588538
5603
10:06
to try and addressадрес some
of these very difficultтруден problemsпроблеми todayднес.
178
594165
3739
за да се опитаме да решим някои
от тези много трудни проблеми днес.
10:10
EachВсеки one of them has promiseобещание,
179
598379
1810
Всеки от тях дава надежда,
10:12
but eachвсеки one of them
has its ownсобствен challengesпредизвикателства.
180
600213
2999
но всеки от тях
има своите предизвикателства.
10:15
The first one is labelingетикетиране.
181
603236
2008
Първият е "поставяне на етикети".
10:17
Think about it this way:
182
605268
1357
Помислете по следния начин:
10:18
when you go to the groceryхранителни стоки storeмагазин
to buyКупувам foodхрана to consumeконсумираме,
183
606649
3611
когато отидете в магазина,
за да си купите храна за консумация
10:22
it's extensivelyобширно labeledс етикет.
184
610284
1904
тя е с информативен етикет.
10:24
You know how manyмного caloriesкалории it has,
185
612212
1992
Знаете колко калории има в нея,
10:26
how much fatдебел it containsсъдържа --
186
614228
1801
колко мазнини съдържа --
10:28
and yetоще when we consumeконсумираме informationинформация,
we have no labelsЕтикети whatsoeverкаквото и.
187
616053
4278
но когато консумираме информация,
няма никакви етикети.
10:32
What is containedсъдържаща се in this informationинформация?
188
620355
1928
Какво се съдържа в тази информация?
10:34
Is the sourceизточник credibleправдоподобен?
189
622307
1453
Източникът надежден ли е?
10:35
Where is this informationинформация gatheredсъбрана from?
190
623784
2317
Откъде е събрана тази информация?
10:38
We have noneнито един of that informationинформация
191
626125
1825
Не разполагаме с тази информация,
10:39
when we are consumingотнема informationинформация.
192
627974
2103
когато консумираме информация.
10:42
That is a potentialпотенциал avenueпът,
but it comesидва with its challengesпредизвикателства.
193
630101
3238
Това е потенциално решение,
но то съдържа предизвикателства.
Например, кой в обществото ще решава
кое е вярно и кое е невярно?
10:45
For instanceинстанция, who getsполучава to decideреши,
in societyобщество, what's trueвярно and what's falseфалшив?
194
633363
6451
10:52
Is it the governmentsправителства?
195
640387
1642
Правителствата?
10:54
Is it FacebookFacebook?
196
642053
1150
Фейсбук?
10:55
Is it an independentнезависим
consortiumконсорциум of fact-checkersфакти-шашки?
197
643601
3762
Независим консорциум на
проверяващите фактите?
10:59
And who'sкой е checkingпроверка the fact-checkersфакти-шашки?
198
647387
2466
И кой проверява проверяващите?
11:02
AnotherДруг potentialпотенциал avenueпът is incentivesстимули.
199
650427
3084
Друг възможен път е този на стимулите.
11:05
We know that duringпо време на
the US presidentialПрезидентски electionизбори
200
653535
2634
Знаем, че по време на
президентските избори в САЩ
11:08
there was a waveвълна of misinformationдезинформация
that cameдойде from MacedoniaМакедония
201
656193
3690
имаше вълна на дезинформация
с произход Македония,
11:11
that didn't have any politicalполитически motiveмотив
202
659907
2337
която нямаше политически мотив,
11:14
but insteadвместо had an economicикономически motiveмотив.
203
662268
2460
а вместо това имаше икономически мотив.
11:16
And this economicикономически motiveмотив existedсъществувало,
204
664752
2148
И този икономически мотив съществуваше,
защото неверните новини се движат
по-далеч, по-бързо,
11:18
because falseфалшив newsНовини travelsпътувания
so much fartherпо-нататък, fasterпо-бързо
205
666924
3524
11:22
and more deeplyдълбоко than the truthистина,
206
670472
2010
и по-дълбоко от истината
11:24
and you can earnСпечелете advertisingреклама dollarsдолара
as you garnerГарнър eyeballsочните ябълки and attentionвнимание
207
672506
4960
и можеш да спечелиш пари от реклама
докато събираш погледи и внимание
11:29
with this typeТип of informationинформация.
208
677490
1960
с този вид информация.
11:31
But if we can depressподтискат the spreadразпространение
of this informationинформация,
209
679474
3833
Ако можем да ограничим
разпространението на тази информация
11:35
perhapsможе би it would reduceнамаляване на
the economicикономически incentiveстимул
210
683331
2897
това вероятно ще намали
икономическия стимул
11:38
to produceпродукция it at all in the first placeмясто.
211
686252
2690
за самото ѝ създаване.
11:40
ThirdТрета, we can think about regulationрегулиране,
212
688966
2500
Трето, можем да мислим за регулации
11:43
and certainlyразбира се, we should think
about this optionопция.
213
691490
2325
и със сигурност трябва да помислим
за този вариант.
11:45
In the UnitedЮнайтед StatesДържавите, currentlyпонастоящем,
214
693839
1611
В САЩ в момента
11:47
we are exploringпроучване what mightбиха могли, може happenстава
if FacebookFacebook and othersдруги are regulatedрегулиран.
215
695474
4848
разглеждаме какво може да се случи,
ако Фейсбук и други се регулират.
11:52
While we should considerобмислям things
like regulatingрегулиране на politicalполитически speechреч,
216
700346
3801
Докато трябва да помислим за неща като
това да регулираме политическата реч,
11:56
labelingетикетиране the factфакт
that it's politicalполитически speechреч,
217
704171
2508
да обозначим факта, че е
политическа реч,
11:58
makingприготвяне sure foreignчуждестранен actorsактьори
can't fundфонд politicalполитически speechреч,
218
706703
3819
да се уверим, че чуждестранни лица
не могат да финансират политическа реч,
12:02
it alsoсъщо has its ownсобствен dangersопасности.
219
710546
2547
това също води до своите опасности.
12:05
For instanceинстанция, MalaysiaМалайзия just institutedобразувани
a six-yearшестгодишен prisonзатвор sentenceизречение
220
713522
4878
Например, Малайзия тъкмо въведе
шестгодишна ефективна присъда
12:10
for anyoneнякой foundнамерено spreadingразпространяване misinformationдезинформация.
221
718424
2734
за всеки, който
разпространява дезинформация.
12:13
And in authoritarianавторитарните regimesрежими,
222
721696
2079
И в авторитарните режими
12:15
these kindsвидове of policiesполитики can be used
to suppressпотискат minorityмалцинство opinionsстановища
223
723799
4666
този тип политики могат да се използват
за потискане на мнението на малцинствата
12:20
and to continueпродължи to extendразшири repressionрепресии.
224
728489
3508
и за продължаване на репресиите.
12:24
The fourthчетвърти possibleвъзможен optionопция
is transparencyпрозрачност.
225
732680
3543
Четвъртата възможност
е прозрачността.
12:28
We want to know
how do Facebook'sНа Facebook algorithmsалгоритми work.
226
736843
3714
Искаме да знаем как
работят алгоритмите на Фейсбук.
12:32
How does the dataданни
combineкомбайн with the algorithmsалгоритми
227
740581
2880
Как данните се комбинират
с алгоритмите,
12:35
to produceпродукция the outcomesрезултати that we see?
228
743485
2838
за да произвеждат резултатите,
които виждаме?
12:38
We want them to openотворен the kimonoкимоно
229
746347
2349
Искаме да отворят кимоното
12:40
and showшоу us exactlyточно the innerатрешна workingsизработки
of how FacebookFacebook is workingработа.
230
748720
4214
и да ни покажат точно зъбните колела
на начина на работа на Фейсбук.
12:44
And if we want to know
socialсоциален media'sна медиите effectефект on societyобщество,
231
752958
2779
И ако искаме да разберем ефектът
на социалните медии върху обществото
12:47
we need scientistsучени, researchersизследователи
232
755761
2086
трябва учени, изследователи
12:49
and othersдруги to have accessдостъп
to this kindмил of informationинформация.
233
757871
3143
и други да имат достъп до
този вид информация.
12:53
But at the sameедин и същ time,
234
761038
1547
Но същевременно,
12:54
we are askingпита FacebookFacebook
to lockключалка everything down,
235
762609
3801
искаме Фейсбук да
заключи всичко,
12:58
to keep all of the dataданни secureзащитено.
236
766434
2173
да съхранява данните по сигурен начин.
13:00
So, FacebookFacebook and the other
socialсоциален mediaсредства platformsплатформи
237
768631
3159
Фейсбук и другите платформи
на социалните медии
13:03
are facingизправени пред what I call
a transparencyпрозрачност paradoxпарадокс.
238
771814
3134
са изправени пред това, което
наричам парадоск на прозрачността.
13:07
We are askingпита them, at the sameедин и същ time,
239
775266
2674
Едновременно искаме от тях
13:09
to be openотворен and transparentпрозрачен
and, simultaneouslyедновременно secureзащитено.
240
777964
4809
да са отворени и прозрачни,
и в същотото време, да са сигурни.
13:14
This is a very difficultтруден needleигла to threadнишка,
241
782797
2691
Това е много трудна игла за вдяване,
13:17
but they will need to threadнишка this needleигла
242
785512
1913
но те ще трябва да вдянат конеца в иглата,
13:19
if we are to achieveпостигане the promiseобещание
of socialсоциален technologiesтехнологии
243
787449
3787
ако искаме да достигнем потенциала
на социалните технологии,
13:23
while avoidingизбягване theirтехен perilизлагам на опасност.
244
791260
1642
и да избегнем рисковете им.
13:24
The finalфинал thing that we could think about
is algorithmsалгоритми and machineмашина learningизучаване на.
245
792926
4691
Последното нещо, за което се сетихме
са алгоритмите и машинното самообучение.
13:29
TechnologyТехнология devisedизработили to rootкорен out
and understandразбирам fakeфалшив newsНовини, how it spreadsспредове,
246
797641
5277
Технология, създадена, да намира и разбира
фалшивите новини, разпространението им
13:34
and to try and dampenЗабавят its flowпоток.
247
802942
2331
и да се опита да ограничи потока им.
13:37
HumansХората have to be in the loopконтур
of this technologyтехнология,
248
805824
2897
Хората трябва да са в течение
с тази технология,
13:40
because we can never escapeбягство
249
808745
2278
защото не можем да избягаме
13:43
that underlyingосновните any technologicalтехнологически
solutionрешение or approachподход
250
811047
4038
от това, че при всяко технологично
решение или подход
13:47
is a fundamentalосновен ethicalетичен
and philosophicalфилософски questionвъпрос
251
815109
4047
съществува фундаментален етически
и философски въпрос
13:51
about how do we defineдефинира truthистина and falsityНеистинността,
252
819180
3270
как да дефинираме истината и неистната,
13:54
to whomна когото do we give the powerмощност
to defineдефинира truthистина and falsityНеистинността
253
822474
3180
на кого даваме властта да дефинира
истината и неистината
13:57
and whichкойто opinionsстановища are legitimateлегитимен,
254
825678
2460
и кои мнения са легитимни,
14:00
whichкойто typeТип of speechреч
should be allowedпозволен and so on.
255
828162
3706
кой тип реч
трябва да се позволява и т.н.
14:03
TechnologyТехнология is not a solutionрешение for that.
256
831892
2328
Технологията не е решение за това.
14:06
EthicsЕтика and philosophyфилософия
is a solutionрешение for that.
257
834244
3698
Етиката и философията са
решение за това.
14:10
NearlyПочти everyвсеки theoryтеория
of humanчовек decisionрешение makingприготвяне,
258
838950
3318
Почти всяка теория за
взимането на решения от хората,
14:14
humanчовек cooperationсътрудничество and humanчовек coordinationкоординация
259
842292
2761
сътрудничеството и координацията
между хората
14:17
has some senseсмисъл of the truthистина at its coreсърцевина.
260
845077
3674
в същността си има идея за истината.
14:21
But with the riseиздигам се of fakeфалшив newsНовини,
261
849347
2056
Но с възхода на фалшивите новини,
14:23
the riseиздигам се of fakeфалшив videoвидео,
262
851427
1443
възхода на фалшивите видеа,
14:24
the riseиздигам се of fakeфалшив audioзвуков,
263
852894
1882
възхода на фалшивото аудио,
14:26
we are teeteringteetering on the brinkръб
of the endкрай of realityреалност,
264
854800
3924
пълзим по ръба на края
на реалността.
14:30
where we cannotне мога tell
what is realреален from what is fakeфалшив.
265
858748
3889
където не можем да кажем
кое е истинско и кое - фалшиво.
14:34
And that's potentiallyпотенциално
incrediblyневероятно dangerousопасно.
266
862661
3039
И това потенциално
е невероятно опасно.
14:38
We have to be vigilantбдителни
in defendingзащита the truthистина
267
866931
3948
Трябва да сме бдителни
при защитаването на истината
14:42
againstсрещу misinformationдезинформация.
268
870903
1534
срещу дезинформацията.
14:44
With our technologiesтехнологии, with our policiesполитики
269
872919
3436
С нашите технологии, с нашите политики
14:48
and, perhapsможе би mostнай-много importantlyважно,
270
876379
1920
и може би най-важното
14:50
with our ownсобствен individualиндивидуален responsibilitiesотговорности,
271
878323
3214
с нашите индивидуални отговорности,
14:53
decisionsрешения, behaviorsповедения and actionsмерки.
272
881561
3555
решения, поведение и действия.
14:57
Thank you very much.
273
885553
1437
Много ви благодаря.
14:59
(ApplauseАплодисменти)
274
887014
3517
(аплодисменти)
Translated by Niya Koleva
Reviewed by Petya Pavlova

▲Back to top