ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.

Why you should listen

We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.

Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.

Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.

More profile about the speaker
Zeynep Tufekci | Speaker | TED.com
TEDGlobal>NYC

Zeynep Tufekci: We're building a dystopia just to make people click on ads

זיינפ טופקי: אנו מעודדים הקלקה על פרסומות - ויוצרים דיסטופיה

Filmed:
2,866,905 views

קליק אחר קליק אנחנו מקימים דיסטופיה המבוססת על תבונה מלאכותית, אומרת הטכנו-סוציולוגית זיינפ טופקי. בהרצאה פוקחת-עיניים היא מפרטת איך אותם האלגוריתמים המשמשים חברות כמו "פייסבוק", "גוגל" ו"אמזון" כדי לגרום לכם להקליק על פרסומות, משמשים גם כדי לארגן את גישתכם למידע פוליטי וחברתי - והמכונות אינן אפילו האיום האמיתי. עלינו להבין כיצד בעלי השררה יכולים לנצל את התבונה המלאכותית כדי לשלוט בנו -- ומה נוכל לעשות בתגובה לכך.
- Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread. Full bio

Double-click the English transcript below to play the video.

00:12
So when people voiceקוֹל fearsפחדים
of artificialמְלָאכוּתִי intelligenceאינטליגנציה,
0
760
3536
כשאנשים מבטאים פחדים
מפני תבונה המלאכותית,
הם מרבים להעלות דימויים
של רובוטים דמויי-אדם שיוצאים משליטה.
00:16
very oftenלעתים קרובות, they invokeלעורר imagesתמונות
of humanoidאנושי robotsרובוטים runלָרוּץ amokאָמוֹק.
1
4320
3976
כמו ב"שליחות קטלנית".
00:20
You know? Terminatorשליחות קטלנית?
2
8320
1240
אולי צריך לתת על זה את הדעת,
00:22
You know, that mightאולי be
something to considerלשקול,
3
10400
2336
אבל זהו איום רחוק.
00:24
but that's a distantרָחוֹק threatאִיוּם.
4
12760
1856
או שהם מתרגזים על המעקב הדיגיטלי
00:26
Or, we fretלִדאוֹג about digitalדִיגִיטָלי surveillanceהַשׁגָחָה
5
14640
3456
ומביאים דימויים מהעבר.
00:30
with metaphorsמטאפורות from the pastעבר.
6
18120
1776
"1984" של ג'ורג' אורוול
00:31
"1984," Georgeג 'ורג' Orwell'sאורוול "1984,"
7
19920
2656
מטפס שוב ברשימת רבי המכר.
00:34
it's hittingלהכות the bestsellerרב מכר listsרשימות again.
8
22600
2280
00:37
It's a great bookסֵפֶר,
9
25960
1416
זהו ספר נהדר,
אבל זה איננו התיאור הנכון
של הדיסטופיה במאה ה-21.
00:39
but it's not the correctנכון dystopiaדיסטופיה
for the 21stרחוב centuryמֵאָה.
10
27400
3880
00:44
What we need to fearפַּחַד mostרוב
11
32080
1416
עלינו לחשוש יותר מכל
לא ממה שהתבונה המלאכותית
תעולל לנו בעצמה,
00:45
is not what artificialמְלָאכוּתִי intelligenceאינטליגנציה
will do to us on its ownשֶׁלוֹ,
12
33520
4776
אלא מהאופן שבו אנשים בעמדות כוח
ינצלו את התבונה המלאכותית
00:50
but how the people in powerכּוֹחַ
will use artificialמְלָאכוּתִי intelligenceאינטליגנציה
13
38320
4736
כדי לשלוט בנו ולנהל אותנו
00:55
to controlלִשְׁלוֹט us and to manipulateלְתַפְעֵל us
14
43080
2816
בדרכים חדשניות, סמויות לעתים,
ערמומיות ולא-צפויות.
00:57
in novelרוֹמָן, sometimesלִפְעָמִים hiddenמוּסתָר,
15
45920
3136
01:01
subtleעָדִין and unexpectedבלתי צפוי waysדרכים.
16
49080
3016
הרבה מהטכנולוגיה
01:04
Much of the technologyטֶכנוֹלוֹגִיָה
17
52120
1856
שמאיימת על חירותנו וכבודנו
בעתיד הקרוב
01:06
that threatensמאיים our freedomחוֹפֶשׁ
and our dignityכָּבוֹד in the near-termלטווח הקרוב futureעתיד
18
54000
4336
מפותחת בידי חברות
01:10
is beingלהיות developedמפותח by companiesחברות
19
58360
1856
שעוסקות בלכידת ומכירת הנתונים
ומוקדי תשומת ליבנו
01:12
in the businessעֵסֶק of capturingלכידת
and sellingמוכר our dataנתונים and our attentionתשומת הלב
20
60240
4936
למפרסמים ועוד:
01:17
to advertisersמפרסמים and othersאחרים:
21
65200
2256
"פייסבוק", "גוגל", "אמזון",
"עליבאבה", "טנסט".
01:19
Facebookפייסבוק, GoogleGoogle, Amazonאֲמָזוֹנָה,
22
67480
3416
01:22
Alibabaאליבבה, Tencentטנסנט.
23
70920
1880
01:26
Now, artificialמְלָאכוּתִי intelligenceאינטליגנציה has startedהתחיל
bolsteringחיזוק theirשֶׁלָהֶם businessעֵסֶק as well.
24
74040
5496
גם עסקי התבונה המלאכותית החלו להתעצם.
ואולי נראה שהתבונה המלאכותית היא פשוט
הלהיט הבא, אחרי פרסומות מקוונות.
01:31
And it mayמאי seemנראה
like artificialמְלָאכוּתִי intelligenceאינטליגנציה
25
79560
2096
01:33
is just the nextהַבָּא thing after onlineבאינטרנט adsמודעות.
26
81680
2856
היא לא.
01:36
It's not.
27
84560
1216
זאת עליית קטגוריה.
01:37
It's a jumpקְפִיצָה in categoryקטגוריה.
28
85800
2456
זהו עולם אחר לגמרי,
01:40
It's a wholeכֹּל differentשונה worldעוֹלָם,
29
88280
2576
וטמון בה פוטנציאל גדול;
01:42
and it has great potentialפוטנציאל.
30
90880
2616
היא יכולה להאיץ את הבנתנו
בתחומי לימוד ומחקר רבים.
01:45
It could accelerateלהאיץ our understandingהֲבָנָה
of manyרב areasאזורי of studyלימוד and researchמחקר.
31
93520
6920
אבל כפרפראזה על דבריו
של פילוסוף הוליוודי ידוע,
01:53
But to paraphraseפָּרָפרָזָה
a famousמפורסם Hollywoodהוליווד philosopherפִילוֹסוֹף,
32
101120
3496
"פוטנציאל עצום מביא עימו
סכנות עצומות."
01:56
"With prodigiousמַפלִיא potentialפוטנציאל
comesבא prodigiousמַפלִיא riskלְהִסְתָכֵּן."
33
104640
3640
02:01
Now let's look at a basicבסיסי factעוּבדָה
of our digitalדִיגִיטָלי livesחיים, onlineבאינטרנט adsמודעות.
34
109120
3936
הבה נבחן עובדה בסיסית
מחיינו הדיגיטליים: פרסומות מקוונות.
בסדר? אנו פוטרים אותן כלאחר-יד.
02:05
Right? We kindסוג of dismissלשחרר them.
35
113080
2896
הן נראות גולמיות, לא-אפקטיביות.
02:08
They seemנראה crudeגס, ineffectiveלֹא יָעִיל.
36
116000
1976
כולנו רגילים שעוקבים אחרינו ברשת
02:10
We'veללא שם: יש לנו all had the experienceניסיון
of beingלהיות followedאחריו on the webאינטרנט
37
118000
4256
בפרסומות שמבוססות על משהו
שחיפשנו או קראנו.
02:14
by an adמוֹדָעָה basedמבוסס on something
we searchedחיפש or readלקרוא.
38
122280
2776
למשל, את מחפשת זוג מגפיים,
02:17
You know, you look up a pairזוג of bootsמגפיים
39
125080
1856
ובמשך שבוע המגפיים האלה
עוקבים אחרייך לכל מקום.
02:18
and for a weekשָׁבוּעַ, those bootsמגפיים are followingהבא
you around everywhereבכל מקום you go.
40
126960
3376
גם אחרי שאת נכנעת וקונה אותם,
הם עדיין מסתובבים אחרייך.
02:22
Even after you succumbלְהִכָּנֵעַ and buyלִקְנוֹת them,
they're still followingהבא you around.
41
130360
3656
אנו די מחוסנים למניפולציה
בסיסית וזולה כזאת.
02:26
We're kindסוג of inuredמחוסן to that kindסוג
of basicבסיסי, cheapזוֹל manipulationמָנִיפּוּלָצִיָה.
42
134040
3016
אנו מגלגלים את עינינו ואומרים,
"הדברים האלה לא עובדים."
02:29
We rollגָלִיל our eyesעיניים and we think,
"You know what? These things don't work."
43
137080
3400
אבל באינטרנט
02:33
Exceptמלבד, onlineבאינטרנט,
44
141720
2096
הטכנולוגיות הדיגיטליות
אינן רק פרסומות.
02:35
the digitalדִיגִיטָלי technologiesטכנולוגיות are not just adsמודעות.
45
143840
3600
כדי להבין זאת,
הבה ניקח דוגמה מהעולם הממשי.
02:40
Now, to understandמבין that,
let's think of a physicalגוּפָנִי worldעוֹלָם exampleדוגמא.
46
148240
3120
מכירים את זה
שבקופות במרכול, ליד הקופות,
02:43
You know how, at the checkoutלבדוק countersמונים
at supermarketsסופרמרקטים, nearליד the cashierקופאית,
47
151840
4656
יש תמיד סוכריות ומסטיקים
בגובה עיני הילדים?
02:48
there's candyסוּכַּרִיוֹת and gumגומי לעיסה
at the eyeעַיִן levelרָמָה of kidsילדים?
48
156520
3480
02:52
That's designedמְעוּצָב to make them
whineיְלָלָה at theirשֶׁלָהֶם parentsהורים
49
160800
3496
זה מתוכנן כדי לגרום להם
ליילל להוריהם
בדיוק כשההורים עומדים לשלם.
02:56
just as the parentsהורים
are about to sortסוג of checkלבדוק out.
50
164320
3080
זאת ארכיטקטורה של שכנוע.
03:00
Now, that's a persuasionשִׁכנוּעַ architectureארכיטקטורה.
51
168040
2640
היא לא נחמדה,
אבל היא איכשהו עובדת
03:03
It's not niceנֶחְמָד, but it kindסוג of worksעובד.
52
171160
3096
ולכן רואים אותה בכל מרכול.
03:06
That's why you see it
in everyכֹּל supermarketסוּפֶּרמַרקֶט.
53
174280
2040
03:08
Now, in the physicalגוּפָנִי worldעוֹלָם,
54
176720
1696
בעולם הממשי,
ארכיטקטורות שכנוע כאלה
הן מוגבלות למדי,
03:10
suchכגון persuasionשִׁכנוּעַ architecturesארכיטקטורות
are kindסוג of limitedמוגבל,
55
178440
2496
כי יש גבול לכמות הדברים
שאפשר למקם ליד הקופה, נכון?
03:12
because you can only put
so manyרב things by the cashierקופאית. Right?
56
180960
4816
וכולם רואים את אותם
ממתקים ומסטיקים,
03:17
And the candyסוּכַּרִיוֹת and gumגומי לעיסה,
it's the sameאותו for everyoneכל אחד,
57
185800
4296
גם אם זה בעיקר עובד
03:22
even thoughאם כי it mostlyבעיקר worksעובד
58
190120
1456
על אנשים שבני-אדם קטנים
מייללים לצידם.
03:23
only for people who have
whinyבוכה little humansבני אנוש besideלְיַד them.
59
191600
4040
בעולם הממשי
אנו חיים עם המגבלות האלה.
03:29
In the physicalגוּפָנִי worldעוֹלָם,
we liveלחיות with those limitationsמגבלות.
60
197160
3920
אבל בעולם הדיגיטלי
03:34
In the digitalדִיגִיטָלי worldעוֹלָם, thoughאם כי,
61
202280
1936
אפשר לבנות ארכיטקטורות שכנוע
בהיקף של מיליארדים
03:36
persuasionשִׁכנוּעַ architecturesארכיטקטורות
can be builtבנוי at the scaleסוּלָם of billionsמיליארדים
62
204240
4320
והן יודעות לקלוע, להסיק, להבין
03:41
and they can targetיַעַד, inferלְהַסִיק, understandמבין
63
209840
3856
ולהיות מופנות לבני-אדם בודדים,
03:45
and be deployedלפרוס at individualsיחידים
64
213720
2896
אחד-אחד,
03:48
one by one
65
216640
1216
בכך שהן מגלות את החולשות שלכם,
03:49
by figuringלהבין out your weaknessesחולשות,
66
217880
2136
וניתן לשגר אותן
למסך הטלפון הפרטי,
03:52
and they can be sentנשלח
to everyone'sשל כולם phoneטלפון privateפְּרָטִי screenמָסָך,
67
220040
5616
כך שזה לא גלוי לכולנו.
03:57
so it's not visibleנִרְאֶה to us.
68
225680
2256
וזה שונה.
03:59
And that's differentשונה.
69
227960
1256
וזה רק אחד הדברים הפשוטים
שהתבונה המלאכותית מסוגלת לעשות.
04:01
And that's just one of the basicבסיסי things
that artificialמְלָאכוּתִי intelligenceאינטליגנציה can do.
70
229240
3576
ניקח דוגמה.
04:04
Now, let's take an exampleדוגמא.
71
232840
1336
נניח שאתם רוצים למכור
כרטיסי טיסה לווגאס, בסדר?
04:06
Let's say you want to sellמכירה
planeמָטוֹס ticketsכרטיסים to Vegasוגאס. Right?
72
234200
2696
בעולם הישן הייתם עושים
מיקוד לפי פילוח דמוגרפי
04:08
So in the oldישן worldעוֹלָם, you could think
of some demographicsדמוגרפיה to targetיַעַד
73
236920
3496
על סמך נסיון וניחושים.
04:12
basedמבוסס on experienceניסיון
and what you can guessלְנַחֵשׁ.
74
240440
2520
04:15
You mightאולי try to advertiseלְפַרְסֵם to, oh,
75
243560
2816
הייתם אולי פונים בפרסומת, למשל,
לגברים בגילאי 25 עד 35,
04:18
menגברים betweenבֵּין the agesהגילאים of 25 and 35,
76
246400
2496
או אנשים עם אשראי גבוה,
04:20
or people who have
a highגָבוֹהַ limitלְהַגבִּיל on theirשֶׁלָהֶם creditאַשׁרַאי cardכַּרְטִיס,
77
248920
3936
או זוגות בגמלאות, נכון?
04:24
or retiredבדימוס couplesזוגות. Right?
78
252880
1376
זה מה שהייתם עושים פעם.
04:26
That's what you would do in the pastעבר.
79
254280
1816
עם נתוני עתק ולמידת מכונה,
04:28
With bigגָדוֹל dataנתונים and machineמְכוֹנָה learningלְמִידָה,
80
256120
2896
זה כבר לא עובד ככה.
04:31
that's not how it worksעובד anymoreיותר.
81
259040
1524
04:33
So to imagineלדמיין that,
82
261320
2176
כדי לדמיין את זה,
חישבו על כל הנתונים
שיש ל"פייסבוק" עליכם:
04:35
think of all the dataנתונים
that Facebookפייסבוק has on you:
83
263520
3856
כל עדכון סטטוס שהקלדתם,
04:39
everyכֹּל statusסטָטוּס updateעדכון you ever typedהקלדת,
84
267400
2536
כל שיחה ב"מסנג'ר",
04:41
everyכֹּל Messengerשָׁלִיחַ conversationשִׂיחָה,
85
269960
2016
כל מקום ממנו נכנסתם לחשבונכם,
04:44
everyכֹּל placeמקום you loggedמחובר in from,
86
272000
1880
כל הצילומים שהעליתם לשם,
04:48
all your photographsתמונות
that you uploadedהועלה there.
87
276400
3176
אם התחלתם להקליד משהו,
שיניתם את דעתכם ומחקתם אותו,
04:51
If you startהַתחָלָה typingהקלדה something
and changeשינוי your mindאכפת and deleteלִמְחוֹק it,
88
279600
3776
"פייסבוק" שומרת ומנתחת גם את זה.
04:55
Facebookפייסבוק keepsשומר those
and analyzesניתוח them, too.
89
283400
3200
היא תנסה יותר ויותר להתאים
ביניכם לבין נתוניכם הבלתי-מקוונים.
04:59
Increasinglyיותר ויותר, it triesמנסה
to matchהתאמה you with your offlineלא מקוון dataנתונים.
90
287160
3936
היא גם רוכשת הרבה נתונים
מסחרני מידע.
05:03
It alsoגַם purchasesרכישות
a lot of dataנתונים from dataנתונים brokersברוקרים.
91
291120
3176
זה יכול להיות הכל,
החל מהרשומות הפיננסיות שלכם
05:06
It could be everything
from your financialכַּספִּי recordsרשומות
92
294320
3416
ועד לנתח רציני
מהיסטוריית הגלישה שלכם.
05:09
to a good chunkחתיכה of your browsingדִפדוּף historyהִיסטוֹרִיָה.
93
297760
2120
05:12
Right? In the US,
suchכגון dataנתונים is routinelyבאופן שגרתי collectedשנאספו,
94
300360
5416
בארה"ב, נתונים כאלה נאספים,
מושווים ונמכרים דרך שגרה,
05:17
collatedנאסף and soldנמכר.
95
305800
1960
באירופה, החוקים נוקשים יותר.
05:20
In Europeאֵירוֹפָּה, they have tougherקשה יותר rulesכללים.
96
308320
2440
וכעת מה שקורה הוא,
05:23
So what happensקורה then is,
97
311680
2200
האלגוריתמים של למידת המכונה האלה
חופרים בכל הנתונים הללו --
05:26
by churningחביצה throughדרך all that dataנתונים,
these machine-learningלמידת מכונה algorithmsאלגוריתמים --
98
314920
4016
בגלל זה קוראים להם
"אלגוריתמים של למידת מכונה" --
05:30
that's why they're calledשקוראים לו
learningלְמִידָה algorithmsאלגוריתמים --
99
318960
2896
והם לומדים להבין
את המאפיינים של אנשים
05:33
they learnלִלמוֹד to understandמבין
the characteristicsמאפיינים of people
100
321880
4096
שרכשו בעבר כרטיסים לווגאס.
05:38
who purchasedנרכש ticketsכרטיסים to Vegasוגאס before.
101
326000
2520
05:41
When they learnלִלמוֹד this from existingקיים dataנתונים,
102
329760
3536
כשהם לומדים זאת מנתונים קיימים,
הם גם לומדים ליישם זאת
לאנשים חדשים.
05:45
they alsoגַם learnלִלמוֹד
how to applyלהגיש מועמדות this to newחָדָשׁ people.
103
333320
3816
אז כשמציגים להם מישהו חדש,
05:49
So if they're presentedמוצג with a newחָדָשׁ personאדם,
104
337160
3056
הם יודעים לסווג אותו,
כמי שסביר שיקנה כרטיס לווגאס או לא.
05:52
they can classifyלסווג whetherהאם that personאדם
is likelyסָבִיר to buyלִקְנוֹת a ticketכַּרְטִיס to Vegasוגאס or not.
105
340240
4640
05:57
Fine. You're thinkingחושב,
an offerהַצָעָה to buyלִקְנוֹת ticketsכרטיסים to Vegasוגאס.
106
345720
5456
יופי. אתם חושבים,
"הצעה לרכוש כרטיסים לווגאס?
"אני יכול להתעלם ממנה."
06:03
I can ignoreלהתעלם that.
107
351200
1456
אבל לא זאת הבעיה.
06:04
But the problemבְּעָיָה isn't that.
108
352680
2216
הבעיה היא,
06:06
The problemבְּעָיָה is,
109
354920
1576
שכבר איננו מבינים באמת
איך האלגוריתמים המסובכים האלה עובדים.
06:08
we no longerארוך יותר really understandמבין
how these complexמורכב algorithmsאלגוריתמים work.
110
356520
4136
איננו מבינים איך הם מסווגים.
06:12
We don't understandמבין
how they're doing this categorizationסיווג.
111
360680
3456
מדובר במטריצות ענק,
אלפי שורות ועמודות,
06:16
It's giantעֲנָק matricesמטריצות,
thousandsאלפים of rowsשורות and columnsעמודות,
112
364160
4416
אולי מיליוני שורות ועמודות,
06:20
maybe millionsמיליונים of rowsשורות and columnsעמודות,
113
368600
1960
06:23
and not the programmersמתכנתים
114
371320
2640
ולא המתכנתים
ולא מי שבוחן אותן,
06:26
and not anybodyמִישֶׁהוּ who looksנראה at it,
115
374760
1680
גם אם יש לו כל הנתונים,
06:29
even if you have all the dataנתונים,
116
377440
1496
כבר מבין באיזו רמת דיוק הם פועלים,
06:30
understandsמבין anymoreיותר
how exactlyבְּדִיוּק it's operatingהפעלה
117
378960
4616
06:35
any more than you'dהיית רוצה know
what I was thinkingחושב right now
118
383600
3776
כפי שאינכם יודעים
מה אני חושבת כרגע
אילו הראו לכם חתך-רוחב
של המוח שלי.
06:39
if you were shownמוצג
a crossלַחֲצוֹת sectionסָעִיף of my brainמוֹחַ.
119
387400
3960
זה כאילו שאיננו מתכנתים יותר,
06:44
It's like we're not programmingתִכנוּת anymoreיותר,
120
392360
2576
אנו מגדלים תבונה
06:46
we're growingגָדֵל intelligenceאינטליגנציה
that we don't trulyבֶּאֱמֶת understandמבין.
121
394960
4400
שאיננו באמת מבינים.
והדברים האלה עובדים
רק אם כמות הנתונים עצומה,
06:52
And these things only work
if there's an enormousעֲנָקִי amountכמות of dataנתונים,
122
400520
3976
ולכן הם גם מעודדים
מעקב מעמיק אחרי כולנו
06:56
so they alsoגַם encourageלְעוֹדֵד
deepעָמוֹק surveillanceהַשׁגָחָה on all of us
123
404520
5096
כדי שהאלגוריתמים של למידת המכונה
יוכלו לפעול כהלכה.
07:01
so that the machineמְכוֹנָה learningלְמִידָה
algorithmsאלגוריתמים can work.
124
409640
2336
זו הסיבה ש"פייסבוק" רוצה
לאסוף עליכם נתונים רבים ככל שתוכל:
07:04
That's why Facebookפייסבוק wants
to collectלאסוף all the dataנתונים it can about you.
125
412000
3176
האלגוריתמים יעבדו טוב יותר.
07:07
The algorithmsאלגוריתמים work better.
126
415200
1576
בואו נעלה מדרגה בדוגמה של ווגאס.
07:08
So let's pushלִדחוֹף that Vegasוגאס exampleדוגמא a bitbit.
127
416800
2696
מה אם המערכת שאיננו מבינים
07:11
What if the systemמערכת
that we do not understandמבין
128
419520
3680
החליטה שקל יותר למכור כרטיסים לווגאס
07:16
was pickingקטיף up that it's easierקל יותר
to sellמכירה Vegasוגאס ticketsכרטיסים
129
424200
5136
לאנשים דו-קוטביים
שעומדים לעבור למאניה.
07:21
to people who are bipolarדו קוטבית
and about to enterלהיכנס the manicשִׁגָעוֹנִי phaseשלב.
130
429360
3760
07:25
Suchכגון people tendנוטה to becomeהפכו
overspendersoverspenders, compulsiveכְּפִיָתִי gamblersמהמרים.
131
433640
4920
אנשים כאלה נוטים להיות בזבזנים מדי,
מהמרים כפייתיים.
היא תוכל לעשות זאת,
ולא יהיה לכם מושג שכך היא החליטה.
07:31
They could do this, and you'dהיית רוצה have no clueרֶמֶז
that's what they were pickingקטיף up on.
132
439280
4456
פעם נתתי את הדוגמה הזאת
לקבוצת מדעני מחשבים
07:35
I gaveנתן this exampleדוגמא
to a bunchצְרוֹר of computerמַחשֵׁב scientistsמדענים onceפַּעַם
133
443760
3616
ואחר-כך אחד מהם ניגש אלי.
07:39
and afterwardsלאחר מכן, one of them cameבא up to me.
134
447400
2056
הוא היה נסער, ואמר,
"בגלל זה לא יכולתי לפרסם את זה."
07:41
He was troubledמוּטרָד and he said,
"That's why I couldn'tלא יכול publishלְפַרְסֵם it."
135
449480
3520
שאלתי, "לפרסם את מה?"
07:45
I was like, "Couldn'tלא יכולתי publishלְפַרְסֵם what?"
136
453600
1715
הוא ניסה לראות אם אכן אפשר
לזהות את תחילת השלב המאני
07:47
He had triedניסה to see whetherהאם you can indeedאכן
figureדמות out the onsetהַתקָפָה of maniaמַניָה
137
455800
5856
מפוסטים במדיה החברתית
עוד לפני התסמינים הרפואיים,
07:53
from socialחֶברָתִי mediaכְּלֵי תִקְשׁוֹרֶת postsהודעות
before clinicalקליני symptomsהסימפטומים,
138
461680
3216
וזה הצליח לו,
07:56
and it had workedעבד,
139
464920
1776
זה הצליח לו ממש טוב.
07:58
and it had workedעבד very well,
140
466720
2056
ולא היה לו מושג איך זה עבד
או לפי מה.
08:00
and he had no ideaרַעְיוֹן how it workedעבד
or what it was pickingקטיף up on.
141
468800
4880
הבעיה אינה פתורה
רק כי הוא לא פירסם את זה,
08:06
Now, the problemבְּעָיָה isn't solvedנפתרה
if he doesn't publishלְפַרְסֵם it,
142
474840
4416
כי כבר יש חברות
שמפתחות טכנולוגיה כזאת,
08:11
because there are alreadyכְּבָר companiesחברות
143
479280
1896
08:13
that are developingמתפתח
this kindסוג of technologyטֶכנוֹלוֹגִיָה,
144
481200
2536
והרבה מהמוצרים שלהן נחטפים מהמדפים.
08:15
and a lot of the stuffדברים
is just off the shelfמַדָף.
145
483760
2800
זה כבר לא קשה במיוחד.
08:19
This is not very difficultקָשֶׁה anymoreיותר.
146
487240
2576
יוצא לכם להיכנס ל"יו-טיוב"
כדי לראות סרטון אחד
08:21
Do you ever go on YouTubeYouTube
meaningמַשְׁמָעוּת to watch one videoוִידֵאוֹ
147
489840
3456
ואחרי שעה צפיתם כבר ב-27 כאלה?
08:25
and an hourשָׁעָה laterיותר מאוחר you've watchedצפה 27?
148
493320
2360
מכירים את זה שב"יו-טיוב"
יש בצד ימין עמודה
08:28
You know how YouTubeYouTube
has this columnטור on the right
149
496760
2496
שכתוב בה: "הסרטון הבא"
08:31
that saysאומר, "Up nextהַבָּא"
150
499280
2216
והוא מוקרן באופן אוטומטי?
08:33
and it autoplaysאוטופלאס something?
151
501520
1816
זהו אלגוריתם
08:35
It's an algorithmאַלגוֹרִיתְם
152
503360
1216
שבוחר מה שלדעתו
עשוי לעניין אתכם
08:36
pickingקטיף what it thinksחושב
that you mightאולי be interestedמעוניין in
153
504600
3616
ושאולי לא תחפשו בעצמכם.
08:40
and maybe not find on your ownשֶׁלוֹ.
154
508240
1536
אין שם עורך אנושי.
08:41
It's not a humanבן אנוש editorעוֹרֵך.
155
509800
1256
זה מה שאלגוריתמים עושים.
08:43
It's what algorithmsאלגוריתמים do.
156
511080
1416
הם בוחרים לפי מה שראיתם
ומה שראו אנשים כמוכם,
08:44
It picksמבחר up on what you have watchedצפה
and what people like you have watchedצפה,
157
512520
4736
ומסיקים שזה בוודאי
מה שיעניין אתכם,
08:49
and infersinfers that that mustצריך be
what you're interestedמעוניין in,
158
517280
4216
ושאתם רוצים ממנו עוד,
08:53
what you want more of,
159
521520
1255
והם פשוט מציגים לכם עוד.
08:54
and just showsמופעים you more.
160
522799
1336
זה נשמע כמו תכונה
נחמדה ושימושית,
08:56
It soundsקולות like a benignשָׁפִיר
and usefulמוֹעִיל featureתכונה,
161
524159
2201
08:59
exceptמלבד when it isn't.
162
527280
1200
אלא כשהיא לא.
09:01
So in 2016, I attendedהשתתפו ralliesעצרות
of then-candidateאז המועמד Donaldדונלד Trumpחֶברְמַן
163
529640
6960
ב-2016 השתתפתי בעצרות
של המועמד דאז, דונלד טראמפ
כדי לחקור, כמלומדת,
את התנועה שתומכת בו.
09:09
to studyלימוד as a scholarמְלוּמָד
the movementתְנוּעָה supportingתומך him.
164
537840
3336
חקרתי אז תנועות חברתיות,
וחקרתי גם את זאת.
09:13
I studyלימוד socialחֶברָתִי movementsתנועות,
so I was studyingלומד it, too.
165
541200
3456
ואז רציתי לכתוב משהו
על אחת העצרות שלו,
09:16
And then I wanted to writeלִכתוֹב something
about one of his ralliesעצרות,
166
544680
3336
אז צפיתי בה כמה פעמים ב"יו-טיוב".
09:20
so I watchedצפה it a fewמְעַטִים timesפִּי on YouTubeYouTube.
167
548040
1960
"יו-טיוב" החל להמליץ לי
09:23
YouTubeYouTube startedהתחיל recommendingהמלצה to me
168
551240
3096
ולהקרין לי אוטומטית
סרטוני עליונות לבנה
09:26
and autoplayingהפעלה אוטומטית to me
whiteלבן supremacistסובלנות videosסרטונים
169
554360
4256
בקיצוניות הולכת וגוברת.
09:30
in increasingגָדֵל orderלהזמין of extremismקיצוניות.
170
558640
2656
אם צפיתי באחד מהם,
09:33
If I watchedצפה one,
171
561320
1816
הערוץ הביא לי סרטון קיצוני עוד יותר
09:35
it servedשירת up one even more extremeקיצוני
172
563160
2976
והקרין לי גם אותו אוטומטית.
09:38
and autoplayedהאוטומטית that one, too.
173
566160
1424
09:40
If you watch Hillaryהילארי Clintonקלינטון
or Bernieברני Sandersסנדרס contentתוֹכֶן,
174
568320
4536
אם צפיתם בתוכן
של הילרי קלינטון או ברני סנדרס,
"יו-טיוב" ימליץ ויקרין לכם אוטומטית
מזימות שמאלניות,
09:44
YouTubeYouTube recommendsממליצה
and autoplaysאוטופלאס conspiracyקֶשֶׁר left,
175
572880
4696
ומשם זה רק יילך ויידרדר.
09:49
and it goesהולך downhillבְּמִדרוֹן from there.
176
577600
1760
אולי אתם חושבים,
"ככה זה בפוליטיקה." אבל לא.
09:52
Well, you mightאולי be thinkingחושב,
this is politicsפּוֹלִיטִיקָה, but it's not.
177
580480
3056
לא מדובר כאן בפוליטיקה.
09:55
This isn't about politicsפּוֹלִיטִיקָה.
178
583560
1256
זהו פשוט אלגוריתם
שלומד התנהגות אנושית.
09:56
This is just the algorithmאַלגוֹרִיתְם
figuringלהבין out humanבן אנוש behaviorהִתְנַהֲגוּת.
179
584840
3096
ראיתי פעם סרטון ב"יו-טיוב"
על צמחונות
09:59
I onceפַּעַם watchedצפה a videoוִידֵאוֹ
about vegetarianismצִמחוֹנוּת on YouTubeYouTube
180
587960
4776
ו"יו-טיוב" המליץ לי, והקרין אוטומטית
סרטון על טבעונות.
10:04
and YouTubeYouTube recommendedמוּמלָץ
and autoplayedהאוטומטית a videoוִידֵאוֹ about beingלהיות veganטִבעוֹנִי.
181
592760
4936
ההרגשה היא שאתה אף פעם
לא מספיק קיצוני בשביל "יו-טיוב".
10:09
It's like you're never
hardcoreהארדקור enoughמספיק for YouTubeYouTube.
182
597720
3016
(צחוק)
10:12
(Laughterצחוק)
183
600760
1576
אז מה קורה?
10:14
So what's going on?
184
602360
1560
האלגוריתם של "יו-טיוב" הוא קנייני,
10:16
Now, YouTube'sשל YouTube algorithmאַלגוֹרִיתְם is proprietaryקנייני,
185
604520
3536
אבל הנה מה שאני חושבת שקורה.
10:20
but here'sהנה what I think is going on.
186
608080
2360
10:23
The algorithmאַלגוֹרִיתְם has figuredמְעוּטָר out
187
611360
2096
האלגוריתם חישב ומצא
שאם אפשר לפתות אנשים לחשוב
10:25
that if you can enticeלפתות people
188
613480
3696
10:29
into thinkingחושב that you can
showלְהַצִיג them something more hardcoreהארדקור,
189
617200
3736
שהם יוכלו לראות משהו קיצוני יותר,
סביר יותר שהם יישארו באתר
10:32
they're more likelyסָבִיר to stayשָׁהוּת on the siteאֲתַר
190
620960
2416
ויצפו בסרטון אחרי סרטון
תוך נפילה למאורת הארנב
10:35
watchingצופה videoוִידֵאוֹ after videoוִידֵאוֹ
going down that rabbitארנב holeחור
191
623400
4416
בעוד "גוגל" מגיש להם פרסומות.
10:39
while GoogleGoogle servesמשמש them adsמודעות.
192
627840
1680
כשאיש איננו משגיח
על האתיקה בחנות,
10:43
Now, with nobodyאף אחד mindingאכפתיות
the ethicsאֶתִיקָה of the storeחֲנוּת,
193
631760
3120
האתרים האלה יכולים לאפיין אנשים
10:47
these sitesאתרים can profileפּרוֹפִיל people
194
635720
4240
שהם שונאי יהודים,
10:53
who are Jewיְהוּדִי hatersשונאים,
195
641680
1920
שחושבים שהיהודים הם טפילים
10:56
who think that Jewsיהודים are parasitesטפילים
196
644360
2480
והם יקבלו תוכן אנטישמי מפורש
11:00
and who have suchכגון explicitמְפוֹרָשׁ
anti-Semiticאנטישמי contentתוֹכֶן,
197
648320
4920
ואפשר למקד אליהם פרסומות.
11:06
and let you targetיַעַד them with adsמודעות.
198
654080
2000
הם יכולים גם לגייס אלגוריתמים
11:09
They can alsoגַם mobilizeלגייס algorithmsאלגוריתמים
199
657200
3536
שימצאו עבורכם קהלים דומים,
11:12
to find for you look-alikeנראה דומה audiencesקהלים,
200
660760
3136
אנשים שהאיפיון שלהם
אינו כולל תוכן אנטישמי מפורש כזה,
11:15
people who do not have suchכגון explicitמְפוֹרָשׁ
anti-Semiticאנטישמי contentתוֹכֶן on theirשֶׁלָהֶם profileפּרוֹפִיל
201
663920
5576
אבל שהאלגוריתם זיהה
שהם יהיו פתוחים למסרים כאלה,
11:21
but who the algorithmאַלגוֹרִיתְם detectsמזהה
mayמאי be susceptibleרָגִישׁ to suchכגון messagesהודעות,
202
669520
6176
והוא יאפשר למקד גם אליהם פרסומות.
11:27
and letsמאפשר you targetיַעַד them with adsמודעות, too.
203
675720
1920
11:30
Now, this mayמאי soundנשמע
like an implausibleלֹא סָבִיר exampleדוגמא,
204
678680
2736
זה אולי נשמע כמו דוגמה
בלתי-סבירה,
אבל זה אמיתי.
11:33
but this is realאמיתי.
205
681440
1320
11:35
ProPublicaProPublica investigatedחקר this
206
683480
2136
"פרופבליקה" חקרו את זה,
ומצאו שאכן אפשר לעשות זאת ב"פייסבוק",
11:37
and foundמצאתי that you can indeedאכן
do this on Facebookפייסבוק,
207
685640
3616
ו"פייסבוק" נעתרה ברצון והציעה הצעות
11:41
and Facebookפייסבוק helpfullyעזרה
offeredמוּצָע up suggestionsהצעות
208
689280
2416
איך להרחיב את הקהל הזה.
11:43
on how to broadenלְהַרְחִיב that audienceקהל.
209
691720
1600
11:46
BuzzFeedBuzzFeed triedניסה it for GoogleGoogle,
and very quicklyבִּמְהִירוּת they foundמצאתי,
210
694720
3016
"באזפיד" ניסו זאת על "גוגל",
והם גילו מהר מאד
שכן, אפשר לעשות זאת גם ב"גוגל".
11:49
yepכֵּן, you can do it on GoogleGoogle, too.
211
697760
1736
וזה לא היה אפילו יקר.
11:51
And it wasn'tלא היה even expensiveיָקָר.
212
699520
1696
הכתב של "פרופבליקה" הוציא כ-30 דולר
11:53
The ProPublicaProPublica reporterכַתָב
spentמוּתַשׁ about 30 dollarsדולר
213
701240
4416
כדי למקד פרסום לקטגוריה הזאת.
11:57
to targetיַעַד this categoryקטגוריה.
214
705680
2240
12:02
So last yearשָׁנָה, Donaldדונלד Trump'sטראמפ
socialחֶברָתִי mediaכְּלֵי תִקְשׁוֹרֶת managerמנהל disclosedגילה
215
710600
5296
בשנה שעברה, מנהל המדיה החברתית
של דולנד טראמפ גילה
שהם העלו פוסטים אפלים ל"פייסבוק"
כדי להניא אנשים מלהצביע;
12:07
that they were usingמבנה יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוני Facebookפייסבוק darkאפל postsהודעות
to demobilizeלשחרור people,
216
715920
5336
לא כדי לשכנע אותם,
12:13
not to persuadeלְשַׁכְנֵעַ them,
217
721280
1376
אלא כדי לשכנע אותם
שלא להצביע כלל.
12:14
but to convinceלְשַׁכְנֵעַ them not to voteהַצבָּעָה at all.
218
722680
2800
ולשם כך הם ביצעו מיקוד ספציפי,
12:18
And to do that,
they targetedממוקד specificallyבאופן ספציפי,
219
726520
3576
למשל, גברים אפרו-אמריקנים
בערים מרכזיות כמו פילדלפיה,
12:22
for exampleדוגמא, African-Americanאפריקאי אמריקאי menגברים
in keyמַפְתֵחַ citiesערים like Philadelphiaפילדלפיה,
220
730120
3896
ואני אקריא בדיוק
את מה שהוא אמר.
12:26
and I'm going to readלקרוא
exactlyבְּדִיוּק what he said.
221
734040
2456
אני מצטטת.
12:28
I'm quotingמצטט.
222
736520
1216
הם השתמשו ב"פוסטים לא-ציבוריים
12:29
They were usingמבנה יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוני "nonpublicלא ציבורי postsהודעות
223
737760
3016
"שמידרוג הצפיה שלהם במסע הבחירות קבע
12:32
whoseשל מי viewershipצופים the campaignקמפיין controlsשולטת
224
740800
2176
12:35
so that only the people
we want to see it see it.
225
743000
3776
"שרק אנשים שרוצים לראות זאת
יראו זאת.
"מידלנו את זה.
12:38
We modeledמודל this.
226
746800
1216
"זה ישפיע באופן דרמטי
על יכולתה לשנות את דעותיהם."
12:40
It will dramaticallyבאופן דרמטי affectלהשפיע her abilityיְכוֹלֶת
to turnלפנות these people out."
227
748040
4720
12:45
What's in those darkאפל postsהודעות?
228
753720
2280
מה יש בפוסטים האפלים האלה?
12:48
We have no ideaרַעְיוֹן.
229
756480
1656
אין לנו מושג.
"פייסבוק" לא מגלה לנו.
12:50
Facebookפייסבוק won'tרָגִיל tell us.
230
758160
1200
12:52
So Facebookפייסבוק alsoגַם algorithmicallyאלגוריתמית
arrangesמסדר the postsהודעות
231
760480
4376
אז גם "פייסבוק" מארגנת
בעזרת אלגוריתמים
את הפוסטים שחבריכם מעלים ל"פייסבוק",
או את הדפים שאחריהם אתם עוקבים.
12:56
that your friendsחברים put on Facebookפייסבוק,
or the pagesדפים you followלעקוב אחר.
232
764880
3736
היא לא מציגה הכל בסדר הכרונולוגי.
13:00
It doesn't showלְהַצִיג you
everything chronologicallyכרונולוגי.
233
768640
2216
אלא את הסדר
שהאלגוריתם חושב שיפתה אתכם
13:02
It putsמעמיד the orderלהזמין in the way
that the algorithmאַלגוֹרִיתְם thinksחושב will enticeלפתות you
234
770880
4816
להישאר יותר באתר.
13:07
to stayשָׁהוּת on the siteאֲתַר longerארוך יותר.
235
775720
1840
13:11
Now, so this has a lot of consequencesהשלכות.
236
779040
3376
לכך יש המון השלכות.
אולי נראה לכם שמישהו ב"פייסבוק"
מזלזל בכם.
13:14
You mayמאי be thinkingחושב
somebodyמִישֶׁהוּ is snubbingזועם you on Facebookפייסבוק.
237
782440
3800
האלגוריתם אולי לעולם
לא יראה להם את הפוסט שלכם.
13:18
The algorithmאַלגוֹרִיתְם mayמאי never
be showingמראה your postהודעה to them.
238
786800
3256
האלגוריתם מתעדף פוסטים מסוימים
וקובר את היתר.
13:22
The algorithmאַלגוֹרִיתְם is prioritizingסדר עדיפויות
some of them and buryingקבורה the othersאחרים.
239
790080
5960
ניסויים הוכיחו
13:29
Experimentsניסויים showלְהַצִיג
240
797320
1296
שמה שהאלגוריתם בוחר להראות לכם
עשוי להשפיע על רגשותיכם.
13:30
that what the algorithmאַלגוֹרִיתְם picksמבחר to showלְהַצִיג you
can affectלהשפיע your emotionsרגשות.
241
798640
4520
אבל זה לא הכל.
13:36
But that's not all.
242
804600
1200
זה גם משפיע על ההתנהגות הפוליטית.
13:38
It alsoגַם affectsמשפיע politicalפּוֹלִיטִי behaviorהִתְנַהֲגוּת.
243
806280
2360
13:41
So in 2010, in the midtermאמצע electionsבחירות,
244
809360
4656
ב-2010, בבחירות אמצע הכהונה,
"פייסבוק" ערכה ניסוי
על 61 מיליון בני-אדם בארה"ב
13:46
Facebookפייסבוק did an experimentלְנַסוֹת
on 61 millionמִילִיוֹן people in the US
245
814040
5896
שפורסם רק מאוחר יותר.
13:51
that was disclosedגילה after the factעוּבדָה.
246
819960
1896
הם הציגו לאנשים מסוימים
את "היום יום הבחירות,"
13:53
So some people were shownמוצג,
"Todayהיום is electionבְּחִירָה day,"
247
821880
3416
הפשוט יותר,
13:57
the simplerפשוט יותר one,
248
825320
1376
ואחרים ראו אותו עם שינוי זעיר:
13:58
and some people were shownמוצג
the one with that tinyזָעִיר tweakלִצבּוֹט
249
826720
3896
עם תמונות ממוזערות
14:02
with those little thumbnailsתמונות ממוזערות
250
830640
2096
של חבריהם שהקליקו "הצבעתי".
14:04
of your friendsחברים who clickedלחץ על on "I votedהצביעו."
251
832760
2840
שינוי פשוט.
14:09
This simpleפָּשׁוּט tweakלִצבּוֹט.
252
837000
1400
14:11
OK? So the picturesתמונות were the only changeשינוי,
253
839520
4296
בסדר? התמונות היו השינוי היחיד.
והפוסט הזה,
שהוצג פעם אחת בלבד,
14:15
and that postהודעה shownמוצג just onceפַּעַם
254
843840
3256
הוסיף עוד 340,000 מצביעים
באותן בחירות
14:19
turnedפנה out an additionalנוֹסָף 340,000 votersהבוחרים
255
847120
6056
14:25
in that electionבְּחִירָה,
256
853200
1696
14:26
accordingלפי to this researchמחקר
257
854920
1696
לפי המחקר הזה,
כפי שרשימות המצביעים אישרו.
14:28
as confirmedמְאוּשָׁר by the voterבּוֹחֵר rollsלחמניות.
258
856640
2520
עניין של מזל? לא.
14:32
A flukeמַזָל? No.
259
860920
1656
כי ב-2012 הם חזרו
על הניסוי הזה.
14:34
Because in 2012,
they repeatedחוזר על עצמו the sameאותו experimentלְנַסוֹת.
260
862600
5360
14:40
And that time,
261
868840
1736
והפעם,
14:42
that civicאֶזרָחִי messageהוֹדָעָה shownמוצג just onceפַּעַם
262
870600
3296
המסר האזרחי הזה,
שהוצג רק פעם אחת,
הוסיף 270,000 מצביעים.
14:45
turnedפנה out an additionalנוֹסָף 270,000 votersהבוחרים.
263
873920
4440
14:51
For referenceהתייחסות, the 2016
US presidentialנְשִׂיאוּתִי electionבְּחִירָה
264
879160
5216
לצורך ייחוס, הבחירות לנשיאות ב-2016
הוכרעו ע"י כ-100,000 קולות.
14:56
was decidedהחליט by about 100,000 votesקולות.
265
884400
3520
"פייסבוק" גם יכולה בקלות רבה
להסיק מהן דעותיכם הפוליטיות,
15:01
Now, Facebookפייסבוק can alsoגַם
very easilyבְּקַלוּת inferלְהַסִיק what your politicsפּוֹלִיטִיקָה are,
266
889360
4736
גם אם מעולם לא ציינתם אותן באתר.
15:06
even if you've never
disclosedגילה them on the siteאֲתַר.
267
894120
2256
נכון? האלגוריתמים האלה
מסוגלים לכך די בקלות.
15:08
Right? These algorithmsאלגוריתמים
can do that quiteדַי easilyבְּקַלוּת.
268
896400
2520
מה אם איזו פלטפורמה
עם כוח כזה
15:11
What if a platformפּלַטפוֹרמָה with that kindסוג of powerכּוֹחַ
269
899960
3896
תחליט להטות תומכי מועמד מסוים
לצדד בשני?
15:15
decidesמחליט to turnלפנות out supportersתומכים
of one candidateמוּעֲמָד over the other?
270
903880
5040
איך בכלל נדע על זה?
15:21
How would we even know about it?
271
909680
2440
התחלנו ממשהו לכאורה תמים למדי --
15:25
Now, we startedהתחיל from someplaceבמקום כלשהו
seeminglyלִכאוֹרָה innocuousלֹא מַזִיק --
272
913560
4136
הפרסומות המקוונות שעוקבות אחרינו --
15:29
onlineבאינטרנט addsמוסיף followingהבא us around --
273
917720
2216
והגענו למקום אחר לגמרי.
15:31
and we'veיש לנו landedנחת someplaceבמקום כלשהו elseאַחֵר.
274
919960
1840
כציבור וכאזרחים,
15:35
As a publicפּוּמְבֵּי and as citizensאזרחים,
275
923480
2456
כבר איננו יודעים אם כולנו
צופים באותו המידע
15:37
we no longerארוך יותר know
if we're seeingרְאִיָה the sameאותו informationמֵידָע
276
925960
3416
או במה צופים כל האחרים,
15:41
or what anybodyמִישֶׁהוּ elseאַחֵר is seeingרְאִיָה,
277
929400
1480
וללא בסיס משותף של מידע,
15:43
and withoutלְלֹא a commonמשותף basisבָּסִיס of informationמֵידָע,
278
931680
2576
לאט לאט,
15:46
little by little,
279
934280
1616
הדיון הציבורי הופך בלתי-אפשרי,
15:47
publicפּוּמְבֵּי debateעימות is becomingהִתהַוּוּת impossibleבלתי אפשרי,
280
935920
3216
ואנו רק בשלבים הראשונים של זה.
15:51
and we're just at
the beginningהתחלה stagesשלבים of this.
281
939160
2976
האלגוריתמים האלה
יודעים להסיק בקלות רבה
15:54
These algorithmsאלגוריתמים can quiteדַי easilyבְּקַלוּת inferלְהַסִיק
282
942160
3456
דברים כמו אתניות,
15:57
things like your people'sשל אנשים ethnicityמוצא אתני,
283
945640
3256
השקפות דתיות ופוליטיות,
תכונות אישיות,
16:00
religiousדָתִי and politicalפּוֹלִיטִי viewsתצוגות,
personalityאִישִׁיוּת traitsתכונות,
284
948920
2336
אינטליגנציה, רמת אושר,
שימוש בחומרים ממכרים,
16:03
intelligenceאינטליגנציה, happinessאושר,
use of addictiveממכר substancesחומרים,
285
951280
3376
מצב הזוגיות, גיל ומגדר,
16:06
parentalשֶׁל הַהוֹרִים separationהַפרָדָה, ageגיל and gendersמגדרים,
286
954680
3136
רק מ"פייסבוק" ודומיה.
16:09
just from Facebookפייסבוק likesאוהב.
287
957840
1960
האלגוריתמים האלה יודעים לזהות מפגינים
16:13
These algorithmsאלגוריתמים can identifyלזהות protestersמפגינים
288
961440
4056
גם אם פניהם מוסתרים חלקית.
16:17
even if theirשֶׁלָהֶם facesפרצופים
are partiallyחלקית concealedהסתיר.
289
965520
2760
האלגוריתמים האלה אולי יודעים
לזהות נטיות מיניות
16:21
These algorithmsאלגוריתמים mayמאי be ableיכול
to detectלזהות people'sשל אנשים sexualמִינִי orientationנטייה
290
969720
6616
רק מתוך תמונות בפרופיל ההיכרויות.
16:28
just from theirשֶׁלָהֶם datingהיכרויות profileפּרוֹפִיל picturesתמונות.
291
976360
3200
נכון, מדובר בניחושים הסתברותיים,
16:33
Now, these are probabilisticהסתברותי guessesניחושים,
292
981560
2616
והם לא יהיו נכונים ב-100%,
16:36
so they're not going
to be 100 percentאָחוּז right,
293
984200
2896
אבל אני לא צופה שבעלי הכוח
יעמדו בפיתוי לנצל טכנולוגיות אלה
16:39
but I don't see the powerfulחָזָק resistingהתנגדות
the temptationפיתוי to use these technologiesטכנולוגיות
294
987120
4896
רק בגלל כמה זיהויים שגויים,
16:44
just because there are
some falseשֶׁקֶר positivesחיוביים,
295
992040
2176
וזה כמובן ייצור רובד
חדש לגמרי של בעיות .
16:46
whichאיזה will of courseקוּרס createלִיצוֹר
a wholeכֹּל other layerשִׁכבָה of problemsבעיות.
296
994240
3256
תארו לעצמכם מה מדינה
יכולה לעשות
16:49
Imagineלדמיין what a stateמדינה can do
297
997520
2936
עם כמות הנתונים העצומה
שיש לה על אזרחיה.
16:52
with the immenseעצום amountכמות of dataנתונים
it has on its citizensאזרחים.
298
1000480
3560
סין כבר משתמשת בטכנולוגיית זיהוי פנים
16:56
Chinaסין is alreadyכְּבָר usingמבנה יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוני
faceפָּנִים detectionאיתור technologyטֶכנוֹלוֹגִיָה
299
1004680
4776
כדי לזהות ולעצור אנשים.
17:01
to identifyלזהות and arrestמַעְצָר people.
300
1009480
2880
17:05
And here'sהנה the tragedyטרגדיה:
301
1013280
2136
והנה הטרגדיה:
אנו בונים תשתית זו
של עריצות מעקב
17:07
we're buildingבִּניָן this infrastructureתַשׁתִית
of surveillanceהַשׁגָחָה authoritarianismסמכותיות
302
1015440
5536
רק כדי לגרום לאנשים
להקליק על פרסומות.
17:13
merelyרק to get people to clickנְקִישָׁה on adsמודעות.
303
1021000
2960
וזו לא תהיה העריצות לפי אורוול;
17:17
And this won'tרָגִיל be
Orwell'sאורוול authoritarianismסמכותיות.
304
1025240
2576
זה לא "1984".
17:19
This isn't "1984."
305
1027839
1897
אם העריצות תפעיל הפחדה גלויה
כדי להשליט טרור,
17:21
Now, if authoritarianismסמכותיות
is usingמבנה יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוני overtגָלוּי fearפַּחַד to terrorizeלְהַשְׁלִיט טֶרוֹר us,
306
1029760
4576
כולנו נהיה מבוהלים,
אבל נדע מה קורה.
17:26
we'llטוֹב all be scaredמפוחד, but we'llטוֹב know it,
307
1034359
2897
נשנא את זה ונתנגד לזה.
17:29
we'llטוֹב hateשִׂנאָה it and we'llטוֹב resistלְהִתְנַגֵד it.
308
1037280
2200
אבל אם בעלי השררה
משתמשים באלגוריתמים האלה
17:32
But if the people in powerכּוֹחַ
are usingמבנה יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוני these algorithmsאלגוריתמים
309
1040880
4416
כדי לצפות בנו בחשאי,
17:37
to quietlyבְּשֶׁקֶט watch us,
310
1045319
3377
17:40
to judgeלִשְׁפּוֹט us and to nudgeדְחִיפָה us,
311
1048720
2080
כדי לשפוט אותנו ולהטות אותנו,
17:43
to predictלַחֲזוֹת and identifyלזהות
the troublemakersצרות and the rebelsמורדים,
312
1051720
4176
כדי לנבא ולזהות
מי יהיו עושי הצרות והמורדים,
כדי לפרוש ארכיטקטורות ענק
של שכנוע
17:47
to deployלפרוס persuasionשִׁכנוּעַ
architecturesארכיטקטורות at scaleסוּלָם
313
1055920
3896
ולהפעיל בני-אדם, אחד-אחד,
17:51
and to manipulateלְתַפְעֵל individualsיחידים one by one
314
1059840
4136
ע"י ניצול החולשות והפגיעוּת האישית
של כל אחד ואחת,
17:56
usingמבנה יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוני theirשֶׁלָהֶם personalאישי, individualאִישִׁי
weaknessesחולשות and vulnerabilitiesפגיעויות,
315
1064000
5440
אם הם עושים זאת בהיקף גדול
18:02
and if they're doing it at scaleסוּלָם
316
1070720
2200
דרך המסכים הפרטיים שלנו
18:06
throughדרך our privateפְּרָטִי screensמסכים
317
1074080
1736
ואפילו איננו יודעים
18:07
so that we don't even know
318
1075840
1656
במה צופים שכנינו ואחינו האזרחים,
18:09
what our fellowעָמִית citizensאזרחים
and neighborsשכנים are seeingרְאִיָה,
319
1077520
2760
18:13
that authoritarianismסמכותיות
will envelopלַעֲטוֹף us like a spider'sעכביש webאינטרנט
320
1081560
4816
כי אז העריצות תעטוף אותנו
כמו קורי עכביש
ואולי אפילו לא נדע
שאנו לכודים בה.
18:18
and we mayמאי not even know we're in it.
321
1086400
2480
18:22
So Facebook'sשל פייסבוק marketשׁוּק capitalizationהיוון
322
1090440
2936
שווי השוק של "פייסבוק"
מתקרב לחצי טריליון דולר.
18:25
is approachingמִתקַרֵב halfחֲצִי a trillionטרִילִיוֹן dollarsדולר.
323
1093400
3296
וזה משום שהיא מוצלחת מאד
בתור ארכיטקטורת שכנוע.
18:28
It's because it worksעובד great
as a persuasionשִׁכנוּעַ architectureארכיטקטורה.
324
1096720
3120
18:33
But the structureמִבְנֶה of that architectureארכיטקטורה
325
1101760
2816
אבל מבנה הארכיטקטורה הזאת
זהה, בין אם מוכרים נעליים
18:36
is the sameאותו whetherהאם you're sellingמוכר shoesנעליים
326
1104600
3216
ובין אם מוכרים פוליטיקה.
18:39
or whetherהאם you're sellingמוכר politicsפּוֹלִיטִיקָה.
327
1107840
2496
האלגוריתמים לא מכירים את ההבדל.
18:42
The algorithmsאלגוריתמים do not know the differenceהֶבדֵל.
328
1110360
3120
אותם האלגוריתמים שמשסים בנו
18:46
The sameאותו algorithmsאלגוריתמים setמַעֲרֶכֶת looseמְשׁוּחרָר uponעַל us
329
1114240
3296
כדי לגרום לנו להיות
קלים יותר להשפעת הפרסומות
18:49
to make us more pliableגָמִישׁ for adsמודעות
330
1117560
3176
מארגנים גם את זרם המידע
הפוליטי, האישי והחברתי שלנו,
18:52
are alsoגַם organizingהִתאַרגְנוּת our politicalפּוֹלִיטִי,
personalאישי and socialחֶברָתִי informationמֵידָע flowsזור,
331
1120760
6736
וזה מה שצריך להשתנות.
18:59
and that's what's got to changeשינוי.
332
1127520
1840
אל תבינו אותי לא-נכון,
19:02
Now, don't get me wrongלא בסדר,
333
1130240
2296
אנו משתמשים בפלטפורמות דיגיטליות
כי יש בהן המון ערך עבורנו.
19:04
we use digitalדִיגִיטָלי platformsפלטפורמות
because they provideלְסַפֵּק us with great valueערך.
334
1132560
3680
19:09
I use Facebookפייסבוק to keep in touchלגעת
with friendsחברים and familyמִשׁפָּחָה around the worldעוֹלָם.
335
1137120
3560
אני משתמשת ב"פייסבוק" כדי לשמור
על קשר עם חברים וקרובים בכל העולם.
19:14
I've writtenכתוב about how crucialמַכרִיעַ
socialחֶברָתִי mediaכְּלֵי תִקְשׁוֹרֶת is for socialחֶברָתִי movementsתנועות.
336
1142000
5776
כתבתי בעבר על תפקידה המכריע
של המדיה החברתית בתנועות החברתיות.
חקרתי איך ניתן להשתמש בטכנולוגיות האלה
19:19
I have studiedמְחוֹשָׁב how
these technologiesטכנולוגיות can be used
337
1147800
3016
כדי לעקוף צנזורות ברחבי העולם.
19:22
to circumventעקיפה censorshipצֶנזוּרָה around the worldעוֹלָם.
338
1150840
2480
19:27
But it's not that the people who runלָרוּץ,
you know, Facebookפייסבוק or GoogleGoogle
339
1155280
6416
העניין הוא, שהאנשים שמנהלים
את "פייסבוק" או "גוגל"
אינם מנסים בזדון ובמכוון
להגדיל את הקיטוב בארץ או בעולם
19:33
are maliciouslyבְּזָדוֹן and deliberatelyבכוונה tryingמנסה
340
1161720
2696
19:36
to make the countryמדינה
or the worldעוֹלָם more polarizedמקוטב
341
1164440
4456
ולעודד קיצוניות.
19:40
and encourageלְעוֹדֵד extremismקיצוניות.
342
1168920
1680
אני קוראת את ההצהרות הרבות,
המלאות בכוונות טובות
19:43
I readלקרוא the manyרב
well-intentionedטוב כוונות statementsהצהרות
343
1171440
3976
שהאנשים האלה משחררים.
19:47
that these people put out.
344
1175440
3320
19:51
But it's not the intentכוונה or the statementsהצהרות
people in technologyטֶכנוֹלוֹגִיָה make that matterחוֹמֶר,
345
1179600
6056
אבל לא הכוונות או ההצהרות
של אנשי הטכנולוגיה הן שמשנות,
אלא המבנים והמודלים העסקיים
שהם מקימים.
19:57
it's the structuresמבנים
and businessעֵסֶק modelsמודלים they're buildingבִּניָן.
346
1185680
3560
20:02
And that's the coreהליבה of the problemבְּעָיָה.
347
1190360
2096
וכאן לב הבעיה.
או ש"פייסבוק" היא נוכלת ענק
בשווי חצי טריליון דולר
20:04
Eitherאוֹ Facebookפייסבוק is a giantעֲנָק con
of halfחֲצִי a trillionטרִילִיוֹן dollarsדולר
348
1192480
4720
20:10
and adsמודעות don't work on the siteאֲתַר,
349
1198200
1896
שהפרסומות לא עובדות באתר שלה,
ולא מוצלחות כארכיטקטורת שכנוע,
20:12
it doesn't work
as a persuasionשִׁכנוּעַ architectureארכיטקטורה,
350
1200120
2696
או שכוח ההשפעה שלה
הוא מקור לדאגה רבה.
20:14
or its powerכּוֹחַ of influenceלְהַשְׁפִּיעַ
is of great concernדְאָגָה.
351
1202840
4120
20:20
It's eitherאוֹ one or the other.
352
1208560
1776
או זה, או זה.
כך גם לגבי "גוגל".
20:22
It's similarדוֹמֶה for GoogleGoogle, too.
353
1210360
1600
20:24
So what can we do?
354
1212880
2456
אז מה נוכל לעשות?
זה חייב להשתנות.
20:27
This needsצרכי to changeשינוי.
355
1215360
1936
אינני יכולה להציע מתכון פשוט,
20:29
Now, I can't offerהַצָעָה a simpleפָּשׁוּט recipeמַתכּוֹן,
356
1217320
2576
כי עלינו לשנות מן היסוד
20:31
because we need to restructureארגון מחדש
357
1219920
2256
את כל אופן פעולתן של
הטכנולוגיות הדיגיטליות שלנו.
20:34
the wholeכֹּל way our
digitalדִיגִיטָלי technologyטֶכנוֹלוֹגִיָה operatesפועלת.
358
1222200
3016
הכל, החל מאופן פיתוח הטכנולוגיה
20:37
Everything from the way
technologyטֶכנוֹלוֹגִיָה is developedמפותח
359
1225240
4096
ועד לדרכים בהן התמריצים,
הכלכליים והאחרים,
20:41
to the way the incentivesתמריצים,
economicכַּלְכָּלִי and otherwiseאחרת,
360
1229360
3856
משולבים במערכת.
20:45
are builtבנוי into the systemמערכת.
361
1233240
2280
20:48
We have to faceפָּנִים and try to dealעִסקָה with
362
1236480
3456
עלינו להתעמת ולהתמודד
עם העדר השקיפות שיוצרים
האלגוריתמים הקנייניים,
20:51
the lackחוֹסֶר of transparencyשְׁקִיפוּת
createdשנוצר by the proprietaryקנייני algorithmsאלגוריתמים,
363
1239960
4656
עם האתגר המבני
שבעמימותה של למידת המכונה,
20:56
the structuralמִבנִי challengeאתגר
of machineמְכוֹנָה learning'sהלמידה opacityאֲטִימוּת,
364
1244640
3816
עם האיסוף חסר-האבחנה
של הנתונים שלנו.
21:00
all this indiscriminateללא הבחנה dataנתונים
that's beingלהיות collectedשנאספו about us.
365
1248480
3400
מוטלת עלינו משימה ענקית.
21:05
We have a bigגָדוֹל taskמְשִׁימָה in frontחֲזִית of us.
366
1253000
2520
21:08
We have to mobilizeלגייס our technologyטֶכנוֹלוֹגִיָה,
367
1256160
2680
עלינו לגייס את הטכנולוגיה שלנו,
את היצירתיות שלנו
21:11
our creativityיְצִירָתִיוּת
368
1259760
1576
וכן, גם את הפוליטיקה שלנו
21:13
and yes, our politicsפּוֹלִיטִיקָה
369
1261360
1880
21:16
so that we can buildלִבנוֹת
artificialמְלָאכוּתִי intelligenceאינטליגנציה
370
1264240
2656
כדי שנוכל לבנות תבונה מלאכותית
שתומכת במטרותינו האנושיות
21:18
that supportsתומך us in our humanבן אנוש goalsמטרות
371
1266920
3120
21:22
but that is alsoגַם constrainedמוגבל
by our humanבן אנוש valuesערכים.
372
1270800
3920
אבל גם מוגבלת ע"י ערכינו האנושיים.
ואני מבינה שזה לא יהיה קל.
21:27
And I understandמבין this won'tרָגִיל be easyקַל.
373
1275600
2160
21:30
We mightאולי not even easilyבְּקַלוּת agreeלְהַסכִּים
on what those termsמונחים mean.
374
1278360
3600
אולי אפילו לא נסכים בקלות
מה פירוש התנאים הללו.
אבל אם נתייחס ברצינות
21:34
But if we take seriouslyברצינות
375
1282920
2400
21:38
how these systemsמערכות that we
dependלִסְמוֹך on for so much operateלְהַפְעִיל,
376
1286240
5976
לדרכי פעולת המערכות האלה,
שאנו כה תלויים בהן,
אינני רואה כיצד נוכל לדחות עוד
את הדיון הזה.
21:44
I don't see how we can postponeלִדחוֹת
this conversationשִׂיחָה anymoreיותר.
377
1292240
4120
21:49
These structuresמבנים
378
1297200
2536
המבנים האלה
מארגנים את התפקוד שלנו
21:51
are organizingהִתאַרגְנוּת how we functionפוּנקצִיָה
379
1299760
4096
והם שולטים
21:55
and they're controllingשליטה
380
1303880
2296
במה שנוכל ובמה שלא נוכל לעשות.
21:58
what we can and we cannotלא יכול do.
381
1306200
2616
22:00
And manyרב of these ad-financedבמימון מודעות platformsפלטפורמות,
382
1308840
2456
ורבות מהפלטפורמות האלה,
שהפרסומות מממנות,
מתגאות בכך שהן חינמיות.
22:03
they boastלְהִתְפַּאֵר that they're freeחופשי.
383
1311320
1576
בהקשר הזה, זה אומר
שאנו המוצר שנמכר.
22:04
In this contextהֶקשֵׁר, it meansאומר
that we are the productמוצר that's beingלהיות soldנמכר.
384
1312920
4560
22:10
We need a digitalדִיגִיטָלי economyכַּלְכָּלָה
385
1318840
2736
נחוצה לנו כלכלה דיגיטלית
שבה הנתונים ומוקדי תשומת הלב שלנו
22:13
where our dataנתונים and our attentionתשומת הלב
386
1321600
3496
לא יוצעו למכירה
לעריץ או לדמגוג המרבה במחיר.
22:17
is not for saleמְכִירָה to the highest-biddingהגבוהה ביותר
authoritarianסַמְכוּתִי or demagogueדֵמָגוֹג.
387
1325120
5080
22:23
(Applauseתְשׁוּאוֹת)
388
1331160
3800
(מחיאות כפיים)
22:30
So to go back to
that Hollywoodהוליווד paraphraseפָּרָפרָזָה,
389
1338480
3256
אז אם נחזור לפרפראזה ההוליוודית,
אנו בהחלט רוצים בשגשוג
הפוטנציאל העצום
22:33
we do want the prodigiousמַפלִיא potentialפוטנציאל
390
1341760
3736
של התבונה המלאכותית והטכנולוגיה הדיגיטלית,
22:37
of artificialמְלָאכוּתִי intelligenceאינטליגנציה
and digitalדִיגִיטָלי technologyטֶכנוֹלוֹגִיָה to blossomלִפְרוֹחַ,
391
1345520
3200
אבל לשם כך עלינו להתמודד
עם הסכנה העצומה הטמונה בהן
22:41
but for that, we mustצריך faceפָּנִים
this prodigiousמַפלִיא menaceאִיוּם,
392
1349400
4936
בעיניים פקוחות
ועכשיו.
22:46
open-eyedפקוח עיניים and now.
393
1354360
1936
תודה לכם.
22:48
Thank you.
394
1356320
1216
(מחיאות כפיים)
22:49
(Applauseתְשׁוּאוֹת)
395
1357560
4640
Translated by Shlomo Adam
Reviewed by Ido Dekkers

▲Back to top

ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.

Why you should listen

We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.

Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.

Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.

More profile about the speaker
Zeynep Tufekci | Speaker | TED.com