ABOUT THE SPEAKER
James Bridle - Artist, writer
Working across technologies and disciplines, James Bridle examines technology, knowledge and the end of the future.

Why you should listen

James Bridle is an artist and writer working across technologies and disciplines. His artworks and installations have been exhibited in Europe, North and South America, Asia and Australia, and have been viewed by hundreds of thousands of visitors online. He has been commissioned by organizations including the Victoria & Albert Museum, the Barbican, Artangel, the Oslo Architecture Triennale and the Istanbul Design Biennial, and he has been honored by Ars Electronica, the Japan Media Arts Festival and the Design Museum, London. His writing on literature, culture and networks has appeared in magazines and newspapers including Frieze, Wired, Domus, Cabinet, The Atlantic, the New Statesman and many others, and he has written a regular column for The Observer.

New Dark Age, Bridle's book about technology, knowledge and the end of the future is forthcoming from Verso (UK & US) in 2018. He lectures regularly on radio, at conferences, universities and other events including SXSW, Lift, the Global Art Forum and Re:Publica. He has been a resident at Lighthouse, Brighton, the White Building, London and Eyebeam, New York, and an adjunct professor on the interactive telecommunications program at New York University.

More profile about the speaker
James Bridle | Speaker | TED.com
TED2018

James Bridle: The nightmare videos of children's YouTube -- and what's wrong with the internet today

ג'יימס בריידל: סרטוני הילדים המסויטים של "יו-טיוב", ובכלל מה לא בסדר היום באינטרנט

Filmed:
5,404,429 views

הסופר והאמן ג'יימס בריידל חושף פינה אפלה ומוזרה של האינטרנט, שבה אלמונים - יחידים או קבוצות - מנצלים ב"יו-טיוב" את המוח הילדותי בתמורה להכנסות מפרסום. הוא מראה לנו "ביצי הפתעה" (surprise egg), את "שיר משפחת האצבעות" (Finger Family Song) וגם מיקסים שנוצרו ע"י אלגוריתמים ואשר מראים דמויות קומיקס ילדים מוכרות במצבי אלימות. סרטונים אלה מנצלים מוחות של ילדים קטנים וזורעים בהם אימה - וכל זה אומר לנו משהו על הכיוון אליו מתקדם עולמנו, שמונָע יותר ויותר בידי נתונים. "עלינו להפסיק לחשוב על הטכנולוגיה כעל הפתרון לכל בעיותינו, אלא להיעזר בה כדי לראות את הבעיות הללו ולהתחיל להקדיש להן מחשבה ראויה ולהתמודד עימן", אומר בריידל. בתרגום זה: "פפר פיג" - Pepper Pig "פאו פטרול" - Paw Patrol "ביצת פסחא" - Easter egg
- Artist, writer
Working across technologies and disciplines, James Bridle examines technology, knowledge and the end of the future. Full bio

Double-click the English transcript below to play the video.

00:12
I'm Jamesג'יימס.
0
777
1183
אני ג'יימס.
00:13
I'm a writerסוֹפֵר and artistאמן,
1
1984
1686
אני סופר ואמן,
00:15
and I make work about technologyטֶכנוֹלוֹגִיָה.
2
3694
2341
והיצירות שלי עוסקות בטכנולוגיה.
00:18
I do things like drawלצייר life-sizeבגודל טבעי outlinesקווי מתאר
of militaryצבאי dronesמזל"ט
3
6454
3911
למשל, מתווה בגודל אמיתי
של מזל"ט צבאי
00:22
in cityעִיר streetsרחובות around the worldעוֹלָם,
4
10389
1828
ברחובות ערים בעולם,
כדי לעורר אנשים לחשוב ולהבין
00:24
so that people can startהַתחָלָה to think
and get theirשֶׁלָהֶם headsראשים around
5
12241
2950
את הטכנולוגיות האלה,
שרחוקות מהעין ומהלב.
00:27
these really quiteדַי hard-to-seeקשה לראות
and hard-to-think-aboutקשה-עד-חושב-על technologiesטכנולוגיות.
6
15215
3440
אני גם יוצר דברים כמו רשתות עצביות
שחוזות תוצאות של בחירות
00:31
I make things like neuralעֲצַבִּי networksרשתות
that predictלַחֲזוֹת the resultsתוצאות of electionsבחירות
7
19494
3836
על יסוד דיווחי מזג אוויר,
00:35
basedמבוסס on weatherמזג אוויר reportsדיווחים,
8
23354
1737
כי מסקרנות אותי האפשרויות הממשיות
שטמונות בטכנולגיות החדשות והמשונות האלה.
00:37
because I'm intriguedמסוקרן about
9
25115
1314
00:38
what the actualמַמָשִׁי possibilitiesאפשרויות
of these weirdמְשׁוּנֶה newחָדָשׁ technologiesטכנולוגיות are.
10
26453
3924
00:43
Last yearשָׁנָה, I builtבנוי
my ownשֶׁלוֹ self-drivingנהיגה עצמית carאוטו.
11
31405
2426
בשנה שעברה בניתי מכונית אוטונומית,
אבל היות שאינני סומך על הטכנולוגיה,
00:45
But because I don't
really trustאמון technologyטֶכנוֹלוֹגִיָה,
12
33855
2526
תכננתי גם מלכודת עבורה.
00:48
I alsoגַם designedמְעוּצָב a trapמַלכּוֹדֶת for it.
13
36405
1928
00:50
(Laughterצחוק)
14
38777
1086
(צחוק)
00:51
And I do these things mostlyבעיקר because
I find them completelyלַחֲלוּטִין fascinatingמַקסִים,
15
39887
4298
ואני עושה דברים אלה בעיקר
כי הם לגמרי מרתקים אותי,
00:56
but alsoגַם because I think
when we talk about technologyטֶכנוֹלוֹגִיָה,
16
44209
2602
אבל גם משום שכאשר
אנו מדברים על טכנולוגיה,
זה בד"כ עוסק בעצמנו
ובאופן הבנתנו את העולם.
00:58
we're largelyבמידה רבה talkingשִׂיחָה about ourselvesבְּעָצמֵנוּ
17
46835
2619
01:01
and the way that we understandמבין the worldעוֹלָם.
18
49478
2299
01:03
So here'sהנה a storyכַּתָבָה about technologyטֶכנוֹלוֹגִיָה.
19
51801
2442
אז הרי לכם סיפור על טכנולוגיה.
01:07
This is a "surpriseהַפתָעָה eggביצה" videoוִידֵאוֹ.
20
55520
2830
זהו סרטון "ביצת הפתעה"
(surprise egg).
01:10
It's basicallyבעיקרון a videoוִידֵאוֹ of someoneמִישֶׁהוּ
openingפְּתִיחָה up loadsהמון of chocolateשׁוֹקוֹלַד eggsביצים
21
58374
3348
בעקרון, הוא מראה מישהו
שפותח המון ביצי שוקולד
01:13
and showingמראה the toysצעצועים insideבְּתוֹך to the viewerצוֹפֶה.
22
61746
2126
ומראה לצופה את הצעצועים שבתוכן.
01:16
That's it. That's all it does
for sevenשֶׁבַע long minutesדקות.
23
64461
2649
זה הכל. זה כל מה שקורה
במשך שבע דקות תמימות.
01:19
And I want you to noticeהודעה
two things about this.
24
67428
3051
ואני רוצה שתשימו לב
לשני דברים בו.
01:22
First of all, this videoוִידֵאוֹ
has 30 millionמִילִיוֹן viewsתצוגות.
25
70503
4074
קודם כל, לסרטון הזה
יש 30 מיליון צפיות.
01:26
(Laughterצחוק)
26
74601
1275
(צחוק)
01:28
And the other thing is,
27
76376
1166
והדבר הנוסף הוא,
הוא מוקרן בערוץ של 6.3 מיליון מנויים,
01:29
it comesבא from a channelעָרוּץ
that has 6.3 millionמִילִיוֹן subscribersמנויים,
28
77566
3869
01:33
that has a totalסה"כ of eightשמונה billionמיליארד viewsתצוגות,
29
81459
2680
וצפיות בסך שמונה מיליארד,
והוא מכיל רק סרטונים כמו זה -
01:36
and it's all just more videosסרטונים like this --
30
84163
3106
30 מיליון אנשים צופים
במישהו שפותח את הביצים האלה.
01:40
30 millionמִילִיוֹן people watchingצופה a guy
openingפְּתִיחָה up these eggsביצים.
31
88256
3908
נשמע משונה, אבל אם תחפשו
"ביצי הפתעה" ביו-טיוב,
01:44
It soundsקולות prettyיפה weirdמְשׁוּנֶה, but if you searchחפש
for "surpriseהַפתָעָה eggsביצים" on YouTubeYouTube,
32
92188
4481
01:48
it'llזה יהיה tell you there's
10 millionמִילִיוֹן of these videosסרטונים,
33
96693
3523
התוצאה תהיה 10 מיליון סרטונים כאלה,
01:52
and I think that's an undercountundercount.
34
100240
1657
ולדעתי, אלה אינם כולם,
ויש הרבה, הרבה יותר כאלה.
01:53
I think there's way, way more of these.
35
101921
1897
אם תמשיכו לחפש,
תגלו שהכמות היא אינסופית.
01:55
If you keep searchingמחפש, they're endlessאינסופי.
36
103842
2242
01:58
There's millionsמיליונים and millionsמיליונים
of these videosסרטונים
37
106108
2159
יש מיליונים רבים של סרטונים כאלה
02:00
in increasinglyיותר ויותר baroqueבָּארוֹק combinationsשילובים
of brandsהמותגים and materialsחומרים,
38
108291
3454
עם עוד ועוד צירופים בארוקיים
של מותגים וחומרים,
02:03
and there's more and more of them
beingלהיות uploadedהועלה everyכֹּל singleיחיד day.
39
111769
3846
ועוד ועוד כאלה מועלים לרשת
בכל יום ויום.
02:07
Like, this is a strangeמוּזָר worldעוֹלָם. Right?
40
115639
3511
עולם מוזר, נכון?
02:11
But the thing is, it's not adultsמבוגרים
who are watchingצופה these videosסרטונים.
41
119174
3383
אבל העניין הוא, שלא מבוגרים
צופים בסרטונים האלה,
אלא ילדים, ילדים קטנים.
02:14
It's kidsילדים, smallקָטָן childrenיְלָדִים.
42
122581
2921
02:17
These videosסרטונים are
like crackסדק for little kidsילדים.
43
125526
2154
הסרטונים האלה הם
כמו קראק לילדים קטנים.
יש משהו בחזרתיות,
02:19
There's something about the repetitionחזרה,
44
127704
2075
במנת הדופמין הקבועה
של רגע החשיפה,
02:21
the constantקָבוּעַ little
dopamineדופמין hitמכה of the revealלְגַלוֹת,
45
129803
2468
שממכר אותם לגמרי.
02:24
that completelyלַחֲלוּטִין hooksווים them in.
46
132295
1866
וילדים קטנים צופים בסרטונים האלה
שוב ושוב ושוב,
02:26
And little kidsילדים watch these videosסרטונים
over and over and over again,
47
134185
4809
02:31
and they do it for hoursשעות
and hoursשעות and hoursשעות.
48
139018
2327
במשך שעות על גבי שעות.
ואם תנסו לנתק אותם מהמסך
הם יצרחו ויצרחו ויצרחו.
02:33
And if you try and take
the screenמָסָך away from them,
49
141369
2356
02:35
they'llהם יהיו screamלִצְרוֹחַ and screamלִצְרוֹחַ and screamלִצְרוֹחַ.
50
143749
1782
אם אינכם מאמינים לי -
וראיתי בקהל אנשים שמנידים בראשם -
02:37
If you don't believe me --
51
145555
1262
02:38
and I've alreadyכְּבָר seenלראות people
in the audienceקהל noddingמהנהנת --
52
146841
2607
אם אינכם מאמינים לי,
מיצאו מישהו עם ילדים קטנים ושאלו אותו,
02:41
if you don't believe me, find someoneמִישֶׁהוּ
with smallקָטָן childrenיְלָדִים and askלִשְׁאוֹל them,
53
149472
3391
ויתברר שהוא מכיר את
סרטוני ביצי ההפתעה.
02:44
and they'llהם יהיו know about
the surpriseהַפתָעָה eggביצה videosסרטונים.
54
152887
2340
02:47
So this is where we startהַתחָלָה.
55
155251
2070
אז נתחיל מזה.
02:49
It's 2018, and someoneמִישֶׁהוּ, or lots of people,
56
157345
3642
השנה היא 2018 ומישהו,
או הרבה אנשים,
02:53
are usingבאמצעות the sameאותו mechanismמַנגָנוֹן that, like,
Facebookפייסבוק and Instagramאינסטגרם are usingבאמצעות
57
161011
3941
משתמשים באותו מנגנון
שבו משתמשים "פייסבוק" ו"אינסטגרם"
שגורם לכם לבדוק
כל הזמן את היישומון,
02:56
to get you to keep checkingבודקים that appאפליקציה,
58
164976
1989
והם משתמשים בזה ב"יו-טיוב"
כדי להיכנס למוח של ילדים קטנים מאד
02:58
and they're usingבאמצעות it on YouTubeYouTube
to hackגַרזֶן the brainsמוֹחַ of very smallקָטָן childrenיְלָדִים
59
166989
3985
03:02
in returnלַחֲזוֹר for advertisingפִּרסוּם revenueהַכנָסָה.
60
170998
1958
בתמורה להכנסות מפרסומות.
03:06
At leastהכי פחות, I hopeלְקַווֹת
that's what they're doing.
61
174346
2001
לפחות, זה מה שהם עושים,
אני מקווה.
03:08
I hopeלְקַווֹת that's what they're doing it for,
62
176371
1955
אני מקווה שזאת המטרה שלהם,
03:10
because there's easierקל יותר waysדרכים
of makingהֲכָנָה adמוֹדָעָה revenueהַכנָסָה on YouTubeYouTube.
63
178350
5308
כי יש דרך קלה יותר
להרוויח ב"יו-טיוב" מפרסומות.
03:15
You can just make stuffדברים up or stealלִגנוֹב stuffדברים.
64
183682
2332
אפשר פשוט להמציא או לגנוב דברים.
03:18
So if you searchחפש for really
popularפופולרי kids'ילדים, cartoonsקריקטורות
65
186038
2635
אז אם תחפשו קומיקס לילדים
פופולרי באמת
כמו "פפר פיג" או "פאו פטרול",
03:20
like "PeppaPeppa Pigחֲזִיר" or "Pawפאו Patrolפַּטרוֹל,"
66
188697
1654
תמצאו ברשת גם מהם
מיליונים רבים.
03:22
you'llאתה find there's millionsמיליונים and millionsמיליונים
of these onlineבאינטרנט as well.
67
190375
3147
ברור שאף לא אחד מהם הועלה
בידי יוצרי התוכן המקוריים.
03:25
Of courseקוּרס, mostרוב of them aren'tלא postedפורסם
by the originalמְקוֹרִי contentתוֹכֶן creatorsיוצרי.
68
193546
3352
הם מגיעים מהמוני חשבונות אקראיים,
03:28
They come from loadsהמון and loadsהמון
of differentשונה randomאַקרַאִי accountsחשבונות,
69
196922
2999
ואי-אפשר לדעת מי מעלה אותם
03:31
and it's impossibleבלתי אפשרי to know
who'sמי זה postingהַצָבָה them
70
199945
2240
או מהם המניעים שלהם.
03:34
or what theirשֶׁלָהֶם motivesמניעים mightאולי be.
71
202209
1822
03:36
Does that soundנשמע kindסוג of familiarמוּכָּר?
72
204428
1930
נשמע לכם מוכר?
03:38
Because it's exactlyבְּדִיוּק the sameאותו mechanismמַנגָנוֹן
73
206382
1980
זהו הרי בדיוק אותו המנגנון
של מרבית השירותים הדיגיטליים שלנו:
03:40
that's happeningמתרחש acrossלְרוֹחָב mostרוב
of our digitalדִיגִיטָלי servicesשירותים,
74
208386
2600
אי-אפשר לדעת
מניין מגיע המידע הזה.
03:43
where it's impossibleבלתי אפשרי to know
where this informationמֵידָע is comingמגיע from.
75
211010
3207
מדובר בעקרון בחדשות כוזבות לילדים,
03:46
It's basicallyבעיקרון fakeמְזוּיָף newsחֲדָשׁוֹת for kidsילדים,
76
214241
1829
03:48
and we're trainingהַדְרָכָה them from birthהוּלֶדֶת
77
216094
2161
ואנו מאמנים אותם מילדות
03:50
to clickנְקִישָׁה on the very first linkקישור
that comesבא alongלְאוֹרֶך,
78
218279
2506
להקליק על הקישור הראשון שמופיע,
03:52
regardlessללא קשר of what the sourceמָקוֹר is.
79
220809
1953
ולא משנה מה מקורו.
03:54
That's doesn't seemנראה like
a terriblyנוֹרָא good ideaרַעְיוֹן.
80
222786
2603
זה לא נראה רעיון טוב במיוחד.
03:58
Here'sהנה anotherאַחֵר thing
that's really bigגָדוֹל on kids'ילדים, YouTubeYouTube.
81
226399
2710
הנה עוד משהו ב"יו-טיוב"
שעובד יפה על ילדים.
04:01
This is calledשקוראים לו the "Fingerאֶצבַּע Familyמִשׁפָּחָה Songשִׁיר."
82
229133
1928
זה קרוי "שיר משפחת האצבעות".
04:03
I just heardשמע someoneמִישֶׁהוּ groanאֲנָקָה
in the audienceקהל.
83
231085
2018
שמעתי שוב מישהו גונח בקהל.
זהו "שיר משפחת האצבעות".
04:05
This is the "Fingerאֶצבַּע Familyמִשׁפָּחָה Songשִׁיר."
84
233127
1624
זה הכי מוקדם שמצאתי.
04:06
This is the very first one I could find.
85
234775
1930
הוא מ-2007, ויש לו רק
200,000 צפיות,
04:08
It's from 2007, and it only has
200,000 viewsתצוגות,
86
236729
2829
שזה כלום,
04:11
whichאיזה is, like, nothing in this gameמִשְׂחָק.
87
239582
1976
אבל יש לו מנגינה מטמטמת עד טירוף,
04:13
But it has this insanelyבטירוף earwormyearwormy tuneמנגינה,
88
241582
2852
ואני לא אשמיע לכם אותה,
04:16
whichאיזה I'm not going to playלְשַׂחֵק to you,
89
244458
1682
כי היא תיצרב לכם במוח
04:18
because it will searלִצְרוֹב itselfעצמה
into your brainמוֹחַ
90
246164
2008
04:20
in the sameאותו way that
it searedצרובה itselfעצמה into mineשלי,
91
248196
2395
כפי שנצרבה אצלי,
ולא אעולל לכם את זה.
04:22
and I'm not going to do that to you.
92
250615
1770
אבל כמו ביצי ההפתעה,
04:24
But like the surpriseהַפתָעָה eggsביצים,
93
252409
1344
זה נכנס לראש של הילדים
וגרם להם להתמכר.
04:25
it's got insideבְּתוֹך kids'ילדים, headsראשים
94
253777
2164
04:27
and addictedמָכוּר them to it.
95
255965
1607
אז בתוך כמה שנים
סרטוני משפחת האצבעות
04:29
So withinבְּתוֹך a fewמְעַטִים yearsשנים,
these fingerאֶצבַּע familyמִשׁפָּחָה videosסרטונים
96
257596
2531
החלו להופיע בכל מקום,
04:32
startהַתחָלָה appearingמופיע everywhereבכל מקום,
97
260151
1303
עם גרסאות בשפות שונות
04:33
and you get versionsגרסאות
in differentשונה languagesשפות
98
261478
2029
עם דמויות מוכרות מקומיקס ילדים
שמשתמשות באוכל
04:35
with popularפופולרי kids'ילדים, cartoonsקריקטורות usingבאמצעות foodמזון
99
263531
2121
ובעצם, כל פריט אנימציה שיש בסביבה.
04:37
or, franklyבכנות, usingבאמצעות whateverמה שתגיד kindסוג
of animationאנימציה elementsאלמנטים
100
265676
2550
04:40
you seemנראה to have lyingשֶׁקֶר around.
101
268250
2252
04:43
And onceפַּעַם again, there are millionsמיליונים
and millionsמיליונים and millionsמיליונים of these videosסרטונים
102
271002
5197
ושוב, יש מיליונים על מיליונים
על מיליוני סרטונים כאלה
04:48
availableזמין onlineבאינטרנט in all of these
kindסוג of insaneמטורף combinationsשילובים.
103
276223
3435
שאפשר למצוא ברשת
בכל שילוב מטורף.
04:51
And the more time
you startהַתחָלָה to spendלְבַלוֹת with them,
104
279682
2228
וככל שמבזבזים עליהם יותר זמן,
04:53
the crazierמטורף יותר and crazierמטורף יותר
you startהַתחָלָה to feel that you mightאולי be.
105
281934
3694
כך מתחילים להרגיש יותר ויותר מטורפים.
04:57
And that's where I
kindסוג of launchedMANAG מספר into this,
106
285652
3333
וכאן בערך נכנסתי לזה אני,
05:01
that feelingמַרגִישׁ of deepעָמוֹק strangenessזָרוּת
and deepעָמוֹק lackחוֹסֶר of understandingהֲבָנָה
107
289009
3666
עם הרגשה של זרות עמוקה
וחוסר-הבנה עמוק
05:04
of how this thing was constructedבנוי
that seemsנראה to be presentedמוצג around me.
108
292699
4175
איך הדבר הזה נבנה
ומוגש לכולם מסביבי.
05:08
Because it's impossibleבלתי אפשרי to know
where these things are comingמגיע from.
109
296898
3167
כי אי-אפשר לדעת
מניין הדברים האלה באים.
כאילו, מי יוצר אותם?
05:12
Like, who is makingהֲכָנָה them?
110
300089
1241
חלקם נראים כאילו נוצרו
ע"י צוותי אמני הנפשה מקצועיים,
05:13
Some of them appearלְהוֹפִיעַ to be madeעָשׂוּי
of teamsצוותים of professionalמקצועי animatorsאנימטורים.
111
301354
3143
05:16
Some of them are just randomlyבאופן אקראי
assembledהתאספו by softwareתוֹכנָה.
112
304521
2882
חלקם - כאילו הורכבו באופן אקראי
ע"י תוכנה,
05:19
Some of them are quiteדַי wholesome-lookingנראית בריאה
youngצָעִיר kids'ילדים, entertainersבדרנים.
113
307427
4253
חלקם נראים כמו בידור ילדים מועיל,
05:23
And some of them are from people
114
311704
1552
וחלקם מגיעים מאנשים שברור
שאסור להרשות להם להתקרב לילדים.
05:25
who really clearlyבְּבִירוּר
shouldn'tלא צריך be around childrenיְלָדִים at all.
115
313280
3007
(צחוק)
05:28
(Laughterצחוק)
116
316311
1615
05:30
And onceפַּעַם again, this impossibilityאִי אֶפְשָׁרוּת
of figuringלהבין out who'sמי זה makingהֲכָנָה this stuffדברים --
117
318987
4640
ושוב, חוסר האפשרות לגלות
מי עושה את זה --
תוכנה רובוטית? אדם? טרול?
05:35
like, this is a botבוט?
118
323651
1156
05:36
Is this a personאדם? Is this a trollגַמָד?
119
324831
2647
05:39
What does it mean
that we can't tell the differenceהֶבדֵל
120
327502
2382
מה המשמעות של חוסר יכולתנו
להבדיל יותר בין הדברים האלה?
05:41
betweenבֵּין these things anymoreיותר?
121
329908
1583
05:43
And again, doesn't that uncertaintyחוסר ודאות
feel kindסוג of familiarמוּכָּר right now?
122
331515
4848
ושוב, האם חוסר הוודאות הזה מוכר?
השיטה העיקרית שבה אנשים
משיגים צפיות בסרטונים שלהם --
05:50
So the mainרָאשִׁי way people get viewsתצוגות
on theirשֶׁלָהֶם videosסרטונים --
123
338145
2580
וזיכרו, צפיות שוות כסף --
05:52
and rememberלִזכּוֹר, viewsתצוגות mean moneyכֶּסֶף --
124
340749
1707
05:54
is that they stuffדברים the titlesכותרות
of these videosסרטונים with these popularפופולרי termsמונחים.
125
342480
4742
היא לדחוס בכותרות הסרטונים
מונחים פופולריים.
05:59
So you take, like, "surpriseהַפתָעָה eggsביצים"
126
347246
1687
אתם לוקחים למשל
את "ביצי הפתעה"
ואז אתם מוסיפים "פאו פטרול",
"ביצת פסחא," מה שזה לא יהיה,
06:00
and then you addלְהוֹסִיף
"Pawפאו Patrolפַּטרוֹל," "Easterחג הפסחא eggביצה,"
127
348957
2066
06:03
or whateverמה שתגיד these things are,
128
351047
1393
כל מיני מלים
ממשחקי מחשב פופולריים,
06:04
all of these wordsמילים from other
popularפופולרי videosסרטונים into your titleכותרת,
129
352464
2893
ובסוף מתקבלת
תערובת לשונית חסרת-פשר
06:07
untilעד you endסוֹף up with this kindסוג of
meaninglessחֲסַר מַשְׁמָעוּת mashלִכתוֹשׁ of languageשפה
130
355381
2968
שבכלל אינה מובנת לבני-אדם.
06:10
that doesn't make senseלָחוּשׁ to humansבני אנוש at all.
131
358373
2498
06:12
Because of courseקוּרס it's only really
tinyזָעִיר kidsילדים who are watchingצופה your videoוִידֵאוֹ,
132
360895
3546
כי כמובן, רק ילדים צופים
בסרטון שלכם,
06:16
and what the hellגֵיהִנוֹם do they know?
133
364465
1827
ומה הם מבינים בכלל
מהחיים שלהם?
06:18
Your realאמיתי audienceקהל
for this stuffדברים is softwareתוֹכנָה.
134
366316
3007
הקהל האמיתי של הדברים האלה
הוא תוכנה,
האלגוריתם,
06:21
It's the algorithmsאלגוריתמים.
135
369347
1156
התוכנה שבה משתמשת "יו-טיוב"
06:22
It's the softwareתוֹכנָה that YouTubeYouTube usesשימו
136
370527
1855
כדי לבחור אילו סרטונים דומים לאחרים,
06:24
to selectבחר whichאיזה videosסרטונים
are like other videosסרטונים,
137
372406
2483
כדי להפיץ אותם ולהמליץ עליהם.
06:26
to make them popularפופולרי,
to make them recommendedמוּמלָץ.
138
374913
2243
ולכן אתם מקבלים תערובת מלים
בלתי-מובנת לחלוטין
06:29
And that's why you endסוֹף up with this
kindסוג of completelyלַחֲלוּטִין meaninglessחֲסַר מַשְׁמָעוּת mashלִכתוֹשׁ,
139
377180
3461
גם בכותרת וגם בתוכן.
06:32
bothשניהם of titleכותרת and of contentתוֹכֶן.
140
380665
2071
אבל עליכם לזכור
06:35
But the thing is, you have to rememberלִזכּוֹר,
141
383792
1894
שעדיין יש אנשים בתוך המערכת
ממוטבת-האלגוריתם הזאת,
06:37
there really are still people withinבְּתוֹך
this algorithmicallyאלגוריתמית optimizedממוטב systemמערכת,
142
385710
4478
אנשים שנאלצים יותר ויותר לגלם
06:42
people who are kindסוג
of increasinglyיותר ויותר forcedכָּפוּי to actפעולה out
143
390212
2790
את הצירופים היותר ויותר
מוזרים של מלים,
06:45
these increasinglyיותר ויותר bizarreמוּזָר
combinationsשילובים of wordsמילים,
144
393026
3066
06:48
like a desperateנוֹאָשׁ improvisationאִלתוּר artistאמן
respondingלהגיב to the combinedמְשׁוּלָב screamsצרחות
145
396116
5173
כמו אמן אלתור נואש
שמגיב לצעקותיהם
של מיליון פעוטים בבת-אחת.
06:53
of a millionמִילִיוֹן toddlersפעוטות at onceפַּעַם.
146
401313
2203
06:57
There are realאמיתי people
trappedלכודים withinבְּתוֹך these systemsמערכות,
147
405168
2468
יש אנשים אמיתיים שלכודים
בתוך המערכות האלה,
וזה הדבר המוזר להפליא השני
בתרבות מבוססת האלגוריתמים הזאת,
06:59
and that's the other deeplyבאופן מעמיק strangeמוּזָר thing
about this algorithmicallyאלגוריתמית drivenמוּנָע cultureתַרְבּוּת,
148
407660
4055
כי אפילו אם אתה אנושי,
07:03
because even if you're humanבן אנוש,
149
411739
1381
מתישהו אתה נאלץ להתנהג כמו מכונה
רק כדי לשרוד.
07:05
you have to endסוֹף up behavingמתנהג like a machineמְכוֹנָה
150
413144
2145
07:07
just to surviveלִשְׂרוֹד.
151
415313
1800
וגם, בעברו השני של הצג,
07:09
And alsoגַם, on the other sideצַד of the screenמָסָך,
152
417137
2100
עדיין ישנם ילדים קטנים
שצופים בדברים האלה,
07:11
there still are these little kidsילדים
watchingצופה this stuffדברים,
153
419261
2947
07:14
stuckתָקוּעַ, theirשֶׁלָהֶם fullמלא attentionתשומת הלב grabbedתפס
by these weirdמְשׁוּנֶה mechanismsמנגנונים.
154
422232
4206
הם תקועים שם
והמנגנונים המוזרים האלה
לוכדים את מלוא תשומת ליבם.
07:18
And mostרוב of these kidsילדים are too smallקָטָן
to even use a websiteאתר אינטרנט.
155
426768
2798
ורוב הילדים האלה קטנים מכדי
לדעת אפילו להשתמש באתר אינטרנט.
07:21
They're just kindסוג of hammeringפטיש
on the screenמָסָך with theirשֶׁלָהֶם little handsידיים.
156
429590
3276
הם רק חובטים במסך בידיהם הקטנות.
לשם כך הומצא ה"אוטופליי",
הניגון האוטומטי,
07:24
And so there's autoplayהפעלה אוטומטית,
157
432890
1217
07:26
where it just keepsשומר playingמשחק these videosסרטונים
over and over and over in a loopלוּלָאָה,
158
434131
3579
שממשיך להקרין את הסרטונים האלה
שוב ושוב ושוב,
ללא הרף,
במשך שעות על גבי שעות.
07:29
endlesslyללא הרף for hoursשעות and hoursשעות at a time.
159
437734
2059
ויש היום כל-כך הרבה מוזרות במערכת,
07:31
And there's so much weirdnessמוּזָרוּת
in the systemמערכת now
160
439817
2843
07:34
that autoplayהפעלה אוטומטית takes you
to some prettyיפה strangeמוּזָר placesמקומות.
161
442684
3009
שה"אוטופליי" לוקח אתכם
למקומות משונים למדי.
07:37
This is how, withinבְּתוֹך a dozenתְרֵיסַר stepsצעדים,
162
445717
2488
וכך, בתוך שנים-עשר שלבים,
07:40
you can go from a cuteחָמוּד videoוִידֵאוֹ
of a countingסְפִירָה trainרכבת
163
448229
3158
אתם יכולים להגיע מסרטון חמוד
של רכבת מספרים
07:43
to masturbatingאוננות Mickeyמיקי Mouseעכבר.
164
451411
2442
למיקי מאוס מאונן.
07:46
Yeah. I'm sorry about that.
165
454529
2288
כן. סליחה על זה.
וזה הולך ונעשה גרוע יותר.
07:48
This does get worseרע יותר.
166
456841
1700
זה מה שקורה
07:50
This is what happensקורה
167
458565
1282
07:51
when all of these differentשונה keywordsמילות מפתח,
168
459871
3086
כשכל מילות המפתח השונות,
07:54
all these differentשונה piecesחתיכות of attentionתשומת הלב,
169
462981
2461
כל פיסות תשומת הלב השונות,
07:57
this desperateנוֹאָשׁ generationדוֹר of contentתוֹכֶן,
170
465466
2807
הפקת התוכן הנואשת הזאת,
08:00
all comesבא togetherיַחַד into a singleיחיד placeמקום.
171
468297
2582
הכל מתחבר באותו המקום.
08:03
This is where all those deeplyבאופן מעמיק weirdמְשׁוּנֶה
keywordsמילות מפתח come home to roostלוּל.
172
471871
4472
לכאן מגיעות לקנן
כל מילות המפתח המוזרות מאד.
08:08
You cross-breedקרוס-גזע the fingerאֶצבַּע familyמִשׁפָּחָה videoוִידֵאוֹ
173
476367
2391
מכליאים את סרטון משפחת האצבעות
08:10
with some live-actionגר פעולה superheroגיבור על stuffדברים,
174
478782
2088
עם סרט מצולם של גיבור-על,
08:12
you addלְהוֹסִיף in some weirdמְשׁוּנֶה,
trollishtrollish in-jokesin-jokes or something,
175
480894
3256
מוסיפים כמה בדיחות טרוליות מוזרות
או משהו כזה,
08:16
and suddenlyפִּתְאוֹם, you come
to a very weirdמְשׁוּנֶה placeמקום indeedאכן.
176
484174
3366
ולפתע אתם מגיעים
למקום משונה בהחלט.
08:19
The stuffדברים that tendsנוטה to upsetלהרגיז parentsהורים
177
487564
2113
הדברים האלה, שמעצבנים את ההורים,
הם אלה שיש בהם
תוכן מיני או אלים כלשהו, נכון?
08:21
is the stuffדברים that has kindסוג of violentאַלִים
or sexualמִינִי contentתוֹכֶן, right?
178
489701
3331
08:25
Children'sילדים cartoonsקריקטורות gettingמקבל assaultedהותקף,
179
493056
2822
דמות מקומיקס ילדים שמותקפת,
08:27
gettingמקבל killedנהרג,
180
495902
2018
שנרצחת,
מעשי קונדס מוזרים
שממש מפחידים ילדים.
08:29
weirdמְשׁוּנֶה pranksמעשי קונדס that actuallyלמעשה
genuinelyבְּכֵנוּת terrifyלְהַפחִיד childrenיְלָדִים.
181
497944
3343
08:33
What you have is softwareתוֹכנָה pullingמושך in
all of these differentשונה influencesהשפעות
182
501311
3675
מדובר בעצם בתוכנה שמושכת אליה
כל מיני השפעות
08:37
to automaticallyבאופן אוטומטי generateלִיצוֹר
kids'ילדים, worstהכי גרוע nightmaresסיוטים.
183
505010
2961
כדי ליצור באופן אוטומטי
את הסיוט הכי נורא לילדים.
והדברים האלה באמת ובתמים
משפיעים על ילדים קטנים.
08:39
And this stuffדברים really, really
does affectלהשפיע smallקָטָן childrenיְלָדִים.
184
507995
2701
הורים מדווחים על ילדים מוכי טראומה,
08:42
Parentsהורים reportלהגיש תלונה theirשֶׁלָהֶם childrenיְלָדִים
beingלהיות traumatizedמוכה הלם,
185
510720
2866
ילדים שפוחדים מהחושך,
08:45
becomingהִתהַוּוּת afraidחוֹשֵׁשׁ of the darkאפל,
186
513610
1392
08:47
becomingהִתהַוּוּת afraidחוֹשֵׁשׁ of theirשֶׁלָהֶם favoriteהכי אהוב
cartoonקָרִיקָטוּרָה charactersדמויות.
187
515026
3050
שפוחדים מדמויות הקומיקס האהובות שלהם.
08:50
If you take one thing away from this,
it's that if you have smallקָטָן childrenיְלָדִים,
188
518524
3611
אם תלמדו היום לקח אחד בלבד,
הרי זה שאם יש לכם ילדים קטנים,
08:54
keep them the hellגֵיהִנוֹם away from YouTubeYouTube.
189
522159
1996
הרחיקו אותם ככל האפשר מ"יו-טיוב".
08:56
(Applauseתְשׁוּאוֹת)
190
524743
3949
(מחיאות כפיים)
אבל הדבר הנוסף,
מה שממש מרגיז אותי בקשר לזה,
09:02
But the other thing, the thing
that really getsמקבל to me about this,
191
530504
3096
09:05
is that I'm not sure we even really
understandמבין how we got to this pointנְקוּדָה.
192
533624
4629
הוא שאני לא בטוח שאנו בכלל יודעים
איך הגענו למצב הזה.
09:10
We'veללא שם: יש לנו takenנלקח all of this influenceלְהַשְׁפִּיעַ,
all of these things,
193
538951
2931
צירפנו ביחד את כל ההשפעה הזאת,
את כל הדברים האלה,
ועוללנו נזק שאיש לא התכוון לעולל.
09:13
and mungedmunged them togetherיַחַד in a way
that no one really intendedהתכוון.
194
541906
2953
09:16
And yetעדיין, this is alsoגַם the way
that we're buildingבִּניָן the entireשלם worldעוֹלָם.
195
544883
3156
ועם זאת, ככה גם
אנו בונים את העולם כולו.
אנו לוקחים את כל הנתונים האלה,
09:20
We're takingלְקִיחָה all of this dataנתונים,
196
548063
1773
הרבה מהם נתונים רעים,
09:21
a lot of it badרַע dataנתונים,
197
549860
1447
המון נתונים היסטוריים
מלאי דעות קדומות,
09:23
a lot of historicalהִיסטוֹרִי dataנתונים
fullמלא of prejudiceדעה קדומה,
198
551331
3029
09:26
fullמלא of all of our worstהכי גרוע
impulsesדחפים of historyהִיסטוֹרִיָה,
199
554384
2837
מלאים בכל הדחפים ההיסטוריים
הכי גרועים שלנו,
09:29
and we're buildingבִּניָן that
into hugeעָצוּם dataנתונים setsסטים
200
557245
2049
ואנו הופכים את זה
למערכי נתונים ענקיים
ומכניסים לזה אוטומציה
09:31
and then we're automatingאוטומציה it.
201
559318
1423
ומשסים את הנזק הזה
בדברים כמו דיווחי אשראי,
09:32
And we're mungingmunging it togetherיַחַד
into things like creditאַשׁרַאי reportsדיווחים,
202
560765
3502
פרמיות ביטוח,
09:36
into insuranceביטוח premiumsפרמיות,
203
564291
1634
דברים כמו מערכות חיזוי מדיניות,
09:37
into things like predictiveמְנַבֵּא
policingשיטור systemsמערכות,
204
565949
2693
הנחיות שיפוט,
09:40
into sentencingגזר הדין guidelinesהנחיות.
205
568666
1762
כך בעצם אנו בונים היום
את העולם על יסוד נתונים אלה.
09:42
This is the way we're actuallyלמעשה
constructingבניה the worldעוֹלָם todayהיום
206
570452
2821
09:45
out of this dataנתונים.
207
573297
1151
ואינני יודע מה גרוע יותר,
09:46
And I don't know what's worseרע יותר,
208
574472
1698
09:48
that we builtבנוי a systemמערכת
that seemsנראה to be entirelyלַחֲלוּטִין optimizedממוטב
209
576194
3228
שאנו בונים מערכת שכנראה
ממוטבת כולה
לפי ההיבטים הכי גרועים
בהתנהגות האנושית,
09:51
for the absoluteמוּחלָט worstהכי גרוע aspectsהיבטים
of humanבן אנוש behaviorהִתְנַהֲגוּת,
210
579446
2808
או שככל הנראה,
עשינו את זה בטעות,
09:54
or that we seemנראה
to have doneבוצע it by accidentתְאוּנָה,
211
582278
2425
מבלי להבין אפילו
שאנו עושים זאת,
09:56
withoutלְלֹא even realizingמימוש
that we were doing it,
212
584727
2207
בגלל שלא באמת הבנו
את המערכות שאנו בונים,
09:58
because we didn't really understandמבין
the systemsמערכות that we were buildingבִּניָן,
213
586958
3382
10:02
and we didn't really understandמבין
how to do anything differentlyבאופן שונה with it.
214
590364
3683
ולא באמת הבנו
איך לעשות משהו שונה.
10:06
There's a coupleזוּג of things I think
that really seemנראה to be drivingנְהִיגָה this
215
594769
3365
לדעתי יש כמה דברים
שכנראה מניעים את זה
הכי חזק ב"יו-טיוב",
10:10
mostרוב fullyלְגַמרֵי on YouTubeYouTube,
216
598158
1189
והראשון הוא הפרסום,
10:11
and the first of those is advertisingפִּרסוּם,
217
599371
1827
הפיכת תשומת-הלב למטבע
10:13
whichאיזה is the monetizationמונטיזציה of attentionתשומת הלב
218
601222
2837
בלי שום משתנים נוספים,
10:16
withoutלְלֹא any realאמיתי other variablesמשתנים at work,
219
604083
3136
בלי שום התייחסות לאנשים
שמפתחים את התוכן,
10:19
any careלְטַפֵּל for the people who are
actuallyלמעשה developingמתפתח this contentתוֹכֶן,
220
607243
3885
10:23
the centralizationריכוז of the powerכּוֹחַ,
the separationהַפרָדָה of those things.
221
611152
3636
ריכוז הכוח,
ההפרדה של הדברים האלה.
10:26
And I think howeverלמרות זאת you feel
about the use of advertisingפִּרסוּם
222
614812
3144
ולדעתי, תחשבו מה שתחשבו
על השימוש בפרסום כדי לקדם דברים,
10:29
to kindסוג of supportתמיכה stuffדברים,
223
617980
1238
המראה של גברים מבוגרים בחיתולים
שמתגלגלים בחול
10:31
the sightמראה of grownמְגוּדָל menגברים in diapersחִתוּלִים
rollingגִלגוּל around in the sandחוֹל
224
619242
3067
10:34
in the hopeלְקַווֹת that an algorithmאַלגוֹרִיתְם
that they don't really understandמבין
225
622333
2983
בתקווה שאיזה אלגוריתם
שהם לא ממש מבינים
ישלם להם על זה
10:37
will give them moneyכֶּסֶף for it
226
625340
1315
אומר שכנראה לא זה הדבר
10:38
suggestsמציע that this
probablyכנראה isn't the thing
227
626679
2037
שעליו עלינו לבסס
את החברה והתרבות שלנו,
10:40
that we should be basingמבסס
our societyחֶברָה and cultureתַרְבּוּת uponעַל,
228
628740
2563
ולא זו הדרך לממן אותן.
10:43
and the way in whichאיזה
we should be fundingמימון it.
229
631327
2160
והמניע החזק הנוסף מאחורי זה
הוא האוטומציה:
10:45
And the other thing that's kindסוג of
the majorגדול driverנהג of this is automationאוטומציה,
230
633511
3519
להטמיע את כל הטכנולוגיה הזאת
10:49
whichאיזה is the deploymentפְּרִיסָה
of all of this technologyטֶכנוֹלוֹגִיָה
231
637054
2329
מיד כשהיא מגיעה,
ללא שום פיקוח,
10:51
as soonבקרוב as it arrivesמגיע,
withoutלְלֹא any kindסוג of oversightמֶחדָל,
232
639407
2521
וברגע שהבעיות מתגלות,
10:53
and then onceפַּעַם it's out there,
233
641952
1412
להרים ידיים ולומר,
"זה לא אנחנו. זאת הטכנולוגיה."
10:55
kindסוג of throwingזְרִיקָה up our handsידיים and going,
"Hey, it's not us, it's the technologyטֶכנוֹלוֹגִיָה."
234
643388
3843
כאילו, "אנו לא מעורבים בזה."
10:59
Like, "We're not involvedמְעוּרָב in it."
235
647255
1642
זה לא מספיק טוב,
11:00
That's not really good enoughמספיק,
236
648921
1767
כי האלגוריתם לא רק
מנהל את הדברים האלה;
11:02
because this stuffדברים isn't
just algorithmicallyאלגוריתמית governedנשלט,
237
650712
2710
האלגוריתם גם קובע את המדיניות.
11:05
it's alsoגַם algorithmicallyאלגוריתמית policedpoliced.
238
653446
2498
כש"יו-טיוב" החלה להבחין בזה,
11:07
When YouTubeYouTube first startedהתחיל
to payלְשַׁלֵם attentionתשומת הלב to this,
239
655968
2848
הדבר הראשון שהם עשו בעניין
11:10
the first thing they said
they'dהם היו do about it
240
658840
2087
היה להטמיע אלגוריתמים
טובים יותר של למידת מכונה
11:12
was that they'dהם היו deployלפרוס
better machineמְכוֹנָה learningלְמִידָה algorithmsאלגוריתמים
241
660951
2695
כדי למתן את התוכן.
11:15
to moderateלְמַתֵן the contentתוֹכֶן.
242
663670
1329
אז למידת מכונה,
כפי שיאמר לכם כל מומחה,
11:17
Well, machineמְכוֹנָה learningלְמִידָה,
as any expertמוּמחֶה in it will tell you,
243
665023
3485
מבוססת על מה שהתחלנו לכנות
11:20
is basicallyבעיקרון what we'veיש לנו startedהתחיל to call
244
668532
1896
"תוכנה שאיננו מבינים באמת
איך היא עובדת."
11:22
softwareתוֹכנָה that we don't really
understandמבין how it worksעובד.
245
670452
2588
ואני חושב שכבר יש לנו
מספיק מזה.
11:25
And I think we have
enoughמספיק of that alreadyכְּבָר.
246
673064
3983
אסור שנשאיר דברים כאלה
לבינה המלאכותית
11:29
We shouldn'tלא צריך be leavingעֲזִיבָה
this stuffדברים up to AIAI to decideלְהַחלִיט
247
677071
3166
שתקבע מה מתאים ומה לא.
11:32
what's appropriateמתאים or not,
248
680261
1251
כי ברור לנו מה יקרה:
היא תתחיל לצנזר דברים אחרים.
11:33
because we know what happensקורה.
249
681536
1436
11:34
It'llזה יהיה startהַתחָלָה censoringצנזורה other things.
250
682996
1688
היא תתחיל לצנזר תוכן קווירי.
11:36
It'llזה יהיה startהַתחָלָה censoringצנזורה queerמוזר contentתוֹכֶן.
251
684708
1783
היא תתחיל לצנזר
התבטאויות פומביות לגיטימיות.
11:38
It'llזה יהיה startהַתחָלָה censoringצנזורה
legitimateלֵגִיטִימִי publicפּוּמְבֵּי speechנְאוּם.
252
686515
2237
את מה שמותר בדיונים האלה
11:40
What's allowedמוּתָר in these discoursesהשיח,
253
688776
1925
אסור להשאיר לכל מיני מערכות
שאי-אפשר להאשים.
11:42
it shouldn'tלא צריך be something
that's left up to unaccountableבלתי מוסבר systemsמערכות.
254
690725
3097
זהו חלק מהדיון
שכולנו צריכים לנהל.
11:45
It's partחֵלֶק of a discussionדִיוּן
all of us should be havingשיש.
255
693846
2947
אבל אשאיר לכם תזכורת
11:48
But I'd leaveלעזוב a reminderתִזכּוֹרֶת
256
696817
1308
לכך שגם החלופה אינה הכי נעימה.
11:50
that the alternativeחֲלוּפָה isn't
very pleasantנעים, eitherאוֹ.
257
698149
2753
"יו-טיוב" גם הכריזו לאחרונה
11:52
YouTubeYouTube alsoגַם announcedהודיעה recentlyלאחרונה
258
700926
1535
על שחרור גירסה
של היישומון שלהם לילדים
11:54
that they're going to releaseלְשַׁחְרֵר
a versionגִרְסָה of theirשֶׁלָהֶם kids'ילדים, appאפליקציה
259
702485
2767
שבו ניטור התוכן
ייעשה כולו בידי בני-אדם.
11:57
that would be entirelyלַחֲלוּטִין
moderatedמתון by humansבני אנוש.
260
705276
2407
12:00
Facebookפייסבוק -- Zuckerbergצוקרברג said
much the sameאותו thing at Congressקוֹנגרֶס,
261
708134
3618
"פייסבוק" - צוקרברג אמר
משהו דומה בקונגרס,
כשלחצו עליו עם השאלה
איך בדעתו לנטר את התוכן.
12:03
when pressedלחוץ about how they
were going to moderateלְמַתֵן theirשֶׁלָהֶם stuffדברים.
262
711776
2987
הוא אמר שיש להם אנשים
שעושים את זה.
12:06
He said they'dהם היו have humansבני אנוש doing it.
263
714787
1747
ובפועל, זה אומר
12:08
And what that really meansאומר is,
264
716558
1459
שבמקום שהפעוטים יהיו הראשונים
שרואים את הדברים האלה,
12:10
insteadבמקום זאת of havingשיש toddlersפעוטות beingלהיות
the first personאדם to see this stuffדברים,
265
718041
3223
יהיו אלה עובדי קבלן
לא-אמינים בשכר-רעב
12:13
you're going to have underpaidללא תשלום,
precariousמְסוּכָּן contractחוֹזֶה workersעובדים
266
721288
2788
ללא סיוע נפשי נאות,
שגם הם יינזקו מזה.
12:16
withoutלְלֹא properתָקִין mentalנַפשִׁי healthבְּרִיאוּת supportתמיכה
267
724100
1726
12:17
beingלהיות damagedפגום by it as well.
268
725850
1376
(צחוק)
12:19
(Laughterצחוק)
269
727250
1096
ולדעתי, כולנו מסוגלים להתעלות על זה.
12:20
And I think we can all do
quiteדַי a lot better than that.
270
728370
2601
(מחיאות כפיים)
12:22
(Applauseתְשׁוּאוֹת)
271
730995
2499
הרעיון שמסכם באמת
את שני הדברים האלה, בעיני,
12:26
The thought, I think, that bringsמביא those
two things togetherיַחַד, really, for me,
272
734068
4613
הוא אוטונומיות:
12:30
is agencyסוֹכְנוּת.
273
738705
1420
כמה באמת אנו מבינים--
ב"אוטונומיות" כוונתי היא:
12:32
It's like, how much do we really
understandמבין -- by agencyסוֹכְנוּת, I mean:
274
740149
3157
איך אנו יודעים לנהוג
לפי מיטב האינטרסים שלנו.
12:35
how we know how to actפעולה
in our ownשֶׁלוֹ bestהטוב ביותר interestsאינטרסים.
275
743330
4390
ואת זה כמעט ואי-אפשר לעשות
12:39
Whichאיזה -- it's almostכִּמעַט impossibleבלתי אפשרי to do
276
747744
1787
במערכות האלה, שאותן
איננו לגמרי מבינים.
12:41
in these systemsמערכות that we don't
really fullyלְגַמרֵי understandמבין.
277
749555
3485
חוסר-שוויון בכוח
מוביל תמיד לאלימות.
12:45
Inequalityאי שיוויון of powerכּוֹחַ
always leadsמוביל to violenceאַלִימוּת.
278
753064
3071
ובמערכות האלה אנו יכולים לראות
12:48
And we can see insideבְּתוֹך these systemsמערכות
279
756159
1685
שחוסר-שוויון בהבנה
עושה אותו דבר.
12:49
that inequalityאי שיוויון of understandingהֲבָנָה
does the sameאותו thing.
280
757868
2611
אם יש דבר אחד שנוכל לעשות
כדי לשפר את המערכות האלה,
12:52
If there's one thing that we can do
to startהַתחָלָה to improveלְשַׁפֵּר these systemsמערכות,
281
760503
3779
הוא להפוך אותן למובנות יותר
לאנשים שמשתמשים בהן,
12:56
it's to make them more legibleקָרִיא
to the people who use them,
282
764306
2718
כדי שלכולנו תהיה הבנה משותפת
לגבי מה שבאמת קורה כאן.
12:59
so that all of us have
a commonמשותף understandingהֲבָנָה
283
767048
2196
13:01
of what's actuallyלמעשה going on here.
284
769268
1851
אבל העניין העיקרי, לדעתי,
במערכות האלה,
13:03
The thing, thoughאם כי, I think
mostרוב about these systemsמערכות
285
771970
2968
הוא - ואני מקווה שהסברתי זאת
בקשר ל"יו-טיוב" -
13:06
is that this isn't, as I hopeלְקַווֹת
I've explainedהסביר, really about YouTubeYouTube.
286
774962
3857
שזה מתייחס להכל.
13:10
It's about everything.
287
778843
1312
13:12
These issuesנושאים of accountabilityדין וחשבון and agencyסוֹכְנוּת,
288
780179
2444
סוגיות הנשיאה באחריות
והאוטונומיות האישית,
13:14
of opacityאֲטִימוּת and complexityמוּרכָּבוּת,
289
782647
2225
של העמימות והמורכבות,
13:16
of the violenceאַלִימוּת and exploitationניצול
that inherentlyמטבע הדברים resultsתוצאות
290
784896
3177
של האלימות והניצול
שנובעים מעצם העובדה
שהכוח מרוכז בידיים מועטות --
13:20
from the concentrationריכוז
of powerכּוֹחַ in a fewמְעַטִים handsידיים --
291
788097
2794
אלה סוגיות הרבה יותר נרחבות.
13:22
these are much, much largerיותר גדול issuesנושאים.
292
790915
2579
הסוגיות האלה לא נוגעות רק ל"יו-טיוב"
ולא רק לטכנולוגיה בכלל,
13:26
And they're issuesנושאים not just of YouTubeYouTube
and not just of technologyטֶכנוֹלוֹגִיָה in generalכללי,
293
794395
3687
והן אפילו לא חדשות;
הן מלוות אותנו כבר המון זמן.
13:30
and they're not even newחָדָשׁ.
294
798106
1265
13:31
They'veהם עשו זאת been with us for agesהגילאים.
295
799395
1461
אבל סוף-סוף בנינו את המערכת הזאת,
המערכת הגלובלית הזאת, האינטרנט,
13:32
But we finallyסוף כל סוף builtבנוי this systemמערכת,
this globalגלוֹבָּלִי systemמערכת, the internetאינטרנט,
296
800880
4390
שמציגה אותן בפנינו
בצורה ברורה להפליא,
13:37
that's actuallyלמעשה showingמראה them to us
in this extraordinaryיוצא דופן way,
297
805294
3019
מבלי שנוכל להתכחש להן.
13:40
makingהֲכָנָה them undeniableלֹא מוּטָל בְּסֶפֶק.
298
808337
1547
לטכנולוגיה יש היכולת הנפלאה
13:41
Technologyטֶכנוֹלוֹגִיָה has this extraordinaryיוצא דופן capacityקיבולת
299
809908
2820
גם להמחיש וגם להמשיך
13:44
to bothשניהם instantiateמופעים and continueלְהַמשִׁיך
300
812752
3973
את כל רצונותינו והטיותינו הכי גדולים,
והסמויים לעתים קרובות ,
13:48
all of our mostרוב extraordinaryיוצא דופן,
oftenלעתים קרובות hiddenמוּסתָר desiresהרצונות and biasesהטיות
301
816749
4248
ולקודד אותם אל העולם כולו,
13:53
and encodingהַצפָּנָה them into the worldעוֹלָם,
302
821021
1866
אבל היא גם מתעדת אותם
כדי שנוכל לראותם,
13:54
but it alsoגַם writesכותב them down
so that we can see them,
303
822911
3474
כדי שלא נוכל עוד להעמיד פנים
כאילו אינם קיימים.
13:58
so that we can't pretendלהעמיד פנים
they don't existקיימים anymoreיותר.
304
826409
3330
עלינו להפסיק לראות בטכנולוגיה
פתרון לכל בעיותינו,
14:01
We need to stop thinkingחושב about technologyטֶכנוֹלוֹגִיָה
as a solutionפִּתָרוֹן to all of our problemsבעיות,
305
829763
4319
אלא להיעזר בה כדי לראות
אל הבעיות האלה,
14:06
but think of it as a guideלהנחות
to what those problemsבעיות actuallyלמעשה are,
306
834106
3757
כדי שנוכל להתחיל לחשוב עליהן
כמו שצריך
14:09
so we can startהַתחָלָה thinkingחושב
about them properlyכמו שצריך
307
837887
2144
ולהתחיל לטפל בהן.
14:12
and startהַתחָלָה to addressכתובת them.
308
840055
1766
תודה רבה לכם.
14:13
Thank you very much.
309
841845
1335
(מחיאות כפיים)
14:15
(Applauseתְשׁוּאוֹת)
310
843204
5192
14:21
Thank you.
311
849733
1188
תודה.
14:22
(Applauseתְשׁוּאוֹת)
312
850945
2869
(מחיאות כפיים)
הלן וולטרס: ג'יימס, תודה שבאת
ותודה על ההרצאה הזאת.
14:28
Helenהלן Waltersוולטרס: Jamesג'יימס, thank you
for comingמגיע and givingמַתָן us that talk.
313
856839
3178
זה מעניין:
14:32
So it's interestingמעניין:
314
860041
1189
כשחושבים על סרטים שבהם
הרובוטים משתלטים על העולם,
14:33
when you think about the filmsסרטים where
the roboticרובוטית overlordsאדונים take over,
315
861254
3495
הכל קצת יותר זוהר
ממה שאתה מתאר.
14:36
it's all a bitbit more glamorousמַקסִים וּמְפוּאָר
than what you're describingהמתאר.
316
864773
3279
אבל אני תוהה - בסרטים האלה
מתגבשת תנועת התקוממות.
14:40
But I wonderפֶּלֶא -- in those filmsסרטים,
you have the resistanceהִתנַגְדוּת mountingהַרכָּבָה.
317
868076
3749
האם ישנה תנועת התקוממות
נגד הדברים האלה?
14:43
Is there a resistanceהִתנַגְדוּת mountingהַרכָּבָה
towardsלִקרַאת this stuffדברים?
318
871849
3216
האם אתה רואה סימנים חיוביים,
ניצני התנגדות כלשהם?
14:47
Do you see any positiveחִיוּבִי signsשלטים,
greenירוק shootsיורה of resistanceהִתנַגְדוּת?
319
875089
3796
ג'יימס בריידל: אני לא יודע
מה עם התקוממות ישירה,
14:52
Jamesג'יימס Bridleהרסן: I don't know
about directישיר resistanceהִתנַגְדוּת,
320
880507
2416
כי לדעתי מדובר בדברים
מאד ותיקים.
14:54
because I think this stuffדברים
is superסוּפֶּר long-termטווח ארוך.
321
882947
2264
לדעתי זה אפוי בתרבות שלנו
באופן עמוק מאד.
14:57
I think it's bakedאפוי into cultureתַרְבּוּת
in really deepעָמוֹק waysדרכים.
322
885235
2510
ידידה שלי, אלינור סאיטה,
אומרת תמיד
14:59
A friendחָבֵר of mineשלי,
Eleanorאלינור SaittaSaitta, always saysאומר
323
887769
2132
15:01
that any technologicalטֶכנוֹלוֹגִי problemsבעיות
of sufficientמַסְפִּיק scaleסוּלָם and scopeתְחוּם
324
889935
3609
שכל בעיה טכנולוגית
מעל לגודל והיקף מסוימים
15:05
are politicalפּוֹלִיטִי problemsבעיות first of all.
325
893568
2267
היא קודם כל בעיה פוליטית.
אז כל הדברים האלה
שאנו מנסים להתייחס אליהם
15:07
So all of these things we're workingעובד
to addressכתובת withinבְּתוֹך this
326
895859
2785
לא ייפתרו סתם
בבניית טכנולוגיה טובה יותר,
15:10
are not going to be addressedממוען
just by buildingבִּניָן the technologyטֶכנוֹלוֹגִיָה better,
327
898668
3274
אלא דרך שינוי התרבות
שיוצרת את הטכנולוגיות האלה.
15:13
but actuallyלמעשה by changingמִשְׁתַנֶה the societyחֶברָה
that's producingייצור these technologiesטכנולוגיות.
328
901966
3464
אז לא. כרגע יש לפנינו
דרך ארוכה מאד.
15:17
So no, right now, I think we'veיש לנו got
a hellגֵיהִנוֹם of a long way to go.
329
905454
3027
אבל כפי שאמרתי,
אני חושב שאם נפרק אותן,
15:20
But as I said, I think by unpackingפריקה them,
330
908505
1986
אם נסביר אותן ונדבר עליהן
בכנות גמורה,
15:22
by explainingמסביר them, by talkingשִׂיחָה
about them superסוּפֶּר honestlyבִּיוֹשֶׁר,
331
910515
2697
נוכל לפחות להתחיל את התהליך.
15:25
we can actuallyלמעשה startהַתחָלָה
to at leastהכי פחות beginהתחל that processתהליך.
332
913236
2505
ה"וו: אז כשאתה מדבר על מובנות
ועל אוריינות דיגיטלית,
15:27
HWHW: And so when you talk about
legibilityקְרִיאוּת and digitalדִיגִיטָלי literacyאוריינות,
333
915765
3562
15:31
I find it difficultקָשֶׁה to imagineלדמיין
334
919351
1591
אני מתקשה לדמיין
15:32
that we need to placeמקום the burdenנטל
of digitalדִיגִיטָלי literacyאוריינות on usersמשתמשים themselvesעצמם.
335
920966
3680
שנעביר את נטל האוריינות הדיגיטלית
אל המשתמשים עצמם.
15:36
But whoseשל מי responsibilityאַחֲרָיוּת
is educationהַשׂכָּלָה in this newחָדָשׁ worldעוֹלָם?
336
924670
4562
אבל מיהם האחראים לחינוך
בעולם החדש הזה?
15:41
JBJB: Again, I think this responsibilityאַחֲרָיוּת
is kindסוג of up to all of us,
337
929256
3612
ג'"ב: שוב, לדעתי האחריות מוטלת על כולנו,
במובן זה, שכל מה
שאנו עושים, בונים ויוצרים
15:44
that everything we do,
everything we buildלִבנוֹת, everything we make,
338
932892
2984
צריך להיעשות מתוך דיון והסכמה
15:47
needsצרכי to be madeעָשׂוּי
in a consensualהסכמי discussionדִיוּן
339
935900
3692
עם כל מי שנמנעים מכך;
15:51
with everyoneכל אחד who'sמי זה avoidingהימנעות it;
340
939616
1940
שלא נבנה מערכות שנועדו
להכשיל ולהפתיע אנשים
15:53
that we're not buildingבִּניָן systemsמערכות
intendedהתכוון to trickטריק and surpriseהַפתָעָה people
341
941580
4341
ולגרום להם לעשות את מה שנכון,
15:57
into doing the right thing,
342
945945
2300
16:00
but that they're actuallyלמעשה involvedמְעוּרָב
in everyכֹּל stepשלב in educatingחינוך them,
343
948269
3236
אלא שהם יהיו מעורבים
בכל שלב של החינוך שלהם,
כי כל אחת מהמערכות האלה
היא חינוכית.
16:03
because eachכל אחד of these systemsמערכות
is educationalחינוכית.
344
951529
2278
לכן יש בי תקווה,
גם אם המצב באמת עגום,
16:05
That's what I'm hopefulתקווה about,
about even this really grimזוֹעֵף stuffדברים,
345
953831
3102
שאם נוכל לבחון את זה
כמו שצריך,
16:08
that if you can take it
and look at it properlyכמו שצריך,
346
956957
2262
זה כשלעצמו דבר חינוכי
16:11
it's actuallyלמעשה in itselfעצמה
a pieceלְחַבֵּר of educationהַשׂכָּלָה
347
959243
2089
שמאפשר לנו להתחיל לראות
איך מערכות מורכבות משתלבות ופועלות
16:13
that allowsמאפשרים you to startהַתחָלָה seeingרְאִיָה
how complexמורכב systemsמערכות come togetherיַחַד and work
348
961356
3762
ואולי להצליח ליישם ידע זה
במקומות אחרים בעולם.
16:17
and maybe be ableיכול to applyלהגיש מועמדות
that knowledgeיֶדַע elsewhereבְּמָקוֹם אַחֵר in the worldעוֹלָם.
349
965142
3501
ה"וו: ג'יימס, זהו נושא חשוב ביותר,
16:20
HWHW: Jamesג'יימס, it's suchכגון
an importantחָשׁוּב discussionדִיוּן,
350
968667
2115
ואני יודעת שרבים כאן
פתוחים ונכונים לדבר עליו,
16:22
and I know manyרב people here
are really openלִפְתוֹחַ and preparedמוּכָן to have it,
351
970806
3227
אז תודה לך
על שפתחת בשבילנו את הבוקר.
16:26
so thanksתודה for startingהחל off our morningשַׁחַר.
352
974057
1859
ג'"ב: תודה רבה. להתראות!
16:27
JBJB: Thanksתודה very much. Cheersלחיים.
353
975940
1400
(מחיאות כפיים)
16:29
(Applauseתְשׁוּאוֹת)
354
977364
1651
Translated by Shlomo Adam
Reviewed by Ido Dekkers

▲Back to top

ABOUT THE SPEAKER
James Bridle - Artist, writer
Working across technologies and disciplines, James Bridle examines technology, knowledge and the end of the future.

Why you should listen

James Bridle is an artist and writer working across technologies and disciplines. His artworks and installations have been exhibited in Europe, North and South America, Asia and Australia, and have been viewed by hundreds of thousands of visitors online. He has been commissioned by organizations including the Victoria & Albert Museum, the Barbican, Artangel, the Oslo Architecture Triennale and the Istanbul Design Biennial, and he has been honored by Ars Electronica, the Japan Media Arts Festival and the Design Museum, London. His writing on literature, culture and networks has appeared in magazines and newspapers including Frieze, Wired, Domus, Cabinet, The Atlantic, the New Statesman and many others, and he has written a regular column for The Observer.

New Dark Age, Bridle's book about technology, knowledge and the end of the future is forthcoming from Verso (UK & US) in 2018. He lectures regularly on radio, at conferences, universities and other events including SXSW, Lift, the Global Art Forum and Re:Publica. He has been a resident at Lighthouse, Brighton, the White Building, London and Eyebeam, New York, and an adjunct professor on the interactive telecommunications program at New York University.

More profile about the speaker
James Bridle | Speaker | TED.com