ABOUT THE SPEAKER
César Hidalgo - Physicist
César Hidalgo studies how teams, cities and nations learn.

Why you should listen

César A. Hidalgo leads the Collective Learning group at The MIT Media Lab and is an associate professor of media arts and sciences at MIT. Hidalgo's work focuses on understanding how teams, organizations, cities and nations learn. At the Collective Learning group, Hidalgo develops software tools to facilitate learning in organizations. His academic publications have been cited more than 10,000 times, and his online systems, including the Observatory of Economic Complexity and DataUSA, have received more than 100 million views and numerous awards.

Hidalgo's latest book, Why Information Grows (2015), has been translated into 10+ languages. He is also the co-author of The Atlas of Economic Complexity (2014) and a co-founder of Datawheel LLC, a company that has professionalized the creation of large data visualization engines.

More profile about the speaker
César Hidalgo | Speaker | TED.com
TED2018

César Hidalgo: A bold idea to replace politicians

סזאר הידלגו: רעיון נועז כדי להחליף פוליטיקאים

Filmed:
2,044,328 views

לסזאר הידלגו יש הצעה רדיקלית לתקן את המערכת הפוליטית השבורה שלנו: להפוך אותה לאוטומטית! בשיחה פרובוקטיבית זו, הוא מתאר רעיון נועז לעקוף את הפוליטיקאים על ידי הסמכת האזרחים ליצור נציגי בינה מלאכותית אישיים, שמשתתפים ישירות בהחלטות דמוקרטיות. גלו דרך חדשה לקבל החלטות קולקטיביות ולהרחיב את הבנתכם את הדמוקרטיה.
- Physicist
César Hidalgo studies how teams, cities and nations learn. Full bio

Double-click the English transcript below to play the video.

00:13
Is it just me,
0
1373
1744
האם זה רק אני,
00:15
or are there other people here
1
3141
2332
או שיש כאן עוד אנשים
00:17
that are a little bitbit
disappointedמְאוּכזָב with democracyדֵמוֹקרָטִיָה?
2
5497
2344
שמאוכזבים קצת מדמוקרטיה?
00:20
(Applauseתְשׁוּאוֹת)
3
8986
2336
(מחיאות כפיים)
00:24
So let's look at a fewמְעַטִים numbersמספרים.
4
12141
2071
אז בואו ונסתכל על כמה מספרים.
00:26
If we look acrossלְרוֹחָב the worldעוֹלָם,
5
14934
2173
אם נסתכל על העולם,
00:29
the medianחֲצִיוֹן turnoutתְפוּקָה
in presidentialנְשִׂיאוּתִי electionsבחירות
6
17131
3892
חציון ההשתתפות בבחירות לנשיאות
00:33
over the last 30 yearsשנים
7
21047
1651
ב -30 השנים האחרונות
00:34
has been just 67 percentאָחוּז.
8
22722
2622
היה רק 67 אחוזים.
00:38
Now, if we go to Europeאֵירוֹפָּה
9
26329
1973
ואם נלך לאירופה
00:40
and we look at people that participatedהשתתפו
in EUאירופה parliamentaryפַּרלָמֶנטָרִי electionsבחירות,
10
28326
4428
ונסתכל על אנשים שהשתתפו
בבחירות לפרלמנט האירופי,
00:44
the medianחֲצִיוֹן turnoutתְפוּקָה in those electionsבחירות
11
32778
2071
חציון ההצבעה בבחירות אלה
00:46
is just 42 percentאָחוּז.
12
34873
2104
הוא רק 42 אחוזים.
00:50
Now let's go to Newחָדָשׁ Yorkיורק,
13
38125
1669
עכשיו בואו ונלך לניו יורק,
00:51
and let's see how manyרב people votedהצביעו
in the last electionבְּחִירָה for mayorראש העיר.
14
39818
4681
ונראה כמה אנשים הצביעו
בבחירות האחרונות לראשות העיר.
00:56
We will find that only
24 percentאָחוּז of people showedparagraphs up to voteהַצבָּעָה.
15
44523
3817
נמצא שרק 24% מהאנשים הגיעו להצביע.
01:01
What that meansאומר is that,
if "Friendsחברים" was still runningרץ,
16
49063
3095
פירוש הדבר הוא,
שאם הסדרה"חברים" עדיין רצה,
01:04
Joeyג'ואי and maybe Phoebeפיבי
would have shownמוצג up to voteהַצבָּעָה.
17
52182
3348
ג'ואי ואולי פיבי היו מופיעים להצביע.
01:07
(Laughterצחוק)
18
55554
1290
(צחוק)
01:09
And you cannotלא יכול blameאשמה them
because people are tiredעייף of politiciansפוליטיקאים.
19
57434
4426
ואתם לא יכולים להאשים אותם
כי אנשים עייפים מפוליטיקאים.
01:13
And people are tiredעייף of other people
usingבאמצעות the dataנתונים that they have generatedשנוצר
20
61884
3887
ואנשים עייפים מאנשים אחרים
שמשתמשים בנתונים שיש בידם
01:17
to communicateלתקשר with
theirשֶׁלָהֶם friendsחברים and familyמִשׁפָּחָה,
21
65795
2198
כדי לתקשר עם חבריהם ובני משפחתם,
01:20
to targetיַעַד politicalפּוֹלִיטִי propagandaתַעֲמוּלָה at them.
22
68017
2094
ולכוון לתעמולה פוליטית אליהם.
01:22
But the thing about this
is that this is not newחָדָשׁ.
23
70519
2728
אבל העניין הוא שזה לא חדש.
01:25
Nowadaysכַּיוֹם, people use likesאוהב
to targetיַעַד propagandaתַעֲמוּלָה at you
24
73271
3225
כיום, אנשים משתמשים בלייקים
כדי לכוון אליכם תעמולה
01:28
before they use your zipרוכסן codeקוד
or your genderמִין or your ageגיל,
25
76520
3373
לפני שהם משתמשים במיקוד שלכם
או במין שלכם או הגיל שלכם,
01:31
because the ideaרַעְיוֹן of targetingמיקוד people
with propagandaתַעֲמוּלָה for politicalפּוֹלִיטִי purposesמטרות
26
79917
3570
כי הרעיון לכוון לאנשים תעמולה פוליטית
01:35
is as oldישן as politicsפּוֹלִיטִיקָה.
27
83511
1592
הוא ישן כמו הפוליטיקה.
01:37
And the reasonסיבה why that ideaרַעְיוֹן is there
28
85530
2278
והסיבה לכך שהרעיון הזה קיים
01:39
is because democracyדֵמוֹקרָטִיָה
has a basicבסיסי vulnerabilityפגיעות.
29
87832
3472
היא שהדמוקרטיה סובלת מפגיעות בסיסית.
01:43
This is the ideaרַעְיוֹן of a representativeנציג.
30
91710
1932
זהו הרעיון של נציג.
01:46
In principleעִקָרוֹן, democracyדֵמוֹקרָטִיָה is the abilityיְכוֹלֶת
of people to exertלְהַפְעִיל powerכּוֹחַ.
31
94049
3944
עקרונית, הדמוקרטיה היא יכולתם
של אנשים להפעיל כוח.
01:50
But in practiceלְתַרְגֵל, we have to delegateנָצִיג
that powerכּוֹחַ to a representativeנציג
32
98017
3818
אבל בפועל, אנחנו צריכים להאציל
את הכוח הזה לנציג
01:53
that can exertלְהַפְעִיל that powerכּוֹחַ for us.
33
101859
2255
שיכול להפעיל את הכוח עבורנו.
01:56
That representativeנציג is a bottleneckצַוַאר הַבַּקבּוּק,
34
104561
1825
נציג זה הוא צוואר הבקבוק,
01:58
or a weakחלש spotלְזַהוֹת.
35
106410
1297
או נקודה חלשה.
01:59
It is the placeמקום that you want to targetיַעַד
if you want to attackלִתְקוֹף democracyדֵמוֹקרָטִיָה
36
107731
3949
זה המקום שאליו אתם רוצים לכוון
אם ברצונכם לתקוף את הדמוקרטיה
02:03
because you can captureלִלְכּוֹד democracyדֵמוֹקרָטִיָה
by eitherאוֹ capturingלכידת that representativeנציג
37
111704
3489
כי אתם יכולים ללכוד את הדמוקרטיה
על ידי לכידת נציג זה
02:07
or capturingלכידת the way
that people chooseבחר it.
38
115217
2148
או ללכוד את הדרך שאנשים בוחרים בזה.
02:10
So the bigגָדוֹל questionשְׁאֵלָה is:
39
118065
1416
אז השאלה הגדולה היא:
02:11
Is this the endסוֹף of historyהִיסטוֹרִיָה?
40
119505
1704
האם זו סופה של ההיסטוריה?
02:13
Is this the bestהטוב ביותר that we can do
41
121989
3103
האם זה הכי טוב שאנחנו יכולים לעשות
02:17
or, actuallyלמעשה, are there alternativesחלופות?
42
125878
3067
או, למעשה, האם יש חלופות?
02:22
Some people have been thinkingחושב
about alternativesחלופות,
43
130130
2354
יש אנשים שחושבים על חלופות,
02:24
and one of the ideasרעיונות that is out there
is the ideaרַעְיוֹן of directישיר democracyדֵמוֹקרָטִיָה.
44
132508
3679
ואחד הרעיונות שעולים שם בחוץ
הוא רעיון של דמוקרטיה ישירה.
02:28
This is the ideaרַעְיוֹן of bypassingעֲקִיפָה
politiciansפוליטיקאים completelyלַחֲלוּטִין
45
136790
2479
זה הרעיון של עקיפת הפוליטיקאים לחלוטין
02:31
and havingשיש people voteהַצבָּעָה directlyבאופן ישיר on issuesנושאים,
46
139293
2403
ולאפשר לאנשים להצביע ישירות על סוגיות,
02:33
havingשיש people voteהַצבָּעָה directlyבאופן ישיר on billsשטרות.
47
141720
2265
לאפשר לאנשים להצביע ישירות על הצעות חוק.
02:36
But this ideaרַעְיוֹן is naiveתמים
48
144415
1336
אבל הרעיון הזה הוא תמים
02:37
because there's too manyרב things
that we would need to chooseבחר.
49
145775
3171
כי יש יותר מדי דברים שנצטרך לבחור.
02:40
If you look at the 114thה US Congressקוֹנגרֶס,
50
148970
2782
אם תסתכלו על הקונגרס ה-114 של ארה"ב,
02:43
you will have seenלראות that
the Houseבַּיִת of Representativesנציגים
51
151776
2487
תיווכחו שבית הנבחרים
02:46
consideredנחשב more than 6,000 billsשטרות,
52
154287
2889
שקל יותר מ 6,000 הצעות חוק,
02:49
the Senateסֵנָט consideredנחשב
more than 3,000 billsשטרות
53
157200
2656
הסנאט שקל יותר מ -3,000 הצעות חוק
02:51
and they approvedאושר more than 300 lawsחוקי.
54
159880
2808
והם אישרו יותר מ -300 חוקים.
02:54
Those would be manyרב decisionsהחלטות
55
162712
1579
אלו הן הרבה החלטות
02:56
that eachכל אחד personאדם would have to make a weekשָׁבוּעַ
56
164315
2187
שכל אדם יצטרך לקבל בשבוע
02:58
on topicsנושאים that they know little about.
57
166526
2142
על נושאים שהם יודעים עליהם מעט.
03:01
So there's a bigגָדוֹל cognitiveקוגניטיבית
bandwidthרוחב פס problemבְּעָיָה
58
169229
2281
אז יש בעיה קוגניטיבית גדולה של רוחב פס
03:03
if we're going to try to think about
directישיר democracyדֵמוֹקרָטִיָה as a viableבַּר חַיִים alternativeחֲלוּפָה.
59
171534
3992
אם ננסה לחשוב על דמוקרטיה ישירה
כעל אלטרנטיבה ברת קיימא
03:08
So some people think about the ideaרַעְיוֹן
of liquidנוזל democracyדֵמוֹקרָטִיָה, or fluidנוֹזֵל democracyדֵמוֹקרָטִיָה,
60
176205
4435
אז כמה אנשים חושבים על הרעיון
של דמוקרטיה נוזלית, או דמוקרטיה גמישה,
03:12
whichאיזה is the ideaרַעְיוֹן that you endorseלְאַשֵׁר
your politicalפּוֹלִיטִי powerכּוֹחַ to someoneמִישֶׁהוּ,
61
180664
3776
שזה הרעיון שאתה מסב את
הכוח הפוליטי שלך למישהו,
03:16
who can endorseלְאַשֵׁר it to someoneמִישֶׁהוּ elseאַחֵר,
62
184464
1700
שיכול להסב אותו למישהו אחר,
03:18
and, eventuallyבסופו של דבר, you createלִיצוֹר
a largeגָדוֹל followerחָסִיד networkרֶשֶׁת
63
186188
2541
ובסופו של דבר, אתה יוצר רשת תומכים גדולה
03:20
in whichאיזה, at the endסוֹף, there's a fewמְעַטִים people
that are makingהֲכָנָה decisionsהחלטות
64
188753
3294
שבה בסופו של דבר, ישנם מעט אנשים
שמקבלים את ההחלטות
03:24
on behalfמטעם of all of theirשֶׁלָהֶם followersעוקבים
and theirשֶׁלָהֶם followersעוקבים.
65
192071
3143
בשם כל תומכיהם והחסידים שלהם.
03:28
But this ideaרַעְיוֹן alsoגַם doesn't solveלִפְתוֹר
the problemבְּעָיָה of the cognitiveקוגניטיבית bandwidthרוחב פס
66
196326
4129
אבל גם רעיון זה אינו פותר את
בעיית רוחב הפס הקוגניטיבי
03:32
and, to be honestיָשָׁר, it's alsoגַם quiteדַי similarדוֹמֶה
to the ideaרַעְיוֹן of havingשיש a representativeנציג.
67
200479
3877
ולמען האמת, זה גם די דומה לרעיון של נציג.
03:36
So what I'm going to do todayהיום is
I'm going to be a little bitbit provocativeפּרוֹבוֹקָטִיבִי,
68
204795
3468
אז היום אני הולך להיות קצת פרובוקטיבי,
03:40
and I'm going to askלִשְׁאוֹל you, well:
69
208277
2300
ואני עומד לשאול אתכם, טוב:
03:42
What if, insteadבמקום זאת of tryingמנסה
to bypassלַעֲקוֹף politiciansפוליטיקאים,
70
210601
6562
מה אם, במקום לנסות לעקוף פוליטיקאים,
03:49
we triedניסה to automateלְמַכֵּן them?
71
217187
2200
ננסה לאִטְמֵט אותם?
03:57
The ideaרַעְיוֹן of automationאוטומציה is not newחָדָשׁ.
72
225871
2926
הרעיון של אוטומציה אינו חדש.
04:00
It was startedהתחיל more than 300 yearsשנים agoלִפנֵי,
73
228821
2080
זה התחיל לפני יותר מ -300 שנה,
04:02
when Frenchצָרְפָתִית weaversאורגים decidedהחליט
to automateלְמַכֵּן the loomנוֹל.
74
230925
3068
כאשר האורגים הצרפתיים החליטו
להפוך את הנול לאוטומטי.
04:06
The winnerזוֹכֵה of that industrialתַעֲשִׂיָתִי warמִלחָמָה
was Joseph-Marieז'וזף מרי Jacquardאקארד.
75
234820
4360
המנצח במלחמה התעשייתית
היה ג'וזף-מארי ז'אקארד.
04:11
He was a Frenchצָרְפָתִית weaverאוֹרֵג and merchantסוֹחֵר
76
239204
1751
הוא היה אורג צרפתי וסוחר
04:12
that marriedנָשׂוּי the loomנוֹל
with the steamקִיטוֹר engineמנוע
77
240979
2440
ששידך את הנול עם מנוע הקיטור
04:15
to createלִיצוֹר autonomousאוטונומי loomsנולים.
78
243443
2190
כדי ליצור נולים אוטונומיים.
04:17
And in those autonomousאוטונומי loomsנולים,
he gainedזכה controlלִשְׁלוֹט.
79
245657
2753
ובנולים אוטונומיים אלה, הוא זכה לשליטה.
04:20
He could now make fabricsבדים that were
more complexמורכב and more sophisticatedמתוחכם
80
248434
3885
עכשיו הוא יכול היה לייצר בדים
מורכבים יותר ומתוחכמים יותר
04:24
than the onesיחידות they
were ableיכול to do by handיד.
81
252343
2128
מאשר אלה שהיו מסוגלים לייצר ביד.
04:27
But alsoגַם, by winningלנצח that industrialתַעֲשִׂיָתִי warמִלחָמָה,
82
255193
2632
אבל גם, בעזרת נצחון המלחמה התעשייתית,
04:29
he laidמוּנָח out what has becomeהפכו
the blueprintתכנית of automationאוטומציה.
83
257849
3524
הוא יסד את מה שהפך להיות
תוכנית האב של האוטומציה.
04:34
The way that we automateלְמַכֵּן things
for the last 300 yearsשנים
84
262135
2870
האופן שבו אנו מְאֻטְמָטִים דברים
ב-300 השנים האחרונות
04:37
has always been the sameאותו:
85
265029
1382
תמיד היה זהה:
04:39
we first identifyלזהות a need,
86
267006
2509
תחילה אנו מזהים צורך,
04:41
then we createלִיצוֹר a toolכְּלִי
to satisfyלְסַפֵּק that need,
87
269539
3184
ואז אנחנו יוצרים כלי שיספק את הצורך,
04:44
like the loomנוֹל, in this caseמקרה,
88
272747
2040
כמו הנול, במקרה הזה,
04:46
and then we studyלימוד how people use that toolכְּלִי
89
274811
2391
ואז אנו לומדים כיצד אנשים משתמשים בכלי זה
04:49
to automateלְמַכֵּן that userמִשׁתַמֵשׁ.
90
277226
1485
כדי לאטמט את המשתמש הזה .
04:51
That's how we cameבא
from the mechanicalמֵכָנִי loomנוֹל
91
279242
3061
כך הגענו מהנול המכני
04:54
to the autonomousאוטונומי loomנוֹל,
92
282327
1896
אל הנול האוטונומי,
04:56
and that tookלקח us a thousandאלף yearsשנים.
93
284247
2120
וזה לקח לנו אלף שנים.
04:58
Now, it's takenנלקח us only a hundredמֵאָה yearsשנים
94
286391
2071
עכשיו, זה לקח לנו רק מאה שנים
05:00
to use the sameאותו scriptתַסרִיט
to automateלְמַכֵּן the carאוטו.
95
288486
3211
כדי להשתמש באותו תסריט
כדי להפוך את המכונית לאוטומטית.
05:05
But the thing is that, this time around,
96
293286
2452
אבל העניין הוא, שהפעם,
05:07
automationאוטומציה is kindסוג of for realאמיתי.
97
295762
2129
אוטומציה היא סוג של דבר אמיתי.
05:09
This is a videoוִידֵאוֹ that a colleagueעמית of mineשלי
from Toshibaטושיבה sharedמְשׁוּתָף with me
98
297915
3321
זהו וידאו שעמית שלי מטושיבה שיתף איתי
05:13
that showsמופעים the factoryבית חרושת
that manufacturesמייצרת solidמוצק stateמדינה drivesכוננים.
99
301260
3259
שמראה את המפעל שמייצר כוננים קשיחים שבביים
05:16
The entireשלם factoryבית חרושת is a robotרוֹבּוֹט.
100
304543
2018
כל המפעל הוא רובוט.
05:18
There are no humansבני אנוש in that factoryבית חרושת.
101
306585
1925
אין בני אדם במפעל הזה.
05:21
And the robotsרובוטים are soonבקרוב
to leaveלעזוב the factoriesבתי חרושת
102
309033
2221
והרובוטים יצאו בקרוב מהמפעלים
05:23
and becomeהפכו partחֵלֶק of our worldעוֹלָם,
103
311278
2022
ויהפכו להיות חלק מהעולם שלנו,
05:25
becomeהפכו partחֵלֶק of our workforceכוח עבודה.
104
313324
1835
יהפכו להיות חלק מכוח העבודה שלנו.
05:27
So what I do in my day jobעבודה
105
315183
1773
אז מה שאני עושה בעבודת יומי
05:28
is actuallyלמעשה createלִיצוֹר toolsכלים that integrateלשלב
dataנתונים for entireשלם countriesמדינות
106
316980
3992
זה למעשה יוצר כלים שישלבו
נתונים עבור מדינות שלמות
05:32
so that we can ultimatelyבסופו של דבר have
the foundationsיסודות that we need
107
320996
3466
כדי שבסופו של דבר יהיו לנו
היסודות שאנחנו צריכים
05:36
for a futureעתיד in whichאיזה we need
to alsoגַם manageלנהל those machinesמכונה.
108
324486
3687
עבור עתיד שבו נצטרך גם
לנהל את המכונות האלו.
05:41
But todayהיום, I'm not here
to talk to you about these toolsכלים
109
329195
2906
אבל היום, אני לא כאן
כדי לדבר איתכם על כלים אלה
05:44
that integrateלשלב dataנתונים for countriesמדינות.
110
332125
1824
שמשלבים נתונים עבור מדינות.
05:46
But I'm here to talk to you
about anotherאַחֵר ideaרַעְיוֹן
111
334463
2622
אלא אני כאן כדי לדבר איתכם על רעיון אחר
05:49
that mightאולי help us think about how to use
artificialמְלָאכוּתִי intelligenceאינטליגנציה in democracyדֵמוֹקרָטִיָה.
112
337109
4865
שעשוי לעזור לנו לחשוב איך
להשתמש בבינה מלאכותית בדמוקרטיה.
05:53
Because the toolsכלים that I buildלִבנוֹת
are designedמְעוּצָב for executiveמְנַהֵל decisionsהחלטות.
113
341998
4733
משום שהכלים שאני בונה
מעוצבים עבור החלטות מנהלים.
05:58
These are decisionsהחלטות that can be castללהק
in some sortסוג of termטווח of objectivityאוֹבּיֶקטִיבִיוּת --
114
346755
3842
אלו החלטות שניתן להטיל
בסוג מסוים של אובייקטיביות --
06:02
publicפּוּמְבֵּי investmentהַשׁקָעָה decisionsהחלטות.
115
350621
1745
החלטות בנושא השקעה ציבורית.
06:04
But there are decisionsהחלטות
that are legislativeחקיקה,
116
352885
2631
אבל יש החלטות שהן תחוקתיות,
06:07
and these decisionsהחלטות that are legislativeחקיקה
requireלִדרוֹשׁ communicationתִקשׁוֹרֶת amongבין people
117
355540
3787
והחלטות תחוקתיות אלו
מצריכות תקשורת בין אנשים
06:11
that have differentשונה pointsנקודות of viewנוף,
118
359351
1700
בעלי נקודות מבט שונות,
06:13
requireלִדרוֹשׁ participationהִשׁתַתְפוּת, requireלִדרוֹשׁ debateעימות,
119
361075
2613
ומצריכות השתתפות, מצריכות דיונים,
06:15
requireלִדרוֹשׁ deliberationדִיוּן.
120
363712
1478
מצריכות דיון מעמיק.
06:18
And for a long time,
we have thought that, well,
121
366241
2804
ובמשך זמן רב, חשבנו,
06:21
what we need to improveלְשַׁפֵּר democracyדֵמוֹקרָטִיָה
is actuallyלמעשה more communicationתִקשׁוֹרֶת.
122
369069
3460
שמה שנחוץ לנו כדי לשפר
את הדמוקרטיה זה למעשה יותר תקשורת.
06:24
So all of the technologiesטכנולוגיות that we have
advancedמִתקַדֵם in the contextהֶקשֵׁר of democracyדֵמוֹקרָטִיָה,
123
372553
3709
אז כל הטכנולוגיות שקידמנו
בהקשר של דמוקרטיה,
06:28
whetherהאם they are newspapersעיתונים
or whetherהאם it is socialחֶברָתִי mediaכְּלֵי תִקְשׁוֹרֶת,
124
376286
2778
בין אם בעיתונים או במדיה חברתית,
06:31
have triedניסה to provideלְסַפֵּק us
with more communicationתִקשׁוֹרֶת.
125
379088
2382
ניסו לספק לנו יותר תקשורת.
06:34
But we'veיש לנו been down that rabbitארנב holeחור,
126
382103
1822
אך כבר היינו במורד מחילת הארנב
06:35
and we know that's not
what's going to solveלִפְתוֹר the problemבְּעָיָה.
127
383949
2748
ואנחנו יודעים שזה לא מה שיפתור את הבעיה.
06:38
Because it's not a communicationתִקשׁוֹרֶת problemבְּעָיָה,
128
386721
1996
כי זה לא בעייה של תקשורת,
06:40
it's a cognitiveקוגניטיבית bandwidthרוחב פס problemבְּעָיָה.
129
388741
1748
זוהי בעיית רוחב פס קוגניטיבי.
06:42
So if the problemבְּעָיָה is one
of cognitiveקוגניטיבית bandwidthרוחב פס,
130
390513
2366
אז אם הבעיה היא של רוחב פס קוגניטיבי,
06:44
well, addingמוֹסִיף more communicationתִקשׁוֹרֶת to people
131
392903
2587
הוספה של יותר תקשורת לאנשים
06:47
is not going to be
what's going to solveלִפְתוֹר it.
132
395514
2744
לא הולכת לפתור אותה.
06:50
What we are going to need insteadבמקום זאת
is to have other technologiesטכנולוגיות
133
398282
3113
מה שנצטרך במקום זה, שיהיו
טכנולוגיות אחרות
06:53
that help us dealעִסקָה with
some of the communicationתִקשׁוֹרֶת
134
401419
3046
שיעזרו לנו להתמודד עם חלק מהתקשורת
06:56
that we are overloadedעמוסות with.
135
404489
2242
שאנחנו עמוסים איתה.
06:58
Think of, like, a little avatarגִלגוּל,
136
406755
1699
חישבו על משהו במקצת כמו אווטאר,
07:00
a softwareתוֹכנָה agentסוֹכֵן,
137
408478
1339
סוכן תוכנה,
07:01
a digitalדִיגִיטָלי Jiminyג 'ימיני Cricketקרִיקֶט --
138
409841
1878
ג'ימיני הצרצר (מפינוקיו) דיגיטלי --
07:03
(Laughterצחוק)
139
411743
1238
(צחוק)
07:05
that basicallyבעיקרון is ableיכול
to answerתשובה things on your behalfמטעם.
140
413005
4012
שבעצם מסוגל לענות על דברים בשמכם.
07:09
And if we had that technologyטֶכנוֹלוֹגִיָה,
141
417759
1787
ואם היתה לנו הטכנולוגיה הזאת,
07:11
we would be ableיכול to offloadoffload
some of the communicationתִקשׁוֹרֶת
142
419570
2478
היינו יכולים לפרוק מעלינו חלק מהתקשורת
07:14
and help, maybe, make better decisionsהחלטות
or decisionsהחלטות at a largerיותר גדול scaleסוּלָם.
143
422072
4147
שתעזור, אולי, לקבל החלטות טובות יותר
או החלטות בקנה מידה גדול יותר.
07:18
And the thing is that the ideaרַעְיוֹן
of softwareתוֹכנָה agentsסוכנים is alsoגַם not newחָדָשׁ.
144
426860
3719
וגם הרעיון של סוכני תוכנה אינו חדש.
07:22
We alreadyכְּבָר use them all the time.
145
430603
2109
אנחנו כבר משתמשים בהם כל הזמן.
07:25
We use softwareתוֹכנָה agentsסוכנים
146
433216
1521
אנו משתמשים בסוכני תוכנה
07:26
to chooseבחר the way that we're going
to driveנהיגה to a certainמסוים locationמקום,
147
434761
3675
כדי לבחור את הדרך בה אנו רוצים
לנסוע למקום מסוים,
07:31
the musicמוּסִיקָה that we're going to listen to
148
439070
2101
את המוזיקה שאנו רוצים להקשיב לה
07:33
or to get suggestionsהצעות
for the nextהַבָּא booksספרים that we should readלקרוא.
149
441758
3021
או לקבל הצעות לספרים שאנו צריכים לקרוא.
07:37
So there is an obviousברור ideaרַעְיוֹן
in the 21stרחוב centuryמֵאָה
150
445994
2574
אז יש רעיון ברור במאה ה 21
07:40
that was as obviousברור as the ideaרַעְיוֹן
151
448592
2643
שהיה ברור כמו הרעיון
07:43
of puttingלשים togetherיַחַד a steamקִיטוֹר engineמנוע
with a loomנוֹל at the time of Jacquardאקארד.
152
451259
5581
של שילוב מנוע קיטור
עם נול בזמנו של ז'קארד.
07:49
And that ideaרַעְיוֹן is combiningשילוב
directישיר democracyדֵמוֹקרָטִיָה with softwareתוֹכנָה agentsסוכנים.
153
457538
4456
והרעיון הזה הוא שילוב
דמוקרטיה ישירה עם סוכני תוכנה.
07:54
Imagineלדמיין, for a secondשְׁנִיָה, a worldעוֹלָם
154
462849
2121
תארו לעצמכם לרגע, עולם
07:56
in whichאיזה, insteadבמקום זאת of havingשיש
a representativeנציג that representsמייצג you
155
464994
3166
שבו, במקום שיש נציג שמייצג אתכם
08:00
and millionsמיליונים of other people,
156
468184
1574
ומיליונים של אנשים אחרים,
08:01
you can have a representativeנציג
that representsמייצג only you,
157
469782
3036
יכול להיות לכם נציג שמייצג רק אתכם
08:05
with your nuancedניואנס politicalפּוֹלִיטִי viewsתצוגות --
158
473504
2254
עם ההשקפה הפוליטית שלכם --
08:07
that weirdמְשׁוּנֶה combinationקוֹמבִּינַצִיָה
of libertarianליברטי and liberalלִיבֵּרָלִי
159
475782
3344
הקומבינציה המוזרה של ליברטריאן וליברלי
08:11
and maybe a little bitbit
conservativeשמרני on some issuesנושאים
160
479150
2392
ואולי מעט שמרן בנושאים מסוימים
08:13
and maybe very progressiveפּרוֹגרֵסִיבִי on othersאחרים.
161
481566
2108
ואולי מאוד פרוגרסיבי באחרים.
08:15
Politiciansפוליטיקאים nowadaysכַּיוֹם are packagesחבילות,
and they're fullמלא of compromisesפשרות.
162
483698
3267
פוליטיקאים היום הם מארזים,
והם מלאים בפשרות.
08:18
But you mightאולי have someoneמִישֶׁהוּ
that can representלְיַצֵג only you,
163
486989
3634
אבל אולי יהיה לכם מישהו שמייצג רק אתכם,
08:22
if you are willingמוּכָן to give up the ideaרַעְיוֹן
164
490647
1852
אם תהיו מוכנים לוותר על הרעיון
08:24
that that representativeנציג is a humanבן אנוש.
165
492523
2249
שהנציג הזה הוא אנושי.
08:27
If that representativeנציג
is a softwareתוֹכנָה agentסוֹכֵן,
166
495229
2082
אם נציג זה הוא סוכן תוכנה,
08:29
we could have a senateסֵנָט that has
as manyרב senatorsסנטורים as we have citizensאזרחים.
167
497335
4170
היה יכול להיות לנו סנאט עם מס.
סנטורים זהה למס. האזרחים.
08:33
And those senatorsסנטורים are going to be ableיכול
to readלקרוא everyכֹּל billשטר כסף
168
501529
2858
וסנטורים אלה יהיו מסוגלים
לקרוא כל הצעת חוק
08:36
and they're going to be ableיכול
to voteהַצבָּעָה on eachכל אחד one of them.
169
504411
2747
והם יהיו מסוגלים להצביע על כל אחת מהן.
08:39
So there's an obviousברור ideaרַעְיוֹן
that maybe we want to considerלשקול.
170
507822
2956
אז יש רעיון ברור שאולי נרצה לחשוב עליו.
08:42
But I understandמבין that in this day and ageגיל,
171
510802
2422
אבל אני מבין שביום זה ובתקופה הזו,
08:45
this ideaרַעְיוֹן mightאולי be quiteדַי scaryמַפְחִיד.
172
513248
1889
הרעיון הזה יכול להישמע די מפחיד.
08:48
In factעוּבדָה, thinkingחושב of a robotרוֹבּוֹט
comingמגיע from the futureעתיד
173
516391
3440
למעשה, לחשוב על רובוט שמגיע מהעתיד
08:51
to help us runלָרוּץ our governmentsממשלות
174
519855
1673
לעזור לנו לנהל את הממשלות שלנו
08:53
soundsקולות terrifyingמפחיד.
175
521552
1631
נשמע מפחיד.
08:56
But we'veיש לנו been there before.
176
524223
1651
אבל היינו שם כבר קודם.
08:57
(Laughterצחוק)
177
525898
1273
(צחוק)
08:59
And actuallyלמעשה he was quiteדַי a niceנֶחְמָד guy.
178
527195
2495
ולמעשה הוא היה ברנש די נחמד.
09:03
So what would the Jacquardאקארד loomנוֹל
versionגִרְסָה of this ideaרַעְיוֹן look like?
179
531677
6434
אז איך תיראה גרסת הנול
של ז'קארד של הרעיון הזה?
09:10
It would be a very simpleפָּשׁוּט systemמערכת.
180
538135
1901
זו תהיה מערכת מאוד פשוטה.
09:12
Imagineלדמיין a systemמערכת that you logעֵץ in
and you createלִיצוֹר your avatarגִלגוּל,
181
540060
3458
דמיינו מערכת שאתם נכנסים אליה
ויוצרים את האווטאר שלכם
09:15
and then you're going
to startהַתחָלָה trainingהַדְרָכָה your avatarגִלגוּל.
182
543542
2456
ואז אתם תתחילו לאמן את האווטאר שלכם.
09:18
So you can provideלְסַפֵּק your avatarגִלגוּל
with your readingקריאה habitsהרגל,
183
546022
2682
כך תוכלו להקנות לאווטאר שלכם
את הרגלי הקריאה שלכם,
09:20
or connectלְחַבֵּר it to your socialחֶברָתִי mediaכְּלֵי תִקְשׁוֹרֶת,
184
548728
1861
או לחבר אותו למדיה החברתית שלכם,
09:22
or you can connectלְחַבֵּר it to other dataנתונים,
185
550613
2408
או שתוכלו לחבר אותו לנתונים אחרים,
09:25
for exampleדוגמא by takingלְקִיחָה
psychologicalפְּסִיכוֹלוֹגִי testsבדיקות.
186
553045
2272
למשל לעבור מבחנים פסיכולוגיים.
09:27
And the niceנֶחְמָד thing about this
is that there's no deceptionהונאה.
187
555341
2968
והדבר היפה בזה הוא שאין כאן הונאה.
09:30
You are not providingמתן dataנתונים to communicateלתקשר
with your friendsחברים and familyמִשׁפָּחָה
188
558333
3339
אינכם מספקים נתונים כדי לתקשר
עם חברים שלכם ובני משפחה
09:33
that then getsמקבל used in a politicalפּוֹלִיטִי systemמערכת.
189
561696
3151
שישמשו אחר כך במערכת פוליטית.
09:36
You are providingמתן dataנתונים to a systemמערכת
that is designedמְעוּצָב to be used
190
564871
3704
אתם מספקים נתונים למערכת שנועדה לשמש
09:40
to make politicalפּוֹלִיטִי decisionsהחלטות
on your behalfמטעם.
191
568599
2116
כדי לקבל החלטות פוליטיות בשמכם.
09:43
Then you take that dataנתונים and you chooseבחר
a trainingהַדְרָכָה algorithmאַלגוֹרִיתְם,
192
571264
3980
ואז אתם לוקחים את הנתונים
האלה ובוחרים אלגוריתם הדרכה,
09:47
because it's an openלִפְתוֹחַ marketplaceשוק
193
575268
1563
משום שזה שוק פתוח
09:48
in whichאיזה differentשונה people
can submitשלח differentשונה algorithmsאלגוריתמים
194
576855
2786
שבו אנשים שונים יכולים להגיש
אלגוריתמים שונים
09:51
to predictלַחֲזוֹת how you're going to voteהַצבָּעָה,
basedמבוסס on the dataנתונים you have providedבתנאי.
195
579665
4394
כדי לחזות איך אתם הולכים להצביע
בהתבסס על הנתונים שסיפקתם.
09:56
And the systemמערכת is openלִפְתוֹחַ,
so nobodyאף אחד controlsשולטת the algorithmsאלגוריתמים;
196
584083
3455
והמערכת פתוחה, כך שאף אחד לא
שולט באלגוריתמים;
09:59
there are algorithmsאלגוריתמים
that becomeהפכו more popularפופולרי
197
587562
2112
יש אלגוריתמים שהופכים יותר פופולריים
10:01
and othersאחרים that becomeהפכו lessפָּחוּת popularפופולרי.
198
589698
1723
ואחרים שהופכים פחות פופולריים.
10:03
Eventuallyבסופו של דבר, you can auditבְּדִיקָה the systemמערכת.
199
591445
1807
בסופו של דבר, תוכלו לבדוק את המערכת
10:05
You can see how your avatarגִלגוּל is workingעובד.
200
593276
1881
אתם יכולים לראות איך האווטאר שלכם עובד.
10:07
If you like it,
you can leaveלעזוב it on autopilotטייס אוטומטי.
201
595181
2152
אם תרצו תוכלו להשאיר אותו על טייס אוטומטי.
10:09
If you want to be
a little more controllingשליטה,
202
597357
2062
אם אתם רוצים קצת יותר שליטה,
10:11
you can actuallyלמעשה chooseבחר that they askלִשְׁאוֹל you
203
599443
1968
אתם יכולים למעשה לבחור שהם ישאלו אתכם
10:13
everyכֹּל time they're going
to make a decisionהַחְלָטָה,
204
601435
2068
בכל פעם שהם עומדים לקבל החלטה,
10:15
or you can be anywhereבְּכָל מָקוֹם in betweenבֵּין.
205
603527
1635
או שתוכלו להיות במקום כלשהו באמצע.
10:17
One of the reasonsסיבות
why we use democracyדֵמוֹקרָטִיָה so little
206
605186
2405
אחת הסיבות לכך שאנו
משתמשים כל כך מעט בדמוקרטיה
10:19
mayמאי be because democracyדֵמוֹקרָטִיָה
has a very badרַע userמִשׁתַמֵשׁ interfaceמִמְשָׁק.
207
607615
3568
יכולה להיות, כי לדמוקרטיה
יש ממשק משתמש רע מאוד.
10:23
And if we improveלְשַׁפֵּר the userמִשׁתַמֵשׁ
interfaceמִמְשָׁק of democracyדֵמוֹקרָטִיָה,
208
611207
2483
ואם נשפר את ממשק המשתמש של הדמוקרטיה,
10:25
we mightאולי be ableיכול to use it more.
209
613714
2127
ייתכן שנוכל להשתמש בו יותר.
10:28
Of courseקוּרס, there's a lot of questionsשאלות
that you mightאולי have.
210
616452
3207
כמובן שיכולות להיות לכם הרבה שאלות.
10:32
Well, how do you trainרכבת these avatarsאווטרים?
211
620473
2161
ובכן, איך אתם מאמנים את האווטארים האלה?
10:34
How do you keep the dataנתונים secureלבטח?
212
622658
1894
איך אתם שומרים את הנתונים מאובטחים?
10:36
How do you keep the systemsמערכות
distributedמופץ and auditableניתנות?
213
624576
3248
איך אתם שומרים את המערכות
מבוזרות וניתנות לביקורת?
10:39
How about my grandmotherסַבתָא,
who'sמי זה 80 yearsשנים oldישן
214
627848
2062
מה עם סבתא שלי, בת ה-80
10:41
and doesn't know how to use the internetאינטרנט?
215
629946
1960
שאינה יודעת איך להשתמש באינטרנט?
10:44
Trustאמון me, I've heardשמע them all.
216
632262
2221
האמינו לי, שמעתי את כולם.
10:46
So when you think about an ideaרַעְיוֹן like this,
you have to bewareלְהִזָהֵר of pessimistsפסימיסטים
217
634507
4560
אז כשחושבים על רעיון כזה,
צריך להיזהר מפסימיסטים
10:51
because they are knownידוע to have
a problemבְּעָיָה for everyכֹּל solutionפִּתָרוֹן.
218
639091
4319
כי הם ידועים כמי שיש להם
בעיה עבור כל פתרון.
10:55
(Laughterצחוק)
219
643434
1825
(צחוק)
10:57
So I want to inviteלהזמין you to think
about the biggerגדול יותר ideasרעיונות.
220
645283
3040
אז אני רוצה להזמין אתכם לחשוב
על הרעיונות היותר גדולים.
11:00
The questionsשאלות I just showedparagraphs you
are little ideasרעיונות
221
648347
3626
השאלות שהצגתי בפניכם הן רעיונות קטנים
11:03
because they are questionsשאלות
about how this would not work.
222
651997
2902
כי הן שאלות על איך זה לא יעבוד.
11:07
The bigגָדוֹל ideasרעיונות are ideasרעיונות of:
223
655502
1981
הרעיונות הגדולים הם רעיונות של:
11:09
What elseאַחֵר can you do with this
224
657507
1807
מה עוד תוכלו לעשות עם זה
11:11
if this would happenלִקְרוֹת to work?
225
659338
1889
אם זה כן יוכל לעבוד?
11:13
And one of those ideasרעיונות is,
well, who writesכותב the lawsחוקי?
226
661774
3445
ואחד הרעיונות האלה הוא,
ובכן, מי כותב את החוקים?
11:17
In the beginningהתחלה, we could have
the avatarsאווטרים that we alreadyכְּבָר have,
227
665854
4223
בהתחלה, יכלו האווטארים שיש לנו כבר
11:22
votingהַצבָּעָה on lawsחוקי that are writtenכתוב
by the senatorsסנטורים or politiciansפוליטיקאים
228
670101
3497
להצביע על חוקים שנכתבים
על ידי הסנטורים או הפוליטיקאים
11:25
that we alreadyכְּבָר have.
229
673622
1351
שכבר יש לנו.
11:27
But if this were to work,
230
675491
1714
אבל כדי שזה יעבוד,
11:29
you could writeלִכתוֹב an algorithmאַלגוֹרִיתְם
231
677902
2350
תוכלו לכתוב אלגוריתם
11:32
that could try to writeלִכתוֹב a lawחוֹק
232
680276
2150
שיכול לנסות לכתוב חוק
11:34
that would get a certainמסוים
percentageאֲחוּזִים of approvalהסכמה,
233
682450
2421
שיקבל אחוז מסוים של אישורים,
11:36
and you could reverseלַהֲפוֹך the processתהליך.
234
684895
1782
ויכולתם להפוך את התהליך.
11:38
Now, you mightאולי think that this ideaרַעְיוֹן
is ludicrousמְגוּחָך and we should not do it,
235
686701
3512
עכשיו, אתם עשויים לחשוב שרעיון זה
מגוחך ושאנחנו לא צריכים לעשות את זה,
11:42
but you cannotלא יכול denyלְהַכּחִישׁ that it's an ideaרַעְיוֹן
that is only possibleאפשרי
236
690237
2786
אבל אתם לא יכולים להכחיש
שזה רעיון שאפשרי רק
11:45
in a worldעוֹלָם in whichאיזה directישיר democracyדֵמוֹקרָטִיָה
and softwareתוֹכנָה agentsסוכנים
237
693047
3020
בעולם שבו דמוקרטיה ישירה וסוכני תוכנה
11:48
are a viableבַּר חַיִים formטופס of participationהִשׁתַתְפוּת.
238
696091
2656
הם צורה ישומית של השתתפות,
11:52
So how do we startהַתחָלָה the revolutionמַהְפֵּכָה?
239
700596
2753
אז איך אנחנו מתחילים את המהפכה?
11:56
We don't startהַתחָלָה this revolutionמַהְפֵּכָה
with picketמשמרת fencesגדרות or protestsמחאות
240
704238
3310
איננו מתחילים את המהפכה הזאת
עם מחאות או השבתות
11:59
or by demandingתוֹבְעָנִי our currentנוֹכְחִי politiciansפוליטיקאים
to be changedהשתנה into robotsרובוטים.
241
707572
4190
או בדרישה שהפוליטיקאים
הנוכחיים שלנו יהפכו לרובוטים.
12:03
That's not going to work.
242
711786
1549
זה לא יעבוד.
12:05
This is much more simpleפָּשׁוּט,
243
713359
1612
זה הרבה יותר פשוט,
12:06
much slowerאיטי יותר
244
714995
1159
הרבה יותר איטי
12:08
and much more humbleצנוע.
245
716178
1414
והרבה יותר צנוע.
12:09
We startהַתחָלָה this revolutionמַהְפֵּכָה by creatingיוצר
simpleפָּשׁוּט systemsמערכות like this in gradגראד schoolsבתי ספר,
246
717616
4349
אנו מתחילים את המהפכה הזאת
ביצירת מערכות פשוטות כמו זו
12:13
in librariesספריות, in nonprofitsעמותות.
247
721989
2094
בבתי"ס להשכלה גבוהה,בספריות, ובמלכ"רים.
12:16
And we try to figureדמות out
all of those little questionsשאלות
248
724107
2654
ואנו מנסים להבין את כל השאלות הקטנות האלו
12:18
and those little problemsבעיות
249
726785
1221
ואת הבעיות הקטנות האלו
12:20
that we're going to have to figureדמות out
to make this ideaרַעְיוֹן something viableבַּר חַיִים,
250
728030
3901
שנצטרך להבין כדי להפוך את
הרעיון הזה למשהו בר קיימא,
12:23
to make this ideaרַעְיוֹן something
that we can trustאמון.
251
731955
2351
כדי להפוך את הרעיון הזה
למשהו שנוכל לסמוך עליו.
12:26
And as we createלִיצוֹר those systemsמערכות that have
a hundredמֵאָה people, a thousandאלף people,
252
734330
3635
וכאשר אנו יוצרים אותן מערכות
שיש להן מאה איש, אלף איש,
12:29
a hundredמֵאָה thousandאלף people votingהַצבָּעָה
in waysדרכים that are not politicallyפוליטית bindingכריכה,
253
737989
3770
מאה אלף איש שמצביעים
בדרכים שאינן מחייבות פוליטית,
12:33
we're going to developלְפַתֵחַ trustאמון in this ideaרַעְיוֹן,
254
741783
2018
אנו הולכים לפתח אמון ברעיון הזה,
12:35
the worldעוֹלָם is going to changeשינוי,
255
743825
1519
העולם עומד להשתנות,
12:37
and those that are as little
as my daughterבַּת is right now
256
745368
2875
ואלה שהם קטנים כמו הבת שלי עכשיו
12:40
are going to growלגדול up.
257
748267
1337
יגדלו.
12:42
And by the time my daughterבַּת is my ageגיל,
258
750580
2369
וכאשר הבת שלי תהיה בגילי,
12:44
maybe this ideaרַעְיוֹן, that I know
todayהיום is very crazyמְטוּרָף,
259
752973
4436
אולי הרעיון הזה, שאני יודע
שהיום הוא מטורף מאוד,
12:49
mightאולי not be crazyמְטוּרָף to her
and to her friendsחברים.
260
757433
4134
עשוי לא להיראות מטורף בעיניה ובעיני חבריה.
12:53
And at that pointנְקוּדָה,
261
761956
1837
ובנקודה זו,
12:55
we will be at the endסוֹף of our historyהִיסטוֹרִיָה,
262
763817
2603
אנחנו נהיה בסופה של ההיסטוריה שלנו,
12:58
but they will be
at the beginningהתחלה of theirsשֶׁלָהֶם.
263
766444
2821
אבל הם יהיו בתחילת שלהם.
13:01
Thank you.
264
769646
1183
תודה.
13:02
(Applauseתְשׁוּאוֹת)
265
770853
3042
(מחיאות כפיים)
Translated by zeeva Livshitz
Reviewed by Ido Dekkers

▲Back to top

ABOUT THE SPEAKER
César Hidalgo - Physicist
César Hidalgo studies how teams, cities and nations learn.

Why you should listen

César A. Hidalgo leads the Collective Learning group at The MIT Media Lab and is an associate professor of media arts and sciences at MIT. Hidalgo's work focuses on understanding how teams, organizations, cities and nations learn. At the Collective Learning group, Hidalgo develops software tools to facilitate learning in organizations. His academic publications have been cited more than 10,000 times, and his online systems, including the Observatory of Economic Complexity and DataUSA, have received more than 100 million views and numerous awards.

Hidalgo's latest book, Why Information Grows (2015), has been translated into 10+ languages. He is also the co-author of The Atlas of Economic Complexity (2014) and a co-founder of Datawheel LLC, a company that has professionalized the creation of large data visualization engines.

More profile about the speaker
César Hidalgo | Speaker | TED.com