ABOUT THE SPEAKER
César Hidalgo - Physicist
César Hidalgo studies how teams, cities and nations learn.

Why you should listen

César A. Hidalgo leads the Collective Learning group at The MIT Media Lab and is an associate professor of media arts and sciences at MIT. Hidalgo's work focuses on understanding how teams, organizations, cities and nations learn. At the Collective Learning group, Hidalgo develops software tools to facilitate learning in organizations. His academic publications have been cited more than 10,000 times, and his online systems, including the Observatory of Economic Complexity and DataUSA, have received more than 100 million views and numerous awards.

Hidalgo's latest book, Why Information Grows (2015), has been translated into 10+ languages. He is also the co-author of The Atlas of Economic Complexity (2014) and a co-founder of Datawheel LLC, a company that has professionalized the creation of large data visualization engines.

More profile about the speaker
César Hidalgo | Speaker | TED.com
TED2018

César Hidalgo: A bold idea to replace politicians

سيزار هيدالغو: اقتراح جريء لاستبدال السياسيين

Filmed:
2,044,328 views

لدى سيزار هيدالغو اقتراح ثوري لإصلاح أنظمتنا السياسية التالفة; ألا وهو أتمتتها! في هذا الحديث المثير للتساؤلات، يعرض سيزار فكرة جرئية للتخلص من السياسيين عن طريق تشجيع المواطنين على إنشاء نوابهم الشخصيين باستخدام الذكاء الاصطناعي والذين بدورهم سيشاركون مباشرة بصنع القرار السياسي. تعرف على طريقة جديدة لاتخاذ قرارات جماعية ووسع مفهومك للديمقراطية.
- Physicist
César Hidalgo studies how teams, cities and nations learn. Full bio

Double-click the English transcript below to play the video.

00:13
Is it just me,
0
1373
1744
هل أنا وحدي؟
00:15
or are there other people here
1
3141
2332
أو أن أحداً منكم أيضاً
00:17
that are a little bitقليلا
disappointedخائب الامل with democracyديمقراطية?
2
5497
2344
يجد الديمقراطيّة مخيبةً للآمال نوعاً ما؟
00:20
(Applauseتصفيق)
3
8986
2336
(تصفيق)
00:24
So let's look at a fewقليل numbersأعداد.
4
12141
2071
دعونا نطّلع على بعض الإحصائيّات
00:26
If we look acrossعبر the worldالعالمية,
5
14934
2173
إذا نظرنا حول العالم،
00:29
the medianالوسيط turnoutتحول
in presidentialرئاسي electionsانتخابات
6
17131
3892
فإنّ متوسط إقبال الناخبين
في الانتخابات الرئاسيّة،
00:33
over the last 30 yearsسنوات
7
21047
1651
خلال الثلاثين عاماً الماضية
00:34
has been just 67 percentنسبه مئويه.
8
22722
2622
لم يتجاوز الـ 67%.
00:38
Now, if we go to Europeأوروبا
9
26329
1973
وإذا ذهبنا لأوروبا،
00:40
and we look at people that participatedشارك
in EUالاتحاد الأوروبي parliamentaryبرلماني electionsانتخابات,
10
28326
4428
وقمنا بإحصاء المشاركين في انتخابات
البرلمان الأوربيّ،
00:44
the medianالوسيط turnoutتحول in those electionsانتخابات
11
32778
2071
فإنّ متوسط الإقبال في هذه الانتخابات
هو 42% فقط.
00:46
is just 42 percentنسبه مئويه.
12
34873
2104
00:50
Now let's go to Newالجديد Yorkيورك,
13
38125
1669
دعونا نذهب لنيويورك
00:51
and let's see how manyكثير people votedتم التصويت
in the last electionانتخاب for mayorعمدة.
14
39818
4681
ونرى كم شخصاً مارس حقّه الانتخابيّ
في انتخابات العمدة الآخيرة.
00:56
We will find that only
24 percentنسبه مئويه of people showedأظهر up to voteتصويت.
15
44523
3817
سنجد أنّ 24% فقط هم من شاركوا بالتصّويت.
01:01
What that meansيعني is that,
if "Friendsاصحاب" was still runningجري,
16
49063
3095
وما يعنيه هذا، هو لو أن مسلسل "فريندز"
لا يزال يعرض
01:04
Joeyجوي and maybe Phoebeفويب
would have shownأظهرت up to voteتصويت.
17
52182
3348
جوي وفيبي ربما،
هم فقط من سيدلي بصوته.
01:07
(Laughterضحك)
18
55554
1290
(ضحك)
01:09
And you cannotلا تستطيع blameلوم them
because people are tiredمتعبه of politiciansسياسة.
19
57434
4426
ولا يمكنك لوم الناس لأنّهم قد ضاقوا ذرعاً
بالسّياسييّن.
01:13
And people are tiredمتعبه of other people
usingاستخدام the dataالبيانات that they have generatedولدت
20
61884
3887
واستغلال بياناتهم الشخصيّة من قبل الآخرين،
البيانات المستخرجة من خلال تواصلهم
مع عائلاتهم وأصدقائهم
01:17
to communicateنقل with
theirهم friendsاصحاب and familyأسرة,
21
65795
2198
01:20
to targetاستهداف politicalسياسي propagandaدعاية at them.
22
68017
2094
في الترويج لبروباجندا سياسية.
01:22
But the thing about this
is that this is not newالجديد.
23
70519
2728
لكن هذه ليست مشكلة جديدة.
01:25
Nowadaysالوقت الحاضر, people use likesالإعجابات
to targetاستهداف propagandaدعاية at you
24
73271
3225
في عصرنا التقني يتم استخدام "زر الإعجاب"
لاستهدافك في حملة بروباجندا،
01:28
before they use your zipالرمز البريدي codeالشفرة
or your genderجنس or your ageعمر,
25
76520
3373
أمّا من قبل فكانوا يستخدمون رمزك البريديّ
أو جنسك أو عمرك،
01:31
because the ideaفكرة of targetingاستهداف people
with propagandaدعاية for politicalسياسي purposesالمقاصد
26
79917
3570
لأن فكرة استخدام البروباجندا لأغراض
سياسيّة،
01:35
is as oldقديم as politicsسياسة.
27
83511
1592
هي قديمة قدم السياسة نفسها
01:37
And the reasonالسبب why that ideaفكرة is there
28
85530
2278
والسبب وراء ذلك هو أن الديمقراطية لديها
عيب بسيط،
01:39
is because democracyديمقراطية
has a basicالأساسية vulnerabilityعالي التأثر.
29
87832
3472
01:43
This is the ideaفكرة of a representativeوكيل.
30
91710
1932
هذا هي فكرة النائب.
01:46
In principleالمبدأ, democracyديمقراطية is the abilityالقدرة
of people to exertبذل powerقوة.
31
94049
3944
من حيث المبدأ، فالديموقراطية هي قدرة الشعب
على ممارسة السلطة.
01:50
But in practiceيمارس, we have to delegateمندوب
that powerقوة to a representativeوكيل
32
98017
3818
لكن عملياً فنحن نقوم بتفويض السلطة للنائب
والذي يقوم بممارستها من أجلنا.
01:53
that can exertبذل that powerقوة for us.
33
101859
2255
01:56
That representativeوكيل is a bottleneckعنق الزجاجة,
34
104561
1825
هذا النائب هو عنق الزجاجة أو نقطة الضعف.
01:58
or a weakضعيف spotبقعة.
35
106410
1297
01:59
It is the placeمكان that you want to targetاستهداف
if you want to attackهجوم democracyديمقراطية
36
107731
3949
إذا أردت زعزعة الديمقراطيّة فكل ما عليك هو
أن تستهدفه،
02:03
because you can captureأسر democracyديمقراطية
by eitherإما capturingاسر that representativeوكيل
37
111704
3489
لأنّه يمكنك سلب الديمقراطيّة بطريقتين:
إما عن طريق التّحكم بهذا النّائب،
02:07
or capturingاسر the way
that people chooseأختر it.
38
115217
2148
أو التلاعب بطريقة انتخابه من قبل الشّعب.
02:10
So the bigكبير questionسؤال is:
39
118065
1416
السؤال الحاسم هنا هو:
02:11
Is this the endالنهاية of historyالتاريخ?
40
119505
1704
هل هذه هي نهاية التّاريخ؟
02:13
Is this the bestالأفضل that we can do
41
121989
3103
هل هذا هو أفضل ما بوسعنا القيام به؟
أم هناك بدائل؟
02:17
or, actuallyفعلا, are there alternativesالبدائل?
42
125878
3067
02:22
Some people have been thinkingتفكير
about alternativesالبدائل,
43
130130
2354
بعض الناس كانت تفكر ببدائل بالفعل،
02:24
and one of the ideasأفكار that is out there
is the ideaفكرة of directمباشرة democracyديمقراطية.
44
132508
3679
وأحد أفضل المقترحات هو مبدأ الديمقراطيّة
المباشرة.
02:28
This is the ideaفكرة of bypassingتجاوز
politiciansسياسة completelyتماما
45
136790
2479
هذه الفكرة تقوم على تجاوز السياسييّن
تماماً
02:31
and havingوجود people voteتصويت directlyمباشرة on issuesمسائل,
46
139293
2403
والسماح للناس بالتصويت مباشرةً في القضايا،
02:33
havingوجود people voteتصويت directlyمباشرة on billsفواتير.
47
141720
2265
التصويت المباشر في الفواتير.
لكن هذه الفكرة ساذجة،
02:36
But this ideaفكرة is naiveساذج
48
144415
1336
02:37
because there's too manyكثير things
that we would need to chooseأختر.
49
145775
3171
لأن هناك العديد من الأمور التي علينا
التصويت عليها.
02:40
If you look at the 114thعشر US Congressمؤتمر,
50
148970
2782
فلو ألقينا نظرةً على الكونجرس الأمريكي
ال114،
02:43
you will have seenرأيت that
the Houseمنزل of Representativesالنواب
51
151776
2487
ستجد أن مجلس النّواب قد ناقش
أكثر من 6000 فاتورة،
02:46
consideredاعتبر more than 6,000 billsفواتير,
52
154287
2889
02:49
the Senateمجلس الشيوخ consideredاعتبر
more than 3,000 billsفواتير
53
157200
2656
بينما مجلس الشّيوخ بدوره نظر
إلى أكثر من 3000،
02:51
and they approvedوافق more than 300 lawsقوانين.
54
159880
2808
وقاموا بالموافقة على أكثر من 300 قانون.
02:54
Those would be manyكثير decisionsقرارات
55
162712
1579
هذه قراراتٌ كثيرة على كلّ فردٍ إتخاذها
أسبوعيّاً،
02:56
that eachكل personشخص would have to make a weekأسبوع
56
164315
2187
02:58
on topicsالمواضيع that they know little about.
57
166526
2142
في مواضيع لا يعرفون الكثير عنها.
03:01
So there's a bigكبير cognitiveالإدراكي
bandwidthعرض النطاق problemمشكلة
58
169229
2281
هذا يعني أن هناك مشكلةً كبيرة في اتساع
حيز المعرفة،
03:03
if we're going to try to think about
directمباشرة democracyديمقراطية as a viableقابل للحياة alternativeلبديل.
59
171534
3992
لو كنا نفكر جديّاً بالديمقراطيّة المباشرة
كبديلٍ فعليّ.
03:08
So some people think about the ideaفكرة
of liquidسائل democracyديمقراطية, or fluidمائع democracyديمقراطية,
60
176205
4435
بينما اتجه آخرون لفكرة الديمقراطية السائلة
أو الديناميكية،
03:12
whichالتي is the ideaفكرة that you endorseتأييد
your politicalسياسي powerقوة to someoneشخصا ما,
61
180664
3776
وهي تقوم على مبدأ توكيل السّلطة السياسيّة
لشخصٍ ما،
03:16
who can endorseتأييد it to someoneشخصا ما elseآخر,
62
184464
1700
والذي بدوره يوكلها لشخص آخر،
03:18
and, eventuallyفي النهاية, you createخلق
a largeكبير followerتابع networkشبكة الاتصال
63
186188
2541
وينتهي بنا الأمر بشبكة كبيرة من الأتباع
03:20
in whichالتي, at the endالنهاية, there's a fewقليل people
that are makingصناعة decisionsقرارات
64
188753
3294
حيث يقوم قلّةٌ فقط باتخاذ القرارات
03:24
on behalfباسمى او لاجلى of all of theirهم followersمتابعون
and theirهم followersمتابعون.
65
192071
3143
بالنيابة عن مؤيّديهم وتابعي مؤيّديهم.
03:28
But this ideaفكرة alsoأيضا doesn't solveحل
the problemمشكلة of the cognitiveالإدراكي bandwidthعرض النطاق
66
196326
4129
لكنّ هذا الفكرة أيضاً لا تعالج
مشكلة حيّز المعرفة،
03:32
and, to be honestصادق, it's alsoأيضا quiteالى حد كبير similarمماثل
to the ideaفكرة of havingوجود a representativeوكيل.
67
200479
3877
وهي في الحقيقة لا تختلف كثيراً
عن انتخاب النوّاب.
03:36
So what I'm going to do todayاليوم is
I'm going to be a little bitقليلا provocativeاستفزازي,
68
204795
3468
لذا ما سأقوم به اليوم هو أن أكون
مستفزّاً قليلاً وأطرح السّؤال التالي:
03:40
and I'm going to askيطلب you, well:
69
208277
2300
03:42
What if, insteadفي حين أن of tryingمحاولة
to bypassالالتفافية politiciansسياسة,
70
210601
6562
ماذا لو بدلاً من التخّلص من السّياسييّن
حاولنا أتمتتهم نوعاً ما؟
03:49
we triedحاول to automateأتمتة them?
71
217187
2200
(صوت آلةٍ ميكانيكيّة)
03:57
The ideaفكرة of automationأتمتة is not newالجديد.
72
225871
2926
فكرة الأتمتّة ليست جديدةً بحد ذاتها.
04:00
It was startedبدأت more than 300 yearsسنوات agoمنذ,
73
228821
2080
فهي لتعود لأكثر من 3 قرون مضت،
04:02
when Frenchالفرنسية weaversالنساجون decidedقرر
to automateأتمتة the loomنول.
74
230925
3068
عندما قرر النّساجون الفرنسيّون
أتمتة عمل المنوال.
04:06
The winnerالفائز of that industrialصناعي warحرب
was Joseph-Marieجوزيف ماري Jacquardالجاكار قماش.
75
234820
4360
والفائز بهذه الحرب الصناعيّة كان
"جوزيف ماري جاكارد"
04:11
He was a Frenchالفرنسية weaverحائك and merchantتاجر
76
239204
1751
وهو تاجر ونسّاج فرنسيّ،
04:12
that marriedزوجت the loomنول
with the steamبخار engineمحرك
77
240979
2440
والذي دمج بين المنوال ومحرّك البخار
لينتج عنه منوال أوتوماتيكيّ.
04:15
to createخلق autonomousواثق من نفسه loomsيلوح في الافق.
78
243443
2190
وعن طريق المناويل الأتوماتيكيّة
اكتسب القدرة على التحكم.
04:17
And in those autonomousواثق من نفسه loomsيلوح في الافق,
he gainedاكتسبت controlمراقبة.
79
245657
2753
04:20
He could now make fabricsالأقمشة that were
more complexمركب and more sophisticatedمتطور
80
248434
3885
وبهذا أصبح بإمكانه إنتاج نسيجٍ
أكثر تعقيداً وتطوراً
04:24
than the onesمنها they
were ableقادر to do by handيد.
81
252343
2128
من النّسيج اليدويّ.
04:27
But alsoأيضا, by winningفوز that industrialصناعي warحرب,
82
255193
2632
لكن بالإضافة لفوزه بالحرب الصناعيّة،
04:29
he laidوضعت out what has becomeيصبح
the blueprintمخطط of automationأتمتة.
83
257849
3524
قام بوضع الأساس لما أصبح لاحقاً
أساس عمليّة الأتمتة.
04:34
The way that we automateأتمتة things
for the last 300 yearsسنوات
84
262135
2870
مفهوم أتمتّة الأشياء لم يتغيّر
لأكثر من 300 عام.
04:37
has always been the sameنفسه:
85
265029
1382
04:39
we first identifyتحديد a need,
86
267006
2509
في البداية نحدد الحاجة،
04:41
then we createخلق a toolأداة
to satisfyرضا that need,
87
269539
3184
ثم نخترع أداة تلبّي هذه الحاجة،
04:44
like the loomنول, in this caseقضية,
88
272747
2040
كالمنوال في هذا الحالة،
04:46
and then we studyدراسة how people use that toolأداة
89
274811
2391
ثم ندرس كيفيّة استخدام الناس للأداة
لنقوم بأتمتّة العمليّة.
04:49
to automateأتمتة that userالمستعمل.
90
277226
1485
04:51
That's how we cameأتى
from the mechanicalميكانيكي loomنول
91
279242
3061
وهكذا انتقلنا من المنوال اليدويّ
للمنوال الأتوماتيكيّ.
04:54
to the autonomousواثق من نفسه loomنول,
92
282327
1896
04:56
and that tookأخذ us a thousandألف yearsسنوات.
93
284247
2120
وهو ما استغرق منا 1000 عامٍ.
04:58
Now, it's takenتؤخذ us only a hundredمائة yearsسنوات
94
286391
2071
والآن وبنفس الطريقة، استغرقنا 100 عام فقط
لأتمتّة السّيارات.
05:00
to use the sameنفسه scriptالنصي
to automateأتمتة the carسيارة.
95
288486
3211
05:05
But the thing is that, this time around,
96
293286
2452
لكن المميّز هذه المرة هو أن الأتمتّة
كانت فعليّة نوعاً ما.
05:07
automationأتمتة is kindطيب القلب of for realحقيقة.
97
295762
2129
05:09
This is a videoفيديو that a colleagueزميل of mineالخاص بي
from Toshibaتوشيبا sharedمشترك with me
98
297915
3321
هذا مقطع فيديو قام بمشاركته معي صديقي
في شركة توشيبا.
05:13
that showsعروض the factoryمصنع
that manufacturesتصنع solidصلب stateحالة drivesمحركات.
99
301260
3259
ويظهر في الفيديو معمل حيث تصنع وسائط
تخزين SSD.
05:16
The entireكامل factoryمصنع is a robotإنسان آلي.
100
304543
2018
المعمل بالكامل عبارة عن رجل آليّ.
05:18
There are no humansالبشر in that factoryمصنع.
101
306585
1925
لا وجود للإنسان في هذا المعمل.
05:21
And the robotsالروبوتات are soonهكذا
to leaveغادر the factoriesالمصانع
102
309033
2221
وقريباً لن تعود الروبوتات مقتصرةً
على المعامل فقط،
05:23
and becomeيصبح partجزء of our worldالعالمية,
103
311278
2022
بل ستصبخ جزءاً من عالمنا.
05:25
becomeيصبح partجزء of our workforceالقوى العاملة.
104
313324
1835
ستصبح جزءاً من القوة العاملة.
05:27
So what I do in my day jobوظيفة
105
315183
1773
لذا ومن خلال عملي اليوميّ
فأنا اخترع وسائل لدمج بيانات دولٍ كاملة،
05:28
is actuallyفعلا createخلق toolsأدوات that integrateدمج
dataالبيانات for entireكامل countriesبلدان
106
316980
3992
05:32
so that we can ultimatelyفي النهاية have
the foundationsأسس that we need
107
320996
3466
لكي يكون لدينا في النهاية الأسس
التي سنحتاجها في المستقبل
05:36
for a futureمستقبل in whichالتي we need
to alsoأيضا manageتدبير those machinesآلات.
108
324486
3687
حيث سيكون علينا إدارة هذه الآلات بدورها.
05:41
But todayاليوم, I'm not here
to talk to you about these toolsأدوات
109
329195
2906
لكنني لست هنا اليوم للحديث عن الأدوات
التي تقوم بجمع بيانات الدول.
05:44
that integrateدمج dataالبيانات for countriesبلدان.
110
332125
1824
05:46
But I'm here to talk to you
about anotherآخر ideaفكرة
111
334463
2622
بل عن فكرة مختلفة،
05:49
that mightربما help us think about how to use
artificialمصطنع intelligenceالمخابرات in democracyديمقراطية.
112
337109
4865
والتي يمكن أن تساعدنا بالتّفكير بآليّة
لتوظيف الذكاء الصنعيّ لخدمة الديمقراطيّة.
05:53
Because the toolsأدوات that I buildبناء
are designedتصميم for executiveتنفيذي decisionsقرارات.
113
341998
4733
لأنّ الأدوات التي أعمل عليها مصممّةٌ
لقراراتٍ تنفيذيّة.
05:58
These are decisionsقرارات that can be castالمصبوب
in some sortفرز of termمصطلح of objectivityموضوعية --
114
346755
3842
هذه قراراتٌ يمكن أن تتسم
بنوعٍ من الموضوعيّة،
06:02
publicعامة investmentاستثمار decisionsقرارات.
115
350621
1745
كقرارات الاستثمار العام.
06:04
But there are decisionsقرارات
that are legislativeتشريعي,
116
352885
2631
لكن هناك قراراتٌ تشريعيّة،
06:07
and these decisionsقرارات that are legislativeتشريعي
requireتطلب communicationالاتصالات amongمن بين people
117
355540
3787
وهذه القرارات التّشريعيّة تتطلب نقاشاً
بين أشخاصٍ من مختلف وجهات النّظر،
06:11
that have differentمختلف pointsنقاط of viewرأي,
118
359351
1700
06:13
requireتطلب participationمشاركة, requireتطلب debateالنقاش,
119
361075
2613
تتطلب المشاركة، تتطلب المناظرة،
06:15
requireتطلب deliberationتداول.
120
363712
1478
تتطلب المشورة.
06:18
And for a long time,
we have thought that, well,
121
366241
2804
وكان اعتقادنا لوقت طويل
بأن ما نحتاجه لتحسين التجربة الديمقراطيّة
هو في الحقيقة مزيدٌ من التّواصل.
06:21
what we need to improveتحسن democracyديمقراطية
is actuallyفعلا more communicationالاتصالات.
122
369069
3460
06:24
So all of the technologiesالتقنيات that we have
advancedالمتقدمة in the contextسياق الكلام of democracyديمقراطية,
123
372553
3709
لذا فجميع التقنيّات التي طورّناها في سياق
الديمقراطيّة
06:28
whetherسواء they are newspapersالصحف
or whetherسواء it is socialاجتماعي mediaوسائل الإعلام,
124
376286
2778
سواء كانت الصّحف أو شبكات التّواصل
الاجتماعيّ،
06:31
have triedحاول to provideتزود us
with more communicationالاتصالات.
125
379088
2382
كانت تهدف لتوفير مزيدٍ من التّواصل.
06:34
But we'veقمنا been down that rabbitأرنب holeالفجوة,
126
382103
1822
لكننّا دخلنا هذا الجحر من قبل، ونعرف أنّه
لن يحلّ المشكلة.
06:35
and we know that's not
what's going to solveحل the problemمشكلة.
127
383949
2748
لأنّها وببساطة ليست مشكلة تواصل،
06:38
Because it's not a communicationالاتصالات problemمشكلة,
128
386721
1996
إنها مشكلة الحيّز المعرفيّ.
06:40
it's a cognitiveالإدراكي bandwidthعرض النطاق problemمشكلة.
129
388741
1748
06:42
So if the problemمشكلة is one
of cognitiveالإدراكي bandwidthعرض النطاق,
130
390513
2366
هذا يعني إن كانت المشكلة
هي حيّز المعرفة بالفعل،
06:44
well, addingمضيفا more communicationالاتصالات to people
131
392903
2587
فزيادة التّواصل لن يكون هو الحل.
06:47
is not going to be
what's going to solveحل it.
132
395514
2744
06:50
What we are going to need insteadفي حين أن
is to have other technologiesالتقنيات
133
398282
3113
ما نحن بحاجته الآن هو تقنيّاتٌ جديدة
06:53
that help us dealصفقة with
some of the communicationالاتصالات
134
401419
3046
لمساعدتنا في التّعامل مع ما نعانيه
من إفراط التواصل.
06:56
that we are overloadedزائد with.
135
404489
2242
06:58
Think of, like, a little avatarالصورة الرمزية لل,
136
406755
1699
خذ على سبيل المثال: شخصيّةٌ صغيرة،
07:00
a softwareالبرمجيات agentوكيل,
137
408478
1339
أو برنامج حاسوب،
07:01
a digitalرقمي Jiminyجيميني Cricketكريكيت --
138
409841
1878
كنسخة إلكترونيّة من شخصيّة "جيمني كريكت"
07:03
(Laughterضحك)
139
411743
1238
(ضحك)
07:05
that basicallyفي الأساس is ableقادر
to answerإجابة things on your behalfباسمى او لاجلى.
140
413005
4012
ببساطة يقوم بالإجابة نيابةً عنك.
07:09
And if we had that technologyتقنية,
141
417759
1787
ولو وصلنا لهذه التكنولوجيا بالفعل،
07:11
we would be ableقادر to offloadافراغ
some of the communicationالاتصالات
142
419570
2478
فسنتخلّص من بعض أعباء التّواصل تلك،
07:14
and help, maybe, make better decisionsقرارات
or decisionsقرارات at a largerأكبر scaleمقياس.
143
422072
4147
وهو ما سيساعد ربما على اتخاذ قراراتٍ أفضل
أو قراراتٍ على نطاقٍ أوسع.
07:18
And the thing is that the ideaفكرة
of softwareالبرمجيات agentsعملاء is alsoأيضا not newالجديد.
144
426860
3719
والمثير للاهتمام هو أنّ فكرة الوكيل
البرمجيّ ليست جديدة أيضاً،
07:22
We alreadyسابقا use them all the time.
145
430603
2109
نحن نستخدمهم بالفعل في حياتنا اليوميّة،
07:25
We use softwareالبرمجيات agentsعملاء
146
433216
1521
نستخدم وكلاء برمجيين
07:26
to chooseأختر the way that we're going
to driveقيادة to a certainالمؤكد locationموقعك,
147
434761
3675
لاختيار الطريق الذي سنسلكه لوجهةٍ معيّنة،
07:31
the musicموسيقى that we're going to listen to
148
439070
2101
والموسيقى التي سنستمع إليها،
07:33
or to get suggestionsاقتراحات
for the nextالتالى booksالكتب that we should readاقرأ.
149
441758
3021
واقتراح الكتب التي علينا قراءتها تالياً.
07:37
So there is an obviousواضح ideaفكرة
in the 21stشارع centuryمئة عام
150
445994
2574
فنحن لدينا فكرةٌ واضحةٌ في القرن ال21
07:40
that was as obviousواضح as the ideaفكرة
151
448592
2643
كوضوح فكرة دمج المنوال مع محرّكٍ بخاريّ
في زمن جاكارد.
07:43
of puttingوضع togetherسويا a steamبخار engineمحرك
with a loomنول at the time of Jacquardالجاكار قماش.
152
451259
5581
07:49
And that ideaفكرة is combiningالجمع
directمباشرة democracyديمقراطية with softwareالبرمجيات agentsعملاء.
153
457538
4456
وهذه الفكرة هي الدمج بين الديمقراطيّة
المباشرة والوكيل الالكتروني
07:54
Imagineتخيل, for a secondثانيا, a worldالعالمية
154
462849
2121
لنتخيّل للحظة عالماً حيث بدلاً من أن يكون
هناك نائب يمثلك بالإضافة لملايين الأشخاص،
07:56
in whichالتي, insteadفي حين أن of havingوجود
a representativeوكيل that representsيمثل you
155
464994
3166
08:00
and millionsملايين of other people,
156
468184
1574
08:01
you can have a representativeوكيل
that representsيمثل only you,
157
469782
3036
سيكون لديك نائبٌ شخصيٌّ لك،
08:05
with your nuancedالدقة في درجات االإختلاف politicalسياسي viewsالآراء --
158
473504
2254
يحمل توجّهاتك السّياسيّة الخاصّة
08:07
that weirdعجيب combinationمزيج
of libertarianالتحررية and liberalليبرالية
159
475782
3344
والتي قد تجمع بشكلٍ فريدٍ
بين حزبي اليمين واليسار،
08:11
and maybe a little bitقليلا
conservativeتحفظا on some issuesمسائل
160
479150
2392
وربما بشكلٍ محافظٍ في بعض القضايا،
08:13
and maybe very progressiveتدريجي on othersالآخرين.
161
481566
2108
ومتحررٍ في قضايا أخرى.
08:15
Politiciansسياسة nowadaysالوقت الحاضر are packagesحزم,
and they're fullممتلئ of compromisesتنازلات.
162
483698
3267
ساسة اليوم هم صناديقٌ مليئةٌ بالتّسويات.
08:18
But you mightربما have someoneشخصا ما
that can representتركيز only you,
163
486989
3634
لكن سيكون لك نائبٌ شخصيّ
08:22
if you are willingراغب to give up the ideaفكرة
164
490647
1852
إن تقبّلت أن يكون هذا النائب ليس إنساناً
بالضرورة.
08:24
that that representativeوكيل is a humanبشري.
165
492523
2249
08:27
If that representativeوكيل
is a softwareالبرمجيات agentوكيل,
166
495229
2082
إذا تحققّ ذلك الأمر وأصبح نائبك
مجرد وكيل الكتروني،
08:29
we could have a senateمجلس الشيوخ that has
as manyكثير senatorsأعضاء مجلس الشيوخ as we have citizensالمواطنين.
167
497335
4170
فسيكون لدينا مجلس شيوخ يضمّ أعضاءً
بعدد المواطنين،
08:33
And those senatorsأعضاء مجلس الشيوخ are going to be ableقادر
to readاقرأ everyكل billمشروع قانون
168
501529
2858
وهؤلاء الأعضاء سيكون بإمكانهم
الإطلاع على كلّ فاتورةٍ،
08:36
and they're going to be ableقادر
to voteتصويت on eachكل one of them.
169
504411
2747
والتصويت على كل منها.
08:39
So there's an obviousواضح ideaفكرة
that maybe we want to considerيعتبر.
170
507822
2956
هذه فكرة جديّة علينا أخذها بعين الاعتبار،
08:42
But I understandتفهم that in this day and ageعمر,
171
510802
2422
لكننّي أتفهّم أنّه بهذا الوقت
08:45
this ideaفكرة mightربما be quiteالى حد كبير scaryمخيف.
172
513248
1889
فكرة كهذه قد تكون مخيفةً نوعاً ما،
08:48
In factحقيقة, thinkingتفكير of a robotإنسان آلي
comingآت from the futureمستقبل
173
516391
3440
في الحقيقة فمجرد التفكير برجل آليّ
08:51
to help us runيركض our governmentsالحكومات
174
519855
1673
قادمٍ من المستقبل لمساعدتنا في إدارة
حكوماتنا يبدو مرعباً.
08:53
soundsاصوات terrifyingمرعب.
175
521552
1631
لكننّا رأينا بالفعل ما حدث...
08:56
But we'veقمنا been there before.
176
524223
1651
08:57
(Laughterضحك)
177
525898
1273
(ضحك)
08:59
And actuallyفعلا he was quiteالى حد كبير a niceلطيف guy.
178
527195
2495
وبصراحة كان رجلاً لطيفاً.
09:03
So what would the Jacquardالجاكار قماش loomنول
versionالإصدار of this ideaفكرة look like?
179
531677
6434
ما الذي ستؤول إليه هذه الفكرة
على غرار منوال جاكارد؟
09:10
It would be a very simpleبسيط systemالنظام.
180
538135
1901
سيكون نظاماً بسيطاً،
09:12
Imagineتخيل a systemالنظام that you logسجل in
and you createخلق your avatarالصورة الرمزية لل,
181
540060
3458
تخيّل نظاماً حيث يمكنك تسجيل الدخول
وإنشاء شخصيّة،
09:15
and then you're going
to startبداية trainingتدريب your avatarالصورة الرمزية لل.
182
543542
2456
وبعدها يمكنك البدأ بتدريبها
09:18
So you can provideتزود your avatarالصورة الرمزية لل
with your readingقراءة habitsعادات,
183
546022
2682
عن طريق تزويدها بعاداتك في القراءة،
09:20
or connectالاتصال it to your socialاجتماعي mediaوسائل الإعلام,
184
548728
1861
أو توصلها بحساباتك على مواقع التواصل،
09:22
or you can connectالاتصال it to other dataالبيانات,
185
550613
2408
أو تغذيتها ببيانات أخرى، بأخذ اختبارات
نفسية على سبيل المثال.
09:25
for exampleمثال by takingمع الأخذ
psychologicalنفسي testsاختبارات.
186
553045
2272
09:27
And the niceلطيف thing about this
is that there's no deceptionخداع.
187
555341
2968
والجميل في الأمر أنه ليس هناك خداع،
09:30
You are not providingتوفير dataالبيانات to communicateنقل
with your friendsاصحاب and familyأسرة
188
558333
3339
فانت لا تقدم بيانات تواصلك مع عائلتك
وأصدقائك
09:33
that then getsيحصل على used in a politicalسياسي systemالنظام.
189
561696
3151
ثم يتم استغلالها لأجندة سياسية.
09:36
You are providingتوفير dataالبيانات to a systemالنظام
that is designedتصميم to be used
190
564871
3704
أنت ببساطةٍ تقدّم هذه البيانات لنظام صممّ
لاتخاذ قراراتٍ سياسيّة نيابةً عنك.
09:40
to make politicalسياسي decisionsقرارات
on your behalfباسمى او لاجلى.
191
568599
2116
09:43
Then you take that dataالبيانات and you chooseأختر
a trainingتدريب algorithmخوارزمية,
192
571264
3980
ثم تأخذ هذه البيانات
وتختار خوارزميّة تدريب،
09:47
because it's an openفتح marketplaceالسوق
193
575268
1563
لأنه سوق مفتوح حيث يقوم أفراد مختلفين
بتقديم خوارزميّات مختلفة
09:48
in whichالتي differentمختلف people
can submitخضع differentمختلف algorithmsخوارزميات
194
576855
2786
09:51
to predictتنبؤ how you're going to voteتصويت,
basedعلى أساس on the dataالبيانات you have providedقدمت.
195
579665
4394
للتنبأ بالقرار الذي ستتخذه للتصويت
اعتماداً على البيانات التي قدمتها.
09:56
And the systemالنظام is openفتح,
so nobodyلا أحد controlsضوابط the algorithmsخوارزميات;
196
584083
3455
والنظام مفتوح لكي لا يتحكم أي أحد
بالخوارزميات،
09:59
there are algorithmsخوارزميات
that becomeيصبح more popularجمع
197
587562
2112
بعض الخوارزميات ستصبح شائعة
وأخرى ستكون أقلّ شيوعاً.
10:01
and othersالآخرين that becomeيصبح lessأقل popularجمع.
198
589698
1723
في النّهاية يمكنك تدقيق النّظام ومراجعة
طريقة عمل شخصيتك،
10:03
Eventuallyفي النهاية, you can auditتدقيق the systemالنظام.
199
591445
1807
10:05
You can see how your avatarالصورة الرمزية لل is workingعامل.
200
593276
1881
إذا كانت النتائج مرضيةً
تتركها للتحكّم الآلي،
10:07
If you like it,
you can leaveغادر it on autopilotالطيار الآلي.
201
595181
2152
أو يمكنك أن تكون مسيطراً أكثر
10:09
If you want to be
a little more controllingالمتابعة,
202
597357
2062
واختيار أن تعود إليك في كلّ مرة
تكون على وشك اتخاذ قرارٍ ما،
10:11
you can actuallyفعلا chooseأختر that they askيطلب you
203
599443
1968
10:13
everyكل time they're going
to make a decisionقرار,
204
601435
2068
أو أي حلٍّ وسطيّ بين الاثنين.
10:15
or you can be anywhereفي أى مكان in betweenما بين.
205
603527
1635
أحد الأسباب وراء استخدامنا الضئيل
للديمقراطيّة
10:17
One of the reasonsأسباب
why we use democracyديمقراطية so little
206
605186
2405
10:19
mayقد be because democracyديمقراطية
has a very badسيئة userالمستعمل interfaceجهة تعامل.
207
607615
3568
ربما يعود إلى أن واجهة المستخدم فيها
رديئةٌ جداً
10:23
And if we improveتحسن the userالمستعمل
interfaceجهة تعامل of democracyديمقراطية,
208
611207
2483
فلو قمنا بتحسين هذه الواجهة فسيزيد
استخدامنا لها
10:25
we mightربما be ableقادر to use it more.
209
613714
2127
10:28
Of courseدورة, there's a lot of questionsالأسئلة
that you mightربما have.
210
616452
3207
بالطّبع قد يكون لديكم العديد من الأسئلة،
10:32
Well, how do you trainقطار these avatarsالآلهة?
211
620473
2161
أولاً، كيف ستقوم بتدريب هذه الشّخصيات؟
10:34
How do you keep the dataالبيانات secureتأمين?
212
622658
1894
كيف تضمن حماية البيانات؟
10:36
How do you keep the systemsأنظمة
distributedوزعت and auditableالقابله?
213
624576
3248
كيف ستنشر الأنظمة وتبقيها خاضعةً للرقابة؟
10:39
How about my grandmotherجدة,
who'sمنظمة الصحة العالمية 80 yearsسنوات oldقديم
214
627848
2062
ماذا عن جدتي ذو ال80 عاماً ولا تجيد
استخدام الانترنت؟
10:41
and doesn't know how to use the internetالإنترنت?
215
629946
1960
10:44
Trustثقة me, I've heardسمعت them all.
216
632262
2221
ثقوا بي، لقد سمعت هذه الأسئلة من قبل
10:46
So when you think about an ideaفكرة like this,
you have to bewareاحترس of pessimistsالمتشائمين
217
634507
4560
فعندما تفكر بشئٍ كهذا عليك الانتباه
للمتشائمين،
10:51
because they are knownمعروف to have
a problemمشكلة for everyكل solutionحل.
218
639091
4319
لأن لديهم مشكلةً لكلّ حل.
10:55
(Laughterضحك)
219
643434
1825
(ضحك)
10:57
So I want to inviteدعا you to think
about the biggerأكبر ideasأفكار.
220
645283
3040
أنا أدعوكم للتفكير بأفكارٍ أكثر أهميّة.
11:00
The questionsالأسئلة I just showedأظهر you
are little ideasأفكار
221
648347
3626
الأسئلة التي عرضتها قبل قليل ماهي إلا
أفكار صغيرة،
11:03
because they are questionsالأسئلة
about how this would not work.
222
651997
2902
لأنها أسئلةٌ تركز على فشل هذا الاقتراح.
11:07
The bigكبير ideasأفكار are ideasأفكار of:
223
655502
1981
بينما الأفكار الأهم تكون مثل:
11:09
What elseآخر can you do with this
224
657507
1807
ما الذي يمكن أن تقوم به أيضاً في حال
نجح الأمر؟
11:11
if this would happenيحدث to work?
225
659338
1889
11:13
And one of those ideasأفكار is,
well, who writesيكتب the lawsقوانين?
226
661774
3445
وأحد هذه الأفكار هو من سيكتب القوانين؟
11:17
In the beginningالبداية, we could have
the avatarsالآلهة that we alreadyسابقا have,
227
665854
4223
في البداية يمكن للشخصيّات المتوافرة لدينا
11:22
votingتصويت on lawsقوانين that are writtenمكتوب
by the senatorsأعضاء مجلس الشيوخ or politiciansسياسة
228
670101
3497
أن تصوّت على القوانين التي يضعها
الشّيوخ والسياسيّون المتواجدون بالفعل.
11:25
that we alreadyسابقا have.
229
673622
1351
11:27
But if this were to work,
230
675491
1714
لكن إن نجح هذا،
11:29
you could writeاكتب an algorithmخوارزمية
231
677902
2350
فيمكننا برمجة خوارزمية لصياغة قانونٍ ما
والحصول على نسبة معينة من الموافقة،
11:32
that could try to writeاكتب a lawالقانون
232
680276
2150
11:34
that would get a certainالمؤكد
percentageالنسبة المئوية of approvalموافقة,
233
682450
2421
11:36
and you could reverseعكسي the processمعالج.
234
684895
1782
ويمكنك عكس هذه العمليّة.
11:38
Now, you mightربما think that this ideaفكرة
is ludicrousمضحك and we should not do it,
235
686701
3512
ربما تعتقد الآن أن هذه فكرةٌ سخيفة
ويجب ألا نطبقها،
11:42
but you cannotلا تستطيع denyأنكر that it's an ideaفكرة
that is only possibleممكن
236
690237
2786
لكن لا يمكنك إنكار أنها فكرة ممكنة
فقط في عالمٍ
11:45
in a worldالعالمية in whichالتي directمباشرة democracyديمقراطية
and softwareالبرمجيات agentsعملاء
237
693047
3020
يسمح بمشاركة الديمقراطيّة المباشرة
والوكلاء الالكترونيين.
11:48
are a viableقابل للحياة formشكل of participationمشاركة.
238
696091
2656
11:52
So how do we startبداية the revolutionثورة?
239
700596
2753
لكن كيف لنا أن نبدأ الثّورة؟
11:56
We don't startبداية this revolutionثورة
with picketوتد fencesالأسوار or protestsالاحتجاجات
240
704238
3310
لن نبدأ هذه الثّورة باعتصاماتٍ أو مظاهرات،
11:59
or by demandingمطالبة our currentتيار politiciansسياسة
to be changedتغير into robotsالروبوتات.
241
707572
4190
أو المطالبة بإبدال السياسييّن الحالييّن
برجال آليين،
12:03
That's not going to work.
242
711786
1549
فهذا ببساطة لن ينجح،
12:05
This is much more simpleبسيط,
243
713359
1612
لكن هناك طريقةٌ أبسط وأبطئ وأكثر تواضعاً،
12:06
much slowerأبطأ
244
714995
1159
12:08
and much more humbleمتواضع.
245
716178
1414
12:09
We startبداية this revolutionثورة by creatingخلق
simpleبسيط systemsأنظمة like this in gradغراد schoolsالمدارس,
246
717616
4349
وهي ان نبدأ الثّورة عن طريق إنشاء
أنظمةٍ مصغّرة تعمل بهذا المبدأ
12:13
in librariesالمكتبات, in nonprofitsالمنظمات غير الربحية.
247
721989
2094
في الجامعات والمكتبات والمنظمات
غير الربحية،
12:16
And we try to figureالشكل out
all of those little questionsالأسئلة
248
724107
2654
ونحاول الإجابة على جميع هذه التساؤلات
والعقبات الصغيرة،
12:18
and those little problemsمشاكل
249
726785
1221
12:20
that we're going to have to figureالشكل out
to make this ideaفكرة something viableقابل للحياة,
250
728030
3901
والتي علينا معالجتها في سبيل جعل هذه
الفكرة عمليّة.
12:23
to make this ideaفكرة something
that we can trustثقة.
251
731955
2351
لجعل هذه الفكرة أهلاً للثقة.
12:26
And as we createخلق those systemsأنظمة that have
a hundredمائة people, a thousandألف people,
252
734330
3635
وبينما ننشئ هذه الأنظمة التي يستخدمها
مئة، وألف، ومئة آلف شخص
12:29
a hundredمائة thousandألف people votingتصويت
in waysطرق that are not politicallyسياسي bindingربط,
253
737989
3770
للتصويت بطرقٍ نعجز عنها في السّياسة.
12:33
we're going to developطور trustثقة in this ideaفكرة,
254
741783
2018
عندها سنعزز ثقتنا بهذه الفكرة،
وسيتغيّر العالم،
12:35
the worldالعالمية is going to changeيتغيرون,
255
743825
1519
12:37
and those that are as little
as my daughterابنة is right now
256
745368
2875
ومن هم أطفالٌ الآن كابنتي سيكبرون،
12:40
are going to growتنمو up.
257
748267
1337
12:42
And by the time my daughterابنة is my ageعمر,
258
750580
2369
وعندما تصبح ابنتي بعمري
12:44
maybe this ideaفكرة, that I know
todayاليوم is very crazyمجنون,
259
752973
4436
ربما هذه الفكرة التي تبدو لي جنونيّة اليوم
لن تكون بهذه الغرابة لها ولأقرانها،
12:49
mightربما not be crazyمجنون to her
and to her friendsاصحاب.
260
757433
4134
12:53
And at that pointنقطة,
261
761956
1837
وعندها سنكون قد وصلنا لنهاية تاريخنا،
12:55
we will be at the endالنهاية of our historyالتاريخ,
262
763817
2603
12:58
but they will be
at the beginningالبداية of theirsلهم.
263
766444
2821
لكنّها البداية بالنسبة لهم.
13:01
Thank you.
264
769646
1183
شكراً لكم.
13:02
(Applauseتصفيق)
265
770853
3042
(تصفيق)
Translated by Imad Aldoj
Reviewed by Mujtaba Abdelwhab

▲Back to top

ABOUT THE SPEAKER
César Hidalgo - Physicist
César Hidalgo studies how teams, cities and nations learn.

Why you should listen

César A. Hidalgo leads the Collective Learning group at The MIT Media Lab and is an associate professor of media arts and sciences at MIT. Hidalgo's work focuses on understanding how teams, organizations, cities and nations learn. At the Collective Learning group, Hidalgo develops software tools to facilitate learning in organizations. His academic publications have been cited more than 10,000 times, and his online systems, including the Observatory of Economic Complexity and DataUSA, have received more than 100 million views and numerous awards.

Hidalgo's latest book, Why Information Grows (2015), has been translated into 10+ languages. He is also the co-author of The Atlas of Economic Complexity (2014) and a co-founder of Datawheel LLC, a company that has professionalized the creation of large data visualization engines.

More profile about the speaker
César Hidalgo | Speaker | TED.com