ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.

Why you should listen

We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.

Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.

Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.

More profile about the speaker
Zeynep Tufekci | Speaker | TED.com
TEDGlobal>NYC

Zeynep Tufekci: We're building a dystopia just to make people click on ads

زينب توفيكجي: نحن نخلق ديستوبيا فقط لنجعل الناس تضغط على الإعلانات

Filmed:
2,866,905 views

نحن نخلق ديستوبيا تستمد طاقتها من الذكاء الاصطناعي، بضغطة زر تلو الأخرى، كما تقول عالمة الاجتماع التقني "زينب توفيكجي". في حديث يفتح الأعين، تشرح بالتفصيل كيف أن الخوارزميات التي تستخدمها شركات مثل "فيسبوك" و"جوجل" و"أمازون" لتجعلك تضغط على الإعلانات هي نفسها تُستخدم لتقوم بتنظيم حصولك على المعلومات الاجتماعية والسياسية. والآلات ليست هي حتى التهديد الحقيقي. ما نحتاج أن نفهمه هو كيف يستطيع أهل السلطة أن يستخدموا الذكاء الاصطناعي ليتحكموا بنا -- وماذا يمكننا أن نفعل في مواجهة المشكلة.
- Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread. Full bio

Double-click the English transcript below to play the video.

00:12
So when people voiceصوت fearsالمخاوف
of artificialمصطنع intelligenceالمخابرات,
0
760
3536
عندما يعبر الناس عن خوفهم
من الذكاء الاصطناعي،
00:16
very oftenغالبا, they invokeيتوسل imagesصور
of humanoidالروبوت robotsالروبوتات runيركض amokمندفع مسعورا ويقتل الناس.
1
4320
3976
فهم في غالب الأحيان يستحضرون صور روبوتات
تشبه الإنسان وتجري مسعورة تريد الأذى
00:20
You know? Terminatorالمنهي?
2
8320
1240
كما في فيلم "تيرمينيتور".
00:22
You know, that mightربما be
something to considerيعتبر,
3
10400
2336
هذا قد يكون وارد الحدوث،
00:24
but that's a distantبعيد threatالتهديد.
4
12760
1856
لكن هذا تهديد بعيد.
00:26
Or, we fretأقلق about digitalرقمي surveillanceمراقبة
5
14640
3456
أو نقلق حول المراقبة الرقمية
00:30
with metaphorsالاستعارات from the pastالماضي.
6
18120
1776
بمجازيات من الماضي
00:31
"1984," Georgeجورج Orwell'sأورويل "1984,"
7
19920
2656
مثل رواية "1984" لـ"جورج أورويل"،
00:34
it's hittingضرب the bestsellerالأكثر مبيعًا listsالقوائم again.
8
22600
2280
إنها في قائمة الأفضل مبيعاً مرة أخرى.
00:37
It's a great bookكتاب,
9
25960
1416
إنه كتاب رائع
00:39
but it's not the correctصيح dystopiaحدة البصر
for the 21stشارع centuryمئة عام.
10
27400
3880
لكنه لا يحوي وصف الديستوبيا المناسبة
للقرن الحادي والعشرين.
00:44
What we need to fearخوف mostعظم
11
32080
1416
أكثر ما يجب أن نخاف منه
00:45
is not what artificialمصطنع intelligenceالمخابرات
will do to us on its ownخاصة,
12
33520
4776
هو ليس ما سوف يفعله بنا الذكاء الاصطناعي
من تلقاء نفسه،
00:50
but how the people in powerقوة
will use artificialمصطنع intelligenceالمخابرات
13
38320
4736
ولكن كيف سيستخدم الناس ذوو السلطة
الذكاءَ الاصطناعي
00:55
to controlمراقبة us and to manipulateمعالجة us
14
43080
2816
ليتحكموا بنا وليتلاعبوا بنا
00:57
in novelرواية, sometimesبعض الأحيان hiddenمخفي,
15
45920
3136
بطرق جديدة وأحياناً مخفية
01:01
subtleفصيح and unexpectedغير متوقع waysطرق.
16
49080
3016
ومفاجئة وغير متوقعة.
01:04
Much of the technologyتقنية
17
52120
1856
معظم التكنولوجيا
01:06
that threatensيهدد our freedomحرية
and our dignityكرامة in the near-termعلى المدى القريب futureمستقبل
18
54000
4336
التي تهدد حريتنا وكرامتنا
في المستقبل القريب
01:10
is beingيجرى developedالمتقدمة by companiesالشركات
19
58360
1856
يجري تطويرها من قبل شركات
01:12
in the businessاعمال of capturingاسر
and sellingيبيع our dataالبيانات and our attentionانتباه
20
60240
4936
تعمل في مجال التقاط وبيع
بياناتنا وانتباهنا
01:17
to advertisersالمعلنين and othersالآخرين:
21
65200
2256
لأصحاب الإعلانات وغيرهم:
01:19
Facebookفيس بوك, Googleجوجل, Amazonالأمازون,
22
67480
3416
"فيسبوك"، "جوجل"، "أمازون"،
01:22
Alibabaعلي بابا, Tencentتينسنت.
23
70920
1880
"علي بابا"، "تينسنت".
01:26
Now, artificialمصطنع intelligenceالمخابرات has startedبدأت
bolsteringدعم theirهم businessاعمال as well.
24
74040
5496
لقد قام الذكاء الاصطناعي بدعم عملهم أيضاً
01:31
And it mayقد seemبدا
like artificialمصطنع intelligenceالمخابرات
25
79560
2096
وقد يبدو أن الذكاء الاصطناعي
01:33
is just the nextالتالى thing after onlineعبر الانترنت adsإعلانات.
26
81680
2856
بمثابة الخطوة التقنية التالية
بعد الإعلانات على الإنترنت.
01:36
It's not.
27
84560
1216
إنه ليس كذلك.
01:37
It's a jumpقفز in categoryالفئة.
28
85800
2456
إنه قفزة في المجال كاملاً
01:40
It's a wholeكامل differentمختلف worldالعالمية,
29
88280
2576
إنه عالمٌ كاملٌ مختلف،
01:42
and it has great potentialمحتمل.
30
90880
2616
ويحمل إمكانات عظيمة.
01:45
It could accelerateتسارع our understandingفهم
of manyكثير areasالمناطق of studyدراسة and researchابحاث.
31
93520
6920
باستطاعته تسريع فهمنا للعديد
من مجالات الدراسة والبحث.
01:53
But to paraphraseشرح النص
a famousمشهور Hollywoodهوليوود philosopherفيلسوف,
32
101120
3496
لكنني سأعيد صياغة ما قاله فيلسوف
هوليوودي شهير،
01:56
"With prodigiousاستثنائي potentialمحتمل
comesيأتي prodigiousاستثنائي riskخطر."
33
104640
3640
"مع الإمكانات غير العادية تأتي
مخاطر غير عادية."
02:01
Now let's look at a basicالأساسية factحقيقة
of our digitalرقمي livesالأرواح, onlineعبر الانترنت adsإعلانات.
34
109120
3936
دعونا الآن ننظر إلى حقيقة أساسية
في حياتنا الرقمية، الإعلانات على الإنترنت.
02:05
Right? We kindطيب القلب of dismissرفض them.
35
113080
2896
صحيح؟ نحن نقوم بتجاهلهم نوعاً ما.
02:08
They seemبدا crudeنفط خام, ineffectiveغير فعال.
36
116000
1976
تبدو مزعجة جداً وعديمة الفائدة.
02:10
We'veقمنا all had the experienceتجربة
of beingيجرى followedيتبع on the webشبكة
37
118000
4256
جميعنا مررنا بتجربة أن تتم ملاحقتنا
على شبكة الويب
02:14
by an adميلادي basedعلى أساس on something
we searchedالبحث or readاقرأ.
38
122280
2776
بواسطة إعلان بناءً على شيء
قمنا بالبحث عنه أو قراءته
02:17
You know, you look up a pairزوج of bootsالأحذية
39
125080
1856
تبحثون مثلاً عن زوج من الأحذية.
02:18
and for a weekأسبوع, those bootsالأحذية are followingالتالية
you around everywhereفي كل مكان you go.
40
126960
3376
ولمدة أسبوع، هذه الأحذية تقوم
باللحاق بكم أينما ذهبتم.
02:22
Even after you succumbنخضع and buyيشترى them,
they're still followingالتالية you around.
41
130360
3656
حتى بعد ما تخضعون وتشترونهم،
لا يزالون يلحقون بكم.
02:26
We're kindطيب القلب of inuredمتعود to that kindطيب القلب
of basicالأساسية, cheapرخيص manipulationبمعالجة.
42
134040
3016
نحن متعودون نوعاً ما على ذلك النوع
من التلاعب الرخيص.
02:29
We rollتدحرج our eyesعيون and we think,
"You know what? These things don't work."
43
137080
3400
ننظر بامتعاض ونفكر
"أتعلم ماذا؟ هذه الأشياء لا تعمل."
02:33
Exceptإلا, onlineعبر الانترنت,
44
141720
2096
عدا أنه على الإنترنت،
02:35
the digitalرقمي technologiesالتقنيات are not just adsإعلانات.
45
143840
3600
التقنيات الرقمية ليس مجرد إعلانات فقط.
02:40
Now, to understandتفهم that,
let's think of a physicalجسدي - بدني worldالعالمية exampleمثال.
46
148240
3120
لنفهم ذلك، دعونا نفكر بمثال
من العالم المحسوس.
02:43
You know how, at the checkoutالدفع countersعدادات
at supermarketsمحلات السوبر ماركت, nearقريب the cashierأمين الصندوق,
47
151840
4656
تعرفون كيف عند عدادات الدفع
في المتاجر قرب الكاشيير،
02:48
there's candyحلويات and gumصمغ
at the eyeعين levelمستوى of kidsأطفال?
48
156520
3480
هناك حلوى وعلكة على مستوى نظر الأطفال؟
02:52
That's designedتصميم to make them
whineأنين at theirهم parentsالآباء
49
160800
3496
هذا مصمم ليجعلهم يلحّوا على أهاليهم
02:56
just as the parentsالآباء
are about to sortفرز of checkالتحقق من out.
50
164320
3080
في نفس الوقت حيث يقومون بإظهار
المشتريات للدفع.
03:00
Now, that's a persuasionإقناع architectureهندسة معمارية.
51
168040
2640
إن هذا يدعى هندسة الإقناع.
03:03
It's not niceلطيف, but it kindطيب القلب of worksأعمال.
52
171160
3096
إنه ليس لطيفاً، لكنه يعمل نوعاً ما.
03:06
That's why you see it
in everyكل supermarketسوبر ماركت.
53
174280
2040
لهذا السبب ترونه في كل متجر.
03:08
Now, in the physicalجسدي - بدني worldالعالمية,
54
176720
1696
الآن، في العالم المحسوس،
03:10
suchهذه persuasionإقناع architecturesأبنية
are kindطيب القلب of limitedمحدود,
55
178440
2496
هندسات الإقناع كهذه محدودة نوعاً ما،
03:12
because you can only put
so manyكثير things by the cashierأمين الصندوق. Right?
56
180960
4816
لأنك تستطيع أن تضع فقط العديد
من الأشياء عند الكاشيير، صحيح؟
03:17
And the candyحلويات and gumصمغ,
it's the sameنفسه for everyoneكل واحد,
57
185800
4296
والحلوى والعلكة هي نفسها للجميع،
03:22
even thoughاعتقد it mostlyخاصة worksأعمال
58
190120
1456
حتى ولو كانت غالباً تنجح
03:23
only for people who have
whinyمتذمر little humansالبشر besideبجانب them.
59
191600
4040
فقط بالنسبة للناس الذين معهم أطفال
صغار ملحّون إلى جانبهم.
03:29
In the physicalجسدي - بدني worldالعالمية,
we liveحي with those limitationsمحددات.
60
197160
3920
في العالم المحسوس، نحن نعيش مع هذه الحدود.
03:34
In the digitalرقمي worldالعالمية, thoughاعتقد,
61
202280
1936
لكن في العالم الرقمي،
03:36
persuasionإقناع architecturesأبنية
can be builtمبني at the scaleمقياس of billionsالمليارات
62
204240
4320
فهندسات الإقناع يمكن أن تُبنى
على مستوى المليارات
03:41
and they can targetاستهداف, inferالمخاطر, understandتفهم
63
209840
3856
ويمكنهم أن يستهدفوا ويستنتجوا ويفهموا
03:45
and be deployedنشر at individualsالأفراد
64
213720
2896
وينتشروا أمام الأفراد
03:48
one by one
65
216640
1216
واحداً واحداً
03:49
by figuringكشف out your weaknessesنقاط الضعف,
66
217880
2136
باستنتاج نقاط ضعفك،
03:52
and they can be sentأرسلت
to everyone'sالجميع phoneهاتف privateنشر screenشاشة,
67
220040
5616
ويمكن أن يتم إرسالهم إلى شاشة الهاتف
الخاصة بأي أحد،
03:57
so it's not visibleمرئي to us.
68
225680
2256
إذاً فهي ليست مرئية لنا.
03:59
And that's differentمختلف.
69
227960
1256
وهذا مختلف.
04:01
And that's just one of the basicالأساسية things
that artificialمصطنع intelligenceالمخابرات can do.
70
229240
3576
وهذا فقط واحد من الأمور البسيطة
التي يستطيع الذكاء الاصطناعي أن يفعلها.
04:04
Now, let's take an exampleمثال.
71
232840
1336
والآن دعونا نأخذ مثالاً.
04:06
Let's say you want to sellيبيع
planeطائرة ticketsتذاكر to Vegasلاس. Right?
72
234200
2696
فلنقل أنك تريد أن تبيع تذاكر
طيران إلى "فيجاس"، حسناً؟
04:08
So in the oldقديم worldالعالمية, you could think
of some demographicsالتركيبة السكانية to targetاستهداف
73
236920
3496
في العالم القديم، يمكنك أن تفكر
ببعض المناطق لتستهدفها
04:12
basedعلى أساس on experienceتجربة
and what you can guessخمن.
74
240440
2520
بناء على الخبرة وما يمكنك أن تخمنه.
04:15
You mightربما try to advertiseيعلن to, oh,
75
243560
2816
قد تحاول الإعلان لـ...
04:18
menرجالي betweenما بين the agesالأعمار of 25 and 35,
76
246400
2496
رجال بين أعمار الـ25 والـ35
04:20
or people who have
a highمتوسط limitحد on theirهم creditائتمان cardبطاقة,
77
248920
3936
أو أشخاص عندهم حد مرتفع للدَّين
في بطاقتهم الائتمانية،
04:24
or retiredمتقاعد couplesالأزواج. Right?
78
252880
1376
أو أزواج متقاعدين. صحيح؟
04:26
That's what you would do in the pastالماضي.
79
254280
1816
هذا ما كنتَ لتفعله في الماضي.
04:28
With bigكبير dataالبيانات and machineآلة learningتعلم,
80
256120
2896
بوجود البيانات الضخمة وتعلّم الآلة،
04:31
that's not how it worksأعمال anymoreأي أكثر من ذلك.
81
259040
1524
لم يعد الأمر يعمل بهذا الشكل.
04:33
So to imagineتخيل that,
82
261320
2176
لذا لنتخيل ذلك...
04:35
think of all the dataالبيانات
that Facebookفيس بوك has on you:
83
263520
3856
فكروا في كل البيانات التي يمتلكها
"فيسبوك" عنك:
04:39
everyكل statusالحالة updateتحديث you ever typedكتبته,
84
267400
2536
كل حالة قمت بكتابتها في حياتك،
04:41
everyكل Messengerرسول conversationمحادثة,
85
269960
2016
كل محادثة في "مسنجر"،
04:44
everyكل placeمكان you loggedتسجيل الدخول in from,
86
272000
1880
كل مكان سجلت دخولك منه،
04:48
all your photographsالصور
that you uploadedتم تحميلها there.
87
276400
3176
جميع صورك التي قمت برفعها من ذلك المكان.
04:51
If you startبداية typingكتابة something
and changeيتغيرون your mindعقل and deleteحذف it,
88
279600
3776
إذا بدأت بكتابة شيء ثم غيرت رأيك وحذفته،
04:55
Facebookفيس بوك keepsتحافظ those
and analyzesتحليل them, too.
89
283400
3200
فإن "فيسبوك" يحتفظ بهذه ويحللها أيضاً.
04:59
Increasinglyعلى نحو متزايد, it triesيحاول
to matchمباراة you with your offlineغير متصل على الانترنت dataالبيانات.
90
287160
3936
بشكل متزايد، فهو يحاول أن يطابق بينك
وبين بياناتك خارج الإنترنت.
05:03
It alsoأيضا purchasesالمشتريات
a lot of dataالبيانات from dataالبيانات brokersوسطاء.
91
291120
3176
ويقوم أيضاً بشراء الكثير من البيانات
من سماسرة البيانات.
05:06
It could be everything
from your financialالأمور المالية recordsتسجيل
92
294320
3416
قد يتضمن ذلك كل شيء
ابتداءً من سجلاتك المالية
05:09
to a good chunkقطعة of your browsingتصفح historyالتاريخ.
93
297760
2120
لكم لا بأس فيه من تاريخ تصفحك.
05:12
Right? In the US,
suchهذه dataالبيانات is routinelyبصورة روتينية collectedجمع,
94
300360
5416
صحيح؟ في الولايات المتحدة،
بيانات كهذه يتم جمعها بشكل روتيني،
05:17
collatedالمجمعة and soldتم البيع.
95
305800
1960
وتُجمع وتُباع.
05:20
In Europeأوروبا, they have tougherأكثر صرامة rulesقواعد.
96
308320
2440
في "أوروبا" عندهم قوانين أكثر شدة.
05:23
So what happensيحدث then is,
97
311680
2200
إذاً ما يحدث عندها هو
05:26
by churningمتماوج throughعبر all that dataالبيانات,
these machine-learningتعلم الآلة algorithmsخوارزميات --
98
314920
4016
بمزج جميع البيانات، خوارزميات
تعلم الآلة هذه...
05:30
that's why they're calledمسمي
learningتعلم algorithmsخوارزميات --
99
318960
2896
لهذا السبب تسمى خوارزميات تعلم...
05:33
they learnتعلم to understandتفهم
the characteristicsمميزات of people
100
321880
4096
إنها تتعلم كيف تفهم مميزات وصفات الناس
05:38
who purchasedشراء ticketsتذاكر to Vegasلاس before.
101
326000
2520
الذين اشتروا تذاكر إلى "فيجاس" من قبل.
05:41
When they learnتعلم this from existingموجود dataالبيانات,
102
329760
3536
عندما يقوموا بتعلم هذا من بيانات متوفرة،
05:45
they alsoأيضا learnتعلم
how to applyتطبيق this to newالجديد people.
103
333320
3816
يتعلمون أيضاً كيف يقومون بتطبيق
ذلك على الناس الجدد
05:49
So if they're presentedقدم with a newالجديد personشخص,
104
337160
3056
حيث أنهم إذا واجهوا شخصاً جديداً،
05:52
they can classifyصنف whetherسواء that personشخص
is likelyالمحتمل أن to buyيشترى a ticketتذكرة to Vegasلاس or not.
105
340240
4640
يمكنهم أن يقرروا هل من المحتمل أن يشتري
ذلك الشخص تذكرة إلى "فيجاس" أم لا.
05:57
Fine. You're thinkingتفكير,
an offerعرض to buyيشترى ticketsتذاكر to Vegasلاس.
106
345720
5456
حسناً. أنتم تقولون إنه عرض لشراء
تذكرة إلى "فيجاس".
06:03
I can ignoreتجاهل that.
107
351200
1456
يمكنني أن أتجاهل ذلك.
06:04
But the problemمشكلة isn't that.
108
352680
2216
لكن ليست هذه هي المشكلة.
06:06
The problemمشكلة is,
109
354920
1576
المشكلة هي...
06:08
we no longerطويل really understandتفهم
how these complexمركب algorithmsخوارزميات work.
110
356520
4136
نحن لم نعد نفهم حقاً كيف تعمل
هذه الخوارزميات المعقدة.
06:12
We don't understandتفهم
how they're doing this categorizationالتصنيف.
111
360680
3456
نحن لا نفهم كيف يقومون بهذا التصنيف.
06:16
It's giantعملاق matricesالمصفوفات,
thousandsالآلاف of rowsالصفوف and columnsأعمدة,
112
364160
4416
إنها مصفوفات عملاقة، آلاف الصفوف والأعمدة
06:20
maybe millionsملايين of rowsالصفوف and columnsأعمدة,
113
368600
1960
بل ربما ملايين الصفوف والأعمدة،
06:23
and not the programmersالمبرمجين
114
371320
2640
ولا المبرمجين
06:26
and not anybodyاي شخص who looksتبدو at it,
115
374760
1680
ولا أي أحد ممن ينظر إليها،
06:29
even if you have all the dataالبيانات,
116
377440
1496
حتى لو توفرت لديك البيانات كلها،
06:30
understandsيفهم anymoreأي أكثر من ذلك
how exactlyبالضبط it's operatingالتشغيل
117
378960
4616
يفهم كيف تعمل بالضبط بعد الآن،
06:35
any more than you'dكنت know
what I was thinkingتفكير right now
118
383600
3776
لن تفهموا أكثر مما ستعرفونه عما أفكر الآن
06:39
if you were shownأظهرت
a crossتعبر sectionالجزء of my brainدماغ.
119
387400
3960
إذا رأيتم مقطعًا عرضيًّا من دماغي.
06:44
It's like we're not programmingبرمجة anymoreأي أكثر من ذلك,
120
392360
2576
الأمر كما لو أننا لم نعد نبرمج بعد الآن،
06:46
we're growingمتزايد intelligenceالمخابرات
that we don't trulyحقا understandتفهم.
121
394960
4400
بل نقوم بتنمية ذكاء نحن لا نفهمه حق الفهم.
06:52
And these things only work
if there's an enormousضخم amountكمية of dataالبيانات,
122
400520
3976
وهذه الأشياء تعمل فقط إذا كان هناك
كم هائل من البيانات،
06:56
so they alsoأيضا encourageالتشجيع
deepعميق surveillanceمراقبة on all of us
123
404520
5096
إذاً هي تقوم أيضاً بتحريض مراقبة
عميقة علينا جميعاً
07:01
so that the machineآلة learningتعلم
algorithmsخوارزميات can work.
124
409640
2336
حيث تستطيع خوارزميات تعلّم الآلة أن تعمل.
07:04
That's why Facebookفيس بوك wants
to collectتجميع all the dataالبيانات it can about you.
125
412000
3176
لهذا السبب يريد "فيسبوك" أن يجمع
كل البيانات التي يستطيع جمعها عنك
07:07
The algorithmsخوارزميات work better.
126
415200
1576
فالخوارزميات تعمل بشكل أفضل.
07:08
So let's pushإدفع that Vegasلاس exampleمثال a bitقليلا.
127
416800
2696
دعونا ننسى مثال "فيجاس" لحظة.
07:11
What if the systemالنظام
that we do not understandتفهم
128
419520
3680
ماذا لو كان النظام الذي لا نفهمه
07:16
was pickingاختيار up that it's easierأسهل
to sellيبيع Vegasلاس ticketsتذاكر
129
424200
5136
يقرر أنه من الأسهل أن يبيع تذاكر "فيجاس"
07:21
to people who are bipolarثنائي القطب
and about to enterأدخل the manicمهووس phaseمرحلة.
130
429360
3760
للناس المصابين بثنائية القطب
وهم على وشك الدخول بمرحلة الجنون.
07:25
Suchهذه people tendتميل to becomeيصبح
overspendersoverspenders, compulsiveلا يقاوم gamblersالمقامرين.
131
433640
4920
أناس كهؤلاء غالباً يكونون مسرفين
في الإنفاق أو مقامرين مدمنين...
07:31
They could do this, and you'dكنت have no clueدليل
that's what they were pickingاختيار up on.
132
439280
4456
الخوارزميات قد تفعل ذلك، وأنت لا تملك
أدنى فكرة أن هذا ما كانوا يقومون بتصنيفه.
07:35
I gaveأعطى this exampleمثال
to a bunchباقة of computerالحاسوب scientistsالعلماء onceذات مرة
133
443760
3616
لقد أعطيت هذا المثال لمجموعة
من علماء الحاسوب ذات مرة.
07:39
and afterwardsبعدئذ, one of them cameأتى up to me.
134
447400
2056
وبعد ذلك، جاء إلي واحدٌ منهم.
07:41
He was troubledمضطرب and he said,
"That's why I couldn'tلم أستطع publishنشر it."
135
449480
3520
لقد كان مضطرباً وقال :
"لهذا السبب لم أستطع نشرها."
07:45
I was like, "Couldn'tلم أستطع publishنشر what?"
136
453600
1715
أنا قلت: "لم تستطع نشر ماذا؟"
07:47
He had triedحاول to see whetherسواء you can indeedفي الواقع
figureالشكل out the onsetبداية of maniaهوس
137
455800
5856
لقد حاول أن يرى فيما إذا كنت ستستطيع
استشفاف بداية مس الجنون
07:53
from socialاجتماعي mediaوسائل الإعلام postsالمشاركات
before clinicalمرضي symptomsالأعراض,
138
461680
3216
من منشورات مواقع التواصل قبل بداية
الأعراض المرضية،
07:56
and it had workedعمل,
139
464920
1776
ولقد نجح ذلك،
07:58
and it had workedعمل very well,
140
466720
2056
بل نجح بشكل ممتاز،
08:00
and he had no ideaفكرة how it workedعمل
or what it was pickingاختيار up on.
141
468800
4880
وهو لم يكن لديه أي فكرة كيف نجح البرنامج
أو ما المعلومات التي كان يجمعها.
08:06
Now, the problemمشكلة isn't solvedتم حلها
if he doesn't publishنشر it,
142
474840
4416
الآن، المشكلة لا تُحل إذا لم
يقم بنشر المنشور،
08:11
because there are alreadyسابقا companiesالشركات
143
479280
1896
لأنه مسبقاً هناك شركات
08:13
that are developingتطوير
this kindطيب القلب of technologyتقنية,
144
481200
2536
تقوم بتطوير هذا النوع من التقنية،
08:15
and a lot of the stuffأمور
is just off the shelfرفوف.
145
483760
2800
والكثير من ما ينتجونه مأخوذ
من الموارد الموجودة ببساطة.
08:19
This is not very difficultصعب anymoreأي أكثر من ذلك.
146
487240
2576
هذا لم يعد شديد الصعوبة بعد الآن.
08:21
Do you ever go on YouTubeموقع YouTube
meaningالمعنى to watch one videoفيديو
147
489840
3456
هل جربتم من قبل أن تدخلون "يوتيوب"
بنيّة مشاهدة فيديو واحد
08:25
and an hourساعة laterفي وقت لاحق you've watchedشاهدت 27?
148
493320
2360
وبعد ساعة تكونون قد شاهدتم 27 فيديو؟
08:28
You know how YouTubeموقع YouTube
has this columnعمود on the right
149
496760
2496
تعرفون ذلك العمود على اليمين في "يوتيوب"
08:31
that saysيقول, "Up nextالتالى"
150
499280
2216
الذي اسمه "سيُعرض تالياً"
08:33
and it autoplaysالتشغيل التلقائي something?
151
501520
1816
ويقوم بتشغيل شيء ما تلقائياً؟
08:35
It's an algorithmخوارزمية
152
503360
1216
إنها خوارزمية
08:36
pickingاختيار what it thinksيعتقد
that you mightربما be interestedيستفد in
153
504600
3616
تلتقط ما تظن هي أنك قد تكون مهتماً به
08:40
and maybe not find on your ownخاصة.
154
508240
1536
وما قد لا تجده لوحدك.
08:41
It's not a humanبشري editorمحرر.
155
509800
1256
هذا ليس بفعل إنسان.
08:43
It's what algorithmsخوارزميات do.
156
511080
1416
إنه ما تفعله الخوارزميات.
08:44
It picksمختارات up on what you have watchedشاهدت
and what people like you have watchedشاهدت,
157
512520
4736
إنها تلتقط الأشياء التي قمت بمشاهدتها
والأشياء التي قام أناس مثلك بمشاهدتها،
08:49
and infersيستنتج that that mustيجب be
what you're interestedيستفد in,
158
517280
4216
وتستنتج أن ذلك لا بد أن يكون
ما أنت مهتم به،
08:53
what you want more of,
159
521520
1255
وما تريد المزيد منه،
08:54
and just showsعروض you more.
160
522799
1336
ثم يعرض عليك المزيد فحسب.
08:56
It soundsاصوات like a benignحميدة
and usefulمفيد featureميزة,
161
524159
2201
إنها تبدو ميزة حميدة ومفيدة،
08:59
exceptإلا when it isn't.
162
527280
1200
إلا عندما تكون غير ذلك.
09:01
So in 2016, I attendedحضرها ralliesمسيرات
of then-candidateثم المرشح Donaldدونالد Trumpورقة رابحة
163
529640
6960
ففي عام 2016 حضرت مسيرات
للمرشح حينها "دونالد ترمب"
09:09
to studyدراسة as a scholarعالم
the movementحركة supportingدعم him.
164
537840
3336
لأقوم كعالمة بدراسة الحركة الداعمة له.
09:13
I studyدراسة socialاجتماعي movementsالحركات,
so I was studyingدراسة عربي it, too.
165
541200
3456
أنا أدرس الحركات الاجتماعية،
لذا كنت أدرس ذلك أيضاً.
09:16
And then I wanted to writeاكتب something
about one of his ralliesمسيرات,
166
544680
3336
وبعدها أردت أن أكتب شيئاً
عن واحدة من تلك المسيرات،
09:20
so I watchedشاهدت it a fewقليل timesمرات on YouTubeموقع YouTube.
167
548040
1960
فقمت بمشاهدتها بعض المرات على "يوتيوب".
09:23
YouTubeموقع YouTube startedبدأت recommendingالتوصية to me
168
551240
3096
فبدأ "يوتيوب" بترشيح فيديوهات لي
09:26
and autoplayingالتشغيل التلقائي to me
whiteأبيض supremacistالشخص المؤمن بسيادة مجموعة videosأشرطة فيديو
169
554360
4256
ويشغل لي تلقائياً فيديوهات
عن العنصريين البيض
09:30
in increasingفي ازدياد orderطلب of extremismالتطرف.
170
558640
2656
في ترتيب متصاعد من التطرف.
09:33
If I watchedشاهدت one,
171
561320
1816
إذا شاهدت واحداً،
09:35
it servedخدم up one even more extremeأقصى
172
563160
2976
سينقلني حتى إلى فيديو أكثر تطرفاً
09:38
and autoplayedautoplayed that one, too.
173
566160
1424
ويقوم بتشغيله تلقائياً أيضاً.
09:40
If you watch Hillaryهيلاري Clintonكلينتون
or Bernieبيرني Sandersساندرز contentيحتوى,
174
568320
4536
إذا شاهدتم محتوى خاص بـ"هيلارس كلينتون"
أو "بيرني ساندرز"،
09:44
YouTubeموقع YouTube recommendsتوصي
and autoplaysالتشغيل التلقائي conspiracyمؤامرة left,
175
572880
4696
سيقوم "يوتيوب" بترشيح وتشغيل فيديوهات
عن اليساريين المتآمرين،
09:49
and it goesيذهب downhillانحدار from there.
176
577600
1760
وسوف ينحدر من تلك النقطة.
09:52
Well, you mightربما be thinkingتفكير,
this is politicsسياسة, but it's not.
177
580480
3056
حسناً، ربما تظنون أن هذا يتعلق
بالسياسة، لكنه ليس كذلك.
09:55
This isn't about politicsسياسة.
178
583560
1256
هذا لا يتعلق بالسياسة.
09:56
This is just the algorithmخوارزمية
figuringكشف out humanبشري behaviorسلوك.
179
584840
3096
هذه ببساطة فقط الخوارزمية
وهي تستنتج السلوك الإنساني.
09:59
I onceذات مرة watchedشاهدت a videoفيديو
about vegetarianismالنباتية نظرية on YouTubeموقع YouTube
180
587960
4776
مرةً شاهدت فيديو عن النظرية النباتية
على "يوتيوب".
10:04
and YouTubeموقع YouTube recommendedموصى به
and autoplayedautoplayed a videoفيديو about beingيجرى veganنباتي.
181
592760
4936
فقام "يوتيوب" بترشيح وتشغيل فيديو
عن كون المرء نباتياَ.
10:09
It's like you're never
hardcoreالمتشددين enoughكافية for YouTubeموقع YouTube.
182
597720
3016
كما لو أنك لن تكون أبداً شديداً
بما يكفي بالنسبة لـ"يوتيوب".
10:12
(Laughterضحك)
183
600760
1576
(ضحك)
10:14
So what's going on?
184
602360
1560
إذاً ما الذي يحدث؟
10:16
Now, YouTube'sمن يوتيوب algorithmخوارزمية is proprietaryامتلاكي,
185
604520
3536
إن خوارزمية يوتيوب امتلاكية،
10:20
but here'sمن هنا what I think is going on.
186
608080
2360
لكن إليكم ما أظن أنه يحدث.
10:23
The algorithmخوارزمية has figuredأحسب out
187
611360
2096
لقد اكتشفت الخوارزمية
10:25
that if you can enticeجذب people
188
613480
3696
أنك إذا استطعت أن تجذب الناس
10:29
into thinkingتفكير that you can
showتبين them something more hardcoreالمتشددين,
189
617200
3736
لمظنّة أنك تستطيع أن تريهم
ما هو أكثر إثارة
10:32
they're more likelyالمحتمل أن to stayالبقاء on the siteموقع
190
620960
2416
فإنهم أكثر احتمالاً أن يبقون على الموقع
10:35
watchingمشاهدة videoفيديو after videoفيديو
going down that rabbitأرنب holeالفجوة
191
623400
4416
يشاهدون فيديو تلو الآخر ويغرقون
في رحلة البحث والمشاهدة
10:39
while Googleجوجل servesيخدم them adsإعلانات.
192
627840
1680
في حين "جوجل" يقدم لهم الإعلانات.
10:43
Now, with nobodyلا أحد mindingالتدبير
the ethicsأخلاق of the storeمتجر,
193
631760
3120
الآن، بعدم وجود أي أحد يأبه إلى
أخلاقيات المتجر،
10:47
these sitesمواقع can profileالملف الشخصي people
194
635720
4240
هذه المواقع يمكنها أن تأخذ
معلومات عن الناس
10:53
who are Jewاليهودي hatersكارهي,
195
641680
1920
الذين يكرهون اليهود،
10:56
who think that Jewsيهود are parasitesطفيليات
196
644360
2480
الذين يظنون أن اليهود عبارة عن طفيليات
11:00
and who have suchهذه explicitصريح
anti-Semiticمعاد للسامية contentيحتوى,
197
648320
4920
والذين لديهم محتوى معادٍ للسامية
بصراحة شديدة،
11:06
and let you targetاستهداف them with adsإعلانات.
198
654080
2000
ويجعلونك تستهدفهم بالإعلانات.
11:09
They can alsoأيضا mobilizeحشد algorithmsخوارزميات
199
657200
3536
يمكنهم أيضاً أن يحشدوا الخوارزميات
11:12
to find for you look-alikeيبدو مشابها audiencesالجماهير,
200
660760
3136
ليجدوا لك جماهير تشبهك،
11:15
people who do not have suchهذه explicitصريح
anti-Semiticمعاد للسامية contentيحتوى on theirهم profileالملف الشخصي
201
663920
5576
أناس لا يملكون محتوى معادٍ للسامية
بشكل صريح على ملفاتهم
11:21
but who the algorithmخوارزمية detectsيكتشف
mayقد be susceptibleسريع التأثر to suchهذه messagesرسائل,
202
669520
6176
لكنهم ممن تكشفهم الخوارزمية على أنهم
سريعو التأثر برسائل كهذه،
11:27
and letsدعونا you targetاستهداف them with adsإعلانات, too.
203
675720
1920
وتجعلك تستهدفهم بالإعلانات أيضاً.
11:30
Now, this mayقد soundصوت
like an implausibleغير قابل للتصديق exampleمثال,
204
678680
2736
قد يبدو هذا مثالاً غير قابل للتصديق،
11:33
but this is realحقيقة.
205
681440
1320
لكنه حقيقي.
11:35
ProPublicaProPublica investigatedالتحقيق this
206
683480
2136
"بروببليكا" حققت بهذا الشأن
11:37
and foundوجدت that you can indeedفي الواقع
do this on Facebookفيس بوك,
207
685640
3616
ووجدت أنك بالفعل تستطيع
فعل ذلك على "فيسبوك"،
11:41
and Facebookفيس بوك helpfullyمفيد
offeredتقدم up suggestionsاقتراحات
208
689280
2416
وقد قام "فيسبوك" بعرض اقتراحات
11:43
on how to broadenتوسيع that audienceجمهور.
209
691720
1600
عن كيفية توسيع ذلك الجمهور
11:46
BuzzFeedبوزفيد triedحاول it for Googleجوجل,
and very quicklyبسرعة they foundوجدت,
210
694720
3016
قام موقع "باز فيد" بتجربة ذلك
من أجل "جوجل"، وقد وجدوا بسرعة،
11:49
yepموافق, you can do it on Googleجوجل, too.
211
697760
1736
أجل، يمكنك فعلها على "جوجل" أيضاً.
11:51
And it wasn'tلم يكن even expensiveمكلفة.
212
699520
1696
ولم تكن تجربة مكلفة حتى.
11:53
The ProPublicaProPublica reporterمراسل
spentأنفق about 30 dollarsدولار
213
701240
4416
شركة "بروببليكا" أنفقت ما يقارب 30 دولار
11:57
to targetاستهداف this categoryالفئة.
214
705680
2240
لتستهدف هذه الفئة.
12:02
So last yearعام, Donaldدونالد Trump'sترامب
socialاجتماعي mediaوسائل الإعلام managerمدير disclosedكشف
215
710600
5296
في السنة الماضية، أفصح مدير حسابات مواقع
التواصل الخاص بـ"دونالد ترمب"
12:07
that they were usingاستخدام Facebookفيس بوك darkداكن postsالمشاركات
to demobilizeتسريح people,
216
715920
5336
أنهم كانوا يستخدمون المنشورات الظلامية
في "فيسبوك" لتسريح الناس من وظائفها،
12:13
not to persuadeاقناع them,
217
721280
1376
ليس عن طريق إقناعهم بذلك،
12:14
but to convinceإقناع them not to voteتصويت at all.
218
722680
2800
بل بإقناعهم أن لا يقوموا بالتصويت
من الأساس.
12:18
And to do that,
they targetedالمستهدفة specificallyعلى وجه التحديد,
219
726520
3576
ولفعل ذلك، قاموا على وجه التحديد باستهداف،
12:22
for exampleمثال, African-Americanالافارقه الامريكان menرجالي
in keyمفتاح citiesمدن like Philadelphiaفيلادلفيا,
220
730120
3896
على سبيل المثال، رجال أمريكيين إفريقيين
في مدن رئيسة مثل "فيلادلفيا"،
12:26
and I'm going to readاقرأ
exactlyبالضبط what he said.
221
734040
2456
وسوف أقرأ ما قاله هو بالضبط.
12:28
I'm quotingنقلا عن.
222
736520
1216
أنا أقتبس.
12:29
They were usingاستخدام "nonpublicغير العامة postsالمشاركات
223
737760
3016
"كانوا يستخدمون منشورات ليست للعامة
12:32
whoseملك من viewershipالمشاهدين the campaignحملة controlsضوابط
224
740800
2176
والتي تتحكم الحملة بمشاهديها
12:35
so that only the people
we want to see it see it.
225
743000
3776
حيث يشاهدها الناس الذين نريدهم
أن يشاهدونها فحسب.
12:38
We modeledعلى غرار this.
226
746800
1216
لقد قمنا بتصميم هذا.
12:40
It will dramaticallyبشكل كبير affectتؤثر her abilityالقدرة
to turnمنعطف أو دور these people out."
227
748040
4720
وسيؤثر ذلك بشكل كبير على قدرتها
على تجنيد هؤلاء الناس."
12:45
What's in those darkداكن postsالمشاركات?
228
753720
2280
ماذا يوجد في هذه "المنشورات الظلامية"؟
12:48
We have no ideaفكرة.
229
756480
1656
ليس عندنا أي فكرة.
12:50
Facebookفيس بوك won'tمتعود tell us.
230
758160
1200
"فيسبوك" لن يخبرنا.
12:52
So Facebookفيس بوك alsoأيضا algorithmicallyحسابيا
arrangesيرتب the postsالمشاركات
231
760480
4376
إذاً "فيسبوك" أيضاً يقوم خوارزمياً
بترتيب المنشورات
12:56
that your friendsاصحاب put on Facebookفيس بوك,
or the pagesصفحات you followإتبع.
232
764880
3736
التي يضعها أصدقاؤك على "فيسبوك"،
أو الصفحات التي تقوم بمتابعتها.
13:00
It doesn't showتبين you
everything chronologicallyزمنيا.
233
768640
2216
فهو لا يريك كل شيء بالترتيب الزمني.
13:02
It putsيضع the orderطلب in the way
that the algorithmخوارزمية thinksيعتقد will enticeجذب you
234
770880
4816
بل يصمم الترتيب بالطريقة التي تظن بها
الخوارزميات أنها ستجذبك.
13:07
to stayالبقاء on the siteموقع longerطويل.
235
775720
1840
لتبقى على الموقع لفترة أطول.
13:11
Now, so this has a lot of consequencesالآثار.
236
779040
3376
إذاً لهذا الكثير من العواقب.
13:14
You mayقد be thinkingتفكير
somebodyشخص ما is snubbingالازدراء you on Facebookفيس بوك.
237
782440
3800
ربما تظن أن أحداً ما يقوم بتجاهلك
على "فيسبوك"
13:18
The algorithmخوارزمية mayقد never
be showingتظهر your postبريد to them.
238
786800
3256
لكن ربما الخوارزمية لا تقوم أبداً بإظهار
منشوراتك لهم.
13:22
The algorithmخوارزمية is prioritizingترتيب الاولويات
some of them and buryingدفن the othersالآخرين.
239
790080
5960
تقوم الخوارزمية بإعطاء الأولوية
لبعضهم وبدفن ما تبقى.
13:29
Experimentsتجارب showتبين
240
797320
1296
تظهر التجارب
13:30
that what the algorithmخوارزمية picksمختارات to showتبين you
can affectتؤثر your emotionsالعواطف.
241
798640
4520
أن ما تختار أن تظهره لك الخوارزميات
يمكن أن يؤثر على عواطفك.
13:36
But that's not all.
242
804600
1200
لكن هذا ليس كل مافي الأمر.
13:38
It alsoأيضا affectsيؤثر politicalسياسي behaviorسلوك.
243
806280
2360
بل إنها تؤثر أيضاً على السلوك السياسي.
13:41
So in 2010, in the midtermالنصفية electionsانتخابات,
244
809360
4656
في عام 2010، في انتخابات منتصف فترة الحكم،
13:46
Facebookفيس بوك did an experimentتجربة
on 61 millionمليون people in the US
245
814040
5896
أجرى "فيسبوك" تجربة على 61 مليون شخص
في الولايات المتحدة.
13:51
that was disclosedكشف after the factحقيقة.
246
819960
1896
والتي كُشف عنها بعد ما ظهرت الحقيقة.
13:53
So some people were shownأظهرت,
"Todayاليوم is electionانتخاب day,"
247
821880
3416
حيث ظهر لبعض الناس
"اليوم هو يوم الانتخابات،"
13:57
the simplerبساطة one,
248
825320
1376
وهو الإعلان الأبسط،
13:58
and some people were shownأظهرت
the one with that tinyصغيرة جدا tweakقرص
249
826720
3896
وبعض الناس ظهر لهم الإعلان
الذي يحتوي تلاعباً خفيفاً
14:02
with those little thumbnailsالصور المصغرة
250
830640
2096
مع تلك الصور الصغيرة
14:04
of your friendsاصحاب who clickedالنقر on "I votedتم التصويت."
251
832760
2840
لأصدقائك الذين ضغطوا على
"أنا قمت بالتصويت."
14:09
This simpleبسيط tweakقرص.
252
837000
1400
هذا التلاعب البسيط.
14:11
OK? So the picturesالصور were the only changeيتغيرون,
253
839520
4296
حسناً؟ إذاً الصور كانت هي التغيير الوحيد،
14:15
and that postبريد shownأظهرت just onceذات مرة
254
843840
3256
وذلك المنشور ظهر مرةً واحدة
14:19
turnedتحول out an additionalإضافي 340,000 votersالناخبين
255
847120
6056
قام بحشد 340,000 مصوتين إضافيين
14:25
in that electionانتخاب,
256
853200
1696
في تلك الحملة الانتخابية،
14:26
accordingعلي حسب to this researchابحاث
257
854920
1696
وفقاً لهذا البحث
14:28
as confirmedتم تأكيد by the voterناخب rollsلفات.
258
856640
2520
وكما تم تأكيده من قبل قوائم المصوتين.
14:32
A flukeحظ? No.
259
860920
1656
مجرد حظ؟ لا.
14:34
Because in 2012,
they repeatedمتكرر the sameنفسه experimentتجربة.
260
862600
5360
لأنهم في عام 2012 أعادوا التجربة ذاتها.
14:40
And that time,
261
868840
1736
وتلك المرة،
14:42
that civicمدني messageرسالة shownأظهرت just onceذات مرة
262
870600
3296
تلك الرسالة المدنية ظهرت مرة واحدة
14:45
turnedتحول out an additionalإضافي 270,000 votersالناخبين.
263
873920
4440
وقامت بحشد 270,000 مصوت إضافي.
14:51
For referenceمرجع, the 2016
US presidentialرئاسي electionانتخاب
264
879160
5216
لأخذ العلم، الانتخابات الرئاسية
في أمريكا لعام 2016
14:56
was decidedقرر by about 100,000 votesالأصوات.
265
884400
3520
شارك فيها حوالي 100,000 صوت.
15:01
Now, Facebookفيس بوك can alsoأيضا
very easilyبسهولة inferالمخاطر what your politicsسياسة are,
266
889360
4736
الآن، يستطيع "فيسبوك" أيضاً بسهولة تامة
أن يستنتج آراءك السياسية،
15:06
even if you've never
disclosedكشف them on the siteموقع.
267
894120
2256
حتى ولو لم تفصح عنها من قبل على الموقع.
15:08
Right? These algorithmsخوارزميات
can do that quiteالى حد كبير easilyبسهولة.
268
896400
2520
صحيح؟ هذه الخوارزميات يمكنها
فعل ذلك بسهولة تامة.
15:11
What if a platformبرنامج with that kindطيب القلب of powerقوة
269
899960
3896
ماذا لو قررت منصة بذلك النوع من القوة
15:15
decidesيقرر to turnمنعطف أو دور out supportersأنصار
of one candidateمرشح over the other?
270
903880
5040
أن تجند الداعمين لأحد المرشحين
ضد المرشح الآخر؟
15:21
How would we even know about it?
271
909680
2440
كيف سنعرف حتى أن هذا ما قد حدث؟
15:25
Now, we startedبدأت from someplaceفي مكان ما
seeminglyعلى ما يبدو innocuousغير مؤذية --
272
913560
4136
لقد بدأنا الحديث من مكان ما
لا يظهر أنه مؤذي...
15:29
onlineعبر الانترنت addsيضيف followingالتالية us around --
273
917720
2216
إعلانات على الانترنت تتبعنا أينما ذهبنا...
15:31
and we'veقمنا landedهبطت someplaceفي مكان ما elseآخر.
274
919960
1840
ثم وصلنا إلى مكان آخر.
15:35
As a publicعامة and as citizensالمواطنين,
275
923480
2456
بصفتنا الشعب وبصفتنا المواطنون،
15:37
we no longerطويل know
if we're seeingرؤية the sameنفسه informationمعلومات
276
925960
3416
نحن لم نعد نعرف إذا كنا نرى جميعاً
المعلومات نفسها
15:41
or what anybodyاي شخص elseآخر is seeingرؤية,
277
929400
1480
أو ماذا يرى أي أحد آخر،
15:43
and withoutبدون a commonمشترك basisأساس of informationمعلومات,
278
931680
2576
ومن دون أساسيات عامة من المعلومات،
15:46
little by little,
279
934280
1616
شيئاً فشيئاً،
15:47
publicعامة debateالنقاش is becomingتصبح impossibleغير ممكن,
280
935920
3216
المناظرة العامة تصبح مستحيلة،
15:51
and we're just at
the beginningالبداية stagesمراحل of this.
281
939160
2976
ونحن لسنا إلا في المراحل الأولى لذلك.
15:54
These algorithmsخوارزميات can quiteالى حد كبير easilyبسهولة inferالمخاطر
282
942160
3456
هذه الخوارزميات تستطيع بسهولة تامة
أن تستنتج
15:57
things like your people'sوالناس ethnicityالأصل العرقي,
283
945640
3256
أموراً مثل الأصل العرقي للناس،
16:00
religiousمتدين and politicalسياسي viewsالآراء,
personalityالشخصية traitsسمات,
284
948920
2336
آراء سياسية ودينية، والخصال السلوكية،
16:03
intelligenceالمخابرات, happinessسعادة,
use of addictiveالادمان substancesمواد,
285
951280
3376
الذكاء، السعادة، تعاطي المواد المدمنة،
16:06
parentalأبوي separationانفصال, ageعمر and gendersالجنسين,
286
954680
3136
إنفصال الوالديَن، العمر والجنس،
16:09
just from Facebookفيس بوك likesالإعجابات.
287
957840
1960
فقط من إعجابات "فيسبوك".
16:13
These algorithmsخوارزميات can identifyتحديد protestersالمتظاهرين
288
961440
4056
هذه الخوارزميات يمكنها أن تتعرف
على المعارضين
16:17
even if theirهم facesوجوه
are partiallyجزئيا concealedمخفي.
289
965520
2760
حتى ولو كانت وجوههم مخفية جزئياً.
16:21
These algorithmsخوارزميات mayقد be ableقادر
to detectالكشف people'sوالناس sexualجنسي orientationاتجاه
290
969720
6616
هذه الخوارزميات قد تكون قادرة
على اكتشاف الميول الجنسية للناس
16:28
just from theirهم datingالتعارف profileالملف الشخصي picturesالصور.
291
976360
3200
فقط من صورهم الشخصية على مواقع المواعدة.
16:33
Now, these are probabilisticاحتمالي guessesالتخمينات,
292
981560
2616
إن هذه تخمينات احتمالية،
16:36
so they're not going
to be 100 percentنسبه مئويه right,
293
984200
2896
لذا فهي لن تكون صحيحة مئة بالمئة،
16:39
but I don't see the powerfulقوي resistingمقاومة
the temptationإغراء to use these technologiesالتقنيات
294
987120
4896
لكنني لا أرى أصحاب السيطرة يقاومون
الإغراء لاستخدام هذه التقنيات
16:44
just because there are
some falseخاطئة positivesالايجابيات,
295
992040
2176
فقط بسبب وجود بعض الإيجابيات المزيفة،
16:46
whichالتي will of courseدورة createخلق
a wholeكامل other layerطبقة of problemsمشاكل.
296
994240
3256
والتي ستخلق بالطبع طبقة أخرى
كاملة من المشاكل.
16:49
Imagineتخيل what a stateحالة can do
297
997520
2936
تصوروا ماذا تستطيع ولاية أن تفعله
16:52
with the immenseهائل amountكمية of dataالبيانات
it has on its citizensالمواطنين.
298
1000480
3560
بالكم الهائل من البيانات التي تملكها
عن مواطنيها.
16:56
Chinaالصين is alreadyسابقا usingاستخدام
faceوجه detectionكشف technologyتقنية
299
1004680
4776
إن "الصين" تقوم من الآن باستخدام
تقنية التحقق من الوجوه
17:01
to identifyتحديد and arrestيقبض على people.
300
1009480
2880
للتعرف على الناس واعتقالهم.
17:05
And here'sمن هنا the tragedyمأساة:
301
1013280
2136
وهنا تكمن المأساة:
17:07
we're buildingبناء this infrastructureبنية تحتية
of surveillanceمراقبة authoritarianismالاستبداد
302
1015440
5536
نحن نبني هذه البنية التحتية
من المراقبة الاستبدادية
17:13
merelyمجرد to get people to clickانقر on adsإعلانات.
303
1021000
2960
فقط لنحمل الناس على أن يضغطوا
على الإعلانات.
17:17
And this won'tمتعود be
Orwell'sأورويل authoritarianismالاستبداد.
304
1025240
2576
وهذا لن يكون الاستبداد الذي تحدث
عنه "أورويل".
17:19
This isn't "1984."
305
1027839
1897
نحن لسنا في رواية "1984".
17:21
Now, if authoritarianismالاستبداد
is usingاستخدام overtعلني fearخوف to terrorizeإرهاب us,
306
1029760
4576
إذا كان الاستبداد يستخدم الخوف
العلني ليقوم بإرهابنا،
17:26
we'llحسنا all be scaredخائف، خواف، مذعور, but we'llحسنا know it,
307
1034359
2897
سنكون جميعنا خائفين،
لكننا سنكون على معرفة بالأمر،
17:29
we'llحسنا hateاكرهه it and we'llحسنا resistيقاوم it.
308
1037280
2200
سوف نكره ذلك وسنقوم بمقاومته.
17:32
But if the people in powerقوة
are usingاستخدام these algorithmsخوارزميات
309
1040880
4416
لكن لو كان الناس في السلطة يستخدمون
هذه الخوارزميات
17:37
to quietlyبهدوء watch us,
310
1045319
3377
لتقوم بمراقبتنا في الخفاء،
17:40
to judgeالقاضي us and to nudgeوكزة us,
311
1048720
2080
لتقوم بالحكم علينا والتحكم بنا،
17:43
to predictتنبؤ and identifyتحديد
the troublemakersمثيري الشغب and the rebelsالثوار,
312
1051720
4176
لتقوم بالتعرف على وبالتنبؤ بمفتعلي
المشاكل والمتمردين،
17:47
to deployنشر persuasionإقناع
architecturesأبنية at scaleمقياس
313
1055920
3896
لتقوم بنشر هندسة الإقناع على مستوى ضخم
17:51
and to manipulateمعالجة individualsالأفراد one by one
314
1059840
4136
ولتتلاعب بالأفراد واحداً تلو الآخر
17:56
usingاستخدام theirهم personalالشخصية, individualفرد
weaknessesنقاط الضعف and vulnerabilitiesنقاط الضعف,
315
1064000
5440
باستخدام نقاط ضعفهم الشخصية
ومكامن هشاشتهم،
18:02
and if they're doing it at scaleمقياس
316
1070720
2200
وإذا كانوا يفعلون ذلك على مستوى ضخم
18:06
throughعبر our privateنشر screensشاشات
317
1074080
1736
عبر شاشاتنا الخاصة
18:07
so that we don't even know
318
1075840
1656
حيث لا نعلم حتى
18:09
what our fellowزميل citizensالمواطنين
and neighborsالجيران are seeingرؤية,
319
1077520
2760
ماذا يرى جيراننا والمواطنون أمثالنا،
18:13
that authoritarianismالاستبداد
will envelopظرف us like a spider'sفي العنكبوت webشبكة
320
1081560
4816
فذلك الاستبداد سوف يحيط بنا كشبكة عنكبوت
18:18
and we mayقد not even know we're in it.
321
1086400
2480
ونحن قد لا نعرف حتى أننا فيها.
18:22
So Facebook'sفي الفيسبوك marketسوق capitalizationرسملة
322
1090440
2936
إذاً رسملة سوق "فيسبوك"
18:25
is approachingتقترب halfنصف a trillionتريليون dollarsدولار.
323
1093400
3296
تقترب من نصف تريليون دولار.
18:28
It's because it worksأعمال great
as a persuasionإقناع architectureهندسة معمارية.
324
1096720
3120
هذا لأنها تعمل بشكل ممتاز كهندسة إقناع.
18:33
But the structureبناء of that architectureهندسة معمارية
325
1101760
2816
لكن بنية هذه الهندسة
18:36
is the sameنفسه whetherسواء you're sellingيبيع shoesأحذية
326
1104600
3216
هي ذاتها سواء كنت تشتري أحذية
18:39
or whetherسواء you're sellingيبيع politicsسياسة.
327
1107840
2496
أو كنت تبيع السياسة.
18:42
The algorithmsخوارزميات do not know the differenceفرق.
328
1110360
3120
الخوارزميات لا تعرف الفرق.
18:46
The sameنفسه algorithmsخوارزميات setجلس looseواسع uponبناء على us
329
1114240
3296
الخوارزميات نفسها التي يتم إطلاقها علينا
18:49
to make us more pliableمرن for adsإعلانات
330
1117560
3176
لتجعلنا أكثر خضوعاً للإعلانات
18:52
are alsoأيضا organizingتنظيم our politicalسياسي,
personalالشخصية and socialاجتماعي informationمعلومات flowsيطفو,
331
1120760
6736
هي أيضاً التي تقوم بتنظيم تدفق معلوماتنا
السياسية والشخصية والاجتماعية،
18:59
and that's what's got to changeيتغيرون.
332
1127520
1840
وهذا ما يجب أن يتم تغييره.
19:02
Now, don't get me wrongخطأ,
333
1130240
2296
والآن لا تسيئوا فهمي،
19:04
we use digitalرقمي platformsمنصات
because they provideتزود us with great valueالقيمة.
334
1132560
3680
نحن نستخدم المنصات الرقمية لأنها
تزودنا بفائدة كبيرة.
19:09
I use Facebookفيس بوك to keep in touchلمس. اتصال. صلة
with friendsاصحاب and familyأسرة around the worldالعالمية.
335
1137120
3560
أنا أستخدم "فيسبوك" لأبقى على تواصل
مع الأصدقاء والعائلة حول العالم.
19:14
I've writtenمكتوب about how crucialمهم
socialاجتماعي mediaوسائل الإعلام is for socialاجتماعي movementsالحركات.
336
1142000
5776
لقد كتبت عن مدى أهمية شبكات التواصل
الاجتماعي في حركاتنا الاجتماعية.
19:19
I have studiedدرس how
these technologiesالتقنيات can be used
337
1147800
3016
لقد درست كيف يمكن أن تُستخدم هذه التقنيات
19:22
to circumventتحايل censorshipرقابة around the worldالعالمية.
338
1150840
2480
للتحايل على الرقابة حول العالم.
19:27
But it's not that the people who runيركض,
you know, Facebookفيس بوك or Googleجوجل
339
1155280
6416
لكن الأمر ليس أن الناس الذين يديرون
الشركات مثل "فيسبوك" و"جوجل"
19:33
are maliciouslyضار and deliberatelyعن عمد tryingمحاولة
340
1161720
2696
يحاولون بشكل متعمد وضار
19:36
to make the countryبلد
or the worldالعالمية more polarizedالاستقطاب
341
1164440
4456
أن يجعلوا من البلد أو العالم أكثر قطبيةً
19:40
and encourageالتشجيع extremismالتطرف.
342
1168920
1680
ويشجعون على التطرف.
19:43
I readاقرأ the manyكثير
well-intentionedالنوايا الحسنة statementsصياغات
343
1171440
3976
لقد قرأت التصاريح العديدة حسنة النية
19:47
that these people put out.
344
1175440
3320
التي يدلي بها هؤلاء الناس.
19:51
But it's not the intentنوايا or the statementsصياغات
people in technologyتقنية make that matterشيء,
345
1179600
6056
لكنها ليست النية أو التصريح الذي تخص الناس
في عالم التكنولوجيا هي ما يهم،
19:57
it's the structuresالهياكل
and businessاعمال modelsعارضات ازياء they're buildingبناء.
346
1185680
3560
بل الهياكل ونماذج العمل التي يبنونها.
20:02
And that's the coreالنواة of the problemمشكلة.
347
1190360
2096
وهذا هو جوهر المشكلة.
20:04
Eitherإما Facebookفيس بوك is a giantعملاق con
of halfنصف a trillionتريليون dollarsدولار
348
1192480
4720
إما أن "فيسبوك" هو خدعة عملاقة
تزن نصف ترليون دولار
20:10
and adsإعلانات don't work on the siteموقع,
349
1198200
1896
والإعلانات لا تعمل على الموقع،
20:12
it doesn't work
as a persuasionإقناع architectureهندسة معمارية,
350
1200120
2696
وهي لا تعمل كهندسة إقناع،
20:14
or its powerقوة of influenceتأثير
is of great concernالاهتمام.
351
1202840
4120
أو أن قوة التأثير لديه تشكل قلقاً كبيراً،
20:20
It's eitherإما one or the other.
352
1208560
1776
إنه إما واحدة أو الأخرى،
20:22
It's similarمماثل for Googleجوجل, too.
353
1210360
1600
والأمر ينطبق على "جوجل" أيضاً.
20:24
So what can we do?
354
1212880
2456
إذاً ما الذي يمكننا فعله؟
20:27
This needsالاحتياجات to changeيتغيرون.
355
1215360
1936
يجب أن يتغير هذا.
20:29
Now, I can't offerعرض a simpleبسيط recipeوصفة,
356
1217320
2576
وأنا لا يسعني أن أقدم وصفة بسيطة،
20:31
because we need to restructureإعادة هيكلة
357
1219920
2256
لأننا مضطرون لإعادة هيكلة
20:34
the wholeكامل way our
digitalرقمي technologyتقنية operatesتعمل.
358
1222200
3016
الطريقة التي تعمل بها تقنيتنا
الرقمية بكاملها.
20:37
Everything from the way
technologyتقنية is developedالمتقدمة
359
1225240
4096
كل شيء ابتداءً من الطريقة التي
يتم فيها تطوير التقنية
20:41
to the way the incentivesحوافز,
economicاقتصادي and otherwiseغير ذلك,
360
1229360
3856
وصولاً إلى الطريقة حيث
المحفزات الاقتصادية وغيرها
20:45
are builtمبني into the systemالنظام.
361
1233240
2280
يتم بناؤها في النظام.
20:48
We have to faceوجه and try to dealصفقة with
362
1236480
3456
يجب علينا أن نواجه ونحاول التعامل مع
20:51
the lackقلة of transparencyشفافية
createdخلقت by the proprietaryامتلاكي algorithmsخوارزميات,
363
1239960
4656
الفقر إلى الشفافية الذي تخلقه
الخوارزميات الامتلاكية،
20:56
the structuralالهيكلي challengeالتحدي
of machineآلة learning'sفي التعلم opacityغموض,
364
1244640
3816
والتحدي الهيكلي في غموض تعلم الآلة،
21:00
all this indiscriminateغير مميز dataالبيانات
that's beingيجرى collectedجمع about us.
365
1248480
3400
كل هذه البيانات التي يتم جمعها
عنا بشكل عشوائي.
21:05
We have a bigكبير taskمهمة in frontأمامي of us.
366
1253000
2520
أمامنا مهمة كبيرة علينا القيام بها.
21:08
We have to mobilizeحشد our technologyتقنية,
367
1256160
2680
يجب علينا أن نحشد تقنيتنا،
21:11
our creativityالإبداع
368
1259760
1576
وإبداعنا،
21:13
and yes, our politicsسياسة
369
1261360
1880
وأجل، سياستنا
21:16
so that we can buildبناء
artificialمصطنع intelligenceالمخابرات
370
1264240
2656
حيث يمكننا أن نبني ذكاءً اصطناعياً
21:18
that supportsالدعم us in our humanبشري goalsأهداف
371
1266920
3120
يقوم بدعمنا في أهدافنا البشرية
21:22
but that is alsoأيضا constrainedمقيدة
by our humanبشري valuesالقيم.
372
1270800
3920
لكنه أيضاً مقيّد بقيمنا الإنسانية.
21:27
And I understandتفهم this won'tمتعود be easyسهل.
373
1275600
2160
وأنا أفهم أن هذا لن يكون سهلاً.
21:30
We mightربما not even easilyبسهولة agreeيوافق على
on what those termsشروط mean.
374
1278360
3600
نحن قد لا نتفق بسهولة حتى على
ما تعنيه هذه المصطلحات.
21:34
But if we take seriouslyبشكل جاد
375
1282920
2400
لكننا لو أخذنا بجدية
21:38
how these systemsأنظمة that we
dependتعتمد on for so much operateالعمل,
376
1286240
5976
كيف تعمل هذه الأنظمة التي نعتمد عليها بشدة
21:44
I don't see how we can postponeتأجيل
this conversationمحادثة anymoreأي أكثر من ذلك.
377
1292240
4120
فأنا لا أرى كيف يسعنا أن نؤجل
هذه المحادثة أكثر من ذلك.
21:49
These structuresالهياكل
378
1297200
2536
هذه الهياكل
21:51
are organizingتنظيم how we functionوظيفة
379
1299760
4096
تقوم بتنظيم كيف نعمل
21:55
and they're controllingالمتابعة
380
1303880
2296
وهي تتحكم
21:58
what we can and we cannotلا تستطيع do.
381
1306200
2616
بما يمكننا وما لا يمكننا فعله.
22:00
And manyكثير of these ad-financedالممولة الإعلان platformsمنصات,
382
1308840
2456
والعديد من هذه المنصات التي تكسب
ربحها بالإعلانات،
22:03
they boastتباهى that they're freeحر.
383
1311320
1576
تتباهي بأنها مجانية.
22:04
In this contextسياق الكلام, it meansيعني
that we are the productالمنتج that's beingيجرى soldتم البيع.
384
1312920
4560
في هذا السياق، هذا يعني أننا
نحن المنتج الذي يتم بيعه.
22:10
We need a digitalرقمي economyاقتصاد
385
1318840
2736
نحن نحتاج اقتصاداً رقمياً
22:13
where our dataالبيانات and our attentionانتباه
386
1321600
3496
حيث بياناتنا وانتباهنا
22:17
is not for saleتخفيض السعر to the highest-biddingأعلى-تقديم العطاءات
authoritarianاستبدادي or demagogueالدهماوي.
387
1325120
5080
ليست للبيع من أجل أكثر من يدفع
من الاستبداديين أو الدهماويين.
22:23
(Applauseتصفيق)
388
1331160
3800
(تصفيق)
22:30
So to go back to
that Hollywoodهوليوود paraphraseشرح النص,
389
1338480
3256
لذا دعونا نعد إلى تلك العبارة الهوليوودية
التي أعدت صياغتها،
22:33
we do want the prodigiousاستثنائي potentialمحتمل
390
1341760
3736
نحن نريد بالفعل الإمكانات غير العادية
22:37
of artificialمصطنع intelligenceالمخابرات
and digitalرقمي technologyتقنية to blossomزهر,
391
1345520
3200
للذكاء الاصطناعي والتقنية الرقمية
أن تزدهر،
22:41
but for that, we mustيجب faceوجه
this prodigiousاستثنائي menaceتهديد,
392
1349400
4936
لكن من أجل ذلك، يجب أن نواجه
هذا التهديد غير العادي،
22:46
open-eyedمفتوح العينين and now.
393
1354360
1936
بعيون مفتوحة والآن.
22:48
Thank you.
394
1356320
1216
شكراً لكم.
22:49
(Applauseتصفيق)
395
1357560
4640
(تصفيق)
Translated by Muhammad Rajab
Reviewed by Hussain Laghabi

▲Back to top

ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.

Why you should listen

We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.

Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.

Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.

More profile about the speaker
Zeynep Tufekci | Speaker | TED.com