ABOUT THE SPEAKERS
Kashmir Hill - Technology journalist
Kashmir Hill writes about privacy and technology.

Why you should listen

Kashmir Hill is a senior reporter for the Gizmodo Media Group. As she writes: "I started out in journalism blogging at what was essentially an online tabloid for lawyers. Then I got interested in privacy, and that forced me to write about Facebook and eventually about other technologies; along the way people started describing me as a technology journalist instead of a legal blogger.

"I've always wanted my writing to be approachable for a lay audience, so I usually use humor, a first-person approach or, ideally, both. So I've hacked a smart home, lived in a monitored one, created a fake business and bought it a fake reputation, worked as a crowdsourced girlfriend, lived on Bitcoin and spent a whole week WRITING IN CAPS LOCK. The best way to prepare people for future possible tech dystopias is for me to live in them and report back."

More profile about the speaker
Kashmir Hill | Speaker | TED.com
Surya Mattu - Artist, investigative journalist, engineer
Think of Surya Mattu as a data detective. As he writes: "I am interested in figuring out the ways in which algorithmic systems harm people."

Why you should listen

Surya Mattu is a data reporter on Gizmodo's Special Projects Desk and an R&D journalism resident at Eyebeam NYC. As he writes: "My practice combines art, investigative journalism, engineering and creative technology. The aim is to reverse-engineer the specific ways in which the tools or technology we create are imbued with the ethics of the culture in which they're created. Currently, I am a data reporter. Previously, I was a contributing researcher at ProPublica, where I worked on "Machine Bias," a series that aims to highlight how algorithmic systems can be biased and discriminate against people."

More profile about the speaker
Surya Mattu | Speaker | TED.com
TED2018

Kashmir Hill and Surya Mattu: What your smart devices know (and share) about you

کشمیر هیل و سوریا ماتوو: دستگاه‌های هوشمندتان درباره شما چه می‌دانند (و منتشر می کنند)

Filmed:
2,030,169 views

زمانی که دستگاه‌های هوشمند متعلق به شما قادر به صحبت کردن با شما می‌شوند، دیگر با چه افرادی حرف می‌زنند؟ کشمیر هیل و سوریا ماتوو می‌خواستند از این سر در بیاورند -- بنابراین آنها آپارتمان هیل را با ۱۸ دستگاه متصل به اینترنت مجهز کردند و روتر مخصوصی را ساختند برای ردیابی این که دستگاه‌ها در چه فواصل زمانی به سرورهای خود وصل می‌شدند و چه گزارش‌های می‌دادند. نتایج شگفت‌آور بود -- و خب کمی هم چندش‌آور. بیشتر بیاموزیید از چیزی که داده‌ها از دستگاه‌های هوشمند درباره برنامه خواب، زیاده روی در تماشای تلویزیون و حتی عادات مسواک زدن شما آشکار می‌کنند -- و چطور فناوری‌های جدید می‌توانند از آنها برای هدف قرار دادن و شرح حال ساختن از شما استفاده کنند. (این گفتار حاوی مطالب مربوط به بزرگسالان است.)
- Technology journalist
Kashmir Hill writes about privacy and technology. Full bio - Artist, investigative journalist, engineer
Think of Surya Mattu as a data detective. As he writes: "I am interested in figuring out the ways in which algorithmic systems harm people." Full bio

Double-click the English transcript below to play the video.

00:12
Kashmirکشمیر Hillهیل: So for my
birthdayروز تولد last yearسال,
0
912
2135
کشمیر هیل: پارسال همسرم برای تولدم
00:15
my husbandشوهر got me an Amazonآمازون Echoاکو.
1
3071
1993
یک آمازون اکو گرفت.
00:17
I was kindنوع of shockedبهت زده, actuallyدر واقع,
2
5595
1540
راستش یک جورهایی شوکه شدم،
00:19
because we bothهر دو work
in privacyحریم خصوصی and securityامنیت.
3
7159
3234
چون ما هر دو در زمینه امنیت
و حریم خصوصی کار می‌کنیم.
00:22
(Laughterخنده)
4
10417
1336
(خنده)
00:24
And this was a deviceدستگاه that would sitنشستن
in the middleوسط of our home
5
12688
3389
و این دستگاهی بود که با یک میکروفن روشن
00:28
with a microphoneمیکروفون on,
6
16101
1436
در وسط منزل ما قرار می‌گرفت،
00:29
constantlyبه طور مداوم listeningاستماع.
7
17561
1649
مدام در حال گوش دادن بود.
00:31
We're not aloneتنها, thoughگرچه.
8
19696
1254
خب ما تنها نبودیم.
00:32
Accordingبا توجه to a surveyنظر سنجی by NPRNPR
and Edisonادیسون Researchپژوهش,
9
20974
2881
بررسی موسسه تحقیقاتی ادیسون
و ان پی آر نشان می‌دهد
00:35
one in sixشش Americanآمریکایی adultsبزرگسالان
now has a smartهوشمندانه speakerبلندگو,
10
23879
4079
از هر شش بزرگسال آمریکایی
یک نفر بلندگوی هوشمند دارد،
00:39
whichکه meansبه معنای that they have
a virtualمجازی assistantدستیار at home.
11
27982
2881
این یعنی آنها دستیاری مجازی در منزل دارند.
00:42
Like, that's wildوحشی.
12
30887
1198
که باور کردنی نیست.
00:44
The futureآینده, or the futureآینده dystopiadystopia,
is gettingگرفتن here fastسریع.
13
32109
4116
آینده، یا پادآرمانشهر آینده
با سرعت به اینجا می‌رسد.
00:48
Beyondفراتر that, companiesشرکت ها are offeringارائه us
all kindsانواع of internet-connectedمتصل به اینترنت devicesدستگاه ها.
14
36778
4507
فراتر از آن، شرکت‌ها انواع دستگاه‌های
متصل به اینترنت را پیشنهاد می‌کنند.
00:53
There are smartهوشمندانه lightsچراغ ها, smartهوشمندانه locksقفل,
smartهوشمندانه toiletsتوالت, smartهوشمندانه toysاسباب بازی ها,
15
41309
4968
چراغ‌های هوشمند،‌ قفل‌های‌ هوشمند،
توالت‌های هوشمند، اسباب‌بازی‌های هوشمند،
00:58
smartهوشمندانه sexارتباط جنسی toysاسباب بازی ها.
16
46301
1311
اسباب‌بازی‌های هوشمند سکس.
01:00
Beingبودن smartهوشمندانه meansبه معنای the deviceدستگاه
can connectاتصال to the internetاینترنت,
17
48323
2691
هوشمند بودن یعنی دستگاه به
اینترنت می‌تواند وصل شود،
01:03
it can gatherجمع آوری dataداده ها,
18
51038
1176
داده جمع‌آوری کند،
01:04
and it can talk to its ownerصاحب.
19
52238
1902
و با صاحبش حرف بزند.
01:06
But onceیک بار your appliancesلوازم خانگی can talk to you,
20
54966
2714
اما وقتی این وسایل‌
بتوانند با شما صحبت کنند
01:09
who elseچیز دیگری are they going to be talkingصحبت کردن to?
21
57704
2145
دیگر با چه اشخاص دیگری
قادر به صحبت هستند؟
01:12
I wanted to find out,
22
60331
1365
می‌خواستم بفهمم،
01:13
so I wentرفتی all-inهمه چیز در and turnedتبدیل شد my
one-bedroomیک خوابه apartmentاپارتمان in Sanسان Franciscoفرانسیسکو
23
61720
3388
پس کاری که کردم این بود که آپارتمان
یک خوابه‌ام در سان‌فرانسیسکو را
01:17
into a smartهوشمندانه home.
24
65132
1349
تماما به خانه‌ای هوشمند تبدیل کردم.
01:18
I even connectedمتصل our bedبستر to the internetاینترنت.
25
66800
3091
من حتی تخت‌مان را به اینترنت وصل کردم.
01:22
As farدور as I know, it was just
measuringاندازه گیری our sleepingخوابیدن habitsعادات.
26
70505
3302
تا جایی که مطلع هستم،‌
فقط عادت‌های خوابیدن ما را اندازه می‌گرفت.
01:26
I can now tell you
that the only thing worseبدتر
27
74490
2081
می‌توانم بدترین ایرادش را برای شما بگویم
01:28
than gettingگرفتن a terribleوحشتناک night'sشب sleepبخواب
28
76595
1787
که بعد از داشتن یک خواب شبانه وحشتناک
01:30
is to have your smartهوشمندانه bedبستر
tell you the nextبعد day
29
78406
2417
تخت هوشمند شما روز بعد به شما بگوید
01:32
that you "missedاز دست رفته your goalهدف
and got a lowکم sleepبخواب scoreنمره."
30
80847
3056
که «به هدف خود دست پیدا نکردید
و امتیاز خواب شما پایین است.»
01:35
(Laughterخنده)
31
83927
1380
(خنده)
01:37
It's like, "Thanksبا تشکر, smartهوشمندانه bedبستر.
32
85331
1437
مثل این است: «مرسی تخت هوشمند.
01:38
As if I didn't alreadyقبلا
feel like shitگریه todayامروز."
33
86792
2516
طوریکه انگاری آن روز
حس گندی نداشتم.»
01:41
(Laughterخنده)
34
89332
1153
(خنده)
01:42
All togetherبا یکدیگر, I installedنصب شده است 18
internet-connectedمتصل به اینترنت devicesدستگاه ها in my home.
35
90509
4536
در کل، من ۱۸ دستگاه
متصل به اینترنت را در خانه‌ام نصب کردم.
01:47
I alsoهمچنین installedنصب شده است a Suryaسوریه.
36
95069
2238
سوریا را هم نصب کردم.
01:49
Suryaسوریه MattuMattu: Hiسلام, I'm Suryaسوریه.
37
97331
1381
سوریا ماتو: سلام، سوریا هستم.
01:50
(Laughterخنده)
38
98736
1198
(خنده)
01:51
I monitoredنظارت everything the smartهوشمندانه home did.
39
99958
2944
هر چیزی را که خانه هوشمند
انجام می‌داد را نظارت کردم.
01:54
I builtساخته شده a specialویژه routerروتر that let me look
at all the networkشبکه activityفعالیت.
40
102926
3929
یک روتر مخصوص ساختم که که به من اجازه
دیدن همه فعالیت‌ شبکه‌ای را می‌داد.
01:58
You can think of my routerروتر
sortمرتب سازی of like a securityامنیت guardنگهبان,
41
106879
2930
می‌توانید روتر من را مشابه نوعی
نگهبان امنیتی بدانید،
02:01
compulsivelyاجباری loggingثبت وقایع
all the networkشبکه packetsبسته ها
42
109833
2133
همه این بسته‌های شبکه را که به
خانه هوشمند
02:03
as they enteredوارد شد and left the smartهوشمندانه home.
43
111990
2047
رفت و آمد دارند را ثبت می‌کنند.
02:06
KHخسرو: Suryaسوریه and I are bothهر دو journalistsروزنامه نگاران,
he's not my husbandشوهر,
44
114061
2754
ک ه: سوریا و من هر دو
خبرنگاریم، او شوهرم نیست،
02:08
we just work togetherبا یکدیگر at GizmodoGizmodo.
45
116839
1676
فقط در گیزمودو همکاریم.
02:10
SMSM: Thank you for clarifyingروشن کردن.
46
118539
1389
س م: ممنون برای توضیحاتت.
02:11
The devicesدستگاه ها Kashmirکشمیر boughtخریداری شد --
47
119952
1402
وسایلی که کشمیر خرید --
02:13
we were interestedعلاقه مند in understandingدرك كردن
48
121378
1692
ما علاقمند بودیم بفهمیم
02:15
what they were sayingگفت:
to theirخودشان manufacturersتولید کنندگان.
49
123094
2111
آنها به تولیدکنندگان خود چه می‌گویند.
02:17
But we were alsoهمچنین interestedعلاقه مند
in understandingدرك كردن
50
125229
2062
اما همچنین علاقمند بودیم بفهمیم
02:19
what the home'sخانه digitalدیجیتال
emissionsانتشارات look like
51
127315
2370
انتشارات دیجیتالی خانگی چه شکلی برای
02:21
to the internetاینترنت serviceسرویس providerارائه دهنده.
52
129709
2265
تامین‌کنندگان خدمات اینترنتی چه شکلی است.
02:23
We were seeingدیدن what the ISPISP could see,
but more importantlyمهم است,
53
131998
2842
آنچه آنها قادر به دیدنش بودند
را می‌دیدیم و از همه مهم‌تر
02:26
what they could sellفروش.
54
134864
1181
آنچه می‌شد بفروشند.
02:28
KHخسرو: We ranفرار کرد the experimentآزمایشی for two monthsماه ها.
55
136069
2143
ک ه: آزمایش ما دو ماهه به انتها رسید.
02:30
In that two monthsماه ها,
56
138236
1167
ظرف دو ماه،
02:31
there wasn'tنبود a singleتنها hourساعت
of digitalدیجیتال silenceسکوت in the houseخانه --
57
139427
2877
حتی یک ساعت هم سکوت دیجیتالی نداشتیم--
02:34
not even when we wentرفتی away for a weekهفته.
58
142328
1932
نه حتی وقتی یک هفته جایی می‌رفتیم.
02:36
SMSM: Yeah, it's so trueدرست است.
59
144284
1174
س م: آره، حقیقت دارد.
02:37
Basedمستقر on the dataداده ها, I knewمی دانست when
you guys wokeبیدار شدم up and wentرفتی to bedبستر.
60
145482
3016
بر اساس داده‌ها، من زمان بیدار شدن
و خوابیدن شما را می‌دانم.
02:40
I even knewمی دانست when Kashmirکشمیر
brushedمسواک زدن her teethدندان ها.
61
148522
2039
حتی می‌دانم کشمیر چه وقت مسواک می‌زند.
02:42
I'm not going to out your brushingمسواک زدن habitsعادات,
62
150585
2024
سراغ عادات مسواک زدنت نمی‌روم،
02:44
but let's just say it was very clearروشن است to me
when you were workingکار کردن from home.
63
152633
3629
اما بگذار بگویم برایم کاملا روشن است
که چه زمان از خانه کار می‌کردی.
02:48
KHخسرو: Uh, I think you just outedouted them
to, like, a lot of people here.
64
156286
3212
ک ه: اه، تازه الان هم آن را برای خیلی‌ها
در اینجا روشن کردی.
02:51
SMSM: Don't be embarrassedخجالت زده,
it's just metadataابرداده.
65
159522
2346
س م: خجالت نکش، فقط فراداده‌ است.‌
02:54
I knewمی دانست when you turnedتبدیل شد on your TVتلویزیون
and how long you watchedتماشا کردم it for.
66
162472
3143
می‌دانم چه وقت تلویزیون را روشن کردی و
چه مدت هم تماشا کردی.
02:57
Funسرگرم کننده factواقعیت about the Hillهیل householdلوازم منزل:
67
165639
1629
حقیقت جالب درباره منزل هیل:
02:59
they don't watch a lot of televisionتلویزیون,
68
167292
1794
خیلی تلویزیون نمی‌بینند،
03:01
but when they do,
it's usuallyمعمولا in bingeنوشیدنی modeحالت.
69
169110
2268
اما وقتی می‌بینند معمولا یک کله است.
03:03
Favoriteمورد علاقه showsنشان می دهد includeعبارتند از
"Difficultدشوار People" and "Partyمهمانی - جشن Down."
70
171402
2779
برنامه‌های محبوب آنها،‌ "آدمهای سخت"
و "مهمونی گرفتن"
03:06
KHخسرو: OK, you're right,
I lovedدوست داشتنی "Partyمهمانی - جشن Down."
71
174205
2039
ک ه: درسته. عاشق
"مهمونی گرفتن"‌ام.
03:08
It's a great showنشان بده,
and you should definitelyقطعا watch it.
72
176268
2547
برنامه فوق‌العاده‌ای است،
حتما باید ببیندیش.
03:10
But "Difficultدشوار People"
was all my husbandشوهر, Trevorترور.
73
178839
2444
اما «آدمهای سخت» را خب شوهرم ترور می‌بیند.
03:13
And Trevorترور was actuallyدر واقع a little upsetناراحت
that you knewمی دانست about his bingesbinges,
74
181307
3603
و ترور کمی از این که تو می‌دانستی
چقدر زیاد آن را می دید دلخور بود،
03:16
because even thoughگرچه he'dاو می خواهد been the one
to connectاتصال the TVتلویزیون to the routerروتر,
75
184934
3334
چون با این که او خودش تلویزیون را
به روتر وصل کرده بود،
03:20
he forgotیادم رفت that the TVتلویزیون was watchingتماشا کردن us.
76
188292
2447
یادش نمی‌ماند که تلویزیون او را می‌پاید.
03:23
It's actuallyدر واقع not the first time
that our TVتلویزیون has spiedجاسوسی کرد on us.
77
191109
3293
راستش این اولین بار نبود که تلیویزیون ما
از ما جاسوسی می‌کرد.
03:26
The companyشرکت that madeساخته شده it, VIZIOVIZIO,
78
194426
1699
شرکت سازنده آن، ویزو،
03:28
paidپرداخت شده a 2.2 million-dollarمیلیون دلار settlementتوافق
to the governmentدولت just last yearسال,
79
196149
4333
سال گذشته ۲/۲ میلیون دلار
به دولت غرامت پرداخت
03:32
because it had been collectingجمع آوری
second-by-secondثانیه به ثانیه informationاطلاعات
80
200506
3357
چون اطلاعات ثانیه به ثانیه
جمع‌آوری کرده بود
03:35
about what millionsمیلیون ها نفر of people
were watchingتماشا کردن on TVتلویزیون, includingشامل us,
81
203887
3468
از چیزهایی که میلیون‌ها نفر
از جمله ما تماشا می‌کردند،
03:39
and then it was sellingفروش that informationاطلاعات
to dataداده ها brokersکارگزاران and advertisersتبلیغ کنندگان.
82
207379
3705
و بعد آنها را به کارگزاران اطلاعاتی
و شرکت‌های تبلیغاتی می‌فروختند.
03:43
SMSM: Ahآه, classicکلاسیک surveillanceنظارت economyاقتصاد moveحرکت.
83
211108
3222
س م: آه، یک حرکت کلاسیک اقتصاد نظارتی.
03:46
The devicesدستگاه ها Kashmirکشمیر boughtخریداری شد
almostتقریبا all pingedتنگ شده theirخودشان serversسرورها dailyروزانه.
84
214775
3866
دستگاه‌های خریداری شده از سوی
کشمیر روزانه به سرورها پینگ می‌کنند.
03:50
But do you know whichکه deviceدستگاه
was especiallyبه خصوص chattyچت روم?
85
218665
2396
اما آیا می‌دانید کدام دستگاه
از همه حراف‌تر بود؟
03:53
The Amazonآمازون Echoاکو.
86
221085
1294
آمازون اکو.
03:54
It contactedتماس گرفت its serversسرورها
everyهرکدام threeسه minutesدقایق,
87
222403
2428
هر سه دقیقه یکبار
به سرورهای خود وصل می‌شد،
03:56
regardlessبدون در نظر گرفتن of whetherچه
you were usingاستفاده كردن it or not.
88
224855
2198
فارغ از این که از آن
استفاده می‌کردید یا نه.
03:59
KHخسرو: In generalعمومی, it was disconcertingاختلافنظر
89
227077
2183
ک ه: در کل، نگران کننده بود
04:01
that all these devicesدستگاه ها were havingداشتن
ongoingدر دست اقدام conversationsگفتگو
90
229284
2984
که همه این دستگاه‌ها مکالمات مداومی داشتند
04:04
that were invisibleنامرئی to me.
91
232292
1626
که برای من قابل رویت نبود.
04:05
I mean, I would have had
no ideaاندیشه, withoutبدون your routerروتر.
92
233942
2587
منظورم این است بدون روتر تو
هیچ ایده‌ای نداشتم.
04:08
If you buyخرید a smartهوشمندانه deviceدستگاه,
you should probablyشاید know --
93
236553
3468
اگر وسیله هوشمند بخری،‌ احتمالا می‌دانی--
04:12
you're going to ownخودت the deviceدستگاه,
94
240045
2111
قرار است مالک وسیله باشی
04:14
but in generalعمومی, the companyشرکت
is going to ownخودت your dataداده ها.
95
242180
3420
اما در کل شرکت صاحب داده‌های شما است.
04:17
And you know, I mean,
maybe that's to be expectedانتظار می رود --
96
245624
2572
و خب شاید انتظار این کار برود--
04:20
you buyخرید an internet-connectedمتصل به اینترنت deviceدستگاه,
it's going to use the internetاینترنت.
97
248220
3507
شما یک وسیله متصل به اینترنت می‌خرید
که اینترنت مصرف می‌کند.
04:24
But it's strangeعجیب to have these devicesدستگاه ها
98
252189
1842
اما داشتن این وسیله‌ها که به
04:26
movingدر حال حرکت into the intimateصمیمی spaceفضا
that is the home
99
254055
2658
فضای خصوصی که خانه است حرکت می‌کنند
04:28
and allowingاجازه می دهد companiesشرکت ها to trackمسیر
our really basicپایه ای behaviorرفتار there.
100
256737
3443
و به شرکت‌ها اجازه می‌دهند ابتدایی‌ترین
رفتار ما را در آنجا ردیابی کنند عجیب است.
04:32
SMSM: So trueدرست است.
101
260204
1159
س م: حقیقت دارد.
04:33
Even the mostاکثر banal-seemingپیش پا افتاده ظاهری dataداده ها
can be minedاستخراج شده by the surveillanceنظارت economyاقتصاد.
102
261387
3539
حتی داده‌های به ظاهر بی‌خطر
هم توسط اقتصاد نظاره‌گر استفاده می‌شود.
04:36
For exampleمثال, who caresمراقب باش
how oftenغالبا you brushقلم مو your teethدندان ها?
103
264950
2575
برای مثال این که چند وقت به چند وقت
مسواک می‌زنید؟
04:39
Well, as it turnsچرخش out, there's a dentalدندانی
insuranceبیمه companyشرکت calledبه نام Beamپرتو.
104
267549
3526
خب، همانطور که معلوم شد، یک کمپانی
بیمه دندانپزشکی به اسم بیم هست.
04:43
They'veآنها دارند been monitoringنظارت بر theirخودشان customers'مشتریان
smartهوشمندانه toothbrushesمسواک sinceاز آنجا که 2015 --
105
271099
3835
آنها از ۲۰۱۵ مسواک‌های برقی
مشتری‌های خود را تحت بررسی داشتند--
04:46
for discountsتخفیف on theirخودشان
premiumsحق بیمه, of courseدوره.
106
274958
2579
در ازای تخفیف حق بیمه البته.
04:49
KHخسرو: We know what
some of you are thinkingفكر كردن:
107
277561
2259
ک ه: می‌دانیم بعضی از شما چه فکری می‌کنید:
04:51
this is the contractقرارداد of the modernمدرن worldجهان.
108
279844
2654
این قرارداد دنیای مدرن است.
04:54
You give up a little privacyحریم خصوصی,
109
282522
1427
با کوتاه آمدن از حریم خصوصی،
04:55
and you get some convenienceراحتی
or some priceقیمت breaksمی شکند in returnبرگشت.
110
283973
3218
و در عوض مقدار راحتی
یا تخفیف در قیمت‌ می‌گیریم.
04:59
But that wasn'tنبود my experienceتجربه
in my smartهوشمندانه home.
111
287514
2341
اما این تجربه من در منزل هوشمندم نبود.
05:01
It wasn'tنبود convenientراحت, it was infuriatingپریشانی.
112
289879
3674
راحتی در کار نبود، نگران کننده بود.
05:05
I'll admitاقرار کردن, I love my smartهوشمندانه vacuumخلاء,
113
293577
2492
می‌پذیرم که عاشق جاروبرقی هوشمندم هستم،
05:08
but manyبسیاری other things in the houseخانه
droveرانندگی کرد me insaneدیوانه:
114
296093
2405
اما خیلی چیزهای دیگر
در خانه دیوانه‌ام کردند:
05:10
we ranفرار کرد out of electricalالکتریکی outletsرسانه ها,
115
298522
2396
همه پریزهای برق اشغال بود،
05:12
and I had to downloadدانلود
over a dozenدوازده appsبرنامه ها to my phoneتلفن
116
300942
3379
و من باید بالای دو جین برنامه
در گوشی خودم‌ می‌ریختم
05:16
to controlکنترل everything.
117
304345
1327
تا همه چیز را کنترل کنم.
05:17
And then everyهرکدام deviceدستگاه had its ownخودت log-inورود به سیستم در,
118
305696
2089
و بعد هر دستگاهی لاگ‌این
کردن خودش را داشت،
05:19
my toothbrushمسواک had a passwordکلمه عبور ...
119
307809
2363
مسواکم رمز می‌خواست...
05:22
(Laughterخنده)
120
310196
1737
(خنده)
05:23
And smartهوشمندانه coffeeقهوه, especiallyبه خصوص,
was just a worldجهان of hellجهنم.
121
311957
4128
قهوه هوشمندم، مخصوصا شلم شوربایی بود.
05:28
SMSM: Wait, really? Cloud-poweredابر شده
coffeeقهوه wasn'tنبود really workingکار کردن for you?
122
316109
3928
س م: صبر کن، جدی؟ قهوه ابری
واقعا برایت کار نکرد؟
05:32
KHخسرو: I mean, maybe I'm naiveآدم ساده,
but I thought it was going to be great.
123
320061
3238
ک ه: خب، شاید از سادگی من بود
که انتظار داشتم خوب باشد.
05:35
I thought we'dما می خواهیم just wakeاز خواب بیدار up in the morningصبح
and we'dما می خواهیم say, "Alexaالکسا, make us coffeeقهوه."
124
323323
4019
فکر کردم صبح از خواب بیدار می‌شدیم و
می‌گفتیم آلکسا برای ما قهوه درست کن.
05:39
But that's not how it wentرفتی down.
125
327366
1873
اما اینطور پیش نرفت.
05:41
We had to use this really particularخاص,
brand-specificنام تجاری خاص phraseعبارت to make it work.
126
329263
4651
باید از این عبارت مخصوص برند
برای به کار انداختن آن استفاده می‌کردیم.
05:45
It was, "Alexaالکسا, askپرسیدن the BehmorBehmor
to runاجرا کن quickسریع startشروع کن."
127
333938
4608
این جمله، آلکسا، از بهمور
بخواه سریع دست‌به کار شه.
05:51
And this was just, like,
really hardسخت to rememberیاد آوردن
128
339222
3342
و این چیزی بود که واقعا بخاطر سپردنش
05:54
first thing in the morningصبح,
129
342588
1334
سر صبحی اصلا آسان نبود،
05:55
before you have had your caffeineکافئین.
130
343946
1703
قبل از دریافت کافئین.
05:57
(Laughterخنده)
131
345673
1103
(خنده)
05:58
And apparentlyظاهرا, it was hardسخت to say,
132
346800
1690
و ظاهرا، سخت بود گفتنش،
06:00
because the Echoاکو Dotنقطه
that was right nextبعد to our bedبستر
133
348514
3063
چون اکو دات درست بغل تخت ما بود
06:03
just couldn'tنمی توانستم understandفهمیدن us.
134
351601
1611
و حرف‌مان را نمی‌فهمید.
06:05
So we would basicallyاساسا startشروع کن everyهرکدام day
by screamingجیغ زدن this phraseعبارت at the Echoاکو Dotنقطه.
135
353704
4621
بنابراین هر روز صبح را با دادن زدن
این حرف به اکو دات شروع می‌کردیم.
06:10
(Laughterخنده)
136
358349
1173
(خنده)
06:11
And Trevorترور hatedمتنفر بود this.
137
359546
1466
و ترور از این کار متنفر بود.
06:13
He'dاو می خواهد be like, "Please, Kashmirکشمیر,
138
361339
1748
می‌گفت، «لطفا کشمیر،
06:15
just let me go to the kitchenآشپزخانه and pushفشار دادن
the buttonدکمه to make the coffeeقهوه runاجرا کن."
139
363111
3669
بگذار بروم آشپزخانه و
دکمه قهوه‌ساز را بزنم.»
06:19
And I'd be like, "No, you can't!
140
367379
2087
و من می‌گفتم، «نه، نمیشه!
06:21
We have to do it the smartهوشمندانه way!"
141
369490
2409
باید هوشمند زندگی کنیم!»
06:23
(Laughterخنده)
142
371923
1916
(خنده)
06:25
I'm happyخوشحال to reportگزارش that our marriageازدواج
survivedجان سالم به در برد the experimentآزمایشی,
143
373863
3043
خوشحالم بگویم که ازدواج
بعد از این آزمایش دوام آورده،
06:28
but just barelyبه سختی.
144
376930
1560
البته به سختی.
06:30
SMSM: If you decideتصميم گرفتن to make your home smartهوشمندانه,
145
378514
2047
س م: اگرتصمیم به هوشمند کردن
منزل‌تان دارید
06:32
hopefullyخوشبختانه, you’llll find it
lessکمتر infuriatingپریشانی than Kashmirکشمیر did.
146
380585
2849
امیدوارم کمتر از کشمیر
آن را پردردسر بیابید.
06:35
But regardlessبدون در نظر گرفتن, the smartهوشمندانه things you buyخرید
147
383458
2087
اما فارغ از آن، چیزهای هوشمندی که می‌خرید
06:37
can and probablyشاید are used
to targetهدف and profileمشخصات you.
148
385569
3095
این قابلیت را دارند که برای هدف
قرار دادن شما استفاده شوند.
06:41
Just the numberعدد of devicesدستگاه ها you have
can be used to predictپیش بینی
149
389141
3040
فقط تعداد دستگاه‌هایی که می‌خرید
می‌توانند پیش‌بینی کنند
06:44
how richثروتمند or poorفقیر you are.
150
392205
1422
چقدر پولدار یا فقیر هستید.
06:45
Facebook'sفیس بوک madeساخته شده this techتکنولوژی,
and they'veآنها دارند alsoهمچنین patentedثبت اختراع شده it.
151
393651
2767
فیس‌بوک این فناوری را ساخت،
و حق اختراع آن را هم ثبت کردند.
06:48
KHخسرو: All the anxietyاضطراب you currentlyدر حال حاضر feel
everyهرکدام time you go onlineآنلاین,
152
396442
3686
ک ه: همه اضطرابی که با
هر بار آنلاین شدن حس می‌کنید،
06:52
about beingبودن trackedردیابی شده,
153
400152
1306
این که ردیابی می‌شوید،
06:53
is about to moveحرکت into your livingزندگي كردن roomاتاق.
154
401482
2301
به اتاق نشمین شما کشیده می‌شود.
06:55
Or into your bedroomاتاق خواب.
155
403807
1579
یا توی تخت‌خواب شما.
06:57
There's this sexارتباط جنسی toyاسباب بازی calledبه نام the We-Vibeما پرنیان.
156
405950
2222
این اسباب‌بازی سکسی We-Vibe است.
07:00
You mightممکن wonderتعجب why
a sexارتباط جنسی toyاسباب بازی connectsمتصل می شود to the internetاینترنت,
157
408577
2667
شاید بپرسید لزوم وصل شدن یک
اسباب‌بازی سکسی به اینترنت چیست،
07:03
but it's for two people
who are in a long-distanceمسافت طولانی relationshipارتباط,
158
411268
3436
البته برای دو نفر است که در رابطه
راه دور با هم هستند،
07:06
so they can shareاشتراک گذاری theirخودشان love from afarدور.
159
414728
2920
تا بتوانند عشق خود را از دور قسمت کنند.
07:10
Some hackersهکرها tookگرفت a closeبستن look at this toyاسباب بازی
160
418259
2116
بعضی هکرها نگاه دقیقی به
این اسباب‌بازی داشته
07:12
and saw it was sendingدر حال ارسال
a lot of informationاطلاعات
161
420399
2075
و متوجه شده‌اند کلی اطلاعات
07:14
back to the companyشرکت that madeساخته شده it --
162
422498
2462
به شرکت سازنده آن ارسال می‌کند --
07:16
when it was used,
how long it was used for,
163
424984
2966
چه وقت استفاده می‌شود و برای چه مدت،
07:19
what the vibrationارتعاش settingsتنظیمات were,
how hotداغ the toyاسباب بازی got.
164
427974
3706
تنظیمات لرزش آن چه بوده و وسیله
چقدر داغ شده است.
07:23
It was all going into a databaseبانک اطلاعاتی.
165
431704
2189
همه آنها در پایگاه داده‌ها جمع می‌شوند.
07:25
So I reachedرسیده است out to the companyشرکت,
166
433917
2749
پس با شرکت تماس گرفتم،
07:28
and I said, "Why are you collectingجمع آوری
this really sensitiveحساس dataداده ها?"
167
436690
3302
و گفتم، «چرا این اطلاعات
واقعا حساس را جمع‌آوری می‌کنید؟»
07:32
And they said, "Well, it's great
for marketبازار researchپژوهش."
168
440369
3386
و جواب دادند، «خب، برای
بازاریابی ما عالی است.»
07:36
But they were data-miningداده کاوی
theirخودشان customers'مشتریان orgasmsارگاسم.
169
444592
2929
اما آنها از به اوج رسیدن جنسی
مشتری‌ها بهره‌برداری می‌کنند.
07:39
And they weren'tنبودند tellingگفتن them about it.
170
447545
1921
و آن هم بدون اطلاع آنها.
07:41
I mean, even if
you're cavalierسرگردان about privacyحریم خصوصی,
171
449490
2222
یعنی حتی اگر درباره
حریم خصوصی آسان‌گیر باشید
07:43
I hopeامید that you would admitاقرار کردن
that's a stepگام too farدور.
172
451736
2595
امیدوارم بپذیرید
که این دیگر زیاده‌روی است.
07:46
SMSM: This is why I want
to keep my sexارتباط جنسی toysاسباب بازی ها dumbگنگ.
173
454680
2508
س م: برای همین می‌خواهم اسباب‌بازی‌
جنسی‌ام خنگ باشد.
07:49
KHخسرو: That's great.
174
457212
1166
ک ه: فوق‌العاده است.
07:50
We're all very gladخوشحالم to know that.
175
458402
1666
همه ما از دانستنش خیلی خوشحالیم.
07:52
(Laughterخنده)
176
460092
1448
(خنده)
07:53
SMSM: A dataداده ها pointنقطه I'm willingمایلم to shareاشتراک گذاری.
177
461564
2034
س م: مرحله داده‌ها.
که به اشتراک می‌گذارم.
07:55
(Laughterخنده)
178
463622
1723
(خنده)
07:57
The devicesدستگاه ها Kashmirکشمیر boughtخریداری شد
rangeدامنه from usefulمفید است to annoyingمزاحم.
179
465369
2970
دامنه دستگاه‌های کشمیر از مفید به
آزاردهنده است.
08:00
But the thing they all had in commonمشترک
180
468363
1793
اما چیزی که در همه آنها مشترک است
08:02
was sharingبه اشتراک گذاری dataداده ها with
the companiesشرکت ها that madeساخته شده them.
181
470180
2699
به اشتراک گذاشتن داده‌ها با شرکتهای
سازنده آنها است.
08:04
With emailپست الکترونیک serviceسرویس providersارائه دهندگان
and socialاجتماعی mediaرسانه ها,
182
472903
2308
با تامین کنندگان خدمات ایمیل
و رسانه‌های اجتماعی،
08:07
we'veما هستیم long been told that if it's freeرایگان,
you're the productتولید - محصول.
183
475235
2958
مدت طولانی به ما گفته شده
که اگر مجانی باشد شما محصول هستید.
08:10
But with the internetاینترنت of things, it seemsبه نظر می رسد,
184
478217
2007
اما با اینترنت چیزها، به نظر می‌رسد،
08:12
even if you payپرداخت, you're still the productتولید - محصول.
185
480248
2008
حتی اگر پرداخت کنی، باز هم محصول هستید.
08:14
So you really have to askپرسیدن:
186
482280
1245
پس واقعا باید بپرسید:
08:15
Who'sچه کسی the trueدرست است beneficiaryذینفع
of your smartهوشمندانه home,
187
483549
2185
از خانه هوشمند شما
چه کسی حقیقتا نفع می‌برد،
08:17
you or the companyشرکت miningمعدنکاری you?
188
485758
1629
شما یا آن شرکت؟
08:19
KHخسرو: Look, we're a techتکنولوژی savvyزرنگ crowdجمعیت here.
189
487411
1952
ک ه: ما در اینجا جمعیت
خوره فناوری هستیم.
08:21
I think mostاکثر of us know
that these things connectاتصال to the internetاینترنت
190
489387
3112
فکر کنم اغلب ما می‌دانیم
که این چیزها به اینترنت وصل می‌شوند
08:24
and sendارسال dataداده ها out.
191
492523
1163
و داده‌ را ارسال می‌کند.
08:25
And fine, maybe you're OK with livingزندگي كردن
in that commercialتجاری panopticonpanopticon,
192
493710
4018
و خب شاید هم شما مشکلی با زندگی کردن
در آن ساختار سراسر بین تجاری نداشته باشید،
08:29
but othersدیگران aren'tنه.
193
497752
1397
اما دیگران اینطور نیستند.
08:31
We need the companiesشرکت ها to rethinkدوباره فکر کن
the designطرح of these devicesدستگاه ها
194
499173
2841
لازم است شرکتها در طراحی
این دستگاه‌ها تجدیدنظر کنند
08:34
with our privacyحریم خصوصی in mindذهن,
195
502038
1515
با منظور کردن حریم خصوصی ما،
08:35
because we're not all willingمایلم
to participateشرکت کردن in "marketبازار researchپژوهش,"
196
503577
3111
چون همه ما مایل به مشارکت در
«تحقیقات بازار نیستیم،»
08:38
just because a deviceدستگاه we boughtخریداری شد
has a Wi-Fiوای فای connectionارتباط.
197
506712
2893
چون صرفا دستگاهی‌ که
خریدم به وای‌فای وصل است.
08:42
And I have to tell you,
198
510014
1198
و باید به تو بگویم،
08:43
even when you're awareمطلع,
generallyبطور کلی, this is happeningاتفاق می افتد,
199
511236
2582
حتی وقتی باخبر هستید،
عموما این اتفاق میفتد،
08:45
it's really easyآسان to forgetفراموش کردن that normalطبیعی
householdلوازم منزل itemsموارد are spyingجاسوسی on you.
200
513842
4394
فراموش کردن این که لوازم خانگی معمولی
از شما جاسوسی می‌کنند واقعا راحت است.
08:50
It's easyآسان to forgetفراموش کردن
these things are watchingتماشا کردن you,
201
518664
2350
راحت است فراموش کنیم این‌ها
شما را زیر نظر دارند،
08:53
because they don't look like camerasدوربین ها.
202
521038
2047
چون شبیه دوربین‌ها نیستند.
08:55
They could look like ...
203
523109
1429
آنها می‌توانند شبیه...
08:56
well, they could look like a dildodildo.
204
524562
2544
خب می توانند شکل یک آلت مصنوعی باشند.
08:59
Thank you.
205
527780
1152
متشکرم.
09:00
(Applauseتشویق و تمجید)
206
528956
3686
(تشویق)
Translated by Leila Ataei
Reviewed by Sadegh Zabihi

▲Back to top

ABOUT THE SPEAKERS
Kashmir Hill - Technology journalist
Kashmir Hill writes about privacy and technology.

Why you should listen

Kashmir Hill is a senior reporter for the Gizmodo Media Group. As she writes: "I started out in journalism blogging at what was essentially an online tabloid for lawyers. Then I got interested in privacy, and that forced me to write about Facebook and eventually about other technologies; along the way people started describing me as a technology journalist instead of a legal blogger.

"I've always wanted my writing to be approachable for a lay audience, so I usually use humor, a first-person approach or, ideally, both. So I've hacked a smart home, lived in a monitored one, created a fake business and bought it a fake reputation, worked as a crowdsourced girlfriend, lived on Bitcoin and spent a whole week WRITING IN CAPS LOCK. The best way to prepare people for future possible tech dystopias is for me to live in them and report back."

More profile about the speaker
Kashmir Hill | Speaker | TED.com
Surya Mattu - Artist, investigative journalist, engineer
Think of Surya Mattu as a data detective. As he writes: "I am interested in figuring out the ways in which algorithmic systems harm people."

Why you should listen

Surya Mattu is a data reporter on Gizmodo's Special Projects Desk and an R&D journalism resident at Eyebeam NYC. As he writes: "My practice combines art, investigative journalism, engineering and creative technology. The aim is to reverse-engineer the specific ways in which the tools or technology we create are imbued with the ethics of the culture in which they're created. Currently, I am a data reporter. Previously, I was a contributing researcher at ProPublica, where I worked on "Machine Bias," a series that aims to highlight how algorithmic systems can be biased and discriminate against people."

More profile about the speaker
Surya Mattu | Speaker | TED.com